Désobéissance civile en vue à l’école ?

ComputerHotline - CC by-saJusqu’où va-t-on descendre ? C’est la question que l’on peut légitimement se poser avec cette loi Création et Internet qui, chaque jour passant, l’éloigne de la solution et la rapproche du problème.

Dans la famille déjà nombreuse des effets collatéraux néfastes du projet de loi, je demande désormais… l’éducation.

Lors d’un récent communiqué, L’April s’était fort justement inquiétée d’un article introduit au Sénat prévoyant que élèves « reçoivent une information, notamment dans le cadre du brevet informatique et internet des collégiens (B2i), sur les risques liés aux usages des services de communication au public en ligne, sur les dangers du téléchargement et de la mise à disposition illicites d’œuvres culturelles pour la création artistique, ainsi que sur les sanctions encourues en cas de manquement à l’obligation définie à l’article L. 336-3 du code de la propriété intellectuelle et de délit de contrefaçon. Les enseignants sont également sensibilisés. »

Commentaires de l’April :

Les promoteurs du projet de loi Hadopi affichent une ambition d’instaurer de nouvelles formes de soutien aux artistes et de nouveaux modèles économiques pour revivifier la filière culturelle. Pourtant, ils occultent purement et simplement la libre diffusion des contenus et œuvres sous licences ouvertes et libres, alors qu’ils constituent une offre légale abondante pour le public3 donnant lieu à une rémunération de leurs auteurs.

Ces licences sont un outil adéquat du partage de la connaissance et des savoirs, et se montrent particulièrement adaptées au monde de l’éducation. Inspirées du mouvement pour le logiciel libre, les licences d’œuvres en partage ouvrent de nouveaux modèles économiques en phase avec les nouvelles technologies.

Et de citer alors deux articles du Framablog : l’étude riche d’enseignements du cas musical Trent Reznor, et la situation un peu ubuesque dans laquelle se retrouve les enseignants lorsqu’ils utilisent des « œuvres protégées » (non copyleft) en situation d’apprentissage.

Les craintes de l’April étaient malheureusement bien fondées puisqu’aujourd’hui l’Assemblée a ni plus ni moins rejeté un amendement de pur bon sens de Martine Billard souhaitant, dans un souci de « pluralisme et neutralité » que l’article en question évoque également « les avantages pour la création artistique du téléchargement et de la mise à disposition licites des contenus et œuvres sous licences ouvertes ou libres » (pour plus de détails lire l’article de Guillaume Champeau reproduit ci-dessous ainsi que la transcription exacte de l’échange sur le site de l’April).

Comme quoi certains masques tombent définitivement.

C’est d’autant plus inepte que ces licences ouvertes ou libres seront, ma main à couper, l’une des prochaines révolutions scolaires, non plus restreintes à la création artistique mais à tout ce qui touche aux ressources éducatives.

Par anticipation, je m’engage d’ores et déjà à faire acte de « désobéissance civile » lorsqu’arrivera le temps où mes élèves seront censés recevoir l’information en question dans le cadre du B2i[1]. Cette information sera bien diffusée mais elle sera immanquablement accompagnée d’une sensibilisation aux licences libres et ouvertes et d’un débat sur les tenants et aboutissants des uns et des autres.

Gageons alors que mes élèves sauront en tirer leurs propres conclusions…

PS : Qu’il me soit d’ailleurs permis de remercier ici le travail respectivement politique et médiatique de Martine Billard et Guillaume Champeau, qui n’ont pas ménagé leurs efforts pour nous alerter et tenter de faire évoluer la situation.

Pas de licence libre dans la propagande pro-majors à l’école

URL d’origine du document

Guillaume Champeau – 2 avril 2009 – Numerama
Article diffusé sous licence Creative Common by-nc-nd 2.0

Pouvait-on faire plus caricatural pour démontrer que la lutte contre le piratage n’a pas pour but d’aider les artistes, mais d’imposer un modèle économique au bénéfice des grandes maisons de disques ?

Le projet de loi Création et Internet prévoit de sanctionner par un diplôme au collège la connaissance des « risques liés aux usages des services de communication au public en ligne, sur les dangers du téléchargement et de la mise à disposition illicites d’œuvres culturelles pour la création artistique, ainsi que sur les sanctions encourues en cas de téléchargement illégal ». Pour préparer ce diplôme, la commission des affaires culturelles a proposé d’ajouter un amendement qui prévoit que les élèves reçoivent une « information sur les dangers du téléchargement et de la mise à disposition illicites d’œuvres culturelles pour la création artistique ».

Dans le but d’équilibrer la proposition, la députée Verts Martine Billard a alors proposé jeudi de préciser que cette information doit être « neutre et pluraliste », et couvrir notamment « les avantages pour la création artistique du téléchargement et de la mise à disposition licites des contenus et œuvres sous licences ouvertes ou libres », c’est-à-dire en particulier des œuvres sous Creative Commons.

Mais malgré le soutien de Muriel Marland-Militello, l’amendement de Martine Billard a été rejeté par la majorité. « Ça n’est vraiment pas du niveau de la loi, ça n’est vraiment pas nécessaire, au mieux ça sera une directive du ministère », a expliqué le rapporteur Frank Riester, comme si la propagande sur le téléchargement « légal » ne pouvait pas lui aussi faire l’objet d’une simple directive ou avait davantage sa place dans la loi. « Même position », dira simplement Christine Albanel. Sans protestation des bancs socialistes.

Notes

[1] Crédit photo : ComputerHotline (Creative Commons By-Sa) – Mais qui donc inscrit le nom de « La Quadrature du Net » au tableau ?




Évidemment Madame Albanel !

La loi Création et Internet bat son plein à l’Assemblée. Elle pose tant et tant de problèmes qu’on comprendra que celle qui porte le projet ait ponctuellement quelques moments de fatigue (que l’on peut mesurer au nombre de « évidemment » prononcé).

À la question du député Christian Paul : « Les dispositifs de sécurisation des ordinateurs sont à l’opposée des dispositifs que peut tolérer et accepter le logiciel libre. Ou bien vous considérez que le logiciel libre ça n’a pas d’importance, que vous décrétez l’indifférence nationale contre le logiciel libre, ou bien vous nous dites comment c’est compatible ».

Voici ce qu’elle a répondu :

—> La vidéo au format webm

Transcription :

« Sur les logiciels… sur l’affaire des logiciels libres, évidemment les logiciels libres, quand on achète, évidemment des logiciels, par exemple le pack Microsoft (ça c’est pas du logiciel libre) : Word, Excel, Powerpoint, il y a évidemment des pare-feux, je viens de le dire, il y a des logiciels de sécurisation. Mais sur les logiciels libres vous pouvez également avoir des pare-feux, qui d’ailleurs, mais évidemment. Par exemple, nous au ministère, nous avons un logiciel libre, qui s’appelle Open Office et il y a effectivement un logiciel de sécurisation qui empêche en effet le ministère à la Culture d’avoir accès, bien sûr, et les éditeurs de logiciels libres fournissent des pare-feux, et fournissent même des pare-feux gratuits. Donc cet argument est sans fondement. Voilà ce que je voulais dire. »

Ravi d’entendre le logiciel libre et OpenOffice.org cités à l’Assemblée, mais y aurait-il une bonne âme dans la salle pour nous décrypter ce qu’elle a bien voulu dire ?




Et pourquoi pas aussi l’Open Money ?

Jessica Shannon - CC by-saCela demande analyse et précision au cas par cas mais on ne peut que constater que « l’état d’esprit du logiciel libre » est en train de s’infiltrer un peu partout actuellement. Et si le très sérieux journal britannique The Guardian posait récemment la question de la construction d’un monde Open Source il doit bien y avoir une raison.

Dans la sphère anglophone cela se traduit en effet par la multiplication des expressions précédées de l’adjectif « Open ». Les idées véhiculées ne sont pas forcément neuves ni originales mais elle retrouvent force et vigueur à l’heure du numérique, en s’inspirant toutes plus ou moins directement de la matrice Open Source.

Ce qui donne, et j’en oublie certainement, Open Hardware, Open Format, Open Data, Open ID, ou encore Open Politics, Open Gouvernance, et puis également Open Content, Open Knowledge, Open Research, Open Education (dont le très prometteur dérivé Open Educational Resources), sans oublier, cela va de soi, le champ culturel avec par exemple ses Open Music et Open Movie.

Et si la lecture de cette longue liste vous a donné soif, nous vous suggérons Open Cola ou, avec modération, Open Beer 😉

Tout comme Wikipédia dont sont issus l’ensemble des liens précédents, ces jeunes expressions ne sont pas figées. Elles sont en construction et susceptibles de fortement évoluer avec le temps. Mais mises en commun cela donne du sens et témoigne indéniablement que quelque chose d’intéressant est en train de se produire.

L’Histoire nous dira ce qui émergera exactement de cette effervescence. Certains voudraient déjà remplacer un modèle par un autre. Nous n’en sommes pas encore là mais il y a peut-être déjà un acquis : celui d’introduire une perturbation dans de nombreux systèmes dont nous ne nous étions pas toujours rendus compte qu’ils s’étaient avec le temps souvent refermés sur eux-même en laissant à l’économie et à l’argent une trop large place.

L’argent[1], justement, tiens, parlons-en ! Dans ce contexte-là pourquoi ne pas en profiter pour le mettre lui aussi sur la sellette ? Ne peut-on pas quelque part le considérer en l’état comme propriétaire ? Quelques hurluberlus ont donc osé s’attaquer de front au tabou pour créer une nouvelle expression à ajouter au corpus : « l’Open Money ».

C’est la traduction d’un vieux document que nous vous proposons ci-dessous pour alimenter le débat. Vous jugerez peut-être ce manifeste naïf, utopique et irréalisable, mais GNU/Linux, Wikipédia ou Creative Commons n’étaient-ils pas eux aussi des projets impossibles ?

Ce n’est qu’un simple exemple mais ne vous arrive-t-il pas de rêver à des alternatives à PayPal, carte de crédit et grosse ponction au passage, lorsque vous souhaitez faire un simple don à un logiciel libre sur Internet ? Pourquoi est-ce si compliqué, alors même que l’argent se dématérialise ? Et dois-je vous faire l’affront d’évoquer la crise globale que nous subissons aujourd’hui avec fatalisme, venue d’on ne sait où si ce n’est d’un monde financier devenu légèrement dément ?

Une folie en vaut bien une autre. Alors pourquoi ne pas tenter ensemble de lentement mais sûrement organiser différemment les échanges, la richesse, l’argent, les banques… en privilégiant cette fois-ci l’humain et le bien commun ?

Vous trouverez en fin d’article, une première liste de liens connexes autour du sujet (que nous vous invitons à compléter dans les commentaires). Nous vous proposons également en pièce-jointe la page du dossier « Sortie de crise : l’enjeu vital de la création de la monnaie » du journal Vendredi, qui a eu la bonne idée de reprendre ce billet dans son édition du 10 avril 2009.

Le manifeste de la monnaie libre

Open money manifesto

Michael Linton – 2001 – OpenMoney.info
(Traduction Framalang : Claude, Don Rico et Poupoul2)

Les problèmes dûs à l’argent proviennent entièrement du traitement de la monnaie conventionnelle : elle est créée par des banques centrales en quantité limitée. Il y a trois choses que nous savons sur cet argent. Nous savons ce qu’il fait : il va et il vient. Nous savons ce qu’il est : rare et difficile à obtenir. Et nous savons d’où il vient : il vient d’eux, pas de nous.

Ces trois caractéristiques, communes à toutes les monnaies nationales, font que l’on doit constamment lutter pour partager un bout du truc qui fait tourner le monde. Cet argent peut aller n’importe où, ce qu’il fait inévitablement, laissant la communauté démunie de son moyen d’échange.

C’est tout simplement dans la nature de la monnaie conventionnelle de créer, par ses allées et venues, les conditions de compétition et de rareté à l’intérieur des communautés ou entre elles.

Ainsi devons-nous courir après l’argent pour survivre, obligés de combattre pour lui, souvent durement. Tentés d’avoir le plus pour le moins, nous cherchons les meilleures affaires en tant qu’individus, entreprises, associations caritatives, gouvernements ou nations.

Telle société, telle génération : il semble que nous soyons déterminés à tout avoir, quelques soient les conséquences de nos excès et négligences sur les autres, maintenant et dans le futur.

Nous dépendons de cet argent, en n’ayant guère de choix et malgré ses défauts évidents. Certains ont peu ou rien, ne pouvant trouver le nécessaire pour vivre dans ce monde. D’autres en ont une quantité énorme sans, pour autant, que cela soit bénéfique pour eux et pour le monde.

Et tout cela, à propos de quoi ? Un argent rare qui court dans toutes les directions mais venant d’eux. Leur argent arrive avec de nombreux problèmes.

  • Le problème de la bonne quantité de monnaie en circulation ? Personne ne parait savoir comment garder un équilibre entre trop et pas assez.
  • Le problème de la distribution : où est-il ? qui le possède et qui n’en a pas ? Est il là où nécessaire ? Certainement pas.
  • Le problème du coût: coût de la création et de la sécurité, des opérations et de la comptabilité, le coût des intérêts, le coût des tribunaux.

Mais avant tout, et impossible à chiffrer, notre conduite monétaire dirigée a des effets absolument dévastateurs sur notre société et l’environnement mondial.

C’est la mauvaise nouvelle que vous deviez probablement déjà connaître. Maintenant, voici la bonne nouvelle: tous ces problèmes peuvent être résolus avec une monnaie mieux conçue.

L’argent n’est qu’une information, une façon de mesurer ce que nous échangeons, il n’a pas de valeur en lui même. Et nous pouvons en fabriquer nous-même en complément de la monnaie conventionnelle. Ce n’est qu’une question de conception.

Il n’y a aucune raison valable, pour une communauté, de rester sans argent . Être à cours d’argent quand il y a du travail à faire, revient à ne pas avoir assez de centimètres pour construire une maison. Nous avons le matériel, les outils, l’espace, le temps, la technique et l’envie de construire… mais nous n’avons pas de centimètres aujourd’hui ? Pourquoi être à cours de centimètres ? pourquoi être à court de monnaie ?

Les monnaies libres sont virtuelles et personnelles. Chaque communauté, réseau ou entreprise peut créer son propre argent libre. libre comme dans liberté d’expression, radical libre, librement disponible mais pas gratuit comme dans déjeuner gratuit ou tour gratuit. Vous ne l’avez pas pour rien. (NdT : Le classique problème de traduction en anglais de l’adjectif free)

La monnaie libre doit être méritée pour être respectée. Quand vous l’émettez, vous êtes obligé de l’honorer. Votre monnaie est votre parole : une question de réputation dans votre communauté.

La monnaie libre est une monnaie plate (NdT : ou neutre pour flat). Elle ne confère aucun pouvoir à l’un sur l’autre, on ne fait qu’un avec l’autre. Pas de problème d’exploitation, quand vous possédez votre propre monnaie, vous ne pouvez pas être acheté ou vendu facilement. Vous pouvez choisir ce que vous voulez faire pour gagner votre argent. Il n’y a pas de monopole, tous les systèmes co-existent dans le même espace. Plus plate que plate, la monnaie libre est super plate.

La monnaie libre est virtuelle et infinie. Les objets physiques existent dans l’espace et le temps (ce qui les rend limités), en nombre, en masse, en lieu et place. Les objets virtuels n’existent pas et n’ont pas a respecter de telles limites.

Tout est possible dans l’espace de la monnaie virtuelle, sous toutes les formes. Il n’est question que de mettre au point un système de notation pour ceux qui consentiraient à l’utiliser : l’argent n’est qu’un accord social.

Bien entendu, un système ne marchera en tant que monnaie que s’il est bien conçu. Un système de notation que personne ne veut utiliser n’est pas une monnaie valable. Aussi, bien qu’aucune limite aux monnaies ne puisse être pensée, toutes ne vont pas fonctionner.

C’est nous qui créerons la nouvelle monnaie qui fonctionnera, en quantité suffisante pour satisfaire nos besoins, et dans un contexte ouvert afin que chacun puisse contribuer et être reconnu. La monnaie libre circulera dans les réseaux et communautés qu’elle sert, complètement légale et virtuellement libre, par conception.

Nous pensons que les problèmes venant de la monnaie conventionnelle peuvent être résolus avec un système de monnaie libre.

  • Où la monnaie conventionnelle est rare et chère, la nouvelle monnaie existe en quantité suffisante et est libre.
  • Où la monnaie conventionnelle est créée par des banques centrales, la nouvelle monnaie vient de nous, comme des promesses de rachat : notre monnaie est notre parole.
  • Où la monnaie conventionnelle se propage avec inconstance, dans et hors de nos communautés, créant des dépendances nuisibles à l’économie, la société et la nature, la nouvelle monnaie complémentaire circule en permanence, encourageant le commerce et les échanges.

Donc, réglons le problème de l’argent et, pour les autres dangers menaçant notre monde, voyons ce qu’il adviendra.

Imaginons simplement…

  • Imaginons avoir l’argent nécessaire pour subvenir à tous nos besoins.
  • Imaginons une société et une économie fonctionnant sans les problèmes monétaires courants de pauvreté, d’exploitation, de sans-abris, de chômage, de peur et d’angoisse.
  • Imaginons un monde où chacun pourrait travailler et payer, travailler et jouer.
  • Imaginons un air sain, une eau et une nourriture saine pour tout le monde.
  • Imaginons une société humaine vivant en équilibre avec l’environnement.

Trop beau pour être vrai ? Ou peut être pas ? Peut-être cela mérite-t-il d’être vérifié ?

Ce sont nos convictions à propos de monnaie libre, nos idées de développement d’un système de monnaie libre, et notre intention d’agir maintenant pour mettre en œuvre nos convictions…nous vous invitons à adhérer.

Cette déclaration ne s’adresse pas à tel individu ou tel organisme. Les déclarations n’appartiennent pas à une personne ou une entité et ne sont en rien prévues pour servir les intérêts particuliers d’un individu ou d’une organisation.

Le but du manifeste de la monnaie libre s’auto-détermine : il est inhérent à son contenu.

  • Il n’est pas négocié, personne ne vote pour lui.
  • Il n’est ni une question d’opinion ni une proposition politique.
  • Sa validité est basée sur le sens interne créé et le sens externe généré…

Les concepts de monnaie libre n’appartiennent à personne.

Le manifeste est une série ouverte d’idées : les concepts sont là pour être étendus, développés, affinés. Nous vous invitons à adhérer.

Le manifeste est un document actif.

  • C’est un constat de preuves vérifiables : il y a des problèmes avec l’argent.
  • C’est une question de conception : les problèmes lié à l’argent peuvent être réglés facilement.
  • C’est une déclaration d’intention : Nous sommes en train de les régler.

Amagill - CC by

Quelques liens connexes

A l’heure de la crise, le mouvement open-money propose une approche au moins aussi stimulante de l’économie que l’open-source l’est pour le monde du logiciel. L’open money, c’est la libération des moyens de paiement. Nos monnaies actuelles sont en effet en un sens des systèmes propriétaires : l’euro et le dollar sont gérés par des banques centrales qui décident de leur mode d’émission tout en se faisant rémunérer pour leur mise à disposition aux banques commerciales. Ces dernières redistribuent ces liquidités (avec effet de levier grâce aux mécanismes de l’argent scriptural et des taux de réserves obligatoires) aux agents économiques. Deux agents économiques voulant commercer avec de l’euro ou du dollar doivent donc nécessairement faire appel à un système commercial extérieur sur lequel ils n’ont aucun contrôle.

(…) Le système monétaire classique est donc bel et bien verrouillé comme l’est, dans un autre genre, un logiciel propriétaire. Partant de ce constat, l’open money reprend l’héritage des LETS (Local Exchange Trading Systems, en français SEL pour Systèmes d’échanges locaux) pour proposer des circuits monétaires alternatifs libres : il s’agit d’implanter au sein d’une communauté donnée une ou plusieurs monnaies que les membres gèrent directement. Les échanges entre membres ne sont dès lors plus soumis à des conditions extérieures à la communauté telle que la quantité et la qualité de la monnaie en circulation.

Vous avez déjà joué au Monopoly, n’est-ce pas, avec des joueurs et une banque ? Si la banque ne donne pas d’argent, le jeu s’arrête, même si vous possédez des maisons. On peut entrer en pauvreté, non par manque de richesse, mais par manque d’outil de transaction, de monnaie. Dans le monde d’aujourd’hui, 90% des personnes, des entreprises et même des États sont en manque de moyens d’échange, non qu’ils soient pauvres dans l’absolu (ils ont du temps, des compétences, souvent des matières premières), mais par absence de monnaie. Pourquoi ? Parce que, comme dans le Monopoly, leur seule monnaie dépend d’une source extérieure, qui va en injecter ou pas. Il n’y a pas autonomie monétaire des écosystèmes.

Souvent réduit à son aspect médiatique, le cinquième pouvoir est en fait une force de décentralisation : médiatique, énergétique, alimentaire… et aussi monétaire comme l’explique Jean-François dans cette vidéo enregistrée en annonce de la conférence qui se déroule sur le sujet à Mexico.

Le passage des monnaies uniques, c’est-à-dire de l’économie propriétaire et centralisée, à l’économie diverse et ouverte pourrait valoir un prix Nobel. Mais comme les autres transitions en cours, elle n’est pas l’œuvre d’une personne mais d’une multitude d’acteurs. Comme les nouveaux médias, les nouvelles monnaies existent déjà. Dans les jeux vidéo, partout sur les services d’échange en ligne, dans nos vies lorsque nous rendons services à un ami qui nous rend plus tard service…

La réappropriation de nos existences passe aussi par la réappropriation des monnaies d’échange. C’est possible à l’âge numérique. Avec ces nouvelles monnaies, la notion de croissance vole en éclat. Nous passons de l’autre côté.

Tous nos échanges ne se fondent pas sur l’argent ni sur la valeur monétaire de ce que nous échangeons, expliquent les auteurs du forum. En échange d’une photo qu’on offre à la communauté Flickr, nous n’attendons pas nécessairement de l’argent en retour, mais plutôt un sentiment d’appartenance à une communauté, une visibilité, le plaisir de faire plaisir à ceux avec qui on l’a partage… Ce type d’échanges non monétaires n’a rien de nouveau, mais la question est de savoir si nos outils numériques peuvent favoriser leur renouveau ?

(…) A une époque où nous allons vers une monnaie virtuelle, le coût marginal d’introduire de nouvelles monnaies se rapproche de zéro, explique le consultant et éditorialiste David Birch, organisateur du Digital Money Forum britannique, d’où la probabilité qu’elles se démultiplient. Dans un scénario post-monétaire, quels autres types de biens et de services pourrions-nous échanger ? Comment persuader les gens de rejoindre votre économie alternative ? Comment expliquer ses bénéfices aux autres ?

Dans son livre « The Future of Money », Lietaer fait remarquer – comme l’a fait hier le gouvernement britannique – que dans des situations comme celle que nous connaissons actuellement tout s’arrête brusquement à cause de la pénurie de liquidités. Mais il explique également qu’il n’y a aucune raison pour que cet argent doive prendre la forme de la livre sterling ou qu’il soit émis par les banques. L’argent ne consiste qu’à « un accord au sein de la communauté d’utiliser quelque chose comme moyen d’échange ». Ce moyen d’échange pourrait être n’importe quoi, du moment que tous ceux qui l’utilisent ont la certitude que tous les autres en reconnaîtront la valeur. Durant la Grande Dépression, des entreprises aux Etats-Unis ont émis des queues de lapins, des coquillages et des disques de bois comme monnaie, de même que toutes sortes de bons de papier et de jetons de bois.

Une monnaie libre consiste en un ensemble de règles et processus qui définissent l’émission, l’évolution, la circulation et la consommation d’une monnaie ouverte, suffisante, décentralisée, peer-to-peer et démocratique. Elle appartient au domaine public tout comme les logiciels ou les productions intellectuelles du logiciel libre. Elle est conçue, développée, testée, documentée et mise en circulation de manière collaborative, chacune de ses parties pouvant être transformée et améliorée par quiconque. Les monnaies libres sont désignées sous le terme d’Open Money en anglais, suivant les travaux de Michael Linton et Ernie Yacub à l’origine de cette vision.

Notes

[1] Crédit photos : Jessica Shannon (Creative Commons By-Sa) – AMagill (Creative Commons By)




Luc Viatour – Photographe

Luc Viatour - CC by-saJe ne me souviens plus pourquoi je suis tombé, il y a quelques jours de cela, sur le site du bruxellois Luc Viatour. Était-ce à cause de GIMP ? de la qualité de ces photographies ? des licences libres de ces mêmes images ? de son implication dans Wikipédia ?

Toujours est-il que j’ai eu envie d’entrer en contact avec lui pour lui proposer une courte interview par mail interposé. Et comme vous pouvez vous en rendre compte ci-dessous, il a fort gentiment accepté 😉

Entretien avec Luc Viatour

Bonjour, pourriez-vous vous présenter en quelques mots. On trouve la mention « photographe » sur votre site. En avez-vous fait votre métier ?

Je suis Belge, IT Manager pour une société d’édition. Plus spécialisé dans l’IT pré-presse et impression. Je suis aussi partiellement photographe[1] salarié pour cette entreprise.

Sur votre page utilisateur de Wikipédia, on peut lire « Passionné par les logiciels libres utilisateur de GNU/Linux avec la distribution Ubuntu ». Pourriez-vous nous en dire plus ?

Luc Viatour - CC by-saJ’ai découvert Linux en 1999 suite à des problèmes avec des serveurs Windows. Cela ma intéressé et j’ai rejoint un groupe d’utilisateurs de Linux Belge le BxLUG.

J’ai donc rapidement passé les serveurs du boulot sous Linux Debian. La suite en 2000/2001 je suis passé sous Debian pour mon ordinateur personnel. Rapidement les 3/4 des postes clients au boulot sont passé sous Linux. Nous somme maintenant à 90% sous Linux (Ubuntu pour les clients et Debian pour les serveurs). Je n’envisage même plus autre chose personnellement. Le plus dur pour moi ce fut le passage après plusieurs années de Photoshop à GIMP.

Est-ce que c’est cette passion pour les logiciels libres qui vous a incité à placer vos images sous licence libre ?

Oui l’idée du partage libre m’a séduit doucement…

Que pensez-vous de la pétition « Sauvons la photographie : Pour que la création visuelle continue d’exister et que les Auteurs Photographes puissent continuer à produire des photographies » ? Ne participe-t-elle du même mouvement de crainte et de repli qui caractérise actuellement l’industrie du disque et du cinéma ?

Luc Viatour - CC by-saUn photographe au début de la photographie était un artisan qui vendait un service. Il passait dans les rues faire des photos des passants et vendait son travail pas des droits d’auteur. Je suis pour des images libres qui servent à faire connaître son travail et une rémunération pour un service ou une commande.

Je pense que les droits d’auteurs deviennent invivables, je râle tous les jours de ne pas pouvoir faire des photo d’un bâtiment et les publier car l’architecte n’est pas mort depuis plus de 50 ans alors que c’est un lieu publique et que souvent le bâtiment en question est réalisé avec l’argent public ! Exemple connu en Belgique avec l’Atomium !

Par contre je suis pour le respect des licences choisies par l’auteur des photos, libres ou non ! Ce que de plus en plus de média ne respectent pas ! Les changements doivent venir des auteurs. Je comprend que certains photographes ne veulent pas publier sous licence libre, mais de là à légiférer pour interdire ou limiter les licences libres c’est je pense aller dans un mauvais sens.

Vous éditez vos images avec GIMP depuis 2005. Pourquoi l’avoir préféré à Photoshop ? par principe ? pour ses qualités intrinsèques ? Les deux ?

J’ai eu beaucoup de mal au début après cinq ans d’utilisation de Photoshop, mais voilà pour qui décide d’utiliser Linux, il n’y avait pas le choix et j’ai fait l’effort de changer mes habitudes. Maintenant lorsque je dois travailler sous Photoshop je suis perdu 😉 Comme quoi ce n’est qu’une question d’habitudes.

Plusieurs centaines de vos photographies se retrouvent sur Wikipédia. Pourriez-vous nous en dire plus. Qu’est-ce qui vous motive à participer à un tel projet ?

Luc Viatour - CC by-saJ’ai découvert le projet Wikipédia suite a une conférence au BxLUG. J’ai trouvé cela génial, mais comme je ne suis vraiment pas littéraire, je me voyais mal participer à la rédaction d’un article. Puis j’ai vu qu’il y avait des demande de documents visuels et là je me suis rendu compte que je pouvais aider le projet.

Petit à petit j’ai donc ajouté des photos qui traînaient dans des tiroirs, puis ma démarche a évolué, maintenant je fais parfois des photos volontairement pour Wikipédia. Je suis finalement très content d’avoir fait cela, j’ai énormément de retours sympathiques, bien plus que si elles étaient restées dans mes tiroirs 😉

Notes

[1] Crédit photos : Luc Viatour (GFDL – Creative Commons By-Sa)




De quelques causes réelles de l’effondrement des Majors

Hryck - CC byVoici un article d’Ars Technica qui parle d’un livre qui n’a que peu de chances d’être traduit.

Il nous a semblé pourtant intéressant de vous le proposer ici en ces temps d’Hadopi dans la mesure où la thèse est d’expliquer que la crise de l’industrie musicale cherche ses causes bien en amont du problème du « piratage » et du P2P.

N’oublions pas en effet par exemple que lorsque nous sommes passés du vinyl au CD, les prix ont plus ou moins doublé[1] alors que la part réservée aux artistes n’a elle pas bougé !

Edit : Cet article a été reproduit dans le journal Vendredi du 15 mai 2009 (image scannée).

Crever le p***** d’abcès : comment le numérique a tué la musique à gros sous

"Lancing the f***ing boil": how digital killed Big Music

Nate Anderson – 24 mars 2009 – Ars Technica
(Traduction Framalang : Olivier et Don Rico)

Dans son livre Appetite for Self-Destruction: The Spectacular Crash of the Record Industry in the Digital Age (NdT : Envie d’auto-destruction : la chute spectaculaire de l’industrie du disque à l’ère du numérique), Steve Knopper se penche sur le music business. Ars se plonge dans le livre, qui affirme que l’effondrement des majors n’est pas (essentiellement) dû au P2P.

Contrairement aux idées reçues, même les grands pontes du music business ont le sens de l’humour, comme cela transparaît souvent dans le nouveau livre de Steve Knopper, Appetite for Self-Destruction: The Spectacular Crash of the Record Industry in the Digital Age. Dans l’histoire que raconte Knopper, la cause du déclin des maisons de disques n’est pas seulement la technologie ou les programmes de partage ; c’est surtout une question de personnalités, et son livre regorge d’anecdotes dépeignant les dirigeants des majors.

En voici une que l’on trouve vers la fin du livre :

La tension autour du SDMI atteignit un pic à la fin août, à la Villa Castelletti, un somptueux hôtel dans un vignoble vallonné à une trentaine de kilomètres de Florence. Tous les cadres étaient réunis dans une cour de la villa, au loin, on entendait de temps à autre des coups de fusil destinés à éloigner les oiseaux des vignes. La réunion suivait son cours et Al Smith (Vice-président de Sony Music), comme à son habitude, était en rogne, en désaccord avec une proposition du président de session, Talal Shamoon. Finalement, Smith quitta la réunion. À peine trois secondes plus tard, un énorme Pan ! retentit. Les membres de la SDMI se regardèrent fébrilement. Shamoon dit alors du tac au tac : « Je crois qu’une place vient de se libérer chez Sony Music ».

C’est amusant, mais aussi assez navrant – pas à cause des oiseaux et des fusils, mais parce que cette réunion se tenait dans le cadre de l’extrêmement coûteuse Secure Digital Music Initiative, que les majors ont initiée en 1998 pour coller des DRM sur la musique. Ces grandes réunions se sont tenues partout dans le monde (dans des lieux comme la Villa Castelletti qui sont loin… d’être donnés) pour finalement accoucher d’un procédé de tatouage numérique soi-disant "inviolable". Le groupe a alors lancé un concours et invité des équipes à cracker SDMI ; le professeur d’informatique Ed Felten a rapidement mis à mal quatre procédés de tatouage numérique différents. La SDMI la ensuite menacé pour le dissuader de rendre ses résultats publiques, le professeur a alors riposté en les attaquant en justice, et pour finir toute l’affaire a été finalement abandonnée. Tout comme la SDMI.

Si l’industrie du disque avait abordé la musique numérique comme elle a abordé le CD, sans cette obsession pour les protections anti-copies, en acceptant un nouveau format et en amassant de l’argent à la pelle, elle se porterait peut-être encore pour le mieux. Mais l’industrie en a décidé autrement, et, comme le raconte Knopper, elle en a payé le prix.

Bienvenue dans la jungle

L’industrie du disque n’est pas une industrie comme les autres et ne l’a jamais été. Prenons par exemple, juste pour illustrer, une anecdote à propos du label Casablanca dans les années 70 :

Danny Davis, le gars qui s’occupait de la promo, se souvient d’une fameuse discussion téléphonique avec un programmeur radio pendant qu’un collègue, muni d’un club de golf, détruisait tout sur son bureau avant d’y mettre le feu, et ce n’était pas une hallucination due aux drogues.

« On pouvait s’attendre à tout, chez Casablanca », raconte Bill Aucoin, qui était alors manager du groupe de rock le plus connu chez Casablanca, KISS. « Nos premiers bureaux étaient en fait une maison avec un cabanon à côté de la piscine. Dans ce cabanon, à n’importe quelle heure du jour ou de la nuit, que vous fussiez promoteur de disque ou DJ, vous pouviez vous envoyer en l’air quand vous le vouliez. »

L’industrie a appris à frapper des hits (et donc de l’argent) dans les années 60 et 70, mais c’est le CD qui a fait des maisons de disque les monstres que l’on connait. Knopper consacre la moitié de son livre à expliquer le boom du CD, et n’évoque Napster qu’au bout de 113 pages. C’est parce que, de son point de vue, on ne peut comprendre la chute des labels à l’ère de la distribution numérique qu’en étudiant le précédent changement de format majeur et les énormes profits qu’il a apportés à l’industrie.

Si vous avez suivi Battlestar Galactica récemment, ou si vous lisez Nietzsche, vous connaissez les théories traitant de la nature cyclique de l’Histoire, et c’est sous cet angle que Knopper présente son histoire. À l’arrivée du CD, nombreux furent les dirigeants des maisons de disque à le détester. L’un d’entre eux raconte, même maintenant : « Je pensais que (les ingénieurs qui l’avait produit) aurait pu trouver un moyen d’éviter le piratage ».

Mais avec du recul, ces petits disques de plastique ont été une véritable mine d’or. Les gens ont adoré ce nouveau format, et nombreux furent ceux qui rachetèrent toute leur collection en CD, et les prix de la musique enregistrée grimpèrent en flèche. Comment l’industrie a-t-elle répondu à cette aubaine ? En entubant les artistes.

Knopper raconte comment les labels ont écrit de nouveaux contrats pour ce nouveau format, des contrats où figuraient des « réductions d’emballage » et des « indemnités de marchandise gratuite » plus élevées. En plus de ces déductions, les taux de royalties touchés par les artistes ont été réduits. « Après que les labels ont inventé ces nouvelles déductions », ajoute Knopper, « l’artiste moyen touchait 81 cents par disque. À l’époque des vinyles, les artistes touchaient un peu plus de 75 cents par disque. Donc les labels vendaient les CD huit dollars plus cher que les vinyles, mais les artistes ne gagnaient que six cents de plus par album. »

Ces pratiques ont alimenté un boom du CD qui a duré de 1984 à 2000, date à laquelle le sol a commencé à se dérober sous les pieds de l’industrie. Après deux décennies de musique à prix d’or, et d’investissement minimum pour des singles de bas-étage, les labels se sont engraissés en pondant à la chaîne des albums ne contenant que deux tubes. Les autres chansons pouvaient être médiocre, mais les fans qui cherchaient un tube particulier achetaient l’album quoiqu’il arrive (j’en veux pour exemple le fait que j’ai un jour eu en ma possession un exemplaire de l’album Tubthumper de Chumbawamba).

Le succès de Napster a bien montré à l’industrie du disque que le nouveau format majeur était arrivé. Avec tout le blé qu’ils s’étaient fait lors du précédent changement de format, on aurait pu croire que l’industrie serait enchantée de voir débarquer un nouveau système à même de faire consommer plus de musique à plus de fans encore plus vite. Leur priorité numéro 1 aurait dû être de faire de la musique numérique leur nouveau CD, mais ça ne s’est pas passé comme ça. L’industrie a simplement souhaité la mort du numérique.

Une spirale infernale

Le nombre d’interviews que Knopper a réalisées pour le livre est impressionnant ; elles lui permettent de mettre à nu les personnalités qui se cachent derrière l’industrie du disque. Par conséquent, il a aussi à sa disposition de nombreuses anecdotes aussi obscures qu’instructives, comme celle du dirigrant de Liquid Audio (vous vous souvenez de ça ?), Gerry Kearby. Kearby voulait créer l’anti-Napster, un distributeur de musique en ligne légal, qui utiliserait donc des DRM. Mais au moment de négocier avec les labels, personne n’a vraiment voulu s’engager.

Kearby raconte à Knopper l’instant où il a compris que ça ne marcherait jamais. « Un jour, dans un moment de pure sincérité, (un représentant de Sony) m’a dit, « Écoute Kearby, mon rôle, c’est de te couler. Nous ne voulons pas que tu réussisses, à aucun prix. » Certains étaient plus curieux que les autres, pas de doute là-dessus. Mais, au fond, on aurait dit des vendeurs de carrosses cherchant à repousser l’avènement de la voiture aussi longtemps que possible. »

Un des défauts de ce livre, c’est que cette triste histoire d’incompétence numérique est déjà largement connue. Appetite for Self-Destruction n’apporte rien de nouveau pour ceux qui suivent les sites comme Ars Technica. En voici un résumé : après l’affaire Napster, les labels ont commencé à faire joujou en traînant les pieds avec leurs propres services tout pourris (si je vous dis PressPlay ?) mais ne se sont jamais sérieusement mis à la distribution numérique. Il a fallu que Steve Jobs et l’iPod propulsent Apple aux commandes, une position qui leur a permis de lancer l’iTunes Music Store avec le contenu des maisons de disques et d’offrir les chansons pour 1$. Les DRM, que les labels ont imposés, ont assis la position de leader d’Apple sur le marché de la musique aux USA (ils refusaient de mettre leur système Fairplay sous licence, et l’iPod était le lecteur le plus vendu). Les labels n’ont compris que tardivement ce qui s’était passé, après quoi ils ont tenté de mettre des bâtons dans les roues d’Apple en permettant à des magasins comme Amazon de vendre de la musique sans DRM. Il parle aussi un peu de Kazaa, du fiasco que fut le rootkit de Sony BMG, et de la futilité de la campagne de poursuite lancée par la RIAA.

Mais pour l’essentiel des ces informations, on les trouve ailleurs, et pas seulement sous forme d’articles sur les différents blogs ou sites d’information qui ont couvert les évènements. Des auteurs comme Steven Levy dans le livre The Perfect Thing (iPod) ou Joseph Menn dans All the Rave (Napster) abordent les mêmes sujets, mais de manière bien plus détaillée.

Mais même si Appetite for Self-Destruction ne nous sert essentiellement que du réchauffé, ce qui le différencie, c’est l’accent qu’il met sur les personnes, un aspect trop souvent ignoré par les articles techniques. Après lecture, vous n’éprouverez certainement aucune compassion pour les maisons de disque, mais vous comprendrez mieux les grands pontes qui tiraient les ficelles, et les choix qu’ils ont fait à la lumière de leur propre histoire dans l’industrie de la musique.

Knopper réussit aussi très bien à établir un parallèle entre l’épisode Napster/iTunes/P2P et les grandes années du CD (même s’il en résulte un chapitre long et parfois fastidieux sur les boys band qui semble secondaire par rapport au sujet traité). C’est délibéré, et il le fait pour étayer sa propre thèse comme quoi la majorité des problèmes que rencontrent les maisons de disques avec la musique dématérialisée prennent leurs racines dans ces deux décennies passées à s’engraisser sur les ventes de CD. Ils n’étaient tout simplement pas prêts ou pas désireux de s’adapter à un nouveau monde où la musique s’achète à la carte et où les morceaux sont moins chers.

Knopper cite Robert Pittman, co-fondateur de MTV. « Voler de la musique, ce n’est pas tuer la musique », d’après Pittman. « Quand je discute avec les gens de l’industrie de la musique, ils admettent pour la plupart que le problème est surtout qu’ils vendent des chansons et plus des albums. Le calcul est vite fait. »

« Je me suis rendu compte que dans le milieu, nous étions tous à côté de la plaque », confiait Barney Wragg, cadre chez Universal après avoir quitté le label en 2005 (Wragg est entré l’année suivante chez EMI comme responsable de la musique numérique).

Et James Mercer, chanteur du groupe indépendant the Shins, y va encore plus franchement. « Vous voyez tous ces articles à propos de la débacle de l’industrie du disque », dit-il. « Quand on se penche sur toutes les erreurs commises, c’est un peu comme crever ce putain d’abcès et le désinfecter. Merde, c’est vraiment pas une catastrophe pour les groupes. »

Le piquant de ces citations et l’énorme travail d’interview réalisé font de Appetite for Self-Destruction une lecture passionnante. Pas grand chose de neuf pour les inconditionnels de technologie ou les fanas de droit, mais il résume bien quarante ans de personnalités et d’histoire de l’industrie de la musique pour qui veut comprendre comment l’industrie en est arrivée là.

Notes

[1] Crédit photo : Hryck (Creative Commons By)




Recherche évangéliste du Libre désespérément

Eduardoizquierdo -  CC byUne traduction sans prétention qui pose la question des lacunes marketing, supposées ou avérées, du logiciel libre (ou plutôt de l’Open Source pour être plus précis car nous sommes aux US et il est avant tout question de business). Un marketing qui serait porté par des spécialistes que le monde informatique anglo-saxon a pris l’habitude d’appeler des « évangélistes ».

Dans le domaine qui nous préoccupe ici, les évangélistes dignes de ce nom (Stallman, Shuttleworth…) se feraient donc rares et ce serait du coup un handicap alors même que tout est en place pour que logiciel libre crève l’écran LCD[1].

Il est vrai que lorsque l’on observe chez nous le travail de communication d’un Tristan Nitot (sur son blog, en conférence, dans les médias…), on se dit qu’effectivement il est plus qu’utile à Mozilla et, indépendamment de la qualité intrinsèque des produits, cela a dû certainement avoir une influence sur le succès en France et en Europe du navigateur Firefox.

L’Open Source a-t-il besoin de meilleurs évangélistes ?

Does OpenSource Need Better Evangelists

Sam Dean – 20 février 2009 – OStatic
(Traduction Framalang : Aragog, Goofy et Olivier)

Les sociétés commerciales Open Source ont-elles besoin de meilleurs évangélistes ? Tout pousse à le croire. Par exemple, Savio Rodrigues note que dans le récent tour d’horizon des « entreprises les plus novatrices du monde » du magazine Fast Company, pas une seule entreprise Open Source n’est répertoriée. Sun Microsystems figurait sur la liste l’année dernière, mais cette année elle n’apparaît plus que parmi les exclues dans la rubrique « Les 33 sociétés, parmi les 50 bien classées par Fast Company l’an dernier, qui ne figurent plus sur la liste cette fois mais qu’il faut suivre ». Je ne pense pas qu’ici le problème soit lié à un manque d’innovation parmi les candidats Open Source dignes d’une liste comme celle de Fast Company ; c’est plutôt un problème d’évangélisation médiocre.

Le terme « évangéliste » a été largement utilisé pendant des années par d’éminents employés de Microsoft et Apple lorsque ces entreprises se développaient. Je me rappelle avoir pensé que ce mot est étroitement associé à des gens, dont certains sont des fanatiques, qui recherchent une large audience pour les messages religieux. Pourtant, c’est exactement la raison pour laquelle le surnom a été attribué aux gens tels que Guy Kawasaki pour Apple. Le titre était censé évoquer la ferveur, la foi envers la plate-forme, le besoin de transmettre le message à la foule. Et en parlant d’Apple, qui est l’alter ego Open Source de Steve Jobs ?

Dans un article datant de l’année dernière et intitulé « Les quatre choses dont Linux a besoin », Joe Brockmeier soutenait qu’une des quatre choses nécessaires était le « marketing unifié ». Il écrivait :

« Si vous prenez tous les budgets marketing de tous les fournisseurs de Linux, que vous doublez ce chiffre et que vous y ajoutez un zéro, peut-être commenceriez vous à vous approcher de la somme que Microsoft dépense en marketing pour Windows. Les agences de publicité de diverses industries l’ont bien compris — c’est une bonne idée de mettre en commun votre argent pour augmenter votre part de marché quand vous faites conjointement concurrence à une autre entreprise. »

C’est le genre d’effort de marketing unifié que les évangélistes futés pourraient facilement mener, pour Linux certes, mais aussi pour l’Open Source dans son ensemble. Si cela se fait si peu dans la communauté Open Source, c’est en partie parce qu’elle est trop « communautariste », ce qui la dessert. Je pense que la Fondation Linux est en train de faire quelques bonnes percées dans le processus d’unification, mais davantage d’efforts sont nécessaires pour un évangélisme de l’Open Source fort et unifié, et davantage d’argent aussi.

Dana Blankenhorn vient de faire un bon article qui montre que la communauté Open Source s’appuie plus sur des formules que sur les faits. Il montre du doigt les proclamations discutables formulées par Jonathan Schwartz de Sun sur JavaFX, présenté comme « la plate-forme de RIA (Rich Internet Application) dont la croissance est la plus rapide du marché. »

Pourquoi est-ce que Schwartz ne vante pas plutôt le succès fantastique qu’a rencontré récemment MySQL ? C’est aussi cela du bon évangélisme, la diffusion d’informations pertinentes avec force et conviction.

Voici une analyse récente du cloud computing, venant d’un groupe de réflexion de chercheurs de l’université de Californie, à Berkeley. Elle contient 25 pages de petits caractères sur l’état et l’avenir du cloud computing, mais ne mentionne qu’une seule fois l’Open Source, en passant. Voilà où nous en sommes, alors que les progrès de l’Open Source jouent aujourd’hui un rôle vital sur la scène du cloud computing.

Je trouve absurde que Hulu, qui propose du contenu vidéo en ligne (qui l’eut cru ?), soit numéro trois sur la liste des novateurs de Fast Company, alors que pas une seule société Open Source n’y apparait. Le problème n’est pas le manque d’innovation, mais plutôt un manque de bonne communication et un manque crucial d’évangélisme Open Source unifié.

Notes

[1] Crédit photo : Eduardoizquierdo (Creative Commons By)




Largage de liens en vrac #14

Azalea Long - CC byOn ne change pas une formule qui gagne ! Voici donc le dernier numéro du mag des liens logiciels en vrac dont le pourcentage de d’informations intéressantes est impossible à évaluer tant il dépend de vos propres attentes, sachant que, il faut bien le dire, vous êtes parfois difficile à contenter.

Le deux derniers liens posent deux questions à commentaires : l’évolution de Microsoft vis-à-vis de l’Open Source et le succès croissant de l’App Store d’Apple (pour l’iPhone) qui n’est pas très « logiciel libre dans l’âme »[1].

  • The Free Culture Game : Un jeu tout à fait original. D’abord pour son thème choisi (que le Framablog connait bien) : la lutte que se livrent la free culture et le copyright, mais aussi dans ses règles du jeu puisqu’il n’y a pas vraiment de début ni de fin. Il s’agit de créer, partager et défendre les biens communs contre les privatiseurs et de libérer les consommateurs passifs du marché ! Une manière intéressante de faire prendre conscience que nous avons ici l’une lignes de fracture les plus importantes de notre époque. Le jeu est sous Licence Creative Commons By-Nc-Sa et vous en saurez plus en parcourant cet article (en français) où je l’ai découvert.
  • Penguin Blood Ninja Fiasco : Un autre jeu, beaucoup plus trivial celui-là (et dans le plus pur look premiers jeux des années 90). Vous êtes un manchot ninja et vous devez faire attention aux costard-cravates qui veulent vous faire signer brevets et contrats propriétaires. Pas très subtile mais je le signale quand-même pour faire écho au lien précédent.
  • Synergy Plus : Synergy est un logiciel bien pratique permettant de partager un même clavier/souris entre plusieurs ordinateurs (par exemple pour passer de Windows à GNU/Linux). N’étant plus mis à jour depuis 2006, il méritait bien un fork qui est plutôt une continuation en l’occurrence.
  • GMFoto : Un script php (valide xhtml et css) tout léger pour présenter vos photos sur le Web.
  • CC PDF converter : Un utilitaire Windows permettant d’accoler une licence Creative Commons à vos documents (avec logo et tout et tout) tout en les convertissant en PDF. Pratique si vous êtes par exemple resté sous World, Excel, etc. mais que vous souhaitez néanmoins participer à la culture libre en offrant ainsi la libre circulation de vos fichiers (je pense tout particulièrement aux enseignants ici).
  • XtraUpload : RapidShare & co vous connaissez ? Si oui, je préfère ne pas vous demandez pourquoi ! (sauf si, of course, il ne s’agit que de partager des ressources sous licences libres ou ouvertes) Toujours est-il qu’en voici un clone libre vous permettant d’offrir à vos visiteurs le même service mais hébergé sur vos serveurs cette fois-ci.
  • 10+ Best Firefox Addons for Security and Privacy : On ne le dira jamais assez mais l’une des grandes forces de Firefox ce sont ses extensions permettant de vous construire un navigateur sur mesure correpondant à vos besoins. Ici on s’intéresse à la sécurité et à la privacy.
  • ecoder : Un très impressionnant éditeur (texte, code, html…) en ligne. Un exemple de plus de la faculté qu’ont désormais nos applications préférées à se déporter en ligne.
  • Presto : C’est pas un logiciel libre mais comme souvent avec Xandros (auteur notamment de la distribution de base des premiers Eee PC), ça tourne autour en utilisant un noyau Linux. Il s’agit pour les utilisateurs Windows de démarrer (très très vite, en quelques secondes) non plus sur Windows mais sur… Presto justement (qui fait ici office de mini-OS) dont l’interface épurée est orientée Web (Firefox, IM, lecteur multimédia, Skype…) et bureautique (OOo). Il y aurait comme une sorte de concurrence forte en ce moment sur ce terrain-là si on pense au projet Jolicloud de Tarik Krim (qui tarde à sortir non ?) ou encore gOS. A noter que Presto n’a pas besoin de partition dédiée pour fonctionner et s’installe directement sur celle de Windows.
  • Top 10 Projects To Revive : Les dix jeux Open Source dont le développement est arrêté et que même que c’est bien dommage et que comme c’est libre ce serait bien de reprendre le code pour continuer l’aventure.
  • Midori : Un navigateur très léger et très rapide (GTK, basé sur WebKit) qui pourrait bien devenir bientôt un candidat sérieux notamment sur les netbooks où Firefox patine un peu parfois.
  • Calibre : Un e-book management utile en cette période où l’on parle de plus en plus de livres électroniques (le plus simple est d’en voir tout de suite les copies d’écran).
  • Video Monkey : N’oublions pas le Mac qui fait de plus en plus d’adeptes chez les geeks. Ici il s’agit d’un encodeur vidéo simple, libre et pratique.
  • Synapse : Un nouveau client Linux de messagerie instantanée fort bien présenté sur le site officiel. Remplacera-t-il Pidgin (ou un autre) ? LinuxFr en doute un peu (ps : je ne savais pas que les terminaisons .im existaient !)
  • MakerBot Industries : robots that make things : Nous avions dédié un billet à cette assez extraordinaire machine replicante permettant potentiellement de se fabriquer toutes sortes d’objets. Voici donc sa déclinaison industrielle créée par les auteurs même du projet Open Source. Je serais étudiant un peu bricoleur que je rêverais d’en posséder une chez moi.
  • The OpenBerry : Restons dans le hardware avec cet étonnant projet de Blackberry Open Source, juste un peu plus gros, carré et moins fonctionnel que l’original 😉

Notes

[1] Crédit photo : Azalea Long (Creative Commons By)




Linux a évolué… et vous ?

Fazen - CC byBien qu’il soit désormais prêt à partir à la conquête de nos ordinateurs, les mythes (et préjugés) autour du GNU/Linux continuent d’avoir la vie dure.

C’est ce que nous raconte ici Bruce Byfield en passant en revue une dizaine de légendes urbaines qui demanderaient à être quelque peu réactualisées.

Et de se demander en conclusion, qui de GNU/Linux ou de l’utilisateur est le moins préparé à ce que cette rencontre ait bel et bien lieu[1].

9 mythes sur GNU/Linux

The GNU/Linux Desktop: Nine Myths

Bruce Byfield – 16 mars – Datamation
(Traduction Framalang : Olivier et Don Rico)

Mac OSX est-il prêt pour le bureau ? Personne ne se pose la question. L’adopter demande pourtant de s’adapter à de nouvelles habitudes, de nouveaux outils et à un nouveau bureau, mais peu importe. On dit qu’il est facile d’accès, et il est soutenu par une entreprise propriétaire, tout comme Windows.

Pour GNU/Linux, en revanche, c’est une autre histoire. Depuis des années, les éditorialistes et les blogueurs nous expliquent que GNU/Linux n’est pas prêt pour le grand public et malgré les progrès accomplis au cours de ces dix dernières années, les arguments n’ont pas beaucoup évolué. Ils sont même de plus en plus obsolètes, quand ils ne reflètent pas une profonde ignorance. En fait, j’ai souvent l’impression que tous ceux qui répandent ces poncifs à propos des insuffisances de GNU/Linux ne l’ont jamais essayé.

Les critères de facilité d’utilisation sont souvent subjectifs. Ce que sera un bogue au yeux de l’un sera une fonctionnalité aux yeux d’un autre : par exemple, devoir ouvrir une session d’administrateur pour installer un programme est un désagrément pour les utilisateurs les moins expérimentés, tandis que les connaisseurs y voient un gage de sécurité.

Ce qu’on reproche souvent à GNU/Linux, aussi, c’est de ne pas être pas exactement comme Windows. On passera sur le fait que, s’il n’existait aucune différence entre les deux, on n’aurait aucune raison de vouloir changer de système d’exploitation. Quant à ceux qui s’attendent à utiliser un nouveau programme ou un nouveau système d’exploitation sans période d’adaptation, ils sont sacrément gonflés. Aux yeux de certains critiques, le simple fait que GNU/Linux ne corresponde pas en tout point à ce qu’ils connaissent déjà suffit à le vouer aux gémonies.

Viennent ensuite les critiques à géométrie variable. Par exemple, certains déclarent que GNU/Linux ne sera jamais prêt pour le grand public tant qu’il n’offrira pas certaines fonctions, puis quand on leur montre qu’elles existent ou qu’elles sont en développement, ils changent de cible et insistent sur le caractère indispensable d’une autre fonction. On ne peut contrer ce genre d’argument, car les critères qui les sous-tendent ne sont jamais les mêmes.

Enfin, pour compléter le tableau, on trouve les arguments qui se contredisent eux-mêmes car ils sont faux, incomplets, ou déformant la réalité. Voici neufs des contre-vérités les plus répandues.

1. Les trop nombreuses distributions compliquent la tâche des développeurs

Voilà une affirmation populaire chez les concepteurs de logiciels pour expliquer pourquoi ils ne proposent pas de version de leur produit pour GNU/Linux. Ils affirment en effet que toutes les distributions n’ont pas la rigueur du Linux Standards Base et qu’elles utilisent une hiérarchisation différente. Les distributions, qui plus est, utilisent toutes sortes de paquets, ce qui signifie qu’un support universel implique la création de paquets dans différents formats.

Ces problèmes existent bel et bien, mais cette affirmation exagère les problèmes qui en découlent. Des installeurs universels comme InstallBuilder et Install Anywhere proposent aux concepteurs des installations similaires à ceux de Windows. En ce qui concerne la création de différents paquets, si ça ne pose pas de problème à des projets communautaires, pourquoi est-ce que ça devrait en poser à une entreprise spécialisée ?

Mais au fond, le plus grave problème posé par cet argument, c’est qu’il tente d’imposer un point de vue « à la Windows » à un système existant. Dans GNU/Linux, les créateurs d’applications ne prennent pas en charge les différentes distributions ou formats de paquets, c’est la distribution qui s’en charge.

Si ça fonctionne, c’est parce qu’avec les logiciels libres la distribution peut apporter les changements nécessaires au bon fonctionnement du logiciel. Ça ne pose problème qu’aux concepteurs de logiciels propriétaires. S’ils ne souhaitent pas se conformer au système et libérer leur code c’est leur choix, mais alors qu’ils ne se plaignent pas que le système n’est pas adapté.

2. Aucun outil de migration n’est disponible

Effectivement, ça ne ferait pas de mal à GNU/Linux s’il existait un assistant pour importer depuis Windows les e-mails, les marques pages dans le navigateur, les canaux IRC et autres informations personnelles. Mais on peut faire le même reproche à Windows. Au moins GNU/Linux co-existe avec les autres systèmes d’exploitation et peut lire leurs formatages spécifiques, aussi peut-on importer manuellement certaines de ces informations.

3. Le matériel n’est pas reconnu

Par le passé, le support matériel sur GNU/Linux laissait à désirer. Et dans la plupart des cas, on devait la reconnaissance du matériel aux efforts de la communauté, et non aux fabricants, mais cela restait insuffisant.

Au cours de ces trois ou quatre dernières années, cependant, les pilotes mis au point par la communauté se sont améliorés et les fabricants proposant des pilotes pour GNU/Linux, et plus seulement pour Windows et Mac, sont plus nombreux. Les pilotes des fabricants ne sont pas toujours libres, mais ils sont gratuits.

Aujourd’hui, les incompatibilités pour le matériel commun comme les disques durs, les claviers ou les cartes ethernet, si elles ne sont pas encore éradiquées, restent rares. Les secteurs qui posent plus problème sont ceux des périphériques comme les scanners, les imprimantes, les modems ou les cartes réseau sans fil. On peut néanmoins se couvrir en adoptant de bonnes pratiques comme acheter une imprimante postscript, qui fonctionnera forcément avec le pilote postscript générique, ou en achetant des produits Hewlett-Packard, qui prend en charge l’impression sous GNU/Linux depuis très longtemps.

Certains vont même jusqu’à dire que GNU/Linux, qui conserve en général une compatibilité descendante, reconnait en fait plus de matériel que Windows. Je n’irai pas jusque là, mais, globalement, les problèmes de pilotes sous GNU/Linux semblent être à peine plus fréquents que ceux que j’ai pu rencontrer avec différentes versions de Windows.

De nos jours, on peut même s’affranchir complètement du problème de la reconnaissance du matériel en achetant des ordinateurs neufs préinstallés avec GNU/Linux par des entreprises comme Acer ou Dell.

4. La ligne de commande est indispensable

Cette affirmation est à la fois un souvenir du passé, à l’époque où la ligne de commande sur GNU/Linux était presque indispensable, et des réticences bien compréhensibles des utilisateurs de Windows à utiliser la ligne de commande DOS. C’est pourtant tout à fait faux.

Le bureau sur GNU/Linux est largement opérationnel depuis plus de dix ans. De nos jours, les dernières versions de l’environnement GNOME n’ont pas à rougir de la comparaison avec Windows et, dans ses dernières versions, KDE est l’un des environnement les plus novateurs. Même les outils d’administration sont bien présents sur le bureau.

On peut certes utiliser la ligne de commande, et nombreux sont les utilisateurs qui préfèrent y recourir, surtout les administrateurs, car c’est souvent le plus efficace. Mais pour l’administration ou le travail quotidiens, l’utilisation des lignes de commande relève des préférences personnelles, pas d’une obligation. Elles sont aussi bien plus simples d’utilisation que les lignes de commandes du DOS.

5. Il n’y a pas de logiciel

Il faut en général comprendre par là qu’on ne retrouve pas les logiciels habituels de Windows : pas de MS Office, d’Internet Explorer ou de Photoshop. Mais une simple recherche succincte permet de découvrir des logiciels équivalents qui correspondent plus ou moins, à condition de prendre le temps de s’y adapter.

Neuf fois sur dix, lorsque l’on étudie d’un peu plus près quelqu’un qui critique l’un de ces équivalents (The GIMP par exemple) ou affirme qu’il n’est pas prêt pour un usage professionnel, on se rend compte que cette personne n’a pas exploré le programme ou a été désarçonné par le changement de nom ou d’emplacement dans les menus d’une fonction. Souvent, celui qui se plaint n’a même jamais essayé, ou essayé récemment, le programme qu’il critique.

Pour un usage bureautique ou en productivité, GNU/Linux offre de nos jours une solution complète. Beaucoup de projets de logiciels libres fonctionnant sur différentes plateformes, il se peut même que vous ayez déjà utilisé ces applications sous Windows, comme Firefox ou OpenOffice.org. Il reste du chemin à parcourir, par exemple dans les jeux ou dans les applications spécialisées comme la reconnaissance optique de caractères (ROC). Le problème, ce n’est pas que les alternatives n’existent pas, mais plutôt qu’elles se développent trop lentement.

6. L’apparence des logiciels laisse à désirer

Il y a encore quelques années, sur GNU/Linux, la fonctionnalité primait sur l’ergonomie. Mais puisque les fonctionnalités de bases n’étaient pas toutes présentes, il pouvait difficilement en être autrement.

Mais tous les logiciels les plus couramment employés ont mûri et s’attaquent désormais à l’ergonomie. Une modernisation de l’interface ne ferait pas de mal à certains, mais la plupart ne sont pas pire que leurs équivalents sous Windows – honnêtement, si quelqu’un peut supporter une plateforme où Outlook et Windows Media Player sont jugés acceptables, il ne peut vraiment pas se plaindre de l’apparence des logiciels sur une autre plateforme.

7. Le service est inexistant

C’est à l’ère d’Internet que GNU/Linux a vraiment commencé à sortir des cercles d’initiés. À l’époque, le manque de service posait problème – si l’on parle de contrats de services traditionnels en tout cas. Mais, même il y a dix ans, il était déjà possible de signer un contrat de service avec une entreprise comme Red Hat.

De nos jours, le choix de l’assistance traditionnelle est bien supérieur. Si vous ne souhaitez pas faire appel à un fabricant de logiciel qui propose une distribution, vous trouverez sans doute un fournisseur de service proche de chez vous dans n’importe quelle grande ville d’Europe ou des États-Unis.

Mais il existe depuis toujours une meilleure source d’information : les listes de diffusion des projets communautaires ou d’entreprises. Même si ces listes offrent une assistance différente, elles ne sont néanmoins pas inférieures. Non seulement elles sont gratuites, mais ceux qui les fréquentent sont souvent plus prompts à répondre et vous fourniront une assistance plus détaillée que n’importe quel service payant auquel j’ai eu affaire.

8. Les options sont trop nombreuses

Comparé à Windows, GNU/Linux est un système d’exploitation qui offre bien plus de choix. Comme aucune entreprise ne le conçoit, il est plus libre dans sa réalisation. Comme ses développeurs pensent beaucoup en individualiste, ils offrent aux utilisateurs les moyens de faire les choses à leur façon.

Par conséquent, contrairement à Windows, GNU/Linux existe en plusieurs distributions, propose plus d’un environnement de bureau, quasi rien n’est unique. C’est ce que ses utilisateurs préfèrent.

Je vous accorde que les options, sans parler de leur nom ou des acronymes, peuvent dérouter les nouveaux venus. La confusion, cependant, découle surtout du contraste avec Windows. Pour l’utilisateur, au fond, les différences entre les distributions les plus populaires ne sont pas si énormes.

Une petite recherche vous permettra de faire le choix le plus adapté, et dans tous les cas l’installation se fait simplement, avec une intervention minimale de votre part, assistée qui plus est. Une fois la distribution installée, libre à vous de profiter de toutes les options pour vraiment personnaliser votre bureau ou de vous satisfaire des réglages par défaut et de ne modifier que le fond d’écran.

En d’autres termes, les options sont destinées aux utilisateurs avancés. Les débutants peuvent très bien les ignorer.

9. L’installation des logiciels est trop compliquée

Ce mythe se présente sous deux formes. Dans la première, celui qui se plaint parle de compilation à partir du code source (je ne vois pas où est la difficulté de décompresser une archive et de suivre les instructions pour taper les commandes configure, make et make install, mais admettons que l’inconnu puisse en effrayer certains). Dans la deuxième, les gens se plaignent de ne pas pouvoir normalement se rendre sur le site du fabricant de matériel ou de logiciel pour télécharger un binaire à exécuter pour l’installer, comme on le fait sous Windows.

Ceux qui expriment ces griefs n’ont pas compris que GNU/Linux fonctionne différemment. Chaque distribution entretient ses propres dépôts de logiciels, tous prêts à l’emploi pour une distribution précise. Sauf besoin particulier, tous les logiciels dont qu’il vous faut se trouvent dans ces dépôts, et il ne vous reste plus qu’à utiliser l’installateur graphique ou son équivalent en ligne de commande.

Si vous vous en tenez aux dépôts de votre distribution, l’installation de logiciels sous GNU/Linux est en fait largement plus simple que sous Windows. Vous n’avez pas besoin d’aller au magasin, tous les logiciels sont disponibles en ligne. Vous n’avez pas besoin de payer, de vous enregistrer ni de les activer.

S’il vous faut soudain un nouveau logiciel pour une tâche précise, vous pouvez l’identifier et l’installer en quelques minutes. Si vous voulez tester plusieurs alternatives, libre à vous. Pour bénéficier de ce confort, il suffit de prendre le temps de comprendre le fonctionnement du système d’exploitation plutôt que de partir bille en tête en vous appuyant sur des « on-dit » ou sur vos connaissances antérieures.

GNU/Linux et le bureau : les vraies raisons ?

De tels arguments en disent plus long sur leurs auteurs que sur GNU/Linux. Au pire, ce sont des signes d’ignorance des dernières avancées de GNU/Linux, au mieux, c’est un ensemble de préjugés ou d’habitudes.

Mais alors, concrètement, pour quelles raisons GNU/Linux n’est-il pas plus populaire ? L’argument classique du monopole est certainement la première raison. Puisque Windows est pré-installé sur la plupart des ordinateurs et que vous devez faire l’effort de chercher pour trouver des ordinateurs avec GNU/Linux pré-installé, le problème semble assez évident.

Mais la résurrection d’Apple au cours de ces cinq dernières années laisse à penser qu’un monopole n’est pas inattaquable. La raison est peut-être plus simple encore. Malgré leurs plaintes, les gens sont habitués à Windows et ne savent même pas que GNU/Linux ou d’autres alternatives existent. Ils ne l’ont jamais testé pour de bon et se reposent sur des on-dit ou sur l’avis du copain d’un copain d’un ami qu’il leur est impossible d’évaluer.

Les prétextes qu’ils avancent montrent très clairement qu’ils ne connaissent pas GNU/Linux. Ils ont beau dire que GNU/Linux n’est pas prêt pour eux, l’inexactitude de leurs arguments laisse plutôt à penser qu’en fait, ce sont eux qui ne sont pas prêts pour GNU/Linux.

Notes

[1] Crédit photo : Fazen (Creative Commons By)