Tux Paint, interview du créateur du célèbre logiciel libre de dessin pour enfants

C’est la rentrée !

L’occasion de mettre en avant Tux Paint, l’un des meilleurs logiciels (évidemment libre) de dessin à destination des petits, mais aussi des grands 😉

HeyGabe - CC by-sa

Tux Paint en appelle à l’aide

Desperate times call for Tux Paint

Jen Wike – 25 juin 2013 – OpenSource.com
(Traduction : Antoine, Shanx, Asta)

Bill Kendrick a codé Tux Paint en seulement quelques jours. Un ami lui avait demandé pourquoi il n’existait pas un programme de dessin pour enfants libre et gratuit, comme GIMP. Bill fit un grand sourire, parce que beaucoup d’adultes ont des difficultés à apprendre à utiliser GIMP, alors que les enfants en ont beaucoup moins. Il répondit : « Je peux probablement créer quelque chose. »

C’était il y a 11 ans (la première bêta a été publiée en juin 2002). Aujourd’hui, Tux Paint est largement utilisé à travers le monde, dans les maisons, à des goûters d’enfants, et plus évidemment dans les écoles en général et celles plus défavorisées en particulier.

Une nouvelle étude publiée cette année et menée par le Conseil des Relations Étrangères rapporte que les États-Unis ont perdus 10 places ces 30 dernières années dans le classement du taux d’élèves diplômés sortant des collèges et universités. « Le véritable fléau du système d’éducation étasunien, et sa plus grande faiblesse compétitive, est le profond écart entre les groupes socio-culturels. Les étudiants riches réussissent mieux, et l’influence de la situation sociale parentale est plus forte aux États-Unis que nulle part ailleurs dans le monde développé. » affirme ainsi Rebecca Strauss, directrice associée des publications CFR’S Renewing America.

Tux Paint est un programme simple avec de profondes implications car il est libre, gratuit et facile à utiliser. Récemment, un enseignant d’une école située dans une région défavorisée a utilisé le programme de crowdfunding EdBacker pour mettre sur pied un cours estival de remise à niveau en utilisant Tux Paint. Brenda Muench rappelle qu’avant Tux Paint, elle n’a jamais rencontré, au cours de ses 16 années d’enseignement à l’école élémentaire d’Iroquois West, de logiciels de dessin véritablement adaptés pour les enfants .

Les fonds publics devenant plus rares, Bill a remarqué que les systèmes scolaires sont désormais plus souples et favorables que par le passé lorsqu’il s’agit d’utiliser ce genre de logiciel. Et les éducateurs du monde entier discutent les uns avec les autres des ressources qu’ils utilisent se passant volontiers les bons tuyaux.

Entretien avec Bill Kendrick

Comment avez-vous créé Tux Paint ?

J’ai opté pour la bibliothèque Simple DirectMedia Layer (libSDL), que j’avais déjà utilisée pour la conception de mes jeux au cours des 2-3 années précédentes (avant cela, j’avais connu des difficultés avec Xlib), et basée sur une combinaison de limitations et capacités qui a bien fonctionné : une seule fenêtre (qui garde la simplicité) et la possibilité d’utiliser le plein écran (ce qui contribue à empêcher les enfants de faire autre chose et des bêtises sur le bureau).

Un autre avantage était que Tux Paint pouvait être facilement porté vers Windows, Mac OS X et d’autres plateformes, et c’est exactement ce qui est arrivé. Je n’imaginais pas que je pouvais avoir un impact pour ces plateformes, étant donné qu’il existait déjà un grand nombre de programmes pour enfants, notamment le populaire et ancien (depuis les premiers jours de Mac) Kid Pix. Ce que je n’avais pas vu tout de suite c’est que, comme Tux Paint est libre, il est devenu une alternative peu chère (comprendre : gratuite) aux applications commerciales pour toutes les plateformes, et non pas que pour GNU/Linux. Cela s’est avéré très pratique pour les écoles, dont nous connaissons tous les problèmes actuels de financement.

Pourquoi l’interface est-elle facile d’utilisation pour les enfants de la maternelle jusqu’au primaire ?

Il y a une variété de choses que j’ai appliquées pour garder une interface simple d’utilisation :

  • de gros boutons qui ne disparaissent pas, même si vous ne les utilisez pas ;
  • toutes les actions ont une icône, ainsi qu’un texte descriptif ;
  • Tux le Pengouin fournit quelques indices, infos et états en bas de la fenêtre ;
  • des effets sonores, qui ne sont pas juste amusants, mais qui fournissent un feedback ;
  • un seul type de pop-up de dialogue, avec seulement deux options (ex. « Oui, imprimer mon dessin », « Non, retour »)
  • pas de défilement.

La raison pour laquelle Tux Paint ne vous demande pas : « Quelle taille pour votre dessin ? » est que lorsque les enfants s’asseyent avec un morceau de papier pour dessiner, ils ne commencent pas par le couper à la bonne taille. La plupart du temps, ils se contentent de commencer, et si vous leur demandez de décider quelle taille de papier ils souhaitent avant de commencer à dessiner, ils vont se fâcher et vous dire que vous ne les laissez pas dessiner !

Des effets sonores amusants et une mascotte dessinée sont importants et motivants pour les enfants, mais est-ce que les adultes utilisent Tux Paint ?

Oui, j’ai eu certaines suggestions comme quoi on l’utiliserait davantage s’il y avait un moyen de désactiver le manchot Tux. Je comprends à quel point les logiciels pour enfants peuvent parfois être énervants, c’est pourquoi j’ai créé une option « couper le son » dès le premier jour.

Quelles belles histoires à nous raconter ?

Un hôpital pour enfants a mis en place une sorte de borne d’arcade utilisant Tux Paint avec des contrôleurs spéciaux (plutôt qu’une souris).

Des élèves de CP ont utilisé la vidéo-conférence et des screencasts pour apprendre aux enfants de maternelle d’une autre école comment utiliser Tux Paint. Ces mêmes écoles utilisent aussi Tux Paint pour créer ensemble des images à partir des histoires sur lesquelles les enfants travaillent. Ils font ensuite des vidéos en intégrant ces histoires.

J’ai mis en ligne les textes de présentation de ces histoires et d’autres travaux pour encourager d’autres éducateurs à essayer et utiliser Tux Paint : « Oui, ce truc fou, libre et gratuit est génial pour les écoles ! » Bien sûr, une décennie plus tard, ce n’est plus la même bataille que d’expliquer ce qu’est le logiciel libre et quels sont ses avantages, ce qui est excellent.

Est-ce que les éducateurs utilisent Tux Paint en dehors des arts plastiques ?

Oui, tout à fait, et c’est exactement ce que j’imaginais.

Je n’ai pas créé Tux Paint pour qu’il soit uniquement utilisé en cours de dessin. Je l’ai créé pour être un outil, comme une feuille de papier et un crayon. Certaines écoles réalisent donc des vidéos à partir de contes racontés. D’autres l’utilisent en mathématiques pour apprendre à compter.

Ironie du sort, ces jours-ci, après avoir vu des choses comme M. Crayon sauve Doodleburg sur le Leapster Explorer de mon fils (qui, en passant, tourne sous Linux !), je commence à penser que Tux Paint nécessite des fonctionnalités supplémentaires pour aider à enseigner les concepts de l’art et de la couleur.

Comment les enseignants, l’administration scolaire, les parents et les contributeurs intéressés peuvent s’investir dans Tux Paint ?

Par exemple, envoyez un message à Bill pour contribuer à Tux Paint sur Android.

Il y a une liste de diffusion pour les utilisateurs (parents, enseignants, etc.) et une page Facebook, mais il y a assez peu d’activité en général car Tux Paint est vraiment facile d’utilisation et tourne sur un large panel de plateformes.

Nous avons besoin d’aide :

  • chasse aux bogues ;
  • test d’assurance qualité ;
  • traductions ;
  • œuvres d’art ;
  • idées d’amélioration ;
  • documentation ;
  • cursus scolaire ;
  • faire passer le mot ;
  • portage vers d’autres plateformes.

Crédit photo : HeyGabe (Creative Commons By-Sa)




Comment rémunérer les artistes n’est pas une question mais une insulte

La réponse de Rick Falkvinge à la sempiternelle question de la rémunération de la création qui arrive instantanément dans la bouche de certains dès que l’on parle de partage de la culture sur Internet…

Torley - CC by-sa

« Comment faudrait-il payer les artistes ? » n’est pas une question, c’est une insulte.

“How Should Artists Get Paid?” Isn’t a Question, it’s an Insult

Rick Falkvinge – 18 août 2013 – TorrentFreak
(Traduction : raphaelmartin, La goule, farlistener, mathilde, maxlath, Naar, @zessx, AmoK, audionuma, Jeey, GregR, Penguin + anonymes)

Une question revient sans cesse dans le débat sur le partage de la culture et du savoir en violation du monopole sur les droits d’auteur. Mais à bien y réfléchir ce n’est pas tant une question qu’une insulte à tous les artistes.

Nous avons tous entendu les objections face au partage de la culture et du savoir de nombreuses fois : « Comment les artistes seront-ils rémunérés si vous copiez leurs créations sans les rétribuer ? »

Cette question est délirante à plus d’un titre.

Premièrement, les artistes qui sont copiés sont rémunérés, non pas sur les ventes de ces copies mais par d’autres moyens. J’encourage par exemple la copie de mon guide de management Swarmwise, parce que je sais que la diffusion du livre entraîne d’autres formes de revenus. Selon une étude norvégienne, le revenu moyen des musiciens a augmenté de 114% depuis que les gens ont commencé à partager la culture en ligne à une grande échelle. D’autres études confirment cette observation.

Deuxièmement, même s’ils ne sont pas payés, les personnes qui partagent ne portent aucune responsabilité sur le modèle économique des entrepreneurs. C’est ce que deviennent les artistes dès lors qu’ils vont gratter leur guitare dans la cuisine en espérant vendre leurs créations : des entrepreneurs. Les même règles s’appliquent aussi bien à eux qu’à tout autre entrepreneur sur la planète : personne ne leur est redevable d’une vente, ils doivent proposer un produit que quelqu’un veut acheter. Veut. Acheter. Pas d’excuses, rien n’est dû, ce sont juste les affaires.

Troisièmement, nous ne vivons pas dans une économie planifiée. Personne n’est tenu de savoir d’où viendra le salaire d’une autre personne. En Union Soviétique, vous pouviez dire à Vladimir Sklyarov que ses pincements de guitare étaient hautement artistiques (autrement dit que personne ne les aimait) et que son prochain salaire serait versé par le Bureau des Arts Incompréhensibles, mais nous ne vivons pas dans une économie planifiée. Nous vivons dans une économie de marché. Chacun est responsable de son salaire, de trouver un moyen de gagner de l’argent en produisant de la valeur que quelqu’un d’autre veut acheter. Veut. Acheter. Pas d’excuses, rien n’est dû.

Quatrièmement, quand bien même ces entrepreneurs mériteraient de l’argent (comme par enchantement puisqu’en réalité ils ne réalisent concrètement aucune vente), le contrôle de ce que les gens se partagent ne pourrait être concrétisé sans démanteler le secret des correspondances, en surveillant chaque mot communiqué. Or les libertés fondamentales passent toujours avant le profit de qui que ce soit. Nous n’avons jamais déterminé ce que devaient être les libertés individuelles sur la base de qui pourrait en tirer profit et qui ne le pourrait pas.

Mais allons au fond du problème. Ce n’est pas une question, c’est une insulte. Une de celles qui dure depuis aussi longtemps que l’art existe lui-même, du fait que les artistes ont besoin ou même méritent d’être rémunérés. Aucun artiste ne pense en ces termes. Ceux qui le font sont les intermédiaires commerciaux parasites que l’on retrouve défendant le monopole du droit d’auteur, puis laissant les artistes et leurs fans à sec, se frottant les mains sur le chemin de la banque alors qu’ils exploitent impitoyablement un système de monopole légal : le monopole du copyright.

Une insulte qui a existé de tout temps dans l’histoire de l’Art. Une insulte entre artistes qui discrédite l’art de quelqu’un, sous-entendant qu’il ne mérite même pas d’être appelé un artiste. Cette insulte est : « Tu fais ça pour l’argent. »

« Comment doivent-être payés les artistes ? », est une question qui induit que les artistes ne veulent pas jouer ou créer autrement que pour de l’argent, ce qui constitue une insulte très grave.

Il est une raison pour laquelle « se vendre » est un terme fortement négatif en art. Une large majorité des artistes font la gueule quand on leur demande s’ils jouent pour de l’argent ; c’est, je me répète, une insulte grave. L’idée toujours rabâchée qu’on ne crée pas de culture si l’on n’est pas payé en retour vient de ceux qui exploitent les artistes, et jamais des artistes eux-mêmes.

Après tout, si nous créons, ce n’est pas parce que nous pouvons en tirer de l’argent à titre individuel, mais grâce à ce que nous sommes, ce dont nous sommes faits, comment nous sommes connectés. Nous créons depuis que nous avons appris à mettre de la peinture rouge sur les parois des cavernes. Nous sommes des animaux culturels. La culture a toujours fait partie de notre civilisation, qu’elle soit rémunérée ou non.

Si un artiste veut vendre ses biens ou ses services et devenir un entrepreneur, je lui souhaite toute la chance et le succès du monde. Mais les affaires sont les affaires, et il n’y a rien qui assure à un entrepreneur de vendre.

Crédit photo : Torley (Creative Commons By-Sa)




Vous n’avez pas peur que quelqu’un vous pique votre idée ?

Daniel Solis est un concepteur de jeux de société. Il n’a jamais hésité à publier ses idées sur son blog avant même qu’elles ne soient susceptibles de se concrétiser un jour.

Le pari de l’ouverture en somme et il s’en explique ci-dessous.

Michael Elleray - CC by

Vous craignez que quelqu’un vous pique votre idée ?

Afraid someone will steal your idea?

Daniel Solis – 27 août 2013 – OpenSource.com
(Traduction : Asta, toufalk, audionuma, Slystone, KoS, Pouhiou, goofy + anonymes)

Je suis concepteur de jeux de société. C’est un boulot amusant, créatif et effrayant, à des années-lumière de ma carrière précédente dans la publicité. Dans ces deux domaines, on attribue une haute valeur aux idées, particulièrement aux idées « nouvelles ». Personne n’aime se faire doubler. Que ce soit une campagne publicitaire ou un jeu de société, vous voulez être le premier à le sortir.

Il pourrait donc paraître étrange que j’aie passé dix ans à bloguer mon processus de conception de jeux. Chacun de mes concepts foireux et de mes prototypes finalisés est mis en ligne, visible par tout le monde.

La question qui revient le plus souvent est : « Vous n’avez pas peur que quelqu’un vous pique votre idée ? »

À ceux qui posent cette question, ce que je vous entends dire c’est : « J’aurais peur qu’on me pique mon idée ».

Je comprends ! Vous êtes vraiment fier de votre mécanisme de jeu novateur, de votre thème si original, ou d’autre chose issu de votre propriété intellectuelle qui vaudra des millions. C’est bien d’être fier de son travail ! Ça vous aide à persévérer durant ces heures sombres où vous vous demandez si vous ne feriez pas mieux d’avoir un autre passe-temps, genre le golf sur omelette.

Mais cette fierté peut aussi vous donner d’étranges inquiétudes, par exemple que quelqu’un d’autre s’intéresse à peu près autant que vous à votre idée. Ce n’est pas une insulte à votre idée, mais simplement nécessaire dans le domaine de la création. Si quelqu’un s’intéressait autant que vous à votre idée de jeu, il y passerait déjà ses nuits… toutes ces longues heures qu’il faut pour tester le jeu, développer, pleurer, réviser, pleurer, et tester le jeu à nouveau jusqu’à ce que l’idée devienne un jeu digne de ce nom.

Attendez : vous y passez déjà ces longues heures, n’est-ce pas ? Par pitié, ne me dites pas que vous êtes angoissé par le vol de votre idée avant même d’y avoir investi ce temps de développement. Ne me dites pas que vous avez fait des recherches sur les brevets, les droits d’auteur, les clauses de confidentialité et le dépôt de marque avant même de vous mettre à tester le jeu. Ne me dites pas que vous ne testez le jeu qu’avec des proches, qui ont donc tout intérêt à ne pas vous briser le cœur. Vous ne faites pas tout cela, n’est-ce pas ? Bien sûr que non, ce serait idiot. Cette paranoïa n’est qu’un prétexte pour ne pas se mettre au travail.

Voici quelques petites choses que j’ai apprises après des années à concevoir des jeux en public. J’espère que ces observations seront pertinentes dans votre propre processus créatif.

Gadl - CC by

La vérité sur les idées

Les idées ne sont pas si particulières.

Sérieusement, une idée sympa ne peut pas en elle-même constituer un jeu. Antoine Bauza a récemment reçu le « Prix du Jeu de l’Année » au festival du jeu d’Essen, en Allemagne. Il a reçu ce prix pour Hanabi, un petit jeu de cartes collaboratif dans lequel les joueurs tiennent leurs cartes à l’envers et dépendent des autres pour recueillir des informations précises sur leur propre main. Il ne s’est pas juste réveillé un matin en disant « Hé, je veux faire un jeu où on tient ses cartes à l’envers et où on doit collaborer » et a reçu alors le prix « Spiel de Jahres ». Non, il y a eu une masse de travail et deux éditions distinctes avant qu’Hanabi soit reconnu pour son inventivité et devienne un succès commercial.

Les idées ne dévoilent pas l’émergence.

Même si votre idée est à 100% originale, l’idée seule ne vaut rien. C’est le travail de dévoilement des propriétés émergentes qui rend l’idée valable. Reprenons l’exemple du jeu Hanabi de Bauza : pour obtenir un jeu aussi élégant, il a fallu consacrer beaucoup de temps à chaque décision lors de la conception. Avec si peu de règles du jeu, tout devient beaucoup plus important. Combien de couleurs devrait-il y avoir dans le jeu ? Combien de cartes de chaque rang ? Quel est le score moyen sur une centaine de parties ? Comment les joueurs communiquent-ils entre eux pendant une partie ? Aucune de ces questions ne trouve de réponse tant que l’ « idée » n’est pas matérialisée sur la table. Il y a d’innombrables propriétés émergentes qui ne se révèlent qu’après des parties tests.

Vos idées sont piquées… à quelqu’un d’autre.

J’ai un placard rempli d’idées qui n’ont jamais abouti, pour diverses raisons. Des idées partout ! Sérieusement, tenez, prenez-en, j’en ai trop. Nous les avons toutes et il y a des chances qu’aucune d’entre elles ne soit originale. Pas les miennes, ni probablement les vôtres. Nous ne pouvons pas échapper aux déterminants de notre époque, nous pouvons seulement y réagir, et les répéter. Nous baignons dans un courant d’influences, qu’on le réalise ou non. Un simple exemple : essayez de penser à une nouvelle pièce de jeu d’échecs. Allez-y, peut-être qu’elle se déplace comme un fou, mais en étant limité à deux cases ? Peut-être qu’elle se déplace comme un roi, mais de deux cases seulement si elle se déplace en avant et peut seulement capturer en diagonale ? Ok, maintenant considérez les centaines de pièces d’échecs qui sont quelque part dans le monde, et voyez s’il vous reste de la place pour innover. Est-ce que c’est dégrisant ? Oui. Est-ce que c’est décourageant ? Foutrement non.

Votre idée toute seule ne constitue pas un jeu.

Prenons le temps de regarder les choses calmement. Si un jeu n’est pas joué, est-ce que c’est toujours un jeu ? Est-ce que c’est seulement un jeu quand il est joué ? Voilà les questions que je vous pose si vous vous préoccupez de garder jalousement vos préééécieuses idées pour vous, au lieu de les confronter vraiment au regard du plus de monde possible. Votre idée n’est pas un jeu. Seul votre jeu en est un. Il en est un seulement si les gens y jouent. Cela signifie que vous devez faire des prototypes, écrire des règles, et affronter la gêne sociale de demander à des étrangers de jouer le jeu, avec une règle supplémentaire : cela pourrait ne même pas être amusant. C’est ce qui rendra votre idée précieuse. Et devinez quoi ? Quand le jeu est amusant, la victoire en sera d’autant plus savoureuse.

La valeur, ça prend du temps, beaucoup de temps.

Tout ça pour dire… Non, je ne suis pas effrayé par l’idée que quelqu’un me vole mes idées. En fait, c’est exactement le contraire. Je ne serais pas là si je n’étais pas si ouvert au sujet de mes processus de création. Je le fais publiquement depuis maintenant une dizaine d’années. Mais quand j’ai commencé, oui, j’avais peur !

Tout a commencé autour de 1999 quand j’ai créé un jeu de fan dérivé du jeu de rôle World of Darkness à propos de zombies doués de sensations. Il s’appelait Zombie: the Coil. Je pensais pouvoir combler un trou dans la mythologie de WoD. Et punaise, je l’ai farci de tout ce que je pensais qu’un bon RPG devait contenir : faits artificiels, mécanismes inconsistants, postures punk-rock, complainte gothique. J’avais juste copié la structure des propriétés des jeux White Wolf (NdT: la société d’éditon de World of Darkness) de l’époque, je l’avais écrit avec ces contraintes et posté le résultat sur mon site pourri.

J’ai alors été effrayé par le fait que White Wolf pourrait me voler mon idée. J’ai appris qu’ils sortaient Hunter: the Reckoning et que ça parlait de zombies. Oh non, des zombies dans World of Darkness ? Merde ! Tout ce que j’avais écrit partait en fumée ! Peu importe que je n’aie pas essayé de contacter White Wolf en premier lieu. Pouvez-vous imaginer ma naïve audace ? Je pique pas mal de trucs dans les bouquins de White Wolf et après je suis inquiet qu’ils se penchent sur mon travail ? Remets ça à l’endroit, jeune Daniel. Zombie: the Coil, ça craint. Mais continue, tu trouveras ton processus de conception dans presque 15 ans (et aussi, jeune Daniel, arrête de porter des manteaux en Floride, tu as l’air d’un parfait idiot). Pas la peine de préciser que White Wolf a fait son chemin dans les année 90 sans ma petite contribution. Mais dépasser cette peur, être à l’aise pour montrer mon travail aux autres et affronter les critiques, ça, ça a de la valeur. Et alors, j’ai continué à concevoir plein de jeux débiles.

Ni génie, ni mysticisme. Seulement le travail.

Ne croyez pas cette mythologie du génie. C’est un mirage. Peut-être qu’il existe des génies, mais vous ne pouvez pas partir du principe que vous en êtes un. C’est comme vivre en croyant qu’on va régulièrement gagner au loto. Non, la valeur vient du travail et personne n’en fera autant que vous. Achetez une pizza aux testeurs de votre jeu. Crevez-vous à trouver la terminologie du jeu. Assemblez et finalisez trois prototypes d’affilée puis recommencez de zéro. Là réside l’artisanat, le métier de conception de jeux. Alors on s’y remet !

JD Hancock - CC by

Crédit photos : Michael Elleray, Gadl et JD Hancock (Creative Commons By)




Comment Isaac Asimov voyait 2014 en 1964

En 1964, le célèbre écrivain de science-fiction Isaac Asimov visitait l’Exposition Universelle de New York. Il se mit alors à imaginer, dans l’article traduit ci-dessous, ce qu’il pourrait bien advenir dans 50 ans, c’est-à-dire en 2014.

Force est de constater que bon nombre de ses hypothèses étaient prémonitoires…

Abode of Chaos - CC by

Visite de l’Exposition Universelle de New York de 2014

Visit to the World’s Fair of 2014

Isaac Asimov – 16 août 1964
(Traduction : Jeff, hilde, k, anonyme1, karec, Sky, pyro, aKa, Chloé, MalaLuna, tchevengour, simplementNat, bl0fish, pyro, @zessx, Underrated, lordgun, Beij, goofy, greygjhart, HgO, zer0chain, GregR, Asta + anonymes)

L’Exposition Universelle de New York de 1964 est consacrée à « La paix par la compréhension » (NdT : Peace Through Understanding). L’aperçu qu’elle donne du monde de demain écarte l’hypothèse d’une guerre nucléaire. Et pourquoi pas ? Si une telle guerre a lieu le futur ne mérite pas d’être évoqué. Laissons donc les missiles sommeiller éternellement dans leurs silos et observons ce qui pourrait advenir d’un monde qui ne serait pas atomisé.

Ce qui est à venir, du moins au travers de la lunette de l ‘Exposition, est merveilleux. Le futur vers lequel l’Homme se dirige est vu avec un espoir plein d’entrain, nulle part mieux montré qu’au pavillon de la General Electric. Ici les spectateurs tourbillonnent parmi quatre scènes, chacune contenant des mannequins souriants, quasiment vivants, qui bougent et parlent avec une telle aisance que, pendant près d’une minute et demie, ils vous convainquent qu’ils le sont vraiment.

Ces scènes, qui se déroulent en 1900, 1920, 1940 et 1960, montrent les progrès des appareils électriques et les changements qu’ils apportent à la vie quotidienne. J’y ai pris énormément de plaisir et je regrette seulement qu’ils n’en aient pas imaginé de semblables dans le futur. Que sera la vie, par exemple en 2014, dans 50 ans ? À quoi ressemblera l’Exposition Universelle de 2014 ?

Je ne sais pas, mais je peux essayer de deviner.

Une pensée qui me traverse l’esprit est que les hommes continueront à fuir la nature pour créer un environnement plus à leur convenance. D’ici 2014 les panneaux électroluminescents seront communément utilisés. Les murs et les plafonds brilleront doucement, dans une variété de teintes qui changera à la pression d’un bouton.

Les fenêtres seront devenues archaïques, et quand bien même présentes elles seront polarisées pour bloquer les rayons du soleil les plus durs. Le degré d’opacité du verre étant même fait pour varier automatiquement selon l’intensité de la lumière.

On trouve une maison souterraine à l’Exposition qui semble être un signe du futur. Si ses fenêtres ne sont pas polarisées, elles peuvent en revanche changer le « paysage » en modifiant l’éclairage. Les maisons en périphérie des villes, avec variateur de température, air filtré, et contrôle de la lumière, seront monnaie courante, libérées ainsi des vicissitudes de la météo. À l’Exposition Universelle de 2014, le « Futurama » de General Motors (NdT : attraction populaire réalisée par General Motors pour l’Exposition Universelle de 1939) présentera sans doute des visions de cités souterraines pleines de potagers sous lumière artificielle. La surface ainsi gagnée, expliquera General Motors, sera dédiée à l’agriculture à grande échelle, aux pâturages et parcs, avec moins d’espace gaspillé pour l’occupation humaine.

Des appareils continueront de soulager l’humanité des travaux fastidieux. Les cuisines seront conçues de manière à préparer des « auto-repas », chauffant l’eau et la transformant en café ; grillant le pain et le bacon ; cuisant, pochant ou brouillant des œufs, etc. Le petit-déjeuner sera « commandé » la veille afin d’être prêt à l’heure spécifiée le lendemain matin. Des repas et dîners entiers, avec des aliments semi-préparés, seront conservés au congélateur jusqu’au moment de leur préparation. Je soupçonne, cependant, que même en 2014, il sera bon d’avoir un petit coin dans la cuisine où des repas plus individuels pourront être préparés à la main, en particulier lorsque l’on reçoit des invités.

En 2014 les robots ne seront ni courants ni très élaborés mais ils existeront. L’exposition IBM n’a pas de robots aujourd’hui mais elle est dédiée aux ordinateurs, qui sont montrés dans toute leur incroyable complexité, notamment dans la tâche de traduction du russe vers l’anglais. Si les machines sont si intelligentes aujourd’hui, qui sait ce qu’elles feront dans 50 ans ? Ce seront des ordinateurs beaucoup plus miniaturisés qu’aujourd’hui, qui serviront de « cerveaux » aux robots. L’une des principales attractions du pavillon IBM à l’Exposition Universelle de 2014 pourrait être une femme de ménage robotique, gauche et grosse, bougeant lentement mais cependant capable de ramasser, ranger, nettoyer et manipuler divers appareils. Cela amusera sans aucun doute les visiteurs de disperser des débris sur le sol afin de voir cette ménagère robotique les enlever maladroitement et les classer entre « à jeter » et « mettre de côté ». (Des robots jardiniers auront aussi fait leur apparition.)

General Electric à l’Exposition Universelle de 2014 montrera des films en 3D de ses « Robots du Futur » élégants et profilés et ses appareils de ménage intégrés effectuant toutes les tâches promptement. (Il y aura une file d’attente de trois heures pour voir le film, il y a certaines choses qui ne changent jamais.)

Bien sûr les appareils de 2014 n’auront besoin d’aucun câble électrique. Ils seront alimentés par des batteries longue durée à énergie nucléaire (radioisotope). Le combustible ne sera pas cher car il sera le sous-produit des centrales à fission qui, en 2014, fourniront plus de la moitié des besoins énergétiques de l’humanité. Mais, une fois ces batteries à isotopes épuisées, elles ne seront éliminées que par des agents autorisés par le fabricant.

Et une ou deux centrales expérimentales à fusion nucléaire existeront déjà en 2014 (même aujourd’hui, une petite mais véritable fusion nucléaire est présentée régulièrement par la General Electric, à l’Exposition Universelle de 1964). De grandes centrales d’énergie solaire seront aussi en fonction dans plusieurs zones désertiques et semi-désertiques telles que l’Arizona, le Néguev ou le Kazakhstan. Dans les zones plus fréquentées, mais plus nuageuses et brumeuses, l’énergie solaire sera moins efficace. Une présentation à l’Exposition Universelle de 2014 montrera des modèles de centrales énergétiques dans l’espace, collectant les rayons solaires à l’aide d’immenses paraboles, renvoyant l’énergie ainsi collectée sur Terre.

Le monde d’ici 50 ans aura encore rétréci. À l’Exposition Universelle de 1964, la présentation de General Motors décrit, entre autres choses, des « usines de construction de routes » dans les tropiques et, plus près de chez nous, des autoroutes surchargées avec de long bus se déplaçant sur des voies centrales réservées. Il y a de fortes chances que l’utilisation de routes, du moins dans les régions du monde les plus avancées, aura passé son pic en 2014 ; l’intérêt se portera alors de plus en plus sur les transports réduisant au maximum le contact avec la surface terrestre. Il y aura l’aviation, bien sûr, mais les transports terrestres seront de plus en plus aériens (environ 50 cm au-dessus du sol). Les visiteurs de l’Exposition Universelle de 1964 peuvent s’y déplacer dans un « hydroptère », qui s’élève sur quatre pylônes et glisse sur l’eau avec un minimum de frictions. Ceci n’est sûrement que temporaire. En 2014, les quatre pylônes auront été remplacés par quatre jets d’air comprimé afin que le véhicule n’ait plus aucun contact avec les surfaces liquides ou même solides.

Les jets d’air comprimé serviront également à soulever les véhicules terrestres au-dessus des routes, ce qui, entre autres choses, réduira les problèmes de pavage. Une terre damée ou une pelouse tondue feront tout aussi bien l’affaire. Les ponts auront aussi une moindre importance dès lors que les voitures seront capables de traverser l’eau à l’aide de leurs jets d’air comprimé, bien que les arrêtés locaux décourageront cette pratique.

Beaucoup d’efforts seront consacrés à la conception de véhicules munis de « cerveaux-robot » qui pourront être configurés pour une destination particulière et s’y rendront sans l’interférence des lents réflexes d’un conducteur humain. Je soupçonne qu’une des attractions majeures de l’exposition 2014 sera la balade sur des petites voitures robotisées qui manœuvreront dans la foule 50 cm au-dessus du sol, avec dextérité et en s’évitant automatiquement.

Pour les voyages de courte distance, des trottoirs mobiles surélevés (avec des bancs de chaque côté, des places debout au centre) feront leur apparition dans les sections du centre-ville. Le trafic continuera (sur plusieurs niveaux dans certains endroits) uniquement parce que tout les parkings seront hors voirie et qu’au moins 80 % des livraisons par camion seront effectuées dans des centres précis en périphérie de la ville Des tubes à air comprimé transporteront biens et matériaux sur des distances locales, et les aiguillages qui achemineront les cargaisons spécifiques vers les destinations correspondantes seront une des merveilles de la ville.

Les communications se feront par visioconférence et vous pourrez à la fois voir et entendre votre interlocuteur. L’écran, en plus de vous permettre de voir les gens que vous appelez, vous permettra également daccéder à des documents, de voir des photographies ou de lire des passages de livres. Une constellation de satellites rendra possible les appels directs vers n’importe quel point de la terre, même la station météorologique en Antarctique (visible dans toute sa splendeur glacée sur le stand de General Motors en 64).

D’ailleurs, vous serez en mesure de joindre quelqu’un sur les colonies sélènes (sur la Lune), pour lesquelles General Motors présente une gamme de véhicules impressionnants (sous forme de maquettes) avec de larges pneus tendres prévus pour les terrains accidentés qui peuvent exister sur notre satellite naturel.

Quantités de conversations simultanées entre la Terre et la Lune pourront être facilement traitées par des faisceaux laser modulés, lesquels seront très faciles à manipuler dans l’espace. Sur Terre, par contre, les rayons laser devront être enfermés dans des tubes en plastique pour éviter les interférences atmosphériques, problème sur lequel les ingénieurs continueront à travailler.

Converser avec la Lune sera simple mais inconfortable à cause des 2,5 secondes de délai entre les questions et les réponses (le temps nécessaire pour que la lumière fasse l’aller-retour). Le même genre de communication avec Mars prendra 3,5 minutes même lorsque Mars est au plus près de la Terre. Cependant, en 2014, seules des sondes téléguidées s’y seront posées, mais une expédition habitée sera en préparation et, dans le Futurama de 2014, on pourra trouver une maquette de colonie martienne élaborée.

Quant à la télévision, des murs-écrans auront pris la place de l’équipement habituel, mais des cubes transparents feront leur apparition, dans lesquels la vision tri-dimensionnelle sera possible. En fait, une des présentations populaires à l’Exposition Universelle de 2014 sera une télévision 3D, grandeur nature, dans laquelle on verra des spectacles de ballet. Le cube tournera lentement pour montrer la vision sous tous les angles.

Nous pouvons poursuivre indéfiniment cette joyeuse extrapolation, mais tout n’est pas aussi rose.

Dans la file d’attente pour la présentation de la General Electric à l’Exposition Universelle de 1964, je me suis retrouvé face au menaçant panneau d’Equitable Life (NdT : une compagnie d’assurance américaine), égrenant l’augmentation de la population des États-Unis (plus de 191 000 000) d’une unité toutes les 11 secondes. Pendant le temps que j’ai passé à l’intérieur du pavillon de la General Electric, la population américaine a presque gagné 300 âmes, et la population mondiale environ 6 000.

En 2014, il est fort probable que la population mondiale sera de 6,5 milliards et que les États-Unis compteront 350 millions d’habitants. La zone de Boston à Washington, la plus dense de cette taille sur Terre, sera devenue une mégalopole avec une population de plus de 40 millions d’habitants.

La pression démographique va forcer l’urbanisation croissante des déserts et des régions polaires. Le plus surprenant, et d’une certaine manière le plus réconfortant, est que 2014 marquera le début des grands progrès dans la colonisation des plateaux continentaux. Le logement sous-marin sera prisé par les amateurs de sports nautiques, et encouragera sans aucun doute une meilleure exploitation des ressources maritimes, nutritives et minérales. La General Motors a exposé, dans sa présentation de 1964, une maquette d’hôtel sous-marin d’un luxe alléchant. L’Exposition Universelle de 2014 présentera des villes de fonds marins, avec des lignes de bathyscaphes transportant hommes et matériel dans les abysses.

L’agriculture traditionnelle aura beaucoup de difficultés à s’adapter. Des fermes se spécialiseront dans la culture de micro-organismes plus efficaces. Les produits à base de levures et d’algues transformées seront disponibles dans de multiples saveurs. L’Exposition Universelle de 2014 comportera un bar à algues, dans lequel des imitations de dinde et des pseudo-steaks seront servis. Ce ne sera pas mauvais du tout (si vous pouvez supporter ces prix élevés), mais il y aura une barrière psychologique importante à lever face à une telle innovation.

En 2014 la technologie continuera à suivre la croissance démographique au prix d’immenses efforts et avec un succès incomplet. Seule une partie de la population mondiale profitera pleinement de ce monde gadgétisé. L’autre, plus grande encore qu’aujourd’hui en sera privée et, en attendant de pouvoir accéder à ce qui se fait de mieux, matériellement parlant, sera en retard comparée aux parties du monde les plus développées. Ils auront même régressé.

La technologie ne peut plus continuer à suivre la croissance démographique si celle-ci reste incontrôlée. Pensez au Manhattan de 1964, avec une densité de population de 32 000 habitants au kilomètre carré la nuit, et de plus de 40 000 pendant la journée de travail. Si la Terre entière, y compris le Sahara, l’Himalaya, le Groenland, l’Antartique et chaque kilomètre carré des fonds marins, au plus profond des abysses, était aussi peuplée que Manhattan à midi, vous conviendrez sûrement qu’aucun moyen pour subvenir à une telle population (et encore moins pour lui apporter un certain confort) ne serait envisageable. En fait, ces moyens deviendraient insuffisants bien avant que ce Manhattan géant ne soit atteint.

Et bien, la population de la Terre approche maintenant des 3 milliards et double tous les 40 ans. Si cette croissance se confirme, le monde deviendra un Manhattan géant d’ici seulement 500 ans. Toute la Terre ne sera qu’une unique ville comme Manhattan d’ici l’année 2450 et la société s’écroulera bien avant cela !

Il n’y a que deux façon d’éviter cela: (1) élever le taux de mortalité (2) baisser le taux de natalité. Indubitablement, le monde de 2014 se sera mis d’accord sur la deuxième méthode. En effet, l’utilisation croissante des appareils mécaniques pour remplacer les cœurs et les reins défaillants, et le soin de l’arteriosclérose et de la rupture d’anévrisme auront repoussé le taux de mortalité encore plus loin et auront rehaussé l’espérance de vie dans certaines parties du monde à l’âge de 85 ans.

Il y aura, par conséquent, une propagande mondiale en faveur du contrôle de la natalité par des méthodes rationnelles et humaines et, en 2014, elles auront sans aucun doute de sérieux effets. L’inflation démographique aura sensiblement baissé, je suppose, mais pas suffisamment.

L’une des présentations les plus importantes de l’Exposition de 2014 sera donc une série de conférences, de films et de matériel documentaire au Centre de Contrôle de la Population Mondiale (pour adultes uniquement ; projections spéciales pour les adolescents).

La situation empirera du fait des progrès de l’automatisation. Seuls quelques emplois de routine persisteront pour lesquels les machines ne remplacent pas l’être humain. En 2014 l’humanité leur sera asservie. Les écoles devront être réorientées dans cette direction. Une partie de la présentation de la General Electric d’aujourd’hui est une école du futur dans laquelle les réalités actuelles comme la télé en circuit-fermé et les bandes pré-enregistrées facilitent le processus d’apprentissage. Cependant, ce ne sont pas uniquement les techniques qui évolueront dans l’enseignement, mais également les contenus. Tous les élèves de l’enseignement secondaire apprendront les fondamentaux de la programmation, deviendront des as en arithmétique binaire, et seront formés à la perfection à l’utilisation des langages informatiques qui auront été développés, comme le Fortran (NdT pour « Formula Translator », un langage utilisé en calcul scientifique).

Même ainsi l’humanité souffrira sévèrement d’ennui, un mal se propageant chaque année davantage et gagnant en intensité. Cela aura de sérieuses conséquences aux niveaux mental, émotionnel et social. La psychiatrie sera de loin la spécialité médicale la plus importante en 2014. Les rares chanceux qui auront un travail créatif seront la vraie élite de l’humanité, car eux seuls feront plus que servir une machine.

L’hypothèse la plus sombre que je puisse faire pour 2014 est que dans une société de loisirs forcés, le mot travail sera le plus valorisé du vocabulaire !

Crédit photo : Abode of Chaos (Creative Commons By)




Concurrence déloyale des logiciels libres en Europe ? La réponse de la FSFE

Le groupe de pression « FairSearch » (Microsoft, Nokia, Oracle…) prétend que Android fausse la concurrence parce qu’il est libre et gratuit et vient s’en plaindre à la Commission Européenne.

Traduite par nos soins, une réponse de la Free Software Foundation Europe s’imposait.

Laihiu - CC by

Les objections de la FSFE aux prétendues pratiques de « prix prédatoires » des logiciels libres

FSFE objects to claims of ‘predatory pricing’ in Free Software

(Traduction : Asta, GregR, Kiwileaks, KoS, Rinzin, Scailyna, Slystone, Tentate, aKa, audionuma, hugo, lamessen, lu, madalton + anonymes)

À :
Commission Européenne
DG Concurrence
B-1049 Bruxelles
Belgique

Juillet 2013

Selon des informations publiées dans un media spécialisé en ligne, la coalition dénommée « FairSearch » (composée de Microsoft, Nokia, Oracle et un certain nombre de fournisseurs de services en ligne) prétend dans sa dernière demande à la Commission Européenne que la distribution gratuite d’Android, un système d’exploitation libre[1] pour mobiles développé par Google, constitue une pratique de prix prédatoires. Suggérer que la distribution gratuite de logiciels libres pénalise la concurrence est d’une part faux en soi, et constitue d’autre part un danger pour la concurrence et l’innovation.

Nous exhortons la Commission à examiner les faits comme il se doit avant d’admettre les allégations de FairSearch comme établies. Nous vous écrivons aujourd’hui afin d’expliquer comment la distribution de logiciels libres, qu’elle soit gratuite ou contre rémunération, promeut la concurrence plutôt que de la mettre à mal.

La Free Software Foundation Europe (FSFE) est une organisation associative indépendante et à but non lucratif qui se consacre à la promotion du logiciel libre. La FSFE défend l’idée que les libertés d’utiliser, de partager et d’améliorer les logiciels sont essentielles pour assurer une participation de tous à l’ère informatique. Nous travaillons en faveur d’une compréhension et d’un soutien global vis-à-vis du logiciel libre en politique, en droit et dans la société en général. Nous promouvons également le développement des technologies, telles que le système d’exploitation GNU/Linux, qui assurent ces libertés à tous les participants de la société numérique. Pour atteindre ces buts, nous avons une longue histoire d’implication active dans les processus de concurrence qui affectent le logiciel libre.

Le logiciel libre est une question de liberté, pas de prix.

Le terme « libre » dans logiciel libre évoque la notion de liberté, et non celle de prix (NdT la fameuse ambiguité sur le mot anglais free). Plus précisément, le logiciel libre offre aux utilisateurs les libertés suivantes :

  • exécuter le programme, sans limitation ;
  • étudier le code source du programme et comprendre comment il fonctionne ;
  • partager le programme avec d’autres, que cela soit gratuitement ou moyennant finance ;
  • améliorer le programme et distribuer ses améliorations.

Prises ensemble, ces quatre libertés font du modèle du logiciel libre une force puissante et disruptive pour la concurrence. Le logiciel libre a contribué de façon considérable à la rupture d’anciens monopoles construits par les fabricants de logiciels propriétaires tels que Microsoft.

Dans de nombreux domaines, les logiciels libres sont depuis longtemps les applications majeures, ou les alternatives concurrentes les plus puissantes. Cela inclut les serveurs web[2], la navigation web (Firefox), les suites bureautiques (LibreOffice, OpenOffice), et les systèmes d’exploitation de serveurs. 93% des 500 supercalculateurs mondiaux sont basés sur des systèmes d’exploitation libres.

Le logiciel libre est la norme pour les fabricants de périphériques embarqués, comme les télévisions « intelligentes », les routeurs DSL, et les ordinateurs de bord des voitures, pour ne citer qu’eux. De nos jours, des entreprises leaders du web, comme Facebook, Amazon et Google, s’appuient fortement sur le logiciel libre pour construire leurs offres. Le logiciel libre fait aussi fonctionner pléthore de startups et de concurrents avec des architectures et des services qui constituent des alternatives aux prestataires établis.

La tendance dans le mobile et ailleurs est irrémédiablement aux logiciels libres

Selon les sources accessibles au public, le fond de la revendication de FairSearch est qu’en « distribuant Android gratuitement », Google empêche les systèmes d’exploitation concurrents d’obtenir un retour sur investissement dans leur concurrence de « la plate-forme mobile dominante de Google ».

La FSFE s’oppose fermement à cette qualification : le logiciel libre est un moyen très efficace de produire et distribuer du logiciel. La vente de licences n’est que l’un des nombreux moyens de monétiser le logiciel.

Android est une plateforme logicielle construite autour du noyau Linux et de Java, par le fork Dalvik, ce qui est possible parce que Java et le noyau sont disponibles sous licence libre. N’importe qui peut prendre Android et le transformer en quelque chose de meilleur et de plus libre, avec ou sans liens avec Google, et ce aussi longtemps que le code source sera disponible, comme il l’est actuellement. Replicant et CyanogenMod sont simplement deux exemples notables, tous deux installés sur des millions de terminaux. L’adoption d’Android par Facebook pour ses propres besoins montre à quel point la plateforme est véritablement ouverte, au point qu’un concurrent peut proposer une interface graphique (GUI) alternative qui est essentiellement destinée aux services d’un concurrent.

En ce qui concerne Java, la Commission a déjà constaté la forte valeur d’une plateforme non fragmentée et reconnaît qu’il existe de fortes motivations à la prévention de sa fragmentation[3]. À tout le moins, Android a attiré les critiques du fait que ses conditions de licence et d’ouverture favorisent la fragmentation, contre ses propres intérêts. La fragmentation est une menace liée à la liberté de « forker ». Dans un contexte propriétaire, le contrôle étroit sur le droit d’auteur, les marques et les brevets empêche facilement la fragmentation. À l’inverse, dans un environnement libre, la fragmentation est évitée par le consensus, le l’autorité fondée sur le mérite, et parfois par l’utilisation de marques (Red Hat, Mozilla). Linux, le noyau commun aux systèmes d’exploitation Android et GNU/Linux a échappé jusqu’à présent à la fragmentation non pas parce qu’elle est impossible ou interdite ? elle ne l’est certainement pas ?, mais parce qu’elle ne rimerait à rien. Au sein d’une plateforme, assurer la plus large compatibilité et un haut degré de standardisation est une préoccupation constante de tout projet, et constitue d’une part une incitation forte pour éviter les abus de la communauté, et d’autre part une pression constante sur le ou les chefs de file du projet pour qu’ils avancent par consensus[4].

Afin de bien illustrer la façon dont le logiciel libre favorise la concurrence, nous faisons remarquer que tous les ajouts récents à la liste des systèmes d’exploitation mobiles sont largement du logiciel libre. Bien que les appareils Android représentent actuellement aux alentours de 70% des ventes de téléphones portables et tablettes, plusieurs autres systèmes d’exploitation mobiles libres basés sur le noyau Linux émergent pour entrer en concurrence avec Android. Les exemples incluent Firefox OS (soutenu par la fondation Mozilla), Jolla (issu des cendres de Maemo, un projet de la société Nokia interrompu suite à l’alignement stratégique de celle-ci sur Microsoft), Tizen (soutenu par Samsung, Intel et plusieurs opérateurs téléphoniques tels que Vodafone et NTT Docomo), et UbuntuMobile (soutenu par Canonical).

La distribution libre du code n’a rien a voir avec les prix prédatoires

Dans sa demande, la coalition FairSearch affirme que la disponibilité gratuite d’Android rend difficile ou impossible la concurrence sur le marché des systèmes d’exploitation mobiles.

Cependant, la vente de licences n’a jamais été une stratégie importante dans le marché du mobile. À la base, le constructeur de Blackberry, RIM, vendait des appareils et des logiciels et services pour les serveurs dans le secteur des entreprises. Apple a financé son iOS propriétaire grâce à ses services et composants vendu à la fois par Apple et par des entreprises tierces réduisant considérablement les revenus générés par le magasin en ligne iTunes. Nokia a essayé de maintenir deux systèmes d’exploitations différents, tous deux finalement libres (Symbian et Maemo, ensuite renommé en Meego, et maintenant forké par Jolla et son SailFish). Seul Microsoft a réussi à garder une position de vendeur de logiciel indépendant, arguant de l’avantage tiré de l’intégration avec ses services réseaux.

Il semblerait donc que le seul motif envisageable à la plainte de la coalition FairSearch soit que l’existence d’un certain nombre de systèmes d’exploitations mobiles libres, dont Android, rende la tache plus difficile à Microsoft pour reproduire son modèle économique dans le marché mobile. En soi, la demande de FairSearch à la commission revient à favoriser un modèle économique plutôt qu’un autre. C’est exactement à l’opposé de ce qu’une autorité de concurrence devrait appliquer pour maintenir un marché concurrentiel.

La FSFE a toujours clairement affirmé qu’une licence propriétaire est un système de production de logiciel obsolète et inefficace. De notre point de vu, Google n’a ni l’intention ni les moyens de monopoliser le marché du système d’exploitation mobile, tout simplement parce qu’il n’y a pas de marché des licences de systèmes d’exploitations propriétaires.

La pratique de prix prédatoires alléguée par FairSearch est clairement inadaptée à la réalité d’un marché où il n’y a pas de prix, et d’un produit qui, étant un logiciel libre, peut être littéralement pris par n’importe qui et « forké », ce qui est une pratique que la Commission avait déjà abordée précédemment. Il n’y a pas de distribution « à perte » pour le logiciel libre, parce que le prix des copies sur le marché du système d’exploitation mobile dans ces circonstances est précisément de zéro.

Les logiciels sont faciles à copier pour un coût quasi-nul. En termes économiques, cela signifie qu’il n’y a par définition pas de rareté dans les logiciels. Une telle rareté ne peut être introduite qu’artificiellement, l’utilisation d’une licence propriétaire étant le moyen le plus courant.

Au contraire, le logiciel libre crée un bien commun, auquel chacun peut participer, mais que personne ne peut monopoliser. Les logiciels libres créent ainsi de la richesse et augmentent les possibilités de croissance pour nombre de compagnies et de modèles économiques. Par exemple, Red Hat est une entreprise dont le chiffre d’affaire annuel atteint les 1.3 milliards de dollars, uniquement par la fourniture de services autour d’une distribution GNU/Linux. Android a sans nul doute créé un avantage compétitif pour Google ; mais, contrairement à Microsoft, Google ne se focalise pas sur les logiciels et la monopolisation de plateforme, mais sur les services, proposés sur n’importe quelle plateforme utilisée par le consommateur. Au contraire, des analystes estiment que Microsoft gagne plus d’argent grâce à Android qu’il n’en gagne à partir de Windows pour les appareils mobiles. Après l’engagement d’une politique de licence d’exploitation de ses brevets agressive à l’égard des fabricants d’appareils Android.

L’avantage compétitif de Google est essentiellement éphémère : la seule voie pour rester devant la concurrence dans les logiciels libres est de concevoir de meilleurs produits ou services et de gagner la confiance des utilisateurs. Le coût à l’entrée dans cette environnement concurrentiel est extrêmement bas. En effet, cette plateforme accepte des marchés d’applications alternatifs. Les différentes fondations du logiciel libre font campagne pour « libérer les Android » (Free Your Android) et sollicite l’adoption d’un marché d’application alternatif appelé F-Droid où sont uniquement proposés des logiciels libres.

Conclusion

Dans cette demande, la coalition FairSearch semble supposer que les régulateurs européens n’ont pas pris conscience des évolutions du marché du logiciel au cours de cette dernière décennie. Au lieu de mettre en évidence une menace réelle à la concurrence dans le marché du mobile, la demande de FairSearch donne l’impression que Microsoft (une entreprise condamnée pour son comportement anti-concurrentiel dans des procès de premier plan sur trois continents) essaye de revenir en arrière. L’entreprise est en fait en train de soutenir que la Commission devrait protéger son modèle économique dépassé dans le marché du mobile par un innovateur plus efficace. Nous nous permettons, avec votre respect, de ne pas être de cet avis.

La qualité d’Android comme ressource commune le rend très précieux pour les fabricants, précisément parce que Google ne peut le contrôler qu’à travers son impulsion, pas à travers une main de fer et un enfermement propriétaire, comme c’est le cas avec les alternatives propriétaires. Ce fait même devrait être considéré comme une grande incitation à la concurrence.

Nous recommandons à la Commission européenne d’écarter ce recours sans même ouvrir formellement de procédure. Éventuellement, si une déclaration de communication des griefs devait être notifiée, elle devrait éviter toute référence à la licence du logiciel libre comme source d’entrave à la concurrence. En effet, la qualité de logiciel libre d’Android devrait être considérée comme un outil puissant pour réduire les freins à une concurrence libre et améliorée.

À la FSFE, nous continuerons à travailler avec la Commission européenne pour promouvoir le logiciel libre comme un moyen de créer et maintenir la concurrence sur les marchés. Nous nous tenons prêts à assister la Commission dans toutes les affaires qui se rapportent au logiciel libre.

Bien à vous,

Karsten Gerloff, Président
Carlo Piana, Conseil général
Free Software Foundation Europe

Crédit photo : Laihiu (Creative Commons By)

Notes

[1] Souvent mentionné sous le nom « open source ». « Logiciel libre » est le nom original et plus précis qui reflète tous les aspects de ce phénomène.

[2] Au mois de Juin 2013, pas moins de 68% des sites internet actifs tournent grâce aux logiciels libres Apache et Nginx.

[3] Decision in Case No COMP/M.5529 – ORACLE/ SUN MICROSYSTEMS, paragraph 935.

[4] Decision in Case No COMP/M.5529 – ORACLE/ SUN MICROSYSTEMS, paragraph 655.




Google et le gouvernement des États-Unis main dans la main selon Julian Assange

Qu’il est loin le temps où Google se résumait à deux étudiants dans leur garage…

Julian Assange nous expose ici les accointances fortes entre Google et le gouvernement des États-Unis, ce qui devrait faire réflechir quiconque utilise leurs services.

NSA

Google et la NSA : Qui tient le « bâton merdeux » désormais ?

Google and the NSA: Who’s holding the ‘shit-bag’ now?

Julian Assange – 24 août 2013 – The Stringer
(Traduction : gaetanm, GregR, LeCoyote, Peekmo, MalaLuna, FF255, La goule de Tentate, fbparis + anonymes)

On nous a révélé, grâce à Edward Snowden, que Google et d’autres sociétés technologiques étatsuniennes ont reçu des millions de dollars de la NSA pour leur participation au programme de surveillance de masse PRISM.

Mais quel est au juste le degré de connivence entre Google et la sécuritocratie américaine ? En 2011 j’ai rencontré Eric Schmidt, alors président exécutif de Google, qui était venu me rendre visite avec trois autres personnes alors que j’étais en résidence surveillée. On aurait pu supposer que cette visite était une indication que les grands pontes de Google étaient secrètement de notre côté, qu’ils soutenaient ce pour quoi nous nous battons chez Wikileaks : la justice, la transparence du gouvernement, et le respect de la vie privée. Mais il s’est avèré que cette supposition est infondée. Leur motivation était bien plus complexe et, comme nous l’avons découvert, intimement liée à celle du département d’État des États-Unis (NdT : l’équivalent du ministère des Affaires étrangères, que nous appellerons DoS par la suite pour Department of State). La transcription complète de notre rencontre est disponible en ligne sur le site de Wikileaks.

Le prétexte de leur visite était que Schmidt faisait alors des recherches pour un nouveau livre, un ouvrage banal qui depuis a été publié sous le titre The New Digital Age. Ma critique pour le moins glaciale de ce livre a été publiée dans le New York Times fin mai de cette année. En quatrième de couverture figure une liste de soutiens antérieure à la publication : Henry Kissinger, Bill Clinton, Madeleine Albright, Michael Hayden (ancien directeur de la CIA et de la NSA) et Tony Blair. Henry Kissinger apparaît aussi dans le livre, recevant une place de choix dans la liste des remerciements.

L’objectif du livre n’est pas de communiquer avec le public. Schmidt pèse 6.1 milliards de dollars et n’a pas besoin de vendre des livres. Ce livre est plutôt un moyen de se vendre auprès du pouvoir. Il montre à Washington que Google peut être son collaborateur, son visionnaire géopolitique, qui l’aidera à défendre les intérêts des USA. Et en s’alliant ainsi à l’État américain, Google consolide sa position, aux dépens de ses concurrents.

Deux mois après ma rencontre avec Eric Schmidt, WikiLeaks avait des documents en sa possession et un motif juridique valable de contacter Hillary Clinton. Il est intéressant de noter que si vous appelez le standard du DoS et que vous demandez Hillary Clinton, vous pouvez en fait vous en rapprocher d’assez près, et nous sommes devenus plutôt bons à ce petit jeu-là. Quiconque a vu Docteur Folamour se souviendra peut-être de la scène fantastique où Peter Sellers appelle la Maison Blanche depuis une cabine téléphonique de la base militaire et se trouve mis en attente alors que son appel gravit progressivement les échelons. Eh bien une collaboratrice de WikiLeaks, Sarah Harrison, se faisant passer pour mon assistante personnelle, m’a mis en relation avec le DoS, et comme Peter Sellers, nous avons commencé à franchir les différents niveaux pour finalement atteindre le conseiller juridique senior de Hillary Clinton qui nous a dit qu’on nous rappellerait.

Peu après, l’un des membres de notre équipe, Joseph Farrell, se fit rappeler non pas par le DoS, mais par Lisa Shields, alors petite amie d’Eric Schmidt, et qui ne travaille pas officiellement pour le DoS. Résumons donc la situation : la petite amie du président de Google servait de contact officieux de Hillary Clinton. C’est éloquent. Cela montre qu’à ce niveau de la société américaine, comme dans d’autres formes de gouvernement oligarchique, c’est un jeu de chaises musicales.

Cette visite de Google pendant ma période de résidence surveillée se révéla être en fait, comme on le comprit plus tard, une visite officieuse du DoS. Attardons-nous sur les personnes qui accompagnaient Schmidt ce jour-là : sa petite amie Lisa Shields, vice-présidente à la communication du CFR (Council on Foreign Relations) ; Scott Malcolmson, ancien conseiller sénior du DoS ; et Jared Cohen, conseiller de Hillary Clinton et de Condoleezza Rice (ministre du DoS sous le gouvernement Bush fils), sorte de Henry Kissinger de la génération Y.

Google a démarré comme un élément de la culture étudiante californienne dans la région de la baie de San Francisco. Mais en grandissant Google a découvert le grand méchant monde. Il a découvert les obstacles à son expansion que sont les réseaux politiques et les réglementations étrangères. Il a donc commencé à faire ce que font toutes les grosses méchantes sociétés américaines, de Coca Cola à Northrop Grumann. Il a commencé à se reposer lourdement sur le soutien du DoS, et, ce faisant il est entré dans le système de Washington DC. Une étude publiée récemment montre que Google dépense maintenant plus d’argent que Lockheed Martin pour payer les lobbyistes à Washington.

Jared Cohen est le co-auteur du livre d’Eric Schmidt, et son rôle en tant que lien entre Google et le DoS en dit long sur comment le « besoin intense de sécurité » des États-Unis fonctionne. Cohen travaillait directement pour le DoS et était un conseiller proche de Condolezza Rice et Hillary Clinton. Mais depuis 2010, il est le directeur de Google Ideas, son think tank interne.

Des documents publiés l’an dernier par WikiLeaks obtenus en sous-main via le sous-traitant US en renseignement Stratfor montrent qu’en 2011, Jared Cohen, alors déjà directeur de Google Ideas, partait en mission secrète en Azerbaïdjan à la frontière iranienne. Dans ces courriels internes, Fred Burton, vice-président au renseignement chez Stratfor et ancien officiel senior au DoS, décrivait Google ainsi :

« Google reçoit le soutien et la couverture médiatique de la présidence et du DoS. En réalité ils font ce que la CIA ne peut pas faire… Cohen va finir par se faire attraper ou tuer. Pour être franc, ça serait peut-être la meilleure chose qui puisse arriver pour exposer le rôle caché de Google dans l’organisation des soulèvements. Le gouvernement US peut ensuite nier toute implication et Google se retrouve à assumer le bordel tout seul. »

Dans une autre communication interne, Burton identifie par la suite ses sources sur les activités de Cohen comme étant Marty Lev, directeur de sécurité chez Google, et… Eric Schmidt.

Les câbles de WikiLeaks révèlent également que, Cohen, quand il travaillait pour le Département d’État, était en Afghanistan à essayer de convaincre les quatre principales compagnies de téléphonie mobile afghane de déplacer leurs antennes à l’intérieur des bases militaires américaines. Au Liban il a secrètement travaillé, pour le compte du DoS, à un laboratoire d’idées chiite qui soit anti-Hezbollah. Et à Londres ? Il a offert des fonds à des responsables de l’industrie cinématographique de Bollywood pour insérer du contenu anti-extrémistes dans leurs films en promettant de les introduire dans les réseaux de Hollywood. C’est ça le président de Google Ideas. Cohen est effectivement de fait le directeur de Google pour le changement de régime. Il est le bras armée du Département d’État encadrant la Silicon Valley.

Que Google reçoive de l’argent de la NSA en échange de la remise de données personnelles n’est pas une surprise. Google a rencontré le grand méchant monde et il en fait désormais partie.

Crédit photo : NSA (Domaine Public – Wikimedia Commons)




Lettre ouverte à mes anciens collègues mathématiciens de la NSA

Quand un ancien employé de la NSA s’exprime, visiblement travaillé par sa conscience.

« Il est difficile d’imaginer que vous, mes anciens collègues, mes amis, mes professeurs… puissiez rester silencieux alors que la NSA vous a abusés, a trahi votre confiance et a détourné vos travaux. »

Charles Seife's NSA ID card

Lettre ouverte à mes anciens collègues de la NSA

Mathématiciens, pourquoi ne parlez-vous pas franchement ?

An Open Letter to My Former NSA Colleagues

Charles Seife – 22 août 2013 – Slate
(Traduction : Ilphrin, phi, Asta, @zessx, MFolschette, lamessen, La goule de Tentate, fcharton, Penguin + anonymes)

La plupart des personnes ne connaissent pas l’histoire du hall Von Neumann, ce bâtiment sans fenêtres caché derrière le Princeton Quadrangle Club. J’ai découvert cette histoire lors de ma première année quand, jeune étudiant passionné de mathématiques, je fus recruté pour travailler à la NSA (National Security Agency).

Le hall Von Neumann se situe à l’ancien emplacement du Institute for Defense Analyses, un organisme de recherches en mathématiques avancées travaillant pour une agence dont, à cette époque, l’existence était secrète. J’y découvris que les liens étroits entre l’université de Princeton et la NSA remontaient à plusieurs décennies, et que certains de mes professeurs faisaient partie d’une fraternité secrète composée de nombreux passionnés travaillant sur des problèmes mathématiques complexes pour le bien de la sûreté nationale. J’étais fier de rejoindre cette fraternité, qui était bien plus grande que ce que j’avais pu imaginer. D’après l’expert de la NSA James Bamford, cette agence est le plus grand employeur de mathématiciens de la planète. Il est presque sûr que n’importe quel département réputé de mathématiques a vu un de ses membres travailler pour la NSA.

J’ai travaillé à la NSA de 1992 à 1993 dans le cadre du programme d’été] qui attire les brillants étudiants en mathématiques à travers le pays, chaque année. Après obtention d’une accréditation de sécurité, incluant une session au détecteur de mensonge et une enquête d’agents du FBI chargée de glaner des informations sur moi dans le campus, je me suis présenté avec anxiété à Fort Meade (siège de la NSA), pour des instructions de sécurité.

Cela fait plus de vingt ans que j’ai reçu ces premières instructions, et une grande partie de ce que j’ai appris est maintenant obsolète. À l’époque, bien peu avaient entendu parler d’une agence surnommée « No Such Agency » (NdT littéralement « pas de telle agence » ou l’agence qui n’existe pas) et le gouvernement souhaitait que cela reste ainsi. On nous disait de ne pas dire un mot sur la NSA. Si une personne nous posait la question, nous répondions que nous travaillions pour le ministère de la Défense (DoD – Department of Defense). C’est d’ailleurs ce qui était marqué sur mon CV et sur une de mes cartes d’accès officielles de la NSA (cf ci-dessus).

De nos jours, il y a peu d’intérêt à procéder ainsi. L’agence est sortie de l’ombre et fait régulièrement la Une des journaux. En 1992, on m’a appris que le code de classement des documents confidentiels était un secret bien gardé, que c’était un crime de le révéler à des personnes extérieures. Mais une simple recherche Google montre que les sites internet gouvernementaux sont parsemés de documents, qui furent en leur temps uniquement réservés aux personnes qui devaient le savoir.

Une autre chose qu’ils avaient l’habitude de dire est que la puissance de la NSA ne serait jamais utilisée contre les citoyens américains. À l’époque à laquelle j’ai signé, l’agence affirmait clairement que nous serions employés à protéger notre pays contre les ennemis extérieurs, pas ceux de l’intérieur. Faire autrement était contraire au règlement de la NSA. Et, plus important encore, j’ai eu la forte impression que c’était contraire à la culture interne. Après avoir travaillé là-bas pendant deux étés d’affilée, je croyais sincèrement que mes collègues seraient horrifiés d’apprendre que leurs travaux puissent être utilisés pour traquer et espionner nos compatriotes. Cela a-t-il changé ?

Les mathématiciens et les cryptoanalystes que j’ai rencontrés venaient de tout le pays et avaient des histoires très différentes, mais tous semblaient avoir été attirés par l’agence pour les deux mêmes raisons.

Premièrement, nous savions tous que les mathématiques étaient sexy. Ceci peut sembler étrange pour un non-mathématicien, mais outre le pur défi certains problèmes mathématiques dégagent quelque chose, un sentiment d’importance, de gravité, avec l’intuition que vous n’êtes pas si loin que ça de la solution. C’est énorme, et vous pouvez l’obtenir si vous réfléchissez encore un peu plus. Quand j’ai été engagé, je savais que la NSA faisait des mathématiques passionnantes, mais je n’avais aucune idée de ce dans quoi je mettais les pieds. Au bout d’une semaine, on m’a présenté un assortiment des problèmes mathématiques plus séduisants les uns que les autres. Le moindre d’entre eux pouvant éventuellement être donné à un étudiant très doué. Je n’avais jamais rien vu de tel, et je ne le reverrai jamais.

La seconde chose qui nous a attirés, c’est du moins ce que je pensais, était une vision idéaliste que nous faisions quelque chose de bien pour aider notre pays. Je connaissais suffisamment l’Histoire pour savoir qu’il n’était pas très délicat de lire les courriers de son ennemi. Et une fois que je fus à l’intérieur, je vis que l’agence avait un véritable impact sur la sécurité nationale par de multiples moyens. Même en tant que nouvel employé, j’ai senti que je pouvais apporter ma pierre. Certains des mathématiciens les plus expérimentés que nous avions rencontrés avaient clairement eu un impact palpable sur la sécurité des États-Unis, des légendes presque inconnues en dehors de notre propre club.

Cela ne veut pas dire que l’idéalisme est naïf. N’importe qui ayant passé du temps de l’autre coté du miroir de ce jeu d’intelligence sait à quel point l’enjeu peut être important. Nous savions tous que les (vrais) êtres humains en chair et en os peuvent mourir à cause d’une violation apparemment mineure des secrets que nous nous somme vu confier. Nous réalisions également que le renseignement requiert parfois d’utiliser des tactiques sournoises pour essayer de protéger la Nation. Mais nous savions tous que ces agissements étaient encadrés par la loi, même si cette loi n’est pas toujours noire ou blanche. L’agence insistait, encore et encore, sur le fait que les armes que nous fabriquions, car ce sont des armes même si ce sont des armes de l’information, ne pourraient jamais être utilisées contre notre propre population, mais seulement contre nos ennemis.

Que faire, maintenant que l’on sait que l’agence a depuis trompé son monde ?

Nous savons maintenant que les appels téléphoniques de chaque client Verizon aux USA ont été détournés par l’agence en toute illégalité alors qu’elle n’est justement pas supposée intervenir sur les appels qui proviennent et qui aboutissent aux États-Unis. Ce mercredi, de nouvelles preuves ont été révélées, montrant que l’agence a collecté des dizaines de milliers de courriels « complètement privés » n’ayant pas traversé les frontières. Nous savions que l’agence a d’importantes possibilités pour épier les citoyens des USA et le faisait régulièrement de manière accidentelle. Or nous disposons aujourd’hui d’allégations crédibles prouvant que l’agence utilise ces informations dans un but donné. Si les outils de l’agence sont réellement utilisés uniquement contre l’ennemi, il semble alors que les citoyens ordinaires en fassent dorénavant partie.

Aucun des travaux de recherche que j’ai effectués à la NSA ne s’est révélé particulièrement important. Je suis à peu près certain que mon travail accumule la poussière dans un quelconque entrepôt classé du gouvernement. J’ai travaillé pour l’agence fort peu de temps, et c’était il y a bien longtemps. Je me sens cependant obligé de prendre la parole pour dire à quel point je suis horrifié. Si c’est la raison d’être de cette agence, je suis plus que désolé d’y avoir pris part, même si c’était insignifiant.

Je peux aujourd’hui difficilement imaginer ce que vous, mes anciens collègues, mes amis, mes professeurs et mes mentors devez ressentir en tant qu’anciens de la NSA. Contrairement à moi, vous vous êtes beaucoup investis, vous avez passé une grande partie de votre carrière à aider la NSA à construire un énorme pouvoir utilisé d’une façon qui n’était pas censé l’être. Vous pouvez à votre tour vous exprimer d’une façon qui ne transgresse ni votre clause de confidentialité ni votre honneur. Il est difficile de croire que les professeurs que j’ai connus dans les universités à travers le pays puissent rester silencieux alors que la NSA les a abusés, a trahi leur confiance et a détourné leurs travaux.

Resterez-vous silencieux ?




La musique peut-elle être libre ?

Michael Tiemann est vice-président de Red Hat mais il est aussi impliqué dans un ambitieux projet autour de la musique, The Miraverse qui propose notamment un studio d’enregistrement (fonctionnant, en toute logique, à l’aide de logiciels libres).

Il nous livre ici le fruit de ses réflexion en s’appuyant sur des citations de Glenn Gould et un projet dont nous vous reparlerons à la rentrée car Framasoft en sera le partenaire francophone : The Open Goldberg Variations.

La première édition du projet avait donné lieu à l’enregistrement directement dans le domaine public des Variations Goldberg de Bach. Il s’agira cette fois-ci d’enregistrer ensemble Le Clavier bien tempéré.

MusicRoom1b.jpg

La musique peut-elle être open source ?

Can there be open source music?

Michael Tiemann – 20 août 2013 – OpenSource.com
(Traduction : goofy, Sky, sinma, Asta, audionuma)

De l’eau a coulé sous les ponts depuis que les logiciels « open source » ont été baptisés ainsi en 1998. Le livre La cathédrale et le bazar a contribué à expliquer ce nouveau paradigme de la création des logiciels, et, avec le temps, les conséquences importantes et crédibles que Raymond avait prévues dans son essai s’avèrent aujourd’hui évidentes. Et il est possible qu’en raison de l’impressionnante liste des succès de la communauté du logiciel open source, ceux qui travaillent en dehors du domaine du développement de logiciels commencent à se demander : est-ce que de nouveaux paradigmes fondés sur les principes de l‘open source pourraient bouleverser aussi notre secteur ?

Nous avons vu cela arriver dans le monde du contenu créatif avec les Creative Commons. Larry Lessig, suivant une lecture simple de la constitution des États-Unis d’Amérique et s’appuyant sur beaucoup des intuitions publiées des années auparavant par Lewis Hyde dans le livre The Gift (NdT Le cadeau), a réalisé que bien qu’il n’y ait rien de mal en soi à commercialiser du contenu, il y avait quelque chose de terriblement mal à traiter les ressources culturelles comme privées, comme des propriétés aliénables à jamais. Lessig croyait, et je l’approuve, qu’il y a un bénéfice à donner au public des droits sur les contenus qui définissent leur culture, tout comme l‘open source donne à d’autres développeurs — et même aux utilisateurs — des droits sur les logiciels qu’ils possèdent. Regardez comment le public a utilisé ce droit pour créer Wikipédia, une collection phénoménale de l’un de nos artéfacts culturels qui ont le plus de valeur : la connaissance humaine.

Mais des limites à la portée de Wikipédia et ce qui est possible d’y être référencé sont apparues, notamment parce que beaucoup de créations culturelles qui auraient pu être des biens communs sont au contraire captives de copyrights pour une durée presque perpétuelle. La musique est une pierre angulaire de la culture, dans la mesure où les nations, les peuples, les époques, les mouvements politiques, idéologiques et culturels y font tous référence pour se définir, tout comme les individus se définissent eux-mêmes selon leurs gouts musicaux. Compte tenu de l’importance de la musique pour définir notre identité culturelle, dans quelle mesure devrions-nous en avoir la maîtrise, en particulier pour tout ce qui est censé relever du domaine public ?

Glenn Gould apporte une réponse étonnante à cette question dans deux essais écrits en 1966. Même si vous n’êtes pas un grand connaisseur de musique classique, vous avez sûrement déjà entendu les Variations Goldberg de JS Bach. Et dans ce cas, vous pouvez probablement remercier Glenn Gould car à l’âge de 22 ans, il a commencé sa carrière en signant un contrat et en six jours il a enregistré : Bach: The Goldberg Variations, en dépit du refus d’au moins un directeur de label. À l’époque, l’œuvre était considérée comme ésotérique et trop éloignée du répertoire pianistique habituel. Gould n’a pas cédé, et comme le mentionne Wikipédia : « Sa renommée internationale débute lors de son célèbre enregistrement des Variations Goldberg de juin 1955 dans les studios CBS de New York. Cette interprétation d’une vélocité et d’une clarté de voix hors du commun, et hors des modes de l’époque, contribuera notablement à son succès. ». Sans compter que dès lors les Variations Goldberg sont devenues un classique du piano.

Lorsque Gould a décidé en 1964 qu’il ne se produirait jamais plus en public pour se consacrer aux enregistrements en studio, le monde de la musique en a été très perturbé, parce que les concerts étaient considérés comme le summum de la culture musicale et les enregistrements comme une culture de seconde zone. Gould a répondu avec moults arguments à ces critiques sans chercher à en débattre mais en changeant le paradigme.

Ce qui n’a fait qu’irriter davantage les tenants de la musique institutionnelle. Voici l’essentiel du changement de paradigme tel que l’explique Gould dans The participant Listener :

Au centre du débat sur les technologies, il existe donc un nouveau type de public — un public qui participe davantage à l’expérience musicale. L’apparition de ce phénomène au milieu du vingtième siècle est le plus grand succès de l’industrie du disque. Car l’auditeur n’est plus seulement en position d’analyser passivement, c’est un partenaire dont les goûts, les préférences et les tendances modifient encore maintenant de façon latérale les expériences musicales qui retiennent son attention. C’est lui dont l’art de la musique à venir attend une participation bien plus grande encore.

Bien sûr, il représente également une menace, il peut vouloir s’arroger un pouvoir, c’est un invité indésirable au festin artistique, quelqu’un dont la présence met en péril la hiérarchie de l’institution musicale. Ce public participatif pourrait émerger, libéré de cette posture servile à laquelle on le soumet lors des concerts, pour, du jour au lendemain, s’emparer des capacités décisionnelles qui étaient jusqu’ici l’apanage des spécialistes ?

Il y aurait beaucoup à tirer des deux paragraphes ci-dessus, mais essayons un peu : considérez ce qui précède comme une allégorie dans le domaine musical du transfert de paradigme proposé par le logiciel open source. Cela semble difficile à imaginer aujourd’hui, mais quand j’ai proposé l’idée de lancer une entreprise qui fournirait un service de support commercial aux logiciels libres, une des objections majeures a été : « qu’il soit libre ou non, les utilisateurs ne veulent pas du code source. Ils ne veulent pas y toucher. Ils veulent payer pour la meilleure solution, un point c’est tout. ». Dans la logique de production du logiciel propriétaire, il était impossible d’envisager un seul instant que la meilleure solution pouvait fort bien inclure l’utilisateur devenu un contributeur du développement. Impossible alors de tolérer l’idée que des utilisateurs puissent assumer des capacités de décision qui étaient jusqu’alors le privilège de spécialistes. mais Cygnus Solutions a démontré que l’industrie du logiciel à venir attendait vraiment que les utilisateurs participent pleinement. Et il en va de même pour la création musicale, ce que Gould avait visiblement anticipé :

Le mot-clé ici est « public ». Ces expériences où l’auditeur rencontre de la musique transmise électroniquement ne font pas partie du domaine public. Un axiome bien utile, qui peut être appliqué à toute expérience dans laquelle la transmission électronique intervient, peut être exprimé à travers ce paradoxe : la possibilité d’avoir en théorie un public en nombre jamais atteint jusqu’à présent conduit à un nombre sans limites d’écoutes privées. En raison des circonstances que ce paradoxe suscite, l’auditeur est capable d’exprimer ses préférences et, grâce aux modifications par des moyens électroniques avec lesquels il ajoute son expérience, il peut imposer sa personnalité sur une œuvre. Ce faisant, il la transforme, de même que la relation qu’il entretient avec elle. Il fait d’une œuvre d’art un élément de son environnement sonore personnel.

Gould touche un point philosophique fondamental, qu’il est facile de mal interpréter en raison de la terminologie qu’il emploie. Il ne prétend pas que la transmission électronique aléatoire entraîne automatiquement que le contenu originel soit considéré comme un bien commun appartenant à tout le monde. Il dit plutôt que lorsque un signal électronique devient une expérience humaine, celle-ci n’est pas générique mais unique pour chaque individu. Et que l’avenir de l’art de la musique dépend de la façon dont on respectera le caractère individuel de cette expérience, au lieu de contraindre la transmission artistique à l’uniformité (à titre de note latérale, regardez un peu à quelles contorsions juridiques se livre l’industrie musicale actuelle pour prétendre que les téléchargements de fichiers numériques ne sont pas des « achats », par conséquents soumis aux règles de la vente, mais plutôt des « transactions », c’est-à-dire ne conférant aucun autre droit que celui d’être des récepteurs passifs, n’autorisant aucune autre posture que soumise).

Gould a écrit cela 20 ans avant que Lewis Hyde ne publie The Gift et 20 ans avant que Stallman n’écrive le Manifeste GNU. 30 ans avant que Lawrence Lessig n’écrive Code and other laws of Cyberspace et 30 ans avant que Eric Raymond n’écrive La cathédrale et le bazar. 40 ans avant que je ne commence à imaginer comment The Miraverse pourrait faire coïncider les idées des Creative Commons et de l’open source pour créer un futur nouveau et viable pour la musique. Mais maintenant, l’idée la plus audacieuse qu’il ait proposée (dans The Prospects of Recording) peut se réaliser :

Il serait relativement simple, par exemple, de fournir à l’auditeur la possibilité d’éditer les enregistrements à son gré. Bien entendu, un pas décisif dans cette direction pourrait bien résulter de ce processus par lequel il est désormais possible de dissocier la vitesse du tempo et en faisant ainsi (quoique avec une certaine détérioration de la qualité du son comme inconvénient) découper divers segments d’interprétations d’une même œuvre réalisée par différents artistes et enregistrées à différents tempos. Ce processus pourrait, en théorie, être appliqué sans restriction à la reconstruction d’un concert. Rien n’empêche en fait un connaisseur spécialisé de devenir son propre éditeur de bande sonore et, avec ces dispositifs, de mettre en œuvre son interprétation de prédilection pour créer son concert idéal personnel (…)

Il est vrai qu’à l’époque de Gould la technologie n’était pas disponible pour offrir au public de telles interactions : de son temps l’enregistrement multi-piste était incroyablement coûteux et disponible seulement dans quelques studios d’enregistrement commerciaux qui en avaient l’exclusivité. Mais aujourd’hui, les choses sont différentes, au moins sur le plan technologique. Ardour est une excellente station de travail audionumérique libre qui permet à n’importe quel ordinateur portable de devenir un puissant éditeur audio multipiste et un dispositif d’enregistrement. Et c’est ce que veulent les auditeurs participatifs. Mais les outils logiciels les plus puissants dans le monde ne peuvent pas créer un concert enthousiasmant à partir de rien, il doit y avoir un artiste qui est prêt à créer la trame sonore qui peut ensuite être mélangée et remixée selon les goûts de chacun. Et bien sûr, il doit y avoir un cadre de droits commerciaux qui ne mette pas toute l’entreprise par terre. C’est ce qui rend le projet Open Goldberg Variations si intéressant : il est la réponse au défi que Gould lançait il y a plus de 40 ans. C’est la prochaine étape de l’évolution de l’héritage musical qui va de JS Bach à nos jours en passant par Gould. Il invite chaque auditeur à devenir un participant à l’avenir de l’art de la musique.

Variations en open source majeure

Kimiko Ishizaka est l’artiste qui a franchi le pas de façon courageuse en tant que pianiste de concert pour transmettre une ressource culturelle en libérant à la fois le code source de l’œuvre de Bach (transcription professionnelle des partitions avec le logiciels libre MuseScore) et les données du concert lui-même (sous la forme d’un enregistrement audio) pour donner au public des expériences sans précédent à la fois de plaisir musical et du sentiment de liberté qui vient d’une action authentique. C’est-à-dire : l’action à créer ; l’action de manipuler à son gré ; l’action d’augmenter les biens communs en partageant ce dont on est passionné.

Revenons donc à la question initiale : la musique peut-elle être open source ? Ou plutôt, que peut-il advenir de la musique open source ? Les rencontres OHM 2013 viennent de conclure une semaine de « Observer, Modifier, Créer ». Un hacker qui s’y trouvait nous a proposé ses réflexions :

Un morceau de musique peut être considéré comme libre s’il y a un enregistrement de bonne qualité disponible sous une licence permissive (équivalent d’un binaire précompilé dans une distribution), et une partition de également bonne qualité, contenant toutes les instructions et les commentaires du compositeur original, disponible dans un format éditable et réutilisable, accompagné elle aussi d’une licence libre. Pensez-y comme si c’était le code source d’un logiciel que vous pourriez utiliser, compiler, interpréter, modifier, copier etc.

Le premier projet important destiné à mettre les œuvres de Jean-Sébastien Bach en open source a été Open Goldberg Variations (« Bach to the future ») avec l’aide du financement participatif. Vous pouvez télécharger les enregistrements audio sans perte de qualité réalisés par Kimiko Ishizaka, et la partition aux formats MuseScore ou XML, tout cela étant dans le domaine public.

C’est un très bon début. Ce qui en ferait un encore meilleur début serait que ça soit une communauté active qui l’accomplisse. Une communauté de personnes de divers horizons qui jouent chacun des rôles importants, qui travaillent ensemble pour créer ce que personne ne peut faire seul. Et un excellent environnement qui permette de publier sur une base fiable des œuvres commercialement rentables et approuvées par la critique.

Un tel environnement est The Miraverse, qui constitue l’essence de l’expérience des studios de Manifold Recording. D’un côté de la vitre de la cabine de mixage se trouve le studio (photo d’ouverture du billet ci-dessus), et de l’autre côté une console analogique API Vision qui peut enregistrer jusqu’à 64 pistes avec Ardour (ci-dessous).

CR_Ardour2.jpg

Ces environnements sont complétés par un troisième, le « Studio Annex », qui met à disposition une console Harrison Trion (qui tourne sous Linux) et permet de produire divers formats de son multicanal, avec jusqu’à 96 canaux audio à 96 kHz.

ACR-SideVideo.jpg

Dans ces studios, de la musique open source peut être enregistrée, auditionnée, et mixée avec le meilleur équipement audio, le meilleur environnement acoustique, et des logiciels open source. L’auditeur participant peut faire l’expérience d’un enregistrement (processus stupéfiant en lui-même) et des choix créatifs qui sont possibles une fois que le processus de mixage commence.

Souhaitez-vous devenir un auditeur participatif ? Kimiko Ishizaka s’apprête à faire une tournée en Europe et en Amérique du nord en prévision de son enregistrement du « Clavier bien tempéré ». Le premier concert aura lieu au festival Beethoven de Bonn en Allemagne le 24 septembre ; puis Mme Ishizaka se produira à Prague (25 et 26 septembre), Munich (30 septembre), Vienne, Hambourg, puis Bonn etc. (calendrier complet à lire au bas de la page http://opensource.com/life/13/8/open-music-open-goldberg).

Comme n’importe quel autre projet open source, votre intérêt et votre participation peuvent en faire non seulement un succès, mais un exemple pour l’industrie. C’est notre but. En participant à une de ces représentations, en participant à la campagne KickStarter Twelve Tones of Bach (ce qui est une façon d’acheter des tickets pour ces représentations), en participant à la tournée (le 3 novembre), vous pouvez pleinement profiter de votre propre expérience de la musique et des perspectives de l’enregistrement, tout en aidant le projet et ses acteurs à atteindre des objectifs plus ambitieux. Nous espérons vous voir cet automne… et encore souvent à l’avenir !