Vous n’avez pas peur que quelqu’un vous pique votre idée ?

Daniel Solis est un concepteur de jeux de société. Il n’a jamais hésité à publier ses idées sur son blog avant même qu’elles ne soient susceptibles de se concrétiser un jour.

Le pari de l’ouverture en somme et il s’en explique ci-dessous.

Michael Elleray - CC by

Vous craignez que quelqu’un vous pique votre idée ?

Afraid someone will steal your idea?

Daniel Solis – 27 août 2013 – OpenSource.com
(Traduction : Asta, toufalk, audionuma, Slystone, KoS, Pouhiou, goofy + anonymes)

Je suis concepteur de jeux de société. C’est un boulot amusant, créatif et effrayant, à des années-lumière de ma carrière précédente dans la publicité. Dans ces deux domaines, on attribue une haute valeur aux idées, particulièrement aux idées « nouvelles ». Personne n’aime se faire doubler. Que ce soit une campagne publicitaire ou un jeu de société, vous voulez être le premier à le sortir.

Il pourrait donc paraître étrange que j’aie passé dix ans à bloguer mon processus de conception de jeux. Chacun de mes concepts foireux et de mes prototypes finalisés est mis en ligne, visible par tout le monde.

La question qui revient le plus souvent est : « Vous n’avez pas peur que quelqu’un vous pique votre idée ? »

À ceux qui posent cette question, ce que je vous entends dire c’est : « J’aurais peur qu’on me pique mon idée ».

Je comprends ! Vous êtes vraiment fier de votre mécanisme de jeu novateur, de votre thème si original, ou d’autre chose issu de votre propriété intellectuelle qui vaudra des millions. C’est bien d’être fier de son travail ! Ça vous aide à persévérer durant ces heures sombres où vous vous demandez si vous ne feriez pas mieux d’avoir un autre passe-temps, genre le golf sur omelette.

Mais cette fierté peut aussi vous donner d’étranges inquiétudes, par exemple que quelqu’un d’autre s’intéresse à peu près autant que vous à votre idée. Ce n’est pas une insulte à votre idée, mais simplement nécessaire dans le domaine de la création. Si quelqu’un s’intéressait autant que vous à votre idée de jeu, il y passerait déjà ses nuits… toutes ces longues heures qu’il faut pour tester le jeu, développer, pleurer, réviser, pleurer, et tester le jeu à nouveau jusqu’à ce que l’idée devienne un jeu digne de ce nom.

Attendez : vous y passez déjà ces longues heures, n’est-ce pas ? Par pitié, ne me dites pas que vous êtes angoissé par le vol de votre idée avant même d’y avoir investi ce temps de développement. Ne me dites pas que vous avez fait des recherches sur les brevets, les droits d’auteur, les clauses de confidentialité et le dépôt de marque avant même de vous mettre à tester le jeu. Ne me dites pas que vous ne testez le jeu qu’avec des proches, qui ont donc tout intérêt à ne pas vous briser le cœur. Vous ne faites pas tout cela, n’est-ce pas ? Bien sûr que non, ce serait idiot. Cette paranoïa n’est qu’un prétexte pour ne pas se mettre au travail.

Voici quelques petites choses que j’ai apprises après des années à concevoir des jeux en public. J’espère que ces observations seront pertinentes dans votre propre processus créatif.

Gadl - CC by

La vérité sur les idées

Les idées ne sont pas si particulières.

Sérieusement, une idée sympa ne peut pas en elle-même constituer un jeu. Antoine Bauza a récemment reçu le « Prix du Jeu de l’Année » au festival du jeu d’Essen, en Allemagne. Il a reçu ce prix pour Hanabi, un petit jeu de cartes collaboratif dans lequel les joueurs tiennent leurs cartes à l’envers et dépendent des autres pour recueillir des informations précises sur leur propre main. Il ne s’est pas juste réveillé un matin en disant « Hé, je veux faire un jeu où on tient ses cartes à l’envers et où on doit collaborer » et a reçu alors le prix « Spiel de Jahres ». Non, il y a eu une masse de travail et deux éditions distinctes avant qu’Hanabi soit reconnu pour son inventivité et devienne un succès commercial.

Les idées ne dévoilent pas l’émergence.

Même si votre idée est à 100% originale, l’idée seule ne vaut rien. C’est le travail de dévoilement des propriétés émergentes qui rend l’idée valable. Reprenons l’exemple du jeu Hanabi de Bauza : pour obtenir un jeu aussi élégant, il a fallu consacrer beaucoup de temps à chaque décision lors de la conception. Avec si peu de règles du jeu, tout devient beaucoup plus important. Combien de couleurs devrait-il y avoir dans le jeu ? Combien de cartes de chaque rang ? Quel est le score moyen sur une centaine de parties ? Comment les joueurs communiquent-ils entre eux pendant une partie ? Aucune de ces questions ne trouve de réponse tant que l’ « idée » n’est pas matérialisée sur la table. Il y a d’innombrables propriétés émergentes qui ne se révèlent qu’après des parties tests.

Vos idées sont piquées… à quelqu’un d’autre.

J’ai un placard rempli d’idées qui n’ont jamais abouti, pour diverses raisons. Des idées partout ! Sérieusement, tenez, prenez-en, j’en ai trop. Nous les avons toutes et il y a des chances qu’aucune d’entre elles ne soit originale. Pas les miennes, ni probablement les vôtres. Nous ne pouvons pas échapper aux déterminants de notre époque, nous pouvons seulement y réagir, et les répéter. Nous baignons dans un courant d’influences, qu’on le réalise ou non. Un simple exemple : essayez de penser à une nouvelle pièce de jeu d’échecs. Allez-y, peut-être qu’elle se déplace comme un fou, mais en étant limité à deux cases ? Peut-être qu’elle se déplace comme un roi, mais de deux cases seulement si elle se déplace en avant et peut seulement capturer en diagonale ? Ok, maintenant considérez les centaines de pièces d’échecs qui sont quelque part dans le monde, et voyez s’il vous reste de la place pour innover. Est-ce que c’est dégrisant ? Oui. Est-ce que c’est décourageant ? Foutrement non.

Votre idée toute seule ne constitue pas un jeu.

Prenons le temps de regarder les choses calmement. Si un jeu n’est pas joué, est-ce que c’est toujours un jeu ? Est-ce que c’est seulement un jeu quand il est joué ? Voilà les questions que je vous pose si vous vous préoccupez de garder jalousement vos préééécieuses idées pour vous, au lieu de les confronter vraiment au regard du plus de monde possible. Votre idée n’est pas un jeu. Seul votre jeu en est un. Il en est un seulement si les gens y jouent. Cela signifie que vous devez faire des prototypes, écrire des règles, et affronter la gêne sociale de demander à des étrangers de jouer le jeu, avec une règle supplémentaire : cela pourrait ne même pas être amusant. C’est ce qui rendra votre idée précieuse. Et devinez quoi ? Quand le jeu est amusant, la victoire en sera d’autant plus savoureuse.

La valeur, ça prend du temps, beaucoup de temps.

Tout ça pour dire… Non, je ne suis pas effrayé par l’idée que quelqu’un me vole mes idées. En fait, c’est exactement le contraire. Je ne serais pas là si je n’étais pas si ouvert au sujet de mes processus de création. Je le fais publiquement depuis maintenant une dizaine d’années. Mais quand j’ai commencé, oui, j’avais peur !

Tout a commencé autour de 1999 quand j’ai créé un jeu de fan dérivé du jeu de rôle World of Darkness à propos de zombies doués de sensations. Il s’appelait Zombie: the Coil. Je pensais pouvoir combler un trou dans la mythologie de WoD. Et punaise, je l’ai farci de tout ce que je pensais qu’un bon RPG devait contenir : faits artificiels, mécanismes inconsistants, postures punk-rock, complainte gothique. J’avais juste copié la structure des propriétés des jeux White Wolf (NdT: la société d’éditon de World of Darkness) de l’époque, je l’avais écrit avec ces contraintes et posté le résultat sur mon site pourri.

J’ai alors été effrayé par le fait que White Wolf pourrait me voler mon idée. J’ai appris qu’ils sortaient Hunter: the Reckoning et que ça parlait de zombies. Oh non, des zombies dans World of Darkness ? Merde ! Tout ce que j’avais écrit partait en fumée ! Peu importe que je n’aie pas essayé de contacter White Wolf en premier lieu. Pouvez-vous imaginer ma naïve audace ? Je pique pas mal de trucs dans les bouquins de White Wolf et après je suis inquiet qu’ils se penchent sur mon travail ? Remets ça à l’endroit, jeune Daniel. Zombie: the Coil, ça craint. Mais continue, tu trouveras ton processus de conception dans presque 15 ans (et aussi, jeune Daniel, arrête de porter des manteaux en Floride, tu as l’air d’un parfait idiot). Pas la peine de préciser que White Wolf a fait son chemin dans les année 90 sans ma petite contribution. Mais dépasser cette peur, être à l’aise pour montrer mon travail aux autres et affronter les critiques, ça, ça a de la valeur. Et alors, j’ai continué à concevoir plein de jeux débiles.

Ni génie, ni mysticisme. Seulement le travail.

Ne croyez pas cette mythologie du génie. C’est un mirage. Peut-être qu’il existe des génies, mais vous ne pouvez pas partir du principe que vous en êtes un. C’est comme vivre en croyant qu’on va régulièrement gagner au loto. Non, la valeur vient du travail et personne n’en fera autant que vous. Achetez une pizza aux testeurs de votre jeu. Crevez-vous à trouver la terminologie du jeu. Assemblez et finalisez trois prototypes d’affilée puis recommencez de zéro. Là réside l’artisanat, le métier de conception de jeux. Alors on s’y remet !

JD Hancock - CC by

Crédit photos : Michael Elleray, Gadl et JD Hancock (Creative Commons By)




Comment Isaac Asimov voyait 2014 en 1964

En 1964, le célèbre écrivain de science-fiction Isaac Asimov visitait l’Exposition Universelle de New York. Il se mit alors à imaginer, dans l’article traduit ci-dessous, ce qu’il pourrait bien advenir dans 50 ans, c’est-à-dire en 2014.

Force est de constater que bon nombre de ses hypothèses étaient prémonitoires…

Abode of Chaos - CC by

Visite de l’Exposition Universelle de New York de 2014

Visit to the World’s Fair of 2014

Isaac Asimov – 16 août 1964
(Traduction : Jeff, hilde, k, anonyme1, karec, Sky, pyro, aKa, Chloé, MalaLuna, tchevengour, simplementNat, bl0fish, pyro, @zessx, Underrated, lordgun, Beij, goofy, greygjhart, HgO, zer0chain, GregR, Asta + anonymes)

L’Exposition Universelle de New York de 1964 est consacrée à « La paix par la compréhension » (NdT : Peace Through Understanding). L’aperçu qu’elle donne du monde de demain écarte l’hypothèse d’une guerre nucléaire. Et pourquoi pas ? Si une telle guerre a lieu le futur ne mérite pas d’être évoqué. Laissons donc les missiles sommeiller éternellement dans leurs silos et observons ce qui pourrait advenir d’un monde qui ne serait pas atomisé.

Ce qui est à venir, du moins au travers de la lunette de l ‘Exposition, est merveilleux. Le futur vers lequel l’Homme se dirige est vu avec un espoir plein d’entrain, nulle part mieux montré qu’au pavillon de la General Electric. Ici les spectateurs tourbillonnent parmi quatre scènes, chacune contenant des mannequins souriants, quasiment vivants, qui bougent et parlent avec une telle aisance que, pendant près d’une minute et demie, ils vous convainquent qu’ils le sont vraiment.

Ces scènes, qui se déroulent en 1900, 1920, 1940 et 1960, montrent les progrès des appareils électriques et les changements qu’ils apportent à la vie quotidienne. J’y ai pris énormément de plaisir et je regrette seulement qu’ils n’en aient pas imaginé de semblables dans le futur. Que sera la vie, par exemple en 2014, dans 50 ans ? À quoi ressemblera l’Exposition Universelle de 2014 ?

Je ne sais pas, mais je peux essayer de deviner.

Une pensée qui me traverse l’esprit est que les hommes continueront à fuir la nature pour créer un environnement plus à leur convenance. D’ici 2014 les panneaux électroluminescents seront communément utilisés. Les murs et les plafonds brilleront doucement, dans une variété de teintes qui changera à la pression d’un bouton.

Les fenêtres seront devenues archaïques, et quand bien même présentes elles seront polarisées pour bloquer les rayons du soleil les plus durs. Le degré d’opacité du verre étant même fait pour varier automatiquement selon l’intensité de la lumière.

On trouve une maison souterraine à l’Exposition qui semble être un signe du futur. Si ses fenêtres ne sont pas polarisées, elles peuvent en revanche changer le « paysage » en modifiant l’éclairage. Les maisons en périphérie des villes, avec variateur de température, air filtré, et contrôle de la lumière, seront monnaie courante, libérées ainsi des vicissitudes de la météo. À l’Exposition Universelle de 2014, le « Futurama » de General Motors (NdT : attraction populaire réalisée par General Motors pour l’Exposition Universelle de 1939) présentera sans doute des visions de cités souterraines pleines de potagers sous lumière artificielle. La surface ainsi gagnée, expliquera General Motors, sera dédiée à l’agriculture à grande échelle, aux pâturages et parcs, avec moins d’espace gaspillé pour l’occupation humaine.

Des appareils continueront de soulager l’humanité des travaux fastidieux. Les cuisines seront conçues de manière à préparer des « auto-repas », chauffant l’eau et la transformant en café ; grillant le pain et le bacon ; cuisant, pochant ou brouillant des œufs, etc. Le petit-déjeuner sera « commandé » la veille afin d’être prêt à l’heure spécifiée le lendemain matin. Des repas et dîners entiers, avec des aliments semi-préparés, seront conservés au congélateur jusqu’au moment de leur préparation. Je soupçonne, cependant, que même en 2014, il sera bon d’avoir un petit coin dans la cuisine où des repas plus individuels pourront être préparés à la main, en particulier lorsque l’on reçoit des invités.

En 2014 les robots ne seront ni courants ni très élaborés mais ils existeront. L’exposition IBM n’a pas de robots aujourd’hui mais elle est dédiée aux ordinateurs, qui sont montrés dans toute leur incroyable complexité, notamment dans la tâche de traduction du russe vers l’anglais. Si les machines sont si intelligentes aujourd’hui, qui sait ce qu’elles feront dans 50 ans ? Ce seront des ordinateurs beaucoup plus miniaturisés qu’aujourd’hui, qui serviront de « cerveaux » aux robots. L’une des principales attractions du pavillon IBM à l’Exposition Universelle de 2014 pourrait être une femme de ménage robotique, gauche et grosse, bougeant lentement mais cependant capable de ramasser, ranger, nettoyer et manipuler divers appareils. Cela amusera sans aucun doute les visiteurs de disperser des débris sur le sol afin de voir cette ménagère robotique les enlever maladroitement et les classer entre « à jeter » et « mettre de côté ». (Des robots jardiniers auront aussi fait leur apparition.)

General Electric à l’Exposition Universelle de 2014 montrera des films en 3D de ses « Robots du Futur » élégants et profilés et ses appareils de ménage intégrés effectuant toutes les tâches promptement. (Il y aura une file d’attente de trois heures pour voir le film, il y a certaines choses qui ne changent jamais.)

Bien sûr les appareils de 2014 n’auront besoin d’aucun câble électrique. Ils seront alimentés par des batteries longue durée à énergie nucléaire (radioisotope). Le combustible ne sera pas cher car il sera le sous-produit des centrales à fission qui, en 2014, fourniront plus de la moitié des besoins énergétiques de l’humanité. Mais, une fois ces batteries à isotopes épuisées, elles ne seront éliminées que par des agents autorisés par le fabricant.

Et une ou deux centrales expérimentales à fusion nucléaire existeront déjà en 2014 (même aujourd’hui, une petite mais véritable fusion nucléaire est présentée régulièrement par la General Electric, à l’Exposition Universelle de 1964). De grandes centrales d’énergie solaire seront aussi en fonction dans plusieurs zones désertiques et semi-désertiques telles que l’Arizona, le Néguev ou le Kazakhstan. Dans les zones plus fréquentées, mais plus nuageuses et brumeuses, l’énergie solaire sera moins efficace. Une présentation à l’Exposition Universelle de 2014 montrera des modèles de centrales énergétiques dans l’espace, collectant les rayons solaires à l’aide d’immenses paraboles, renvoyant l’énergie ainsi collectée sur Terre.

Le monde d’ici 50 ans aura encore rétréci. À l’Exposition Universelle de 1964, la présentation de General Motors décrit, entre autres choses, des « usines de construction de routes » dans les tropiques et, plus près de chez nous, des autoroutes surchargées avec de long bus se déplaçant sur des voies centrales réservées. Il y a de fortes chances que l’utilisation de routes, du moins dans les régions du monde les plus avancées, aura passé son pic en 2014 ; l’intérêt se portera alors de plus en plus sur les transports réduisant au maximum le contact avec la surface terrestre. Il y aura l’aviation, bien sûr, mais les transports terrestres seront de plus en plus aériens (environ 50 cm au-dessus du sol). Les visiteurs de l’Exposition Universelle de 1964 peuvent s’y déplacer dans un « hydroptère », qui s’élève sur quatre pylônes et glisse sur l’eau avec un minimum de frictions. Ceci n’est sûrement que temporaire. En 2014, les quatre pylônes auront été remplacés par quatre jets d’air comprimé afin que le véhicule n’ait plus aucun contact avec les surfaces liquides ou même solides.

Les jets d’air comprimé serviront également à soulever les véhicules terrestres au-dessus des routes, ce qui, entre autres choses, réduira les problèmes de pavage. Une terre damée ou une pelouse tondue feront tout aussi bien l’affaire. Les ponts auront aussi une moindre importance dès lors que les voitures seront capables de traverser l’eau à l’aide de leurs jets d’air comprimé, bien que les arrêtés locaux décourageront cette pratique.

Beaucoup d’efforts seront consacrés à la conception de véhicules munis de « cerveaux-robot » qui pourront être configurés pour une destination particulière et s’y rendront sans l’interférence des lents réflexes d’un conducteur humain. Je soupçonne qu’une des attractions majeures de l’exposition 2014 sera la balade sur des petites voitures robotisées qui manœuvreront dans la foule 50 cm au-dessus du sol, avec dextérité et en s’évitant automatiquement.

Pour les voyages de courte distance, des trottoirs mobiles surélevés (avec des bancs de chaque côté, des places debout au centre) feront leur apparition dans les sections du centre-ville. Le trafic continuera (sur plusieurs niveaux dans certains endroits) uniquement parce que tout les parkings seront hors voirie et qu’au moins 80 % des livraisons par camion seront effectuées dans des centres précis en périphérie de la ville Des tubes à air comprimé transporteront biens et matériaux sur des distances locales, et les aiguillages qui achemineront les cargaisons spécifiques vers les destinations correspondantes seront une des merveilles de la ville.

Les communications se feront par visioconférence et vous pourrez à la fois voir et entendre votre interlocuteur. L’écran, en plus de vous permettre de voir les gens que vous appelez, vous permettra également daccéder à des documents, de voir des photographies ou de lire des passages de livres. Une constellation de satellites rendra possible les appels directs vers n’importe quel point de la terre, même la station météorologique en Antarctique (visible dans toute sa splendeur glacée sur le stand de General Motors en 64).

D’ailleurs, vous serez en mesure de joindre quelqu’un sur les colonies sélènes (sur la Lune), pour lesquelles General Motors présente une gamme de véhicules impressionnants (sous forme de maquettes) avec de larges pneus tendres prévus pour les terrains accidentés qui peuvent exister sur notre satellite naturel.

Quantités de conversations simultanées entre la Terre et la Lune pourront être facilement traitées par des faisceaux laser modulés, lesquels seront très faciles à manipuler dans l’espace. Sur Terre, par contre, les rayons laser devront être enfermés dans des tubes en plastique pour éviter les interférences atmosphériques, problème sur lequel les ingénieurs continueront à travailler.

Converser avec la Lune sera simple mais inconfortable à cause des 2,5 secondes de délai entre les questions et les réponses (le temps nécessaire pour que la lumière fasse l’aller-retour). Le même genre de communication avec Mars prendra 3,5 minutes même lorsque Mars est au plus près de la Terre. Cependant, en 2014, seules des sondes téléguidées s’y seront posées, mais une expédition habitée sera en préparation et, dans le Futurama de 2014, on pourra trouver une maquette de colonie martienne élaborée.

Quant à la télévision, des murs-écrans auront pris la place de l’équipement habituel, mais des cubes transparents feront leur apparition, dans lesquels la vision tri-dimensionnelle sera possible. En fait, une des présentations populaires à l’Exposition Universelle de 2014 sera une télévision 3D, grandeur nature, dans laquelle on verra des spectacles de ballet. Le cube tournera lentement pour montrer la vision sous tous les angles.

Nous pouvons poursuivre indéfiniment cette joyeuse extrapolation, mais tout n’est pas aussi rose.

Dans la file d’attente pour la présentation de la General Electric à l’Exposition Universelle de 1964, je me suis retrouvé face au menaçant panneau d’Equitable Life (NdT : une compagnie d’assurance américaine), égrenant l’augmentation de la population des États-Unis (plus de 191 000 000) d’une unité toutes les 11 secondes. Pendant le temps que j’ai passé à l’intérieur du pavillon de la General Electric, la population américaine a presque gagné 300 âmes, et la population mondiale environ 6 000.

En 2014, il est fort probable que la population mondiale sera de 6,5 milliards et que les États-Unis compteront 350 millions d’habitants. La zone de Boston à Washington, la plus dense de cette taille sur Terre, sera devenue une mégalopole avec une population de plus de 40 millions d’habitants.

La pression démographique va forcer l’urbanisation croissante des déserts et des régions polaires. Le plus surprenant, et d’une certaine manière le plus réconfortant, est que 2014 marquera le début des grands progrès dans la colonisation des plateaux continentaux. Le logement sous-marin sera prisé par les amateurs de sports nautiques, et encouragera sans aucun doute une meilleure exploitation des ressources maritimes, nutritives et minérales. La General Motors a exposé, dans sa présentation de 1964, une maquette d’hôtel sous-marin d’un luxe alléchant. L’Exposition Universelle de 2014 présentera des villes de fonds marins, avec des lignes de bathyscaphes transportant hommes et matériel dans les abysses.

L’agriculture traditionnelle aura beaucoup de difficultés à s’adapter. Des fermes se spécialiseront dans la culture de micro-organismes plus efficaces. Les produits à base de levures et d’algues transformées seront disponibles dans de multiples saveurs. L’Exposition Universelle de 2014 comportera un bar à algues, dans lequel des imitations de dinde et des pseudo-steaks seront servis. Ce ne sera pas mauvais du tout (si vous pouvez supporter ces prix élevés), mais il y aura une barrière psychologique importante à lever face à une telle innovation.

En 2014 la technologie continuera à suivre la croissance démographique au prix d’immenses efforts et avec un succès incomplet. Seule une partie de la population mondiale profitera pleinement de ce monde gadgétisé. L’autre, plus grande encore qu’aujourd’hui en sera privée et, en attendant de pouvoir accéder à ce qui se fait de mieux, matériellement parlant, sera en retard comparée aux parties du monde les plus développées. Ils auront même régressé.

La technologie ne peut plus continuer à suivre la croissance démographique si celle-ci reste incontrôlée. Pensez au Manhattan de 1964, avec une densité de population de 32 000 habitants au kilomètre carré la nuit, et de plus de 40 000 pendant la journée de travail. Si la Terre entière, y compris le Sahara, l’Himalaya, le Groenland, l’Antartique et chaque kilomètre carré des fonds marins, au plus profond des abysses, était aussi peuplée que Manhattan à midi, vous conviendrez sûrement qu’aucun moyen pour subvenir à une telle population (et encore moins pour lui apporter un certain confort) ne serait envisageable. En fait, ces moyens deviendraient insuffisants bien avant que ce Manhattan géant ne soit atteint.

Et bien, la population de la Terre approche maintenant des 3 milliards et double tous les 40 ans. Si cette croissance se confirme, le monde deviendra un Manhattan géant d’ici seulement 500 ans. Toute la Terre ne sera qu’une unique ville comme Manhattan d’ici l’année 2450 et la société s’écroulera bien avant cela !

Il n’y a que deux façon d’éviter cela: (1) élever le taux de mortalité (2) baisser le taux de natalité. Indubitablement, le monde de 2014 se sera mis d’accord sur la deuxième méthode. En effet, l’utilisation croissante des appareils mécaniques pour remplacer les cœurs et les reins défaillants, et le soin de l’arteriosclérose et de la rupture d’anévrisme auront repoussé le taux de mortalité encore plus loin et auront rehaussé l’espérance de vie dans certaines parties du monde à l’âge de 85 ans.

Il y aura, par conséquent, une propagande mondiale en faveur du contrôle de la natalité par des méthodes rationnelles et humaines et, en 2014, elles auront sans aucun doute de sérieux effets. L’inflation démographique aura sensiblement baissé, je suppose, mais pas suffisamment.

L’une des présentations les plus importantes de l’Exposition de 2014 sera donc une série de conférences, de films et de matériel documentaire au Centre de Contrôle de la Population Mondiale (pour adultes uniquement ; projections spéciales pour les adolescents).

La situation empirera du fait des progrès de l’automatisation. Seuls quelques emplois de routine persisteront pour lesquels les machines ne remplacent pas l’être humain. En 2014 l’humanité leur sera asservie. Les écoles devront être réorientées dans cette direction. Une partie de la présentation de la General Electric d’aujourd’hui est une école du futur dans laquelle les réalités actuelles comme la télé en circuit-fermé et les bandes pré-enregistrées facilitent le processus d’apprentissage. Cependant, ce ne sont pas uniquement les techniques qui évolueront dans l’enseignement, mais également les contenus. Tous les élèves de l’enseignement secondaire apprendront les fondamentaux de la programmation, deviendront des as en arithmétique binaire, et seront formés à la perfection à l’utilisation des langages informatiques qui auront été développés, comme le Fortran (NdT pour « Formula Translator », un langage utilisé en calcul scientifique).

Même ainsi l’humanité souffrira sévèrement d’ennui, un mal se propageant chaque année davantage et gagnant en intensité. Cela aura de sérieuses conséquences aux niveaux mental, émotionnel et social. La psychiatrie sera de loin la spécialité médicale la plus importante en 2014. Les rares chanceux qui auront un travail créatif seront la vraie élite de l’humanité, car eux seuls feront plus que servir une machine.

L’hypothèse la plus sombre que je puisse faire pour 2014 est que dans une société de loisirs forcés, le mot travail sera le plus valorisé du vocabulaire !

Crédit photo : Abode of Chaos (Creative Commons By)




Concurrence déloyale des logiciels libres en Europe ? La réponse de la FSFE

Le groupe de pression « FairSearch » (Microsoft, Nokia, Oracle…) prétend que Android fausse la concurrence parce qu’il est libre et gratuit et vient s’en plaindre à la Commission Européenne.

Traduite par nos soins, une réponse de la Free Software Foundation Europe s’imposait.

Laihiu - CC by

Les objections de la FSFE aux prétendues pratiques de « prix prédatoires » des logiciels libres

FSFE objects to claims of ‘predatory pricing’ in Free Software

(Traduction : Asta, GregR, Kiwileaks, KoS, Rinzin, Scailyna, Slystone, Tentate, aKa, audionuma, hugo, lamessen, lu, madalton + anonymes)

À :
Commission Européenne
DG Concurrence
B-1049 Bruxelles
Belgique

Juillet 2013

Selon des informations publiées dans un media spécialisé en ligne, la coalition dénommée « FairSearch » (composée de Microsoft, Nokia, Oracle et un certain nombre de fournisseurs de services en ligne) prétend dans sa dernière demande à la Commission Européenne que la distribution gratuite d’Android, un système d’exploitation libre[1] pour mobiles développé par Google, constitue une pratique de prix prédatoires. Suggérer que la distribution gratuite de logiciels libres pénalise la concurrence est d’une part faux en soi, et constitue d’autre part un danger pour la concurrence et l’innovation.

Nous exhortons la Commission à examiner les faits comme il se doit avant d’admettre les allégations de FairSearch comme établies. Nous vous écrivons aujourd’hui afin d’expliquer comment la distribution de logiciels libres, qu’elle soit gratuite ou contre rémunération, promeut la concurrence plutôt que de la mettre à mal.

La Free Software Foundation Europe (FSFE) est une organisation associative indépendante et à but non lucratif qui se consacre à la promotion du logiciel libre. La FSFE défend l’idée que les libertés d’utiliser, de partager et d’améliorer les logiciels sont essentielles pour assurer une participation de tous à l’ère informatique. Nous travaillons en faveur d’une compréhension et d’un soutien global vis-à-vis du logiciel libre en politique, en droit et dans la société en général. Nous promouvons également le développement des technologies, telles que le système d’exploitation GNU/Linux, qui assurent ces libertés à tous les participants de la société numérique. Pour atteindre ces buts, nous avons une longue histoire d’implication active dans les processus de concurrence qui affectent le logiciel libre.

Le logiciel libre est une question de liberté, pas de prix.

Le terme « libre » dans logiciel libre évoque la notion de liberté, et non celle de prix (NdT la fameuse ambiguité sur le mot anglais free). Plus précisément, le logiciel libre offre aux utilisateurs les libertés suivantes :

  • exécuter le programme, sans limitation ;
  • étudier le code source du programme et comprendre comment il fonctionne ;
  • partager le programme avec d’autres, que cela soit gratuitement ou moyennant finance ;
  • améliorer le programme et distribuer ses améliorations.

Prises ensemble, ces quatre libertés font du modèle du logiciel libre une force puissante et disruptive pour la concurrence. Le logiciel libre a contribué de façon considérable à la rupture d’anciens monopoles construits par les fabricants de logiciels propriétaires tels que Microsoft.

Dans de nombreux domaines, les logiciels libres sont depuis longtemps les applications majeures, ou les alternatives concurrentes les plus puissantes. Cela inclut les serveurs web[2], la navigation web (Firefox), les suites bureautiques (LibreOffice, OpenOffice), et les systèmes d’exploitation de serveurs. 93% des 500 supercalculateurs mondiaux sont basés sur des systèmes d’exploitation libres.

Le logiciel libre est la norme pour les fabricants de périphériques embarqués, comme les télévisions « intelligentes », les routeurs DSL, et les ordinateurs de bord des voitures, pour ne citer qu’eux. De nos jours, des entreprises leaders du web, comme Facebook, Amazon et Google, s’appuient fortement sur le logiciel libre pour construire leurs offres. Le logiciel libre fait aussi fonctionner pléthore de startups et de concurrents avec des architectures et des services qui constituent des alternatives aux prestataires établis.

La tendance dans le mobile et ailleurs est irrémédiablement aux logiciels libres

Selon les sources accessibles au public, le fond de la revendication de FairSearch est qu’en « distribuant Android gratuitement », Google empêche les systèmes d’exploitation concurrents d’obtenir un retour sur investissement dans leur concurrence de « la plate-forme mobile dominante de Google ».

La FSFE s’oppose fermement à cette qualification : le logiciel libre est un moyen très efficace de produire et distribuer du logiciel. La vente de licences n’est que l’un des nombreux moyens de monétiser le logiciel.

Android est une plateforme logicielle construite autour du noyau Linux et de Java, par le fork Dalvik, ce qui est possible parce que Java et le noyau sont disponibles sous licence libre. N’importe qui peut prendre Android et le transformer en quelque chose de meilleur et de plus libre, avec ou sans liens avec Google, et ce aussi longtemps que le code source sera disponible, comme il l’est actuellement. Replicant et CyanogenMod sont simplement deux exemples notables, tous deux installés sur des millions de terminaux. L’adoption d’Android par Facebook pour ses propres besoins montre à quel point la plateforme est véritablement ouverte, au point qu’un concurrent peut proposer une interface graphique (GUI) alternative qui est essentiellement destinée aux services d’un concurrent.

En ce qui concerne Java, la Commission a déjà constaté la forte valeur d’une plateforme non fragmentée et reconnaît qu’il existe de fortes motivations à la prévention de sa fragmentation[3]. À tout le moins, Android a attiré les critiques du fait que ses conditions de licence et d’ouverture favorisent la fragmentation, contre ses propres intérêts. La fragmentation est une menace liée à la liberté de « forker ». Dans un contexte propriétaire, le contrôle étroit sur le droit d’auteur, les marques et les brevets empêche facilement la fragmentation. À l’inverse, dans un environnement libre, la fragmentation est évitée par le consensus, le l’autorité fondée sur le mérite, et parfois par l’utilisation de marques (Red Hat, Mozilla). Linux, le noyau commun aux systèmes d’exploitation Android et GNU/Linux a échappé jusqu’à présent à la fragmentation non pas parce qu’elle est impossible ou interdite ? elle ne l’est certainement pas ?, mais parce qu’elle ne rimerait à rien. Au sein d’une plateforme, assurer la plus large compatibilité et un haut degré de standardisation est une préoccupation constante de tout projet, et constitue d’une part une incitation forte pour éviter les abus de la communauté, et d’autre part une pression constante sur le ou les chefs de file du projet pour qu’ils avancent par consensus[4].

Afin de bien illustrer la façon dont le logiciel libre favorise la concurrence, nous faisons remarquer que tous les ajouts récents à la liste des systèmes d’exploitation mobiles sont largement du logiciel libre. Bien que les appareils Android représentent actuellement aux alentours de 70% des ventes de téléphones portables et tablettes, plusieurs autres systèmes d’exploitation mobiles libres basés sur le noyau Linux émergent pour entrer en concurrence avec Android. Les exemples incluent Firefox OS (soutenu par la fondation Mozilla), Jolla (issu des cendres de Maemo, un projet de la société Nokia interrompu suite à l’alignement stratégique de celle-ci sur Microsoft), Tizen (soutenu par Samsung, Intel et plusieurs opérateurs téléphoniques tels que Vodafone et NTT Docomo), et UbuntuMobile (soutenu par Canonical).

La distribution libre du code n’a rien a voir avec les prix prédatoires

Dans sa demande, la coalition FairSearch affirme que la disponibilité gratuite d’Android rend difficile ou impossible la concurrence sur le marché des systèmes d’exploitation mobiles.

Cependant, la vente de licences n’a jamais été une stratégie importante dans le marché du mobile. À la base, le constructeur de Blackberry, RIM, vendait des appareils et des logiciels et services pour les serveurs dans le secteur des entreprises. Apple a financé son iOS propriétaire grâce à ses services et composants vendu à la fois par Apple et par des entreprises tierces réduisant considérablement les revenus générés par le magasin en ligne iTunes. Nokia a essayé de maintenir deux systèmes d’exploitations différents, tous deux finalement libres (Symbian et Maemo, ensuite renommé en Meego, et maintenant forké par Jolla et son SailFish). Seul Microsoft a réussi à garder une position de vendeur de logiciel indépendant, arguant de l’avantage tiré de l’intégration avec ses services réseaux.

Il semblerait donc que le seul motif envisageable à la plainte de la coalition FairSearch soit que l’existence d’un certain nombre de systèmes d’exploitations mobiles libres, dont Android, rende la tache plus difficile à Microsoft pour reproduire son modèle économique dans le marché mobile. En soi, la demande de FairSearch à la commission revient à favoriser un modèle économique plutôt qu’un autre. C’est exactement à l’opposé de ce qu’une autorité de concurrence devrait appliquer pour maintenir un marché concurrentiel.

La FSFE a toujours clairement affirmé qu’une licence propriétaire est un système de production de logiciel obsolète et inefficace. De notre point de vu, Google n’a ni l’intention ni les moyens de monopoliser le marché du système d’exploitation mobile, tout simplement parce qu’il n’y a pas de marché des licences de systèmes d’exploitations propriétaires.

La pratique de prix prédatoires alléguée par FairSearch est clairement inadaptée à la réalité d’un marché où il n’y a pas de prix, et d’un produit qui, étant un logiciel libre, peut être littéralement pris par n’importe qui et « forké », ce qui est une pratique que la Commission avait déjà abordée précédemment. Il n’y a pas de distribution « à perte » pour le logiciel libre, parce que le prix des copies sur le marché du système d’exploitation mobile dans ces circonstances est précisément de zéro.

Les logiciels sont faciles à copier pour un coût quasi-nul. En termes économiques, cela signifie qu’il n’y a par définition pas de rareté dans les logiciels. Une telle rareté ne peut être introduite qu’artificiellement, l’utilisation d’une licence propriétaire étant le moyen le plus courant.

Au contraire, le logiciel libre crée un bien commun, auquel chacun peut participer, mais que personne ne peut monopoliser. Les logiciels libres créent ainsi de la richesse et augmentent les possibilités de croissance pour nombre de compagnies et de modèles économiques. Par exemple, Red Hat est une entreprise dont le chiffre d’affaire annuel atteint les 1.3 milliards de dollars, uniquement par la fourniture de services autour d’une distribution GNU/Linux. Android a sans nul doute créé un avantage compétitif pour Google ; mais, contrairement à Microsoft, Google ne se focalise pas sur les logiciels et la monopolisation de plateforme, mais sur les services, proposés sur n’importe quelle plateforme utilisée par le consommateur. Au contraire, des analystes estiment que Microsoft gagne plus d’argent grâce à Android qu’il n’en gagne à partir de Windows pour les appareils mobiles. Après l’engagement d’une politique de licence d’exploitation de ses brevets agressive à l’égard des fabricants d’appareils Android.

L’avantage compétitif de Google est essentiellement éphémère : la seule voie pour rester devant la concurrence dans les logiciels libres est de concevoir de meilleurs produits ou services et de gagner la confiance des utilisateurs. Le coût à l’entrée dans cette environnement concurrentiel est extrêmement bas. En effet, cette plateforme accepte des marchés d’applications alternatifs. Les différentes fondations du logiciel libre font campagne pour « libérer les Android » (Free Your Android) et sollicite l’adoption d’un marché d’application alternatif appelé F-Droid où sont uniquement proposés des logiciels libres.

Conclusion

Dans cette demande, la coalition FairSearch semble supposer que les régulateurs européens n’ont pas pris conscience des évolutions du marché du logiciel au cours de cette dernière décennie. Au lieu de mettre en évidence une menace réelle à la concurrence dans le marché du mobile, la demande de FairSearch donne l’impression que Microsoft (une entreprise condamnée pour son comportement anti-concurrentiel dans des procès de premier plan sur trois continents) essaye de revenir en arrière. L’entreprise est en fait en train de soutenir que la Commission devrait protéger son modèle économique dépassé dans le marché du mobile par un innovateur plus efficace. Nous nous permettons, avec votre respect, de ne pas être de cet avis.

La qualité d’Android comme ressource commune le rend très précieux pour les fabricants, précisément parce que Google ne peut le contrôler qu’à travers son impulsion, pas à travers une main de fer et un enfermement propriétaire, comme c’est le cas avec les alternatives propriétaires. Ce fait même devrait être considéré comme une grande incitation à la concurrence.

Nous recommandons à la Commission européenne d’écarter ce recours sans même ouvrir formellement de procédure. Éventuellement, si une déclaration de communication des griefs devait être notifiée, elle devrait éviter toute référence à la licence du logiciel libre comme source d’entrave à la concurrence. En effet, la qualité de logiciel libre d’Android devrait être considérée comme un outil puissant pour réduire les freins à une concurrence libre et améliorée.

À la FSFE, nous continuerons à travailler avec la Commission européenne pour promouvoir le logiciel libre comme un moyen de créer et maintenir la concurrence sur les marchés. Nous nous tenons prêts à assister la Commission dans toutes les affaires qui se rapportent au logiciel libre.

Bien à vous,

Karsten Gerloff, Président
Carlo Piana, Conseil général
Free Software Foundation Europe

Crédit photo : Laihiu (Creative Commons By)

Notes

[1] Souvent mentionné sous le nom « open source ». « Logiciel libre » est le nom original et plus précis qui reflète tous les aspects de ce phénomène.

[2] Au mois de Juin 2013, pas moins de 68% des sites internet actifs tournent grâce aux logiciels libres Apache et Nginx.

[3] Decision in Case No COMP/M.5529 – ORACLE/ SUN MICROSYSTEMS, paragraph 935.

[4] Decision in Case No COMP/M.5529 – ORACLE/ SUN MICROSYSTEMS, paragraph 655.




Google et le gouvernement des États-Unis main dans la main selon Julian Assange

Qu’il est loin le temps où Google se résumait à deux étudiants dans leur garage…

Julian Assange nous expose ici les accointances fortes entre Google et le gouvernement des États-Unis, ce qui devrait faire réflechir quiconque utilise leurs services.

NSA

Google et la NSA : Qui tient le « bâton merdeux » désormais ?

Google and the NSA: Who’s holding the ‘shit-bag’ now?

Julian Assange – 24 août 2013 – The Stringer
(Traduction : gaetanm, GregR, LeCoyote, Peekmo, MalaLuna, FF255, La goule de Tentate, fbparis + anonymes)

On nous a révélé, grâce à Edward Snowden, que Google et d’autres sociétés technologiques étatsuniennes ont reçu des millions de dollars de la NSA pour leur participation au programme de surveillance de masse PRISM.

Mais quel est au juste le degré de connivence entre Google et la sécuritocratie américaine ? En 2011 j’ai rencontré Eric Schmidt, alors président exécutif de Google, qui était venu me rendre visite avec trois autres personnes alors que j’étais en résidence surveillée. On aurait pu supposer que cette visite était une indication que les grands pontes de Google étaient secrètement de notre côté, qu’ils soutenaient ce pour quoi nous nous battons chez Wikileaks : la justice, la transparence du gouvernement, et le respect de la vie privée. Mais il s’est avèré que cette supposition est infondée. Leur motivation était bien plus complexe et, comme nous l’avons découvert, intimement liée à celle du département d’État des États-Unis (NdT : l’équivalent du ministère des Affaires étrangères, que nous appellerons DoS par la suite pour Department of State). La transcription complète de notre rencontre est disponible en ligne sur le site de Wikileaks.

Le prétexte de leur visite était que Schmidt faisait alors des recherches pour un nouveau livre, un ouvrage banal qui depuis a été publié sous le titre The New Digital Age. Ma critique pour le moins glaciale de ce livre a été publiée dans le New York Times fin mai de cette année. En quatrième de couverture figure une liste de soutiens antérieure à la publication : Henry Kissinger, Bill Clinton, Madeleine Albright, Michael Hayden (ancien directeur de la CIA et de la NSA) et Tony Blair. Henry Kissinger apparaît aussi dans le livre, recevant une place de choix dans la liste des remerciements.

L’objectif du livre n’est pas de communiquer avec le public. Schmidt pèse 6.1 milliards de dollars et n’a pas besoin de vendre des livres. Ce livre est plutôt un moyen de se vendre auprès du pouvoir. Il montre à Washington que Google peut être son collaborateur, son visionnaire géopolitique, qui l’aidera à défendre les intérêts des USA. Et en s’alliant ainsi à l’État américain, Google consolide sa position, aux dépens de ses concurrents.

Deux mois après ma rencontre avec Eric Schmidt, WikiLeaks avait des documents en sa possession et un motif juridique valable de contacter Hillary Clinton. Il est intéressant de noter que si vous appelez le standard du DoS et que vous demandez Hillary Clinton, vous pouvez en fait vous en rapprocher d’assez près, et nous sommes devenus plutôt bons à ce petit jeu-là. Quiconque a vu Docteur Folamour se souviendra peut-être de la scène fantastique où Peter Sellers appelle la Maison Blanche depuis une cabine téléphonique de la base militaire et se trouve mis en attente alors que son appel gravit progressivement les échelons. Eh bien une collaboratrice de WikiLeaks, Sarah Harrison, se faisant passer pour mon assistante personnelle, m’a mis en relation avec le DoS, et comme Peter Sellers, nous avons commencé à franchir les différents niveaux pour finalement atteindre le conseiller juridique senior de Hillary Clinton qui nous a dit qu’on nous rappellerait.

Peu après, l’un des membres de notre équipe, Joseph Farrell, se fit rappeler non pas par le DoS, mais par Lisa Shields, alors petite amie d’Eric Schmidt, et qui ne travaille pas officiellement pour le DoS. Résumons donc la situation : la petite amie du président de Google servait de contact officieux de Hillary Clinton. C’est éloquent. Cela montre qu’à ce niveau de la société américaine, comme dans d’autres formes de gouvernement oligarchique, c’est un jeu de chaises musicales.

Cette visite de Google pendant ma période de résidence surveillée se révéla être en fait, comme on le comprit plus tard, une visite officieuse du DoS. Attardons-nous sur les personnes qui accompagnaient Schmidt ce jour-là : sa petite amie Lisa Shields, vice-présidente à la communication du CFR (Council on Foreign Relations) ; Scott Malcolmson, ancien conseiller sénior du DoS ; et Jared Cohen, conseiller de Hillary Clinton et de Condoleezza Rice (ministre du DoS sous le gouvernement Bush fils), sorte de Henry Kissinger de la génération Y.

Google a démarré comme un élément de la culture étudiante californienne dans la région de la baie de San Francisco. Mais en grandissant Google a découvert le grand méchant monde. Il a découvert les obstacles à son expansion que sont les réseaux politiques et les réglementations étrangères. Il a donc commencé à faire ce que font toutes les grosses méchantes sociétés américaines, de Coca Cola à Northrop Grumann. Il a commencé à se reposer lourdement sur le soutien du DoS, et, ce faisant il est entré dans le système de Washington DC. Une étude publiée récemment montre que Google dépense maintenant plus d’argent que Lockheed Martin pour payer les lobbyistes à Washington.

Jared Cohen est le co-auteur du livre d’Eric Schmidt, et son rôle en tant que lien entre Google et le DoS en dit long sur comment le « besoin intense de sécurité » des États-Unis fonctionne. Cohen travaillait directement pour le DoS et était un conseiller proche de Condolezza Rice et Hillary Clinton. Mais depuis 2010, il est le directeur de Google Ideas, son think tank interne.

Des documents publiés l’an dernier par WikiLeaks obtenus en sous-main via le sous-traitant US en renseignement Stratfor montrent qu’en 2011, Jared Cohen, alors déjà directeur de Google Ideas, partait en mission secrète en Azerbaïdjan à la frontière iranienne. Dans ces courriels internes, Fred Burton, vice-président au renseignement chez Stratfor et ancien officiel senior au DoS, décrivait Google ainsi :

« Google reçoit le soutien et la couverture médiatique de la présidence et du DoS. En réalité ils font ce que la CIA ne peut pas faire… Cohen va finir par se faire attraper ou tuer. Pour être franc, ça serait peut-être la meilleure chose qui puisse arriver pour exposer le rôle caché de Google dans l’organisation des soulèvements. Le gouvernement US peut ensuite nier toute implication et Google se retrouve à assumer le bordel tout seul. »

Dans une autre communication interne, Burton identifie par la suite ses sources sur les activités de Cohen comme étant Marty Lev, directeur de sécurité chez Google, et… Eric Schmidt.

Les câbles de WikiLeaks révèlent également que, Cohen, quand il travaillait pour le Département d’État, était en Afghanistan à essayer de convaincre les quatre principales compagnies de téléphonie mobile afghane de déplacer leurs antennes à l’intérieur des bases militaires américaines. Au Liban il a secrètement travaillé, pour le compte du DoS, à un laboratoire d’idées chiite qui soit anti-Hezbollah. Et à Londres ? Il a offert des fonds à des responsables de l’industrie cinématographique de Bollywood pour insérer du contenu anti-extrémistes dans leurs films en promettant de les introduire dans les réseaux de Hollywood. C’est ça le président de Google Ideas. Cohen est effectivement de fait le directeur de Google pour le changement de régime. Il est le bras armée du Département d’État encadrant la Silicon Valley.

Que Google reçoive de l’argent de la NSA en échange de la remise de données personnelles n’est pas une surprise. Google a rencontré le grand méchant monde et il en fait désormais partie.

Crédit photo : NSA (Domaine Public – Wikimedia Commons)




Lettre ouverte à mes anciens collègues mathématiciens de la NSA

Quand un ancien employé de la NSA s’exprime, visiblement travaillé par sa conscience.

« Il est difficile d’imaginer que vous, mes anciens collègues, mes amis, mes professeurs… puissiez rester silencieux alors que la NSA vous a abusés, a trahi votre confiance et a détourné vos travaux. »

Charles Seife's NSA ID card

Lettre ouverte à mes anciens collègues de la NSA

Mathématiciens, pourquoi ne parlez-vous pas franchement ?

An Open Letter to My Former NSA Colleagues

Charles Seife – 22 août 2013 – Slate
(Traduction : Ilphrin, phi, Asta, @zessx, MFolschette, lamessen, La goule de Tentate, fcharton, Penguin + anonymes)

La plupart des personnes ne connaissent pas l’histoire du hall Von Neumann, ce bâtiment sans fenêtres caché derrière le Princeton Quadrangle Club. J’ai découvert cette histoire lors de ma première année quand, jeune étudiant passionné de mathématiques, je fus recruté pour travailler à la NSA (National Security Agency).

Le hall Von Neumann se situe à l’ancien emplacement du Institute for Defense Analyses, un organisme de recherches en mathématiques avancées travaillant pour une agence dont, à cette époque, l’existence était secrète. J’y découvris que les liens étroits entre l’université de Princeton et la NSA remontaient à plusieurs décennies, et que certains de mes professeurs faisaient partie d’une fraternité secrète composée de nombreux passionnés travaillant sur des problèmes mathématiques complexes pour le bien de la sûreté nationale. J’étais fier de rejoindre cette fraternité, qui était bien plus grande que ce que j’avais pu imaginer. D’après l’expert de la NSA James Bamford, cette agence est le plus grand employeur de mathématiciens de la planète. Il est presque sûr que n’importe quel département réputé de mathématiques a vu un de ses membres travailler pour la NSA.

J’ai travaillé à la NSA de 1992 à 1993 dans le cadre du programme d’été] qui attire les brillants étudiants en mathématiques à travers le pays, chaque année. Après obtention d’une accréditation de sécurité, incluant une session au détecteur de mensonge et une enquête d’agents du FBI chargée de glaner des informations sur moi dans le campus, je me suis présenté avec anxiété à Fort Meade (siège de la NSA), pour des instructions de sécurité.

Cela fait plus de vingt ans que j’ai reçu ces premières instructions, et une grande partie de ce que j’ai appris est maintenant obsolète. À l’époque, bien peu avaient entendu parler d’une agence surnommée « No Such Agency » (NdT littéralement « pas de telle agence » ou l’agence qui n’existe pas) et le gouvernement souhaitait que cela reste ainsi. On nous disait de ne pas dire un mot sur la NSA. Si une personne nous posait la question, nous répondions que nous travaillions pour le ministère de la Défense (DoD – Department of Defense). C’est d’ailleurs ce qui était marqué sur mon CV et sur une de mes cartes d’accès officielles de la NSA (cf ci-dessus).

De nos jours, il y a peu d’intérêt à procéder ainsi. L’agence est sortie de l’ombre et fait régulièrement la Une des journaux. En 1992, on m’a appris que le code de classement des documents confidentiels était un secret bien gardé, que c’était un crime de le révéler à des personnes extérieures. Mais une simple recherche Google montre que les sites internet gouvernementaux sont parsemés de documents, qui furent en leur temps uniquement réservés aux personnes qui devaient le savoir.

Une autre chose qu’ils avaient l’habitude de dire est que la puissance de la NSA ne serait jamais utilisée contre les citoyens américains. À l’époque à laquelle j’ai signé, l’agence affirmait clairement que nous serions employés à protéger notre pays contre les ennemis extérieurs, pas ceux de l’intérieur. Faire autrement était contraire au règlement de la NSA. Et, plus important encore, j’ai eu la forte impression que c’était contraire à la culture interne. Après avoir travaillé là-bas pendant deux étés d’affilée, je croyais sincèrement que mes collègues seraient horrifiés d’apprendre que leurs travaux puissent être utilisés pour traquer et espionner nos compatriotes. Cela a-t-il changé ?

Les mathématiciens et les cryptoanalystes que j’ai rencontrés venaient de tout le pays et avaient des histoires très différentes, mais tous semblaient avoir été attirés par l’agence pour les deux mêmes raisons.

Premièrement, nous savions tous que les mathématiques étaient sexy. Ceci peut sembler étrange pour un non-mathématicien, mais outre le pur défi certains problèmes mathématiques dégagent quelque chose, un sentiment d’importance, de gravité, avec l’intuition que vous n’êtes pas si loin que ça de la solution. C’est énorme, et vous pouvez l’obtenir si vous réfléchissez encore un peu plus. Quand j’ai été engagé, je savais que la NSA faisait des mathématiques passionnantes, mais je n’avais aucune idée de ce dans quoi je mettais les pieds. Au bout d’une semaine, on m’a présenté un assortiment des problèmes mathématiques plus séduisants les uns que les autres. Le moindre d’entre eux pouvant éventuellement être donné à un étudiant très doué. Je n’avais jamais rien vu de tel, et je ne le reverrai jamais.

La seconde chose qui nous a attirés, c’est du moins ce que je pensais, était une vision idéaliste que nous faisions quelque chose de bien pour aider notre pays. Je connaissais suffisamment l’Histoire pour savoir qu’il n’était pas très délicat de lire les courriers de son ennemi. Et une fois que je fus à l’intérieur, je vis que l’agence avait un véritable impact sur la sécurité nationale par de multiples moyens. Même en tant que nouvel employé, j’ai senti que je pouvais apporter ma pierre. Certains des mathématiciens les plus expérimentés que nous avions rencontrés avaient clairement eu un impact palpable sur la sécurité des États-Unis, des légendes presque inconnues en dehors de notre propre club.

Cela ne veut pas dire que l’idéalisme est naïf. N’importe qui ayant passé du temps de l’autre coté du miroir de ce jeu d’intelligence sait à quel point l’enjeu peut être important. Nous savions tous que les (vrais) êtres humains en chair et en os peuvent mourir à cause d’une violation apparemment mineure des secrets que nous nous somme vu confier. Nous réalisions également que le renseignement requiert parfois d’utiliser des tactiques sournoises pour essayer de protéger la Nation. Mais nous savions tous que ces agissements étaient encadrés par la loi, même si cette loi n’est pas toujours noire ou blanche. L’agence insistait, encore et encore, sur le fait que les armes que nous fabriquions, car ce sont des armes même si ce sont des armes de l’information, ne pourraient jamais être utilisées contre notre propre population, mais seulement contre nos ennemis.

Que faire, maintenant que l’on sait que l’agence a depuis trompé son monde ?

Nous savons maintenant que les appels téléphoniques de chaque client Verizon aux USA ont été détournés par l’agence en toute illégalité alors qu’elle n’est justement pas supposée intervenir sur les appels qui proviennent et qui aboutissent aux États-Unis. Ce mercredi, de nouvelles preuves ont été révélées, montrant que l’agence a collecté des dizaines de milliers de courriels « complètement privés » n’ayant pas traversé les frontières. Nous savions que l’agence a d’importantes possibilités pour épier les citoyens des USA et le faisait régulièrement de manière accidentelle. Or nous disposons aujourd’hui d’allégations crédibles prouvant que l’agence utilise ces informations dans un but donné. Si les outils de l’agence sont réellement utilisés uniquement contre l’ennemi, il semble alors que les citoyens ordinaires en fassent dorénavant partie.

Aucun des travaux de recherche que j’ai effectués à la NSA ne s’est révélé particulièrement important. Je suis à peu près certain que mon travail accumule la poussière dans un quelconque entrepôt classé du gouvernement. J’ai travaillé pour l’agence fort peu de temps, et c’était il y a bien longtemps. Je me sens cependant obligé de prendre la parole pour dire à quel point je suis horrifié. Si c’est la raison d’être de cette agence, je suis plus que désolé d’y avoir pris part, même si c’était insignifiant.

Je peux aujourd’hui difficilement imaginer ce que vous, mes anciens collègues, mes amis, mes professeurs et mes mentors devez ressentir en tant qu’anciens de la NSA. Contrairement à moi, vous vous êtes beaucoup investis, vous avez passé une grande partie de votre carrière à aider la NSA à construire un énorme pouvoir utilisé d’une façon qui n’était pas censé l’être. Vous pouvez à votre tour vous exprimer d’une façon qui ne transgresse ni votre clause de confidentialité ni votre honneur. Il est difficile de croire que les professeurs que j’ai connus dans les universités à travers le pays puissent rester silencieux alors que la NSA les a abusés, a trahi leur confiance et a détourné leurs travaux.

Resterez-vous silencieux ?




L’accessibilité, une question de liberté ? Dialogue avec Richard…

Un article d’Armony Altinier qui signe ici son deuxième billet dans le Framablog après Pas de sexisme chez les Libristes ?

L’accessibilité, une question de liberté ? Dialogue avec Richard…

La période estivale est propice à la lecture. En tant que libriste convaincue, je me suis mise en tête de revoir mes fondamentaux[1]. Et pour mieux comprendre la liberté telle que défendue dans le monde du logiciel libre, qui mieux que Richard Stallman, inventeur du concept et fondateur du projet GNU, pour me renseigner sur ce sujet ?

Qu’est-ce que la liberté ?

La liberté, c’est la possibilité de faire ce qu’on veut. Le contraire de la liberté, c’est donc la contrainte : quand quelque chose m’empêche de faire ce que je veux ou m’oblige à faire ce que je ne veux pas.
De l’Antiquité jusqu’à nos jours, « la question de la liberté est l’une des plus embrouillées de l’histoire de la philosophie (“un labyrinthe” disait Leibniz) »[2].
Je ne vais pas résumer en un article tout ce que cela implique, mais j’aimerais juste insister sur quelques points.

Plusieurs approches de la liberté

La première chose à comprendre sans doute, c’est que ce sujet est loin d’être simple ni de faire l’unanimité. C’est important, car on a souvent tendance à défendre la liberté sans forcément s’interroger sur sa définition et la vision qu’on lui applique.

L’approche politique : la liberté de faire

La liberté au sens politique concerne la liberté d’action. Cela consiste surtout à poser les limites permettant à chacun de jouir d’une liberté sans entraver celle du voisin. Paradoxalement, la liberté politique consiste donc à poser des limites. Toute la question sera alors d’organiser les conditions de la liberté dans une vie en société. Si la liberté de tuer n’était pas interdite, les victimes ne pourraient être libres de vivre leur vie. Moins simple qu’il n’y paraît dans son mode d’organisation, ce n’est pourtant pas la question dont j’aimerais parler ici.

Libre arbitre : à partir de quand peut-on parler de liberté ?

L’autre approche est l’approche philosophique. Cette approche concerne la liberté de vouloir. Est-on réellement libres de nos choix ? Dans la mesure où nous sommes conditionnés par notre naissance et notre environnement, dans quelle mesure peut-on parler de liberté ? Ces questions ne sont pas vaines, car selon ce qu’on considère comme relevant ou non de la liberté, les choix politiques qui en découleront pourront être différents.
Très schématiquement, on trouve deux approches :

  • Nous sommes ce que nous choisissons, et donc libres de nos choix, dans la limite de ce que nous pouvons. La liberté ne se conçoit alors que dans la limite de ce que nous sommes capables de faire ou vouloir. Le champ du handicap n’entrerait donc pas dans cette définition de la liberté puisque nous ne pouvons agir dessus.
  • Le libre arbitre n’existe pas, nous sommes déterminés par notre environnement, nos limitations mais nous pouvons nous libérer au moins en partie en prenant conscience de ces déterminismes et en agissant dessus. Le handicap entre donc parfaitement dans cette définition.

Handicap et liberté, quelle responsabilité du numérique ?

« Tous mes choix, même parfaitement volontaires et spontanés, dépendent de ce que je suis, que je n’ai pas choisi. […] le moi serait alors une prison, d’autant plus implacable qu’elle se déplace en même temps que moi. »[3]
En écrivant cela, André Comte-Sponville ne visait sans doute pas le handicap à proprement parler. Mais relisez cette phrase et imaginez que vous êtes en fauteuil roulant. Il ne suffit pas de vouloir ou de faire un effort. Si on ne peut pas marcher, rien n’y fera. De même si vous êtes aveugles, inutile de dire à quelqu’un de faire un effort pour utiliser un logiciel qui n’est pas accessible. Et en poussant le raisonnement, dire à un non informaticien qu’il n’a qu’à développer ce qui l’intéresse s’il n’est pas content ne le dotera pas comme par magie d’un esprit capable de comprendre des algorithmes.
Si la liberté signifie faire ce qu’on veut, alors le handicap en est un parfait oxymore. Il s’agit d’une limitation de la liberté. Quelle qu’en soit l’origine, de naissance ou suite à un accident ou une maladie, les êtres humains ont des limitations, et certaines réduisent le champ d’action.
Or, si dans l’Antiquité on pouvait considérer que le handicap n’entrait pas dans le questionnement philosophique du libre arbitre puisqu’on ne pouvait pas agir dessus, quelle que soit l’approche choisie philosophiquement aujourd’hui, le numérique change la donne. Car l’outil informatique peut réellement libérer certaines personnes en situation de handicap.

Quelle vision de la liberté le logiciel libre souhaite-t-il défendre ?

Vous aurez compris dans mon esprit que accessibilité et liberté font partie du même sujet. Mais si c’est une telle évidence, comment se fait-il que les logiciels libres ne prennent pas davantage en compte cette question ? Peut-être n’y a-t-on pas pensé, tout simplement ?
Le logiciel libre est défini par quatre liberté :

  1. liberté 0 : liberté d’exécuter le logiciel
  2. liberté 1 : liberté d’étudier le fonctionnement du programme et de l’adapter à vos besoins
  3. liberté 2 : liberté d’en redistribuer des copies pour aider les autres
  4. liberté 3 : liberté de modifier le programme et de rendre publiques vos modifications pour que tout le monde en bénéficie

Si un logiciel n’est pas exécutable par une personne handicapée, car non accessible, peut-on toujours considérer que les 4 libertés sont respectées ? Autrement dit, un logiciel est-il vraiment libre s’il n’est pas accessible ?
C’est donc la question que j’ai posée à Richard Stallman cet été, et qui nous a occupés lors d’un échange de mails que je vais vous résumer[4].

La liberté 0 en question

Ma question concernait donc précisément la liberté 0. Comment doit-elle être interprétée dans le projet GNU ?
La réponse fut très claire : Richard Stallman considère que l’accessibilité est une fonctionnalité qu’on ne saurait imposer et qui n’a rien à voir avec la vision de la liberté défendue par la FSF.
Bref, si un logiciel respecte formellement, sur le plan juridique, les quatre libertés, il sera considéré comme libérateur, même si inutilisable par certaines personnes.
Notons à ce propos un abus de langage dans certaines traductions françaises. La liberté 0 n’a jamais concerné la liberté d’utiliser le logiciel, mais seulement la liberté de l’exécuter (run en anglais).
Richard fonde son raisonnement sur deux aspects :

  • la nature des limitations est différente : les limitations juridiques liées à une licence d’une part ; et les limitations techniques liées aux fonctionnalités d’un programme d’autre part. Le combat du logiciel libre se base sur le premier aspect car il est plus facile à mener.
  • une interprétation morale : alors qu’il serait injuste selon Richard Stallman de priver un développeur d’accéder aux sources du logiciel, toujours selon lui il ne serait pas injuste de priver les utilisateurs de fonctionnalités vitales leur permettant d’accéder au programme.

Et de conclure nos échanges en m’expliquant que je me trompais en liant les deux sujets, accessibilité et liberté n’auraient rien à voir.
Autant je pourrais très bien comprendre la première explication comme un choix stratégique : on ne peut pas tout défendre, on concentre nos forces sur ce qui est le plus facile dans un souci d’efficacité et ce qui nous importe le plus. C’est le choix de nombreuses associations qui choisissent un terrain d’action particulier. Cela ne signifie pas qu’elles ne trouvent pas les autres sujets importants, mais choisir implique de renoncer à certaines options.
Mais j’avoue que la deuxième raison me laisse perplexe. Non, il n’est pas juste d’être privé de l’accès à un programme parce qu’on a un handicap. C’est même encore plus injuste que de ne pas pouvoir le modifier.
Vous aurez compris que je ne partage pas cette vision de la justice et de la liberté. Le mot-clé à retenir ici est sans doute le mot « vision » : il ne s’agit que d’une interprétation, une vision de la liberté. Nous l’avons vu plus haut, elle s’inscrit dans une approche philosophique particulière de la liberté, mais c’est loin d’être la seule voie possible.
En défendant une approche de la liberté fondée sur l’être humain plutôt que sur les droits théoriques accordés par une licence, je ne me trompe pas, je ne fais pas une erreur d’interprétation, je fais un choix. Autrement dit, j’utilise mon libre arbitre.

« Liberté, Égalité, Fraternité », vraiment ?

Ce qui est troublant dans cette réponse de Richard Stallman, c’est que la définition du logiciel libre n’est pas seulement technique, elle est même avant tout politique. Il introduit d’ailleurs généralement la notion en s’appuyant sur la devise républicaine « Liberté, Égalité, Fraternité ».
Or, admettons que la vision limitée de la liberté 0 telle que définie par Richard Stallman puisse correspondre au premier mot Liberté, comment justifier de laisser de côté l’accessibilité si on tend à défendre dans le même temps l’Égalité et la Fraternité ? Car la liberté théorique donnée par une licence ne permet pas de rétablir une égalité d’action, et de là les internautes n’ont pas tous la possibilité de partager.
Je n’ai malheureusement pas eu de réponse à cette question, autre que « Le logiciel libre apporte tous les trois, par sa nature. ».

Hacker la liberté 0

Cet échange était vraiment instructif, et je tiens à remercier publiquement Richard Stallman d’avoir pris le temps de répondre à mes interrogations. Avoir la chance de dialoguer avec le fondateur d’un mouvement aussi important est un privilège induit également par la philosophie du Libre.
Et bien que je ne me satisfasse pas de la définition donnée par les 4 libertés, cette brique de base est un fondement essentiel pour plus de liberté. Or, que faisons-nous dans le monde du Libre quand un système ne fait pas ce que nous souhaitons ? Nous utilisons la liberté 3 de modifier le logiciel pour développer autre chose.
Et c’est exactement ce que je vous propose de faire. Il ne s’agira pas de hacker un système informatique, mais un système de pensée, pour le rendre meilleur. Nous avons désormais la source du raisonnement, appuyons-nous sur l’existant et corrigeons les bugs 😉

L’accessibilité, une question de liberté !

Je sais qu’il peut paraître prétentieux de parler de défaillance ou de bug, mais pourtant sortir l’accessibilité du champ de la liberté, et donc ne pas compter le handicap comme une limitation de la liberté, à l’ère du numérique, me paraît une erreur.
Aujourd’hui, les personnes ont le choix de s’émanciper et de retrouver une autonomie perdue grâce aux outils informatiques. Et je vais révéler une réalité assez dérangeante, mais le système qui offre aujourd’hui le plus de liberté à une personne aveugle en mobilité, c’est l’iPhone de la marque à la pomme. Le système le plus fermé et le plus restrictif sur le plan juridique offre également le plus de liberté d’un point de vue technique à ses utilisateurs. Vous voulez vous orienter dans la rue, savoir quelle est la monnaie qu’on vous rend en échange de votre billet, lire le menu du restaurant, vérifier l’état de vos comptes bancaires… Autant de choses basiques et quotidiennes qu’on ne peut pas faire de façon autonome quand on est aveugle, à moins d’avoir un iPhone.[5]
Non, je ne m’y trompe pas. Je ne fais pas d’erreur. Je maintiens ce que je dis. Un produit Apple aujourd’hui rend plus libre une personne handicapée que n’importe quel autre système. L’accessibilité est pensée et intégrée de base dans tous les produits Apple, pas d’option, pas de surcoût, tout est disponible immédiatement à l’achat. L’utilisateur sera-t-il complètement libre ? Non, bien sûr que non puisqu’il sera sous le joug commercial d’Apple et de ses nombreuses atteintes aux libertés. Mais il sera toujours plus libre que sans solution du tout.
Il est donc des cas où des produits privateurs rendent plus libres que des logiciels sous licence libre. Et pour une libriste militante comme je le suis, ça a légèrement tendance à me faire… enrager ! Me répondre qu’il suffirait de modifier le logiciel libre pour le rendre accessible est seulement une façon de ne pas prendre ses responsabilités. Nous sommes responsables de ce que nous créons et de l’impact que cela peut avoir sur les gens, qu’on en ait ou non conscience. Si le logiciel libre peut potentiellement être rendu accessible, en théorie, ce n’est pas toujours vrai en pratique. Et ce n’est pas à quelqu’un d’autre de rendre votre logiciel accessible, il en va de votre responsabilité.
Le Libre doit-il concerner la liberté face à l’ordinateur uniquement ou permettre de libérer la personne en lui apportant plus d’autonomie ?

Pas d’accessibilité sans liberté

Les 4 libertés du logiciel libre offrent une base sans laquelle nous ne pourrions rien construire. Il s’agit d’un préalable nécessaire. Il n’y a qu’à lire cette histoire d’une petite fille de 4 ans réduite au silence pour une question de brevet (article traduit en français sur le Framablog[6]).
Et il ne faudrait pas non plus donner une vision noire du Libre en matière d’accessibilité. Car il existe déjà de très nombreux projets prenant en compte la dimension de l’accessibilité. C’est souvent l’œuvre de personnes isolées, conscientes de l’importance du sujet et de son impact sur la Liberté et qui essaient d’améliorer les choses à leur niveau. Et ça fonctionne très bien. Certains logiciels libres sont aussi performants voire meilleurs que leur pendant non libres.
Il manque sans doute un espace pour partager nos expériences, transversal aux différents projets et permettant de promouvoir une liberté d’utilisation pour tous, au-delà de la simple possibilité juridique d’exécution. Un espace pour construire, échanger, se former, partager et promouvoir une vision de la Liberté basée sur l’être humain, avec toutes ses limites et toutes ses différences. Car il n’est pas nécessaire d’avoir un handicap reconnu pour se retrouver incapable d’utiliser un logiciel.
Si vous vous retrouvez dans cette définition, que vous considérez que la Liberté est un enjeu trop important pour être réduit à une définition technique ou juridique, rendez-vous sur liberte0.org.

Pour conclure, j’aimerais rappeler que le projet GNU, à l’origine de la notion même de logiciel libre, s’apprête à fêter ses 30 ans. À cette occasion, quelques pistes sont déjà évoquées concernant les orientations futures du projet. J’aimerais donc souhaiter un très bon anniversaire au gentil Gnu, et lui dire : s’il te plaît, dans le futur, pense à l’accessibilité.

Merci.
Bisous.
Armony

[1] Pour un condensé de l’histoire philosophique de la notion de liberté, vous pouvez lire le livre de Cyril Morana et Éric Oudin, La Liberté d’Épicure à Sartre, Eyrolles, 2010, 186p.

[2] Op. Cit., p.8

[3] Op. Cit., p.11

[4] J’ai demandé l’autorisation à Richard Stallman de publier notre échange dans sa forme brute, sans modification, par souci de transparence. Mais il m’a répondu qu’il ne le souhaitait pas…

[5] Une démonstration en vidéo à consulter sur le site de Paris Web et réalisée par Tanguy Lohéac à l’occasion de sa conférence “Une journée accélérée en pure mobilité : une idée fixe ?” : http://www.paris-web.fr/2012/conferences/une-journee-acceleree-en-pure-mobilite-une-idee-fixe.php

[6] Consulter l’article traduit sous l’intitulé “La petite fille muette réduite au silence par Apple, les brevets, la loi et la concurrence” https://framablog.org/index.php/post/2012/06/14/silence-maya




Geektionnerd : Debian a 20 ans

geektionerd_158-1_simon-gee-giraudot_cc-by-sa.jpg

geektionerd_158-2_simon-gee-giraudot_cc-by-sa.jpg

Source :

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




La musique peut-elle être libre ?

Michael Tiemann est vice-président de Red Hat mais il est aussi impliqué dans un ambitieux projet autour de la musique, The Miraverse qui propose notamment un studio d’enregistrement (fonctionnant, en toute logique, à l’aide de logiciels libres).

Il nous livre ici le fruit de ses réflexion en s’appuyant sur des citations de Glenn Gould et un projet dont nous vous reparlerons à la rentrée car Framasoft en sera le partenaire francophone : The Open Goldberg Variations.

La première édition du projet avait donné lieu à l’enregistrement directement dans le domaine public des Variations Goldberg de Bach. Il s’agira cette fois-ci d’enregistrer ensemble Le Clavier bien tempéré.

MusicRoom1b.jpg

La musique peut-elle être open source ?

Can there be open source music?

Michael Tiemann – 20 août 2013 – OpenSource.com
(Traduction : goofy, Sky, sinma, Asta, audionuma)

De l’eau a coulé sous les ponts depuis que les logiciels « open source » ont été baptisés ainsi en 1998. Le livre La cathédrale et le bazar a contribué à expliquer ce nouveau paradigme de la création des logiciels, et, avec le temps, les conséquences importantes et crédibles que Raymond avait prévues dans son essai s’avèrent aujourd’hui évidentes. Et il est possible qu’en raison de l’impressionnante liste des succès de la communauté du logiciel open source, ceux qui travaillent en dehors du domaine du développement de logiciels commencent à se demander : est-ce que de nouveaux paradigmes fondés sur les principes de l‘open source pourraient bouleverser aussi notre secteur ?

Nous avons vu cela arriver dans le monde du contenu créatif avec les Creative Commons. Larry Lessig, suivant une lecture simple de la constitution des États-Unis d’Amérique et s’appuyant sur beaucoup des intuitions publiées des années auparavant par Lewis Hyde dans le livre The Gift (NdT Le cadeau), a réalisé que bien qu’il n’y ait rien de mal en soi à commercialiser du contenu, il y avait quelque chose de terriblement mal à traiter les ressources culturelles comme privées, comme des propriétés aliénables à jamais. Lessig croyait, et je l’approuve, qu’il y a un bénéfice à donner au public des droits sur les contenus qui définissent leur culture, tout comme l‘open source donne à d’autres développeurs — et même aux utilisateurs — des droits sur les logiciels qu’ils possèdent. Regardez comment le public a utilisé ce droit pour créer Wikipédia, une collection phénoménale de l’un de nos artéfacts culturels qui ont le plus de valeur : la connaissance humaine.

Mais des limites à la portée de Wikipédia et ce qui est possible d’y être référencé sont apparues, notamment parce que beaucoup de créations culturelles qui auraient pu être des biens communs sont au contraire captives de copyrights pour une durée presque perpétuelle. La musique est une pierre angulaire de la culture, dans la mesure où les nations, les peuples, les époques, les mouvements politiques, idéologiques et culturels y font tous référence pour se définir, tout comme les individus se définissent eux-mêmes selon leurs gouts musicaux. Compte tenu de l’importance de la musique pour définir notre identité culturelle, dans quelle mesure devrions-nous en avoir la maîtrise, en particulier pour tout ce qui est censé relever du domaine public ?

Glenn Gould apporte une réponse étonnante à cette question dans deux essais écrits en 1966. Même si vous n’êtes pas un grand connaisseur de musique classique, vous avez sûrement déjà entendu les Variations Goldberg de JS Bach. Et dans ce cas, vous pouvez probablement remercier Glenn Gould car à l’âge de 22 ans, il a commencé sa carrière en signant un contrat et en six jours il a enregistré : Bach: The Goldberg Variations, en dépit du refus d’au moins un directeur de label. À l’époque, l’œuvre était considérée comme ésotérique et trop éloignée du répertoire pianistique habituel. Gould n’a pas cédé, et comme le mentionne Wikipédia : « Sa renommée internationale débute lors de son célèbre enregistrement des Variations Goldberg de juin 1955 dans les studios CBS de New York. Cette interprétation d’une vélocité et d’une clarté de voix hors du commun, et hors des modes de l’époque, contribuera notablement à son succès. ». Sans compter que dès lors les Variations Goldberg sont devenues un classique du piano.

Lorsque Gould a décidé en 1964 qu’il ne se produirait jamais plus en public pour se consacrer aux enregistrements en studio, le monde de la musique en a été très perturbé, parce que les concerts étaient considérés comme le summum de la culture musicale et les enregistrements comme une culture de seconde zone. Gould a répondu avec moults arguments à ces critiques sans chercher à en débattre mais en changeant le paradigme.

Ce qui n’a fait qu’irriter davantage les tenants de la musique institutionnelle. Voici l’essentiel du changement de paradigme tel que l’explique Gould dans The participant Listener :

Au centre du débat sur les technologies, il existe donc un nouveau type de public — un public qui participe davantage à l’expérience musicale. L’apparition de ce phénomène au milieu du vingtième siècle est le plus grand succès de l’industrie du disque. Car l’auditeur n’est plus seulement en position d’analyser passivement, c’est un partenaire dont les goûts, les préférences et les tendances modifient encore maintenant de façon latérale les expériences musicales qui retiennent son attention. C’est lui dont l’art de la musique à venir attend une participation bien plus grande encore.

Bien sûr, il représente également une menace, il peut vouloir s’arroger un pouvoir, c’est un invité indésirable au festin artistique, quelqu’un dont la présence met en péril la hiérarchie de l’institution musicale. Ce public participatif pourrait émerger, libéré de cette posture servile à laquelle on le soumet lors des concerts, pour, du jour au lendemain, s’emparer des capacités décisionnelles qui étaient jusqu’ici l’apanage des spécialistes ?

Il y aurait beaucoup à tirer des deux paragraphes ci-dessus, mais essayons un peu : considérez ce qui précède comme une allégorie dans le domaine musical du transfert de paradigme proposé par le logiciel open source. Cela semble difficile à imaginer aujourd’hui, mais quand j’ai proposé l’idée de lancer une entreprise qui fournirait un service de support commercial aux logiciels libres, une des objections majeures a été : « qu’il soit libre ou non, les utilisateurs ne veulent pas du code source. Ils ne veulent pas y toucher. Ils veulent payer pour la meilleure solution, un point c’est tout. ». Dans la logique de production du logiciel propriétaire, il était impossible d’envisager un seul instant que la meilleure solution pouvait fort bien inclure l’utilisateur devenu un contributeur du développement. Impossible alors de tolérer l’idée que des utilisateurs puissent assumer des capacités de décision qui étaient jusqu’alors le privilège de spécialistes. mais Cygnus Solutions a démontré que l’industrie du logiciel à venir attendait vraiment que les utilisateurs participent pleinement. Et il en va de même pour la création musicale, ce que Gould avait visiblement anticipé :

Le mot-clé ici est « public ». Ces expériences où l’auditeur rencontre de la musique transmise électroniquement ne font pas partie du domaine public. Un axiome bien utile, qui peut être appliqué à toute expérience dans laquelle la transmission électronique intervient, peut être exprimé à travers ce paradoxe : la possibilité d’avoir en théorie un public en nombre jamais atteint jusqu’à présent conduit à un nombre sans limites d’écoutes privées. En raison des circonstances que ce paradoxe suscite, l’auditeur est capable d’exprimer ses préférences et, grâce aux modifications par des moyens électroniques avec lesquels il ajoute son expérience, il peut imposer sa personnalité sur une œuvre. Ce faisant, il la transforme, de même que la relation qu’il entretient avec elle. Il fait d’une œuvre d’art un élément de son environnement sonore personnel.

Gould touche un point philosophique fondamental, qu’il est facile de mal interpréter en raison de la terminologie qu’il emploie. Il ne prétend pas que la transmission électronique aléatoire entraîne automatiquement que le contenu originel soit considéré comme un bien commun appartenant à tout le monde. Il dit plutôt que lorsque un signal électronique devient une expérience humaine, celle-ci n’est pas générique mais unique pour chaque individu. Et que l’avenir de l’art de la musique dépend de la façon dont on respectera le caractère individuel de cette expérience, au lieu de contraindre la transmission artistique à l’uniformité (à titre de note latérale, regardez un peu à quelles contorsions juridiques se livre l’industrie musicale actuelle pour prétendre que les téléchargements de fichiers numériques ne sont pas des « achats », par conséquents soumis aux règles de la vente, mais plutôt des « transactions », c’est-à-dire ne conférant aucun autre droit que celui d’être des récepteurs passifs, n’autorisant aucune autre posture que soumise).

Gould a écrit cela 20 ans avant que Lewis Hyde ne publie The Gift et 20 ans avant que Stallman n’écrive le Manifeste GNU. 30 ans avant que Lawrence Lessig n’écrive Code and other laws of Cyberspace et 30 ans avant que Eric Raymond n’écrive La cathédrale et le bazar. 40 ans avant que je ne commence à imaginer comment The Miraverse pourrait faire coïncider les idées des Creative Commons et de l’open source pour créer un futur nouveau et viable pour la musique. Mais maintenant, l’idée la plus audacieuse qu’il ait proposée (dans The Prospects of Recording) peut se réaliser :

Il serait relativement simple, par exemple, de fournir à l’auditeur la possibilité d’éditer les enregistrements à son gré. Bien entendu, un pas décisif dans cette direction pourrait bien résulter de ce processus par lequel il est désormais possible de dissocier la vitesse du tempo et en faisant ainsi (quoique avec une certaine détérioration de la qualité du son comme inconvénient) découper divers segments d’interprétations d’une même œuvre réalisée par différents artistes et enregistrées à différents tempos. Ce processus pourrait, en théorie, être appliqué sans restriction à la reconstruction d’un concert. Rien n’empêche en fait un connaisseur spécialisé de devenir son propre éditeur de bande sonore et, avec ces dispositifs, de mettre en œuvre son interprétation de prédilection pour créer son concert idéal personnel (…)

Il est vrai qu’à l’époque de Gould la technologie n’était pas disponible pour offrir au public de telles interactions : de son temps l’enregistrement multi-piste était incroyablement coûteux et disponible seulement dans quelques studios d’enregistrement commerciaux qui en avaient l’exclusivité. Mais aujourd’hui, les choses sont différentes, au moins sur le plan technologique. Ardour est une excellente station de travail audionumérique libre qui permet à n’importe quel ordinateur portable de devenir un puissant éditeur audio multipiste et un dispositif d’enregistrement. Et c’est ce que veulent les auditeurs participatifs. Mais les outils logiciels les plus puissants dans le monde ne peuvent pas créer un concert enthousiasmant à partir de rien, il doit y avoir un artiste qui est prêt à créer la trame sonore qui peut ensuite être mélangée et remixée selon les goûts de chacun. Et bien sûr, il doit y avoir un cadre de droits commerciaux qui ne mette pas toute l’entreprise par terre. C’est ce qui rend le projet Open Goldberg Variations si intéressant : il est la réponse au défi que Gould lançait il y a plus de 40 ans. C’est la prochaine étape de l’évolution de l’héritage musical qui va de JS Bach à nos jours en passant par Gould. Il invite chaque auditeur à devenir un participant à l’avenir de l’art de la musique.

Variations en open source majeure

Kimiko Ishizaka est l’artiste qui a franchi le pas de façon courageuse en tant que pianiste de concert pour transmettre une ressource culturelle en libérant à la fois le code source de l’œuvre de Bach (transcription professionnelle des partitions avec le logiciels libre MuseScore) et les données du concert lui-même (sous la forme d’un enregistrement audio) pour donner au public des expériences sans précédent à la fois de plaisir musical et du sentiment de liberté qui vient d’une action authentique. C’est-à-dire : l’action à créer ; l’action de manipuler à son gré ; l’action d’augmenter les biens communs en partageant ce dont on est passionné.

Revenons donc à la question initiale : la musique peut-elle être open source ? Ou plutôt, que peut-il advenir de la musique open source ? Les rencontres OHM 2013 viennent de conclure une semaine de « Observer, Modifier, Créer ». Un hacker qui s’y trouvait nous a proposé ses réflexions :

Un morceau de musique peut être considéré comme libre s’il y a un enregistrement de bonne qualité disponible sous une licence permissive (équivalent d’un binaire précompilé dans une distribution), et une partition de également bonne qualité, contenant toutes les instructions et les commentaires du compositeur original, disponible dans un format éditable et réutilisable, accompagné elle aussi d’une licence libre. Pensez-y comme si c’était le code source d’un logiciel que vous pourriez utiliser, compiler, interpréter, modifier, copier etc.

Le premier projet important destiné à mettre les œuvres de Jean-Sébastien Bach en open source a été Open Goldberg Variations (« Bach to the future ») avec l’aide du financement participatif. Vous pouvez télécharger les enregistrements audio sans perte de qualité réalisés par Kimiko Ishizaka, et la partition aux formats MuseScore ou XML, tout cela étant dans le domaine public.

C’est un très bon début. Ce qui en ferait un encore meilleur début serait que ça soit une communauté active qui l’accomplisse. Une communauté de personnes de divers horizons qui jouent chacun des rôles importants, qui travaillent ensemble pour créer ce que personne ne peut faire seul. Et un excellent environnement qui permette de publier sur une base fiable des œuvres commercialement rentables et approuvées par la critique.

Un tel environnement est The Miraverse, qui constitue l’essence de l’expérience des studios de Manifold Recording. D’un côté de la vitre de la cabine de mixage se trouve le studio (photo d’ouverture du billet ci-dessus), et de l’autre côté une console analogique API Vision qui peut enregistrer jusqu’à 64 pistes avec Ardour (ci-dessous).

CR_Ardour2.jpg

Ces environnements sont complétés par un troisième, le « Studio Annex », qui met à disposition une console Harrison Trion (qui tourne sous Linux) et permet de produire divers formats de son multicanal, avec jusqu’à 96 canaux audio à 96 kHz.

ACR-SideVideo.jpg

Dans ces studios, de la musique open source peut être enregistrée, auditionnée, et mixée avec le meilleur équipement audio, le meilleur environnement acoustique, et des logiciels open source. L’auditeur participant peut faire l’expérience d’un enregistrement (processus stupéfiant en lui-même) et des choix créatifs qui sont possibles une fois que le processus de mixage commence.

Souhaitez-vous devenir un auditeur participatif ? Kimiko Ishizaka s’apprête à faire une tournée en Europe et en Amérique du nord en prévision de son enregistrement du « Clavier bien tempéré ». Le premier concert aura lieu au festival Beethoven de Bonn en Allemagne le 24 septembre ; puis Mme Ishizaka se produira à Prague (25 et 26 septembre), Munich (30 septembre), Vienne, Hambourg, puis Bonn etc. (calendrier complet à lire au bas de la page http://opensource.com/life/13/8/open-music-open-goldberg).

Comme n’importe quel autre projet open source, votre intérêt et votre participation peuvent en faire non seulement un succès, mais un exemple pour l’industrie. C’est notre but. En participant à une de ces représentations, en participant à la campagne KickStarter Twelve Tones of Bach (ce qui est une façon d’acheter des tickets pour ces représentations), en participant à la tournée (le 3 novembre), vous pouvez pleinement profiter de votre propre expérience de la musique et des perspectives de l’enregistrement, tout en aidant le projet et ses acteurs à atteindre des objectifs plus ambitieux. Nous espérons vous voir cet automne… et encore souvent à l’avenir !