Bagdad et Gaza : OpenStreetMap 1 Google Maps 0

Il y a deux mois, nous publiions un article sur le zoo de Berlin illustrant le fait qu’OpenStreetMap pouvait être plus pertinent que Google Maps dans ce cas très particulier.

Un commentaire nous signala alors qu’il en était de même pour certaines zones sensibles et de donner alors l’exemple de la ville de Bagad où la comparaison se révèle effectivement spectaculaire.

Bagdad

Sur Google Maps :

Bagdad - Google Maps - 2010

Sur OpenStreetMap (accueil du projet de cartographie de Bagdad) :

Bagdad - OpenStreetMap - 2010

Mais la bande de Gaza n’est pas en reste.

Gaza

Ici la ville de Gaza (ou Gaza City) n’existe carrément pas chez Google Maps !

Gaza - Google Maps - 2010

Chez OpenStreetMap (accueil du projet de cartographie de Gaza) :

Gaza - OpenStreetMap - 2010

But why ?

Pourquoi Google Maps se montre si peu précis ici ?

J’attends vos commentaires. La réponse est peut-être à rechercher du côté de la géopolitique américaine et des restrictions imposées à ses entreprises ?

Google a beau travailler dans les nuages, Google n’en a pas moins un pays d’origine et d’appartenance qui a ses propres règles et suit ses propres intérêts…

Règles et intérêts qui heureusement ne sont les mêmes que ceux d’un projet libre et coopératif comme OpenStreeMap !




Nous disons Liberté – Ils entendent Gratuité

Drewski Mac - CC by-saNous le savons, l’adjectif anglais free est un mot qui signifie aussi bien libre que gratuit.

Tout dépend du contexte. Lorsque Stevie Wonder chante I’m free, il n’y a pas d’équivoque possible. Mais il faut encore parfois préciser à un Anglo-Saxon qu’un free software est un logiciel libre et non un logiciel gratuit. C’est d’ailleurs l’une des raisons de l’existence de l’expression alternative (mais controversée) open source.

Il en va de même pour la célèbre citation « Information wants to be free », que notre ami Cory Doctorow nous propose ici d’abandonner parce qu’elle arrange trop ceux qui feignent de croire que nous voulons la gratuité alors qu’il ne s’agit que de liberté. Une gratuité « qui détruit toute valeur » et qu’il faut combattre, quitte à restreindre les… libertés ! CQFD

N’est-ce pas la même stratégie et le même dialogue de sourds que nous avons retrouvés lors de notre bataille Hadopi ? Ce n’est pas l’information gratuite qui nous importe, c’est l’information libre. Mais ça c’est tellement étrange et subversif que cela demeure impossible à entendre de l’autre côté de la barrière[1]. À moins qu’ils n’aient que trop compris et qu’ils ne fassent que semblant de faire la source oreille…

Remarque des traducteurs : Le mot « free » apparaît dix-sept fois dans la version originale de l’article, que nous avons donc traduit tantôt par « gratuit » tantôt par « libre », en fonction de ce que nous pensions être le bon contexte.

Répéter que l’information veut être gratuite fait plus de mal que de bien

Saying information wants to be free does more harm than good

Cory Doctorow – 18 mai 2010 – Guardian.co.uk
(Traduction Framalang : Barbidule et Daria)

Arrêtons la surveillance et le contrôle parce que ce que veulent les gens c’est avant tout être réellement libres.

Pendant dix ans, j’ai fait partie d’un groupe que l’industrie du disque et du cinéma désigne comme « ceux qui veulent que l’information soit gratuite ». Et durant tout ce temps, jamais je n’ai entendu quelqu’un utiliser ce cliché éculé – à part des cadres de l’industrie du divertissement.

« L’information veut être gratuite » renvoie au fameux aphorisme de Stewart Brand, énoncé pour la première fois lors de la Conférence de Hackers de Marin County, Californie (forcément), en 1984 : « D’un côté, l’information veut être chère, parce qu’elle a énormément de valeur. La bonne information au bon moment peut changer votre vie. D’un autre côté, l’information veut être gratuite, car le coût pour la diffuser ne fait que diminuer. Ces deux approches ne cessent de s’affronter. »

Ce savoureux petit koan résume élégamment la contradiction majeure de l’ère de l’information. Il signifie fondamentalement que l’accroissement du rôle de l’information en tant que source et catalyseur de valeur s’accompagne, paradoxalement, d’un accroissement des coûts liés à la rétention d’information. Autrement dit, plus vous avez de TIC à votre disposition, plus elles génèrent de valeur, et plus l’information devient le centre de votre monde. Mais plus vous disposez de TIC (et d’expertise dans les TIC), et plus l’information peut se diffuser facilement et échapper à toute barrière propriétaire. Dans le genre vision prémonitoire anticipant 40 années d’affrontements en matière de régulation, de politique et de commerce, il est difficile de faire mieux.

Mais il est temps qu’elle meure.

Il est temps que « l’information veut être gratuite » meure car c’est devenu l’épouvantail qu’agitent systématiquement les grincheux autoritaires d’Hollywood à chaque fois qu’ils veulent justifier l’accroissement continu de la surveillance, du contrôle et de la censure dans nos réseaux et nos outils. Je les imagine bien disant « ces gens-là veulent des réseaux sans entraves uniquement parce qu’ils sont persuadés que « l’information veut être gratuite ». Ils prétendent se soucier de liberté, mais tout ce qui les intéresse, c’est la gratuité ».

C’est tout simplement faux. « L’information veut être gratuite » est aux mouvements pour les droits numériques ce que « Mort aux blancs » est aux mouvements pour l’égalité raciale : une caricature, qui transforme une position de principe nuancée en personnage de dessins animés. Affirmer que « l’information veut être gratuite » est le fondement idéologique du mouvement revient à soutenir que brûler des soutiens-gorges est la principale préoccupation des féministes (dans l’histoire du combat pour l’égalité des sexes, le nombre de sous-tifs brûlés par des féministes est si proche de zéro qu’on ne voit pas la différence).

Mais alors, si les défenseurs des libertés numériques ne veulent pas de « l’information gratuite », que veulent-ils ?

Ils veulent un accès ouvert aux données et aux contenus financés par des fonds publics, parce que cela contribue à améliorer la recherche, le savoir et la culture – et parce qu’ils ont déjà payé au travers des impôts et des droits de licence.

Ils veulent pouvoir citer des travaux antérieurs et y faire référence, parce que c’est un élément fondamental de tout discours critique.

Ils veulent avoir le droit de s’inspirer d’œuvres antérieures afin d’en créer de nouvelles, parce que c’est le fondement de la créativité, et que toutes les œuvres dont ils souhaitent s’inspirer ont elles-mêmes été le fruit de la compilation des œuvres qui les ont précédées.

Il veulent pouvoir utiliser le réseau et leurs ordinateurs sans être soumis à des logiciels de surveillance et d’espionnage installés au nom de la lutte contre le piratage, parce que la censure et la surveillance ont un effet corrosif sur la liberté de penser, la curiosité intellectuelle et le progrès vers une société ouverte et équitable.

Ils veulent des réseaux qui ne soient pas bridés par des entreprises cupides, dont l’objectif est de vendre l’accès à leurs clients aux majors du divertissement, parce que quand je paie pour une connexion au réseau, je veux recevoir les bits de mon choix, aussi vite que possible, même si ceux qui fournissent ces bits refusent de graisser la patte de mon fournisseur d’accès.

Ils veulent avoir le droit de concevoir et d’utiliser les outils qui permettent de partager l’information et de créer des communautés, parce que c’est le fondement de la collaboration et de l’action collective – même si un petit nombre d’utilisateurs se servent de ces outils pour obtenir de la musique pop sans payer.

« l’information veut être gratuite » est d’une concision élégante, et elle joue subtilement sur le double sens du mot anglais free , mais aujourd’hui elle fait plus de mal que de bien.

Il vaut mieux dire « Internet veut être libre » .

Ou plus simplement : « les gens veulent être libres » .

Notes

[1] Crédit photo : Drewski Mac (Creative Commons By-Sa)




Et l’homme créa la vie… mais déposa un brevet dans la foulée

Liber - CC by-saGrande première : des chercheurs américains sont récemment parvenus à créer une cellule bactérienne vivante dont le génome est synthétique.

Il n’en fallait pas plus pour que la presse vulgarise l’évènement en nous posant cette spectaculaire question : et si l’homme venait de créer la vie ?

C’est aller un peu vite en besogne nous précise le célèbre scientifique français Joël de Rosnay : « Craig Venter, l’auteur de la fameuse publication dans Science, n’a pas créé la vie, il a fait un copier coller du génome d’une bactérie qui existe dans la nature ». Mais il reconnaît cependant que « c’est la première fois qu’un être vivant n’a pas d’ancêtre, qu’il a pour père un ordinateur ».

Nous voici donc en présence d’un être vivant dont le père serait partiellement un ordinateur. Or qui manipule cet ordinateur ? Craig Venter et son équipe, et si l’homme est avant tout un biologiste c’est également un homme d’affaire, ce ne sont pas des fonds publics mais privés qui financent ses recherches. Ainsi Le Monde nous révèle que « Venter, qui aurait déjà investi 40 millions de dollars dans ce projet, a déposé un portefeuille de brevets pour protéger son concept de Mycoplasma laboratorium, hypothétique machine à tout faire des biotechnologies ».

Une vie qui n’est alors qu’information et données entrées dans un ordinateur mais dont l’exploitation et l’accès sont strictement contrôlés et réservés aux entreprises qui l’ont enfantée. Cela ressemble à de la mauvaise science-fiction. C’est pourtant peut-être le monde qui nous attend demain. Et l’Apocalypse arrivera plus tôt que prévu[1].

Sauf si… sauf si on insuffle là aussi un peu d’esprit « open source », nous dit cet article du The Economist traduit ci-dessous.

Avoir ou non la possibilité de « hacker la vie », telle sera l’une des questions fondamentales de ce siècle.

Et l’homme créa la vie…

And man made life

20 mai 2010 – The Economist Newspaper
(Traduction Framalang : Martin, Olivier et Don Rico)

La vie artificielle, porteuse de rêves et de cauchemars, est arrivée.

Créer la vie est la prérogative des dieux. Au plus profond de sa psyché, malgré les conclusions rationnelles de la physique et de la chimie, l’homme a le sentiment qu’il en est autrement pour la biologie, qu’elle est plus qu’une somme d’atomes en mouvement et en interaction les uns avec les autres, d’une façon ou d’une autre insufflée d’une étincelle divine, d’une essence vitale. Quel choc, alors, d’apprendre que de simples mortels ont réussi à créer la vie de façon artificielle.

Craig Venter et Hamilton Smith, les deux biologistes américains qui en 1995 ont démêlé pour la première fois la séquence d’ADN d’un organisme vivant (une bactérie), ont fabriqué une bactérie qui possède un génome artificiel – en créant une créature vivante sans ascendance (voir article). Les plus tatillons pourraient chipoter sur le fait que c’est seulement l’ADN d’un nouvel organisme qui a été conçu en laboratoire, les chercheurs ayant dû utiliser l’enveloppe d’un microbe existant pour que l’ADN fasse son travail. Néanmoins, le Rubicon a été franchi. Il est désormais possible de concevoir un monde où les bactéries (et à terme des animaux et des plantes) seront conçues sur ordinateur et que l’on développera sur commande.

Cette capacité devrait prouver combien l’Homme maîtrise la nature, de façon plus frappante encore que l’explosion de la première bombe atomique. La bombe, bien que justifiée dans le contexte de la Seconde Guerre mondiale, n’avait qu’une fonction de destruction. La biologie, elle, s’attache à « mettre en culture » et « faire croître ». La biologie synthétique, terme sous lequel on regroupe cette technologie et des tas d’autres moins spectaculaires, est très prometteuse. À court terme, elle devrait permettre d’obtenir de meilleurs médicaments, des récoltes moins gourmandes en eau (voir article), des carburants plus écologiques, et donner une nouvelle jeunesse à l’industrie chimique. À long terme, qui peut bien savoir quels miracles elle pourrait permettre d’accomplir ?

Dans cette perspective, la vie artificielle semble être une chose merveilleuse. Pourtant, nombreux sont ceux qui verront cette annonce d’un mauvais œil. Pour certains, ces manipulations relèveront plus de la falsification que de la création. Les scientifiques n’auraient-ils plus les pieds sur terre ? Leur folie conduira-t-elle à l’Apocalypse ? Quels monstres sortiront des éprouvettes des laboratoires ?

Ces questionnements ne sont pas infondés et méritent réflexion, même au sein de ce journal, qui de manière générale accueille les progrès scientifiques avec enthousiasme. La nouvelle science biologique a en effet le potentiel de faire autant de mal que de bien. « Prédateur » et « maladie » appartiennent autant au champ lexical du biologiste que « mettre en culture » et « faire croître ». Mais pour le meilleur et pour le pire, nous y voilà. Créer la vie n’est désormais plus le privilège des dieux.

Enfants d’un dieu mineur

Il est encore loin le temps où concevoir des formes de vie sur un ordinateur constituera un acte biologique banal, mais on y viendra. Au cours de la décennie qui a vu le développement du Projet Génome Humain, deux progrès qui lui sont liés ont rendu cet événement presque inévitable. Le premier est l’accélération phénoménale de la vitesse, et la chute du coût, du séquençage de l’ADN qui détient la clé du « logiciel » naturel de la vie. Ce qui par le passé prenait des années et coûtait des millions prend maintenant quelques jours et coûte dix fois moins. Les bases de données se remplissent de toutes sortes de génomes, du plus petit virus au plus grand des arbres.

Ces génomes sont la matière première de la biologie synthétique. Tout d’abord, ils permettront de comprendre les rouages de la biologie, et ce jusqu’au niveau atomique. Ces rouages pourront alors êtres simulés dans des logiciels afin que les biologistes soient en mesure de créer de nouvelles constellations de gènes, en supposant sans grand risque de se tromper qu’elles auront un comportement prévisible. Deuxièmement, les bases de données génomiques sont de grands entrepôts dans lesquels les biologistes synthétiques peuvent piocher à volonté.

Viendront ensuite les synthèses plus rapides et moins coûteuses de l’ADN. Ce domaine est en retard de quelques années sur l’analyse génomique, mais il prend la même direction. Il sera donc bientôt à la portée de presque tout le monde de fabriquer de l’ADN à la demande et de s’essayer à la biologie synthétique.

C’est positif, mais dans certaines limites. L’innovation se porte mieux quand elle est ouverte à tous. Plus les idées sont nombreuses, plus la probabilité est élevée que certaines porteront leurs fruits. Hélas, il est inévitable que certaines de ces idées seront motivées par une intention de nuire. Et le problème que posent les inventions biologiques nuisibles, c’est que contrairement aux armes ou aux explosifs par exemple, une fois libérées dans la nature, elles peuvent proliférer sans aide extérieure.

La biologie, un monde à part

Le club informatique Home Brew a été le tremplin de Steve Jobs et d’Apple, mais d’autres entreprises ont créé des milliers de virus informatiques. Que se passerait-il si un club similaire, actif dans le domaine de la biologie synthétique, libérait par mégarde une bactérie nocive ou un véritable virus ? Imaginez qu’un terroriste le fasse délibérément…

Le risque de créer quelque chose de néfaste par accident est sans doute faible. La plupart des bactéries optent pour la solution de facilité et s’installent dans de la matière organique déjà morte. Celle-ci ne se défend pas, les hôtes vivants, si. Créer délibérément un organisme nuisible, que le créateur soit un adolescent, un terroriste ou un État-voyou, c’est une autre histoire. Personne ne sait avec quelle facilité on pourrait doper un agent pathogène humain, ou en choisir un qui infecte un certain type d’animal et l’aider à passer d’une espèce à une autre. Nous ne tarderons toutefois pas à le découvrir.

Difficile de savoir comment répondre à une telle menace. Le réflexe de restreindre et de bannir a déjà prouvé son efficacité (tout en restant loin d’être parfait) pour les armes biologiques plus traditionnelles. Mais celles-ci étaient aux mains d’états. L’omniprésence des virus informatiques montre ce qu’il peut se produire lorsque la technologie touche le grand public.

Les observateurs de la biologie synthétique les plus sensés favorisent une approche différente : l’ouverture. C’est une manière d’éviter de restreindre le bon dans un effort tardif de contrer le mal. Le savoir ne se perd pas, aussi le meilleur moyen de se défendre est-il de disposer du plus d’alliés possible. Ainsi, lorsqu’un problème se présente, on peut rapidement obtenir une réponse. Si l’on peut créer des agents pathogènes sur ordinateur, il en va de même pour les vaccins. Et à l’instar des logiciels open source qui permettent aux « gentils sorciers » de l’informatique de lutter contre les « sorciers maléfiques » (NdT : white hats vs black hats), la biologie open source encouragerait les généticiens œuvrant pour le bien.

La réglementation et, surtout, une grande vigilance seront toujours nécessaires. La veille médicale est déjà complexe lorsque les maladies sont d’origine naturelle. Dans le cas le la biologie synthétique, la surveillance doit être redoublée et coordonnée. Alors, que le problème soit naturel ou artificiel, on pourra le résoudre grâce à toute la puissance de la biologie synthétique. Il faut encourager le bon à se montrer plus malin que le mauvais et, avec un peu de chance, on évitera l’Apocalypse.

Notes

[1] Crédit photo : Liber (Creative Commons By-Sa)




Dis-moi si tu préfères bidouiller Arduino ou consommer iPad et je te dirai qui tu es

FreeduinoParmi la centaine de commentaires provoqués par notre récent article Pourquoi je n’achèterai pas un iPad, on a pu noter une opposition franche entre ceux qui pensaient qu’il était important, voire fondamental, d’avoir la possibilité « d’ouvrir le capot » logiciel et matériel de la bête, et ceux qui n’y voyaient qu’une lubie de geeks passéistes et rétrogrades.

Or aujourd’hui nous allons justement évoquer un drôle d’objet qui accepte d’autant plus volontiers de se mettre à nu qu’il sait que c’est sa principale qualité aux yeux de son enthousiaste et créative communauté.

Il s’agit de la carte Arduino qui est un peu à l’électronique ce que le logiciel libre est à l’informatique, puisque le design, les schémas, les circuits et l’environnement de programmation sont disponibles sous licence libre[1].

Pour vous en dire plus sur cet atypique hardware libre, nous avons choisi de traduire ci-dessous un article de présentation qui fait le parallèle et la liaison avec les hackers ou bidouilleurs du monde GNU/Linux.

Nous vous suggérons également cette excellente interview de Alexandra Deschamps-Sonsino, réalisée par Hubert Guillaud pour InternetActu, dont voici quelques larges extraits :

Arduino est une plateforme de prototypage en électronique. Elle permet aux gens de faire par eux-mêmes, c’est-à-dire de fabriquer des projets interactifs, des objets qui répondent, qui réagissent par exemple à la présence des gens, à leurs mouvements, aux pressions qu’ils y exercent… Arduino relie le monde réel au monde virtuel et vice-versa.

Arduino est né en 2005 au sein d’une école de Design en Italie (…). Plusieurs professeurs ressentaient le besoin d’une plateforme technique pour créer des environnements physiques interactifs, utilisables par des gens qui n’avaient pas les compétences techniques pour cela.

(…) Arduino permet de faire un lien entre une entrée et une réponse. Il agit comme un cerveau : quand il reçoit telle information, il fait telle chose, selon la manière dont je l’ai équipé ou programmé. Arduino est à la fois du hardware et du software (du matériel et du logiciel). Il se compose d’une carte électronique de quelques centimètres qu’on connecte à un ordinateur à l’aide d’un câble USB. On télécharge un logiciel gratuit sur son ordinateur qui permet de gérer et programmer la puce de la carte Arduino. Une fois programmée, cette puce exécute ce qu’on lui dit. Il n’y a plus qu’à connecter la carte à une batterie et elle fait ce pour quoi elle a été programmée.

(…) Au niveau de la communauté, cette plateforme a révolutionné la façon dont les gens pensaient et réfléchissaient à la technologie. Il a permis de ne plus penser la techno de manière abstraite, mais de produire et s’impliquer très rapidement. C’est une plateforme qui coûte peu cher (la carte de base et la puce coûtent une vingtaine d’euros). Toute l’information nécessaire pour accéder au matériel et à son fonctionnement est en ligne, en open source, que ce soit via les forums ou via l’aire de jeux (où la communauté publie codes, plans, tutoriels et astuces). La communauté est désormais forte de quelque 6000 personnes très présentes dans les forums pour accueillir et accompagner les débutants. Il s’est vendu plus de 60 000 cartes Arduino à travers le monde et la distribution est désormais mondiale.

(…) L’internet nous a permis de faire plein de choses avec nos vies en ligne… et nous a donné envie de faire la même chose avec les objets de tous les jours.

Depuis la révolution industrielle, on a beaucoup créé de dépendances aux produits déjà fabriqués, déjà organisés. Le mouvement DIY (Do It Yourself, Faites-le vous-mêmes) qui se développe depuis 2 ans, réunit une communauté qui ne veut plus accepter des produits tout finis, tout cuits. Cette nouvelle vague de hackers (bidouilleurs) essaye de regarder ce qu’il y a l’intérieur, alors que les conditions d’utilisation n’encouragent pas les gens à regarder ce qu’il y a l’intérieur de ce qu’ils achètent. (…) Le DIY devient un outil pour la microproduction, permettant à chacun de créer son propre business, de fabriquer 20 exemplaires et de voir ce qu’il se passe. Le DIY est finalement important pour sortir du carcan de la mégaproduction. Avant, il fallait un grand marché potentiel pour lancer un produit. Avec l’internet et des plateformes comme Arduino, chacun a accès à sa micro production.

Arduino s’inscrit donc en plein dans cette approche DIY (Do It Yourself), ou, encore mieux, du DIWO (Do It With Others), que l’on retrouve dans les Fab lab (lire à ce sujet cet article de Rue89).

Le professeur que je suis se met à rêver d’une utilisation accrue de ces objets libres dans nos écoles, en particulier en cours de technologie au collège[2].

Plus de curiosité, de créativité, d’esprit critique, d’autonomie, et d’envie d’appprendre, comprendre et entreprendre ensemble, pour moins d’idolâtrie, de passivité et d’individualisme consumériste : une « génération Arduino » plutôt qu’une « génération iPad » en somme…

PS : Tous les liens de l’article ont été ajoutés par nos soins pour en faciliter la compréhension.

Arduino – La révolution matérielle

Arduino – the hardware revolution

Richard Smedley – 23 février 2010 – LinuxUser.co.uk
(Traduction Framalang : Yoann, JmpMovAdd, Siltaar et Goofy)

Chaque année on nous annonce que ce sera « l’année de Linux sur nos écrans d’ordinateur ». Or cette percée tant attendue du logiciel libre chez le grand public tarde à arriver. Mais au moment même où nous guettons des signes d’espoir tels que les ventes de netbooks sous Linux, l’apparition de sites en Drupal ou le développement des téléphones Android (dont une partie est libre), une autre révolution est en marche, dans le monde physique et pourtant pas si éloigné de la sphère d’Internet.

Et voici Arduino qui fait son entrée : un faible coût, un code source ouvert, une carte matérielle pour le raccordement du monde réel à votre ordinateur, et/ou à tout l’Internet. Que peut-on en faire ? Tout. La seule limite est l’imagination, et comme vous allez le voir à travers quelques exemples de créations que nous passons en revue ici, l’invention de nouveaux usages est la seule règle.

Matériel ouvert

Tout comme dans le cas de GNU/Linux, la propagation de ce matériel tient aux raisons suivantes : tout le monde le possède, peut l’améliorer et il donne envie de s’y impliquer. Les plans de référence pour Arduino sont en effet distribués sous licence Creative Commons (le logiciel est quant à lui naturellement sous licence libre en GPL/LGPL), et la société italienne qui est derrière cette plateforme, Smart Projects, accepte avec plaisir les nouveaux collaborateurs et les suggestions alternatives. Les cartes sont réalisées en différents formats, vendues partout dans le monde entier, et si vous souhaitez en fabriquer une vous-même, le Web regorge de modèles différents, quel que soit votre niveau de compétence.

Le nombre de cartes utilisées est estimé à plusieurs centaines de milliers, mais comme dans le cas des distributions Linux, la possibilité de les copier librement rend délicat le décompte précis. Ce qui n’est pas difficile c’est de constater la nature véritablement ouverte des communautés en ligne et l’émergence de nombreuses réunions entre hackers autour des projets Arduino. Ceci a généré un flot continu des projets géniaux menés par toutes sortes de personnes à la fibre créative et artistique. Mais d’abord, un peu d’histoire…

Ceux qui ont de la mémoire et un intérêt pour l’histoire des geeks et du mouvement du logiciel libre se souviennent peut-être du Tech Model Railroad Club (TMRC) – un groupe d’étudiants du MIT créé dans les années 1950 qui s’étaient réunis pour jouer avec les trains électriques. Certains s’intéressaient avant tout aux modèles réduits mais d’autres se passionnaient pour les circuits, l’aiguillage et tout ce qui fait que les trains partent et arrivent à l’heure. C’est le fameux Signals and Power Subcommittee (NdT : Sous-comité des signaux et de l’énergie) qui a mis en œuvre dans les années cinquante et soixante un système de contrôle numérique semi-automatique très brillant, avant d’acquérir un ordinateurs PDP-11 en 1970.

Les membres du TMRC on incarné très tôt la culture hacker, lui donnant son vocabulaire et ses termes de référence. Beaucoup sont devenus des pionniers au sein des premières grandes entreprises d’informatique (DEC, …). Mais cette culture hacker correspondait bien au stéréotype américain du « nerd » : le génie sociopathe qui n’arrivait jamais à avoir de petite copine (au TMRC il n’y avait, inévitablement, que des garçons).

Les logiciels libres et la culture hacker ont toujours souffert d’un problème d’image, si bien que la participation féminine dans l’informatique professionnelle a chuté de 50% à 20% pendant les 50 dernières années, certain projets libres ont la proportion dérisoire de 1% de femme. C’est déplorable, les gars, vraiment ! mais il y a des lueurs d’espoir.

Au-delà d’Arduino

Les modules sont basées sur les micro-contrôleurs Atmel AVR et une conception open source. Il vous est donc facile de faire votre propre Arduino et en fait il existe beaucoup de versions de ce que l’on appelle les Freeduinos qui ont été créés pour des besoin très différents.

Même le micro-contrôleur Atmel n’est pas indispensable – du moment que l’interface et le langage sont compatibles, on peut bricoler toutes sortes de clones. Il existe aussi des kits pour créer son propre Arduino, vous pouvez même construire votre propre carte si vous êtes à l’aise avec l’électronique embarquée. C’est ce que font finalement certains après des expériences fructueuses avec l’Arduino, bien qu’ils ne soient pas à priori des hackers de systèmes embarqués.

Ainsi la télécommande Arduino pour caméra de Michael Nicholls’s, élaborée avec au Fizzpop hackerspace, est un voyage parmi les oscillateurs et les signaux carrés de contrôle. Chaque projet peut s’avérer aussi amusant qu’éducatif, et en fait, la vie ne devrait-elle pas toujours lier ces deux éléments ? Les télécommandes pour caméra sont un projet populaire, mais ceux qui souhaitent les rendre encore plus petites vont au-delà du projet Arduino, et développent leurs propres cartes mères.

Pour Abdul A Saleh et Aisha Yusuf, le projet Arduino a été une étape puisqu’ils bidouillaient un circuit à brancher sur des radios ordinaires jusqu’à ce qu’ils réalisent qu’un service Web serait plus utile pour leur idée de startup, un moyen de trouver des émissions télé connexes. Leur système peut désormais pointer sur des podcasts au lieu de parcourir les stations de radios, mais « c’est cela qui donne désormais un nouvel élan à de notre projet » indique Yusuf.

En creusant autour de l’univers amical des hackers d’Arduino on trouve plusieurs startups, micro-sociétés et excellentes petites entreprises de constructeurs, vendeurs et formateurs, ainsi que des artistes. Certains, comme .:oomlout:. entrent dans toutes les catégories à la fois.

Beaucoup sont allés du « suivre la voie du matériel libre », à « poursuivre leur rêves ». Tout comme l’Internet mobile, les ordinateurs portables et les cybercafés ont permis aux créatifs numériques de se lancer en freelance à moindre frais, le bidouilleur de matériel dédié a besoin de son espace de travail partagé à moindre coût, avec si possible plein de collègues créatifs autour. Pour répondre à ce besoin, les hackerspaces (NdT : que l’on pourrait éventuellement traduire par « bidouilloires ») ont finalement vu le jour au Royaume-Uni.

Hackerspaces

Si le netbook n’a pas complètement fait de 2009 « l’année de Linux dans les ordinateurs grand public », il a vu l’arrivée en retard des hackerspaces sur ses rives, avec des groupes se formant à Birmingham, Brighton, Exeter, Leeds, Liverpool, Londres, Manchester, Shrewsbury, Stoke-on-Trent et York, avec deux groupes distincts coopérant à Manchester. (NdT : le même phénomène s’est produit en France avec au moins cinq hackerspaces rien qu’à Paris – voir Hackerspace.net et ce reportage de Rue89)

Fabrique le toi-même, ne l’achète pas. L’éthique du hacker sonne bien ces temps-ci, alors que l’intérêt pour les jardins familiaux va croissant et que les journaux multiplient les dossiers pour nous aider à bâtir des maisons plus écologiques. Ce n’est plus le « fais-le marcher et répare », hérité de nos parents avec le rationnement en temps de guerre, et l’austérité qui a suivi, mais un défi post-société de consommation, pour trouver de la valeur au-delà du « je suis ce que je consomme », par une implication plus profonde dans les choses qui nous entourent. C’est cette implication que l’on retrouve avec les projets Arduino et les réalisations complexes sorties des hackerspaces. Ils témoignent d’une approche vraiment ludique et d’une certaines aisance avec la technologie plutôt que son rejet.

L’Homo sapiens est la seule race définie par les objets dont elle s’entoure, et qui ne peut survivre sans les outils qu’elle fabrique. Des recherches archéologiques ont montré que les néanderthaliens de l’âge de pierre, vivant dans des caves, sans agriculture, et survivant grâce à la chasse et à la cueillette, employaient leurs précieuses heures de temps libre à fabriquer des bijoux et du maquillage.

Il semble que l’envie de jouer, de se parer et de s’amuser soit inhérente à ce que nous sommes. Les hackers et les artistes qui utilisent les modules Arduino pour s’amuser avec le matériel ne sont ni des fondus de technologie ni des artistes d’avant-garde mais la simple incarnation de l’esprit de notre temps.

Quelques liens connexes (en vrac)

Ne pas hésiter à en ajouter d’autres références dans les commentaires et bien entendu à donner votre avis sur Arduino, son modèle et notre choix discutable de l’opposer ici symboliquement et sociologiquement à l’iPad.

Notes

[1] Crédit photo : Freeduino.org (Creative Commons By)

[2] Il est à noter que le groupe toulousain LinuxÉdu (voir ce billet du Framablog) propose le 5 juin prochain une découverte d’Arduino parmi les nombreuses autres actions de sa journée de sensibilisation.




Lancement réussi du premier Traducthon Framalang à l’Ubuntu Party de Paris

Traducthon - Ubuntu Party Paris - mai 2010Votre mission, si toutefois vous l’acceptez…

Le « Traducthon », mais qu’est-ce donc que ce néologisme barbare que l’on vient d’inventer ?

Cela consiste à traduire collaborativement au même moment et au même endroit un document anglophone sélectionné préalablement. Le challenge étant de commencer et surtout terminer l’ensemble du travail dans le temps imparti[1].

À l’initiative du groupe de traducteurs Framalang, le premier « Traducthon » vient à peine de s’achever. Il a eu lieu ce samedi 29 mai de 11h à 14h lors de l’Ubuntu Party de Paris, dont nous remercions les organisateurs pour leur invitation et leur accueil.

Rencontre et convivialité sans perdre de vue l’objectif. C’est un peu comme un apéro Facebook sans Facebook dont l’apéro viendrait après le boulot 😉

En s’insérant dans cette prestigieuse manifestation, l’idée était également d’inviter spontanément les passants curieux à participer avec nous, ou tout du moins leur expliquer ce que nous faisions là avec tant d’enthousiasme. Parce que « l’esprit du Libre » c’est aussi ça et ça n’est donc pas uniquement réservé aux développeurs chevronnés.

Pour coller à l’actualité, nous avons fait le choix d’un article critique sur l’iPad de Cory Doctorow nous expliquant pourquoi il n’en achètera pas (nous non plus d’ailleurs). Pari tenu puisque la traduction a été mise en ligne dans la foulée sur le Framablog !

Voici un cliché, parmi d’autres[2], où figurent quelques uns des participants :

Traducthon - Ubuntu Party Paris - mai 2010

Vous remarquerez la présence d’un écran coloré projetant l’espace de travail du Traducthon.

Nous avons en effet travaillé en temps réel sur un unique fichier issu de l’excellent logiciel d’édition collaborative en ligne Etherpad (dont Google, encore lui, a eu la bonne idée de libérer les sources récemment).

Traducthon - Ubuntu Party Paris - mai 2010Ceux qui y étaient en témoigneront dans les commentaires, travailler à l’aide de l’application Etherpad est pratique et ludique. À chaque couleur son participant, comme l’illustre l’image ci-contre, que l’on voit éditer en même temps qu’on édite, ce qui n’est d’ailleurs pas sans poser quelques intéressants problèmes d’organisation.

Cliquez (si le serveur tient) sur la frise chronologique de notre fichier à l’instant t=0 et appuyez sur la grosse flèche en haut à droite pour faire défiler le temps… Partagez-vous ma fascination de voir apparaître au fur et à mesure les contibutions, modifications et commentaires de chacun ?

Du coup, ceux qui comme moi n’avaient pu physiquement se rendre sur place à Paris ont eu la possibilité d’apporter néanmoins leur pierre à l’édifice en se connectant à l’instant précis de la date fixée.

Nous n’avions ici que 3 petites heures à notre disposition, ce qui limitait d’autant la taille du document choisi. Mais avec l’expérience de cette première fois plus qu’encourageante, nous vous donnons rendez-vous début juillet à Bordeaux pour la onzième édition des Rencontres Mondiales du Logiciel Libre où nous serons présents durant les 6 jours de la manifestation pour œuvrer cette fois-ci à un projet bien plus ambitieux : la traduction intégrale d’un livre.

Merci à tous les participants et à très bientôt.

Notes

[1] Le Traducthon est un fork non hostile et adapté à un travail de traduction du concept des Book Sprints issu du site FLOSS manuals.

[2] Crédit photos : Quentin Theuret alias cheval_boiteux (Creative Commons By)




Code is Law – Traduction française du célèbre article de Lawrence Lessig

Chiara Marra - CC byLe 5 mars dernier, Tristan Nitot se pose la question suivante sur Identi.ca : « Je me demande s’il existe une version française de Code is Law, ce texte sublime de Lessig ».

Monsieur Nitot qui évoque un texte sublime de Monsieur Lessig… Mais que vouliez-vous que nos traducteurs de Framalang fassent, si ce n’est participer à modifier favorablement la réponse de départ étonnamment négative !

Écrit il y a plus de dix ans, cet article majeur a non seulement fort bien vieilli mais se serait même bonifié avec le temps et l’évolution actuelle du « cyberespace » où neutralité du net et place prise par les Microsoft, Apple, Google et autres Facebook occupent plus que jamais les esprits et nos données[1].

Bonne lecture…

Le code fait loi – De la liberté dans le cyberespace

Code is Law – On Liberty in Cyberspace

Lawrence Lessig – janvier 2000 – Harvard Magazine
(Traduction Framalang : Barbidule, Siltaar, Goofy, Don Rico)

À chaque époque son institution de contrôle, sa menace pour les libertés. Nos Pères Fondateurs craignaient la puissance émergente du gouvernement fédéral ; la constitution américaine fut écrite pour répondre à cette crainte. John Stuart Mill s’inquiétait du contrôle par les normes sociales dans l’Angleterre du 19e siècle ; il écrivit son livre De la Liberté en réaction à ce contrôle. Au 20e siècle, de nombreux progressistes se sont émus des injustices du marché. En réponse furent élaborés réformes du marché, et filets de sécurité.

Nous sommes à l’âge du cyberespace. Il possède lui aussi son propre régulateur, qui lui aussi menace les libertés. Mais, qu’il s’agisse d’une autorisation qu’il nous concède ou d’une conquête qu’on lui arrache, nous sommes tellement obnubilés par l’idée que la liberté est intimement liée à celle de gouvernement que nous ne voyons pas la régulation qui s’opère dans ce nouvel espace, ni la menace qu’elle fait peser sur les libertés.

Ce régulateur, c’est le code : le logiciel et le matériel qui font du cyberespace ce qu’il est. Ce code, ou cette architecture, définit la manière dont nous vivons le cyberespace. Il détermine s’il est facile ou non de protéger sa vie privée, ou de censurer la parole. Il détermine si l’accès à l’information est global ou sectorisé. Il a un impact sur qui peut voir quoi, ou sur ce qui est surveillé. Lorsqu’on commence à comprendre la nature de ce code, on se rend compte que, d’une myriade de manières, le code du cyberespace régule.

Cette régulation est en train de changer. Le code du cyberespace aussi. Et à mesure que ce code change, il en va de même pour la nature du cyberespace. Le cyberespace est un lieu qui protège l’anonymat, la liberté d’expression et l’autonomie des individus, il est en train de devenir un lieu qui rend l’anonymat plus difficile, l’expression moins libre et fait de l’autonomie individuelle l’apanage des seuls experts.

Mon objectif, dans ce court article, est de faire comprendre cette régulation, et de montrer en quoi elle est en train de changer. Car si nous ne comprenons pas en quoi le cyberespace peut intégrer, ou supplanter, certaines valeurs de nos traditions constitutionnelles, nous perdrons le contrôle de ces valeurs. La loi du cyberespace – le code – les supplantera.

Ce que contrôle le code

Le code élémentaire d’Internet est constitué d’un ensemble de protocoles appelé TCP/IP. Ces protocoles permettent l’échange de données entre réseaux interconnectés. Ces échanges se produisent sans que les réseaux aient connaissance du contenu des données, et sans qu’ils sachent qui est réellement l’expéditeur de tel ou tel bloc de données. Ce code est donc neutre à l’égard des données, et ignore tout de l’utilisateur.

Ces spécificités du TCP/IP ont des conséquences sur la régulabilité des activités sur Internet. Elles rendent la régulation des comportements difficile. Dans la mesure où il est difficile d’identifier les internautes, il devient très difficile d’associer un comportement à un individu particulier. Et dans la mesure où il est difficile d’identifier le type de données qui sont envoyées, il devient très difficile de réguler l’échange d’un certain type de données. Ces spécificités de l’architecture d’Internet signifient que les gouvernements sont relativement restreints dans leur capacité à réguler les activités sur le Net.

Dans certains contextes, et pour certaines personnes, cette irrégulabilité est un bienfait. C’est cette caractéristique du Net, par exemple, qui protège la liberté d’expression. Elle code l’équivalent d’un Premier amendement dans l’architecture même du cyberespace, car elle complique, pour un gouvernement ou une institution puissante, la possibilité de surveiller qui dit quoi et quand. Des informations en provenance de Bosnie ou du Timor Oriental peuvent circuler librement d’un bout à l’autre de la planète car le Net empêche les gouvernements de ces pays de contrôler la manière dont circule l’information. Le Net les en empêche du fait de son architecture même.

Mais dans d’autres contextes, et du point de vue d’autres personnes, ce caractère incontrôlable n’est pas une qualité. Prenez par exemple le gouvernement allemand, confronté aux discours nazis, ou le gouvernement américain, face à la pédo-pornographie. Dans ces situations, l’architecture empêche également tout contrôle, mais ici cette irrégulabilité est considérée comme une tare.

Et il ne s’agit pas seulement des discours nazis et de pornographie enfantine. Les principaux besoins de régulation concerneront le commerce en ligne : quand l’architecture ne permet pas de transactions sécurisées, quand elle permet de masquer facilement la source d’interférences, quand elle facilite la distribution de copies illégales de logiciels ou de musique. Dans ces contextes, le caractère incontrôlable du Net n’est pas considéré comme une qualité par les commerçants, et freinera le développement du commerce.

Que peut-on y faire ?

Nombreux sont ceux qui pensent qu’il n’y a rien à faire : l’irrégulabilité d’Internet est définitive. Il n’est rien que nous puissions faire pour y remédier. Aussi longtemps qu’il existera, Internet restera un espace incontrôlable. C’est dans sa nature même.

Mais rien n’est plus dangereux pour l’avenir de la liberté dans le cyberespace que de croire la liberté garantie par le code. Car le code n’est pas figé. L’architecture du cyberespace n’est pas définitive. L’irrégulabilité est une conséquence du code, mais le code peut changer. D’autres architectures peuvent être superposées aux protocoles de base TCP/IP, et ces nouvelles couches peuvent rendre l’usage du Net fondamentalement contrôlable. Le commerce est en train de construire une architecture de ce type. Le gouvernement peut y aider. Les deux réunis peuvent transformer la nature même du Net. Il le peuvent, et le font.

D’autres architectures

Ce qui rend le Net incontrôlable, c’est qu’il est difficile d’y savoir qui est qui, et difficile de connaître la nature des informations qui y sont échangées. Ces deux caractéristiques sont en train de changer : premièrement, on voit émerger des architectures destinées à faciliter l’identification de l’utilisateur, ou permettant, plus généralement, de garantir la véracité de certaines informations le concernant (qu’il est majeur, que c’est un homme, qu’il est américain, qu’il est avocat). Deuxièmement, des architectures permettant de qualifier les contenus (pornographie, discours violent, discours raciste, discours politique) ont été conçues, et sont déployées en ce moment-même. Ces deux évolutions sont développées sans mandat du gouvernement ; et utilisées conjointement elles mèneraient à un degré de contrôle extraordinaire sur toute activité en ligne. Conjointement, elles pourraient renverser l’irrégulabilité du Net.

Tout dépendrait de la manière dont elles seraient conçues. Les architectures ne sont pas binaires. Il ne s’agit pas juste de choisir entre développer une architecture permettant l’identification ou l’évaluation, ou non. Ce que permet une architecture, et la manière dont elle limite les contrôles, sont des choix. Et en fonction de ces choix, c’est bien plus que la régulabilité qui est en jeu.

Prenons tout d’abord les architectures d’identification, ou de certification. Il existe de nombreuses architectures de certification dans le monde réel. Le permis de conduire, par exemple. Lorsque la police vous arrête et vous demande vos papiers, ils demandent un certificat montrant que vous êtes autorisé à conduire. Ce certificat contient votre nom, votre sexe, votre âge, votre domicile. Toutes ces informations sont nécessaires car il n’existe aucun autre moyen simple pour établir un lien entre le permis et la personne. Vous devez divulguer ces éléments vous concernant afin de certifier que vous êtes le titulaire légitime du permis.

Mais dans le cyberespace, la certification pourrait être ajustée beaucoup plus finement. Si un site est réservé aux adultes, il serait possible – en utilisant des technologies de certification – de certifier que vous êtes un adulte, sans avoir à révéler qui vous êtes ou d’où vous venez. La technologie pourrait permettre de certifier certains faits vous concernant, tout en gardant d’autres faits confidentiels. La technologie dans le cyberespace pourrait fonctionner selon une logique de « moindre révélation », ce qui n’est pas possible dans la réalité.

Là encore, tout dépendrait de la manière dont elle a été conçue. Mais il n’est pas dit que les choses iront dans ce sens. Il existe d’autres architectures en développement, de type « une seule carte pour tout ». Dans ces architectures, il n’est plus possible de limiter simplement ce qui est révélé par un certificat. Si sur un certificat figure votre nom, votre adresse, votre âge, votre nationalité, ainsi que le fait que vous êtes avocat, et si devez prouver que vous êtes avocat, cette architecture certifierait non seulement votre profession, mais également tous les autres éléments vous concernant qui sont contenus dans le certificat. Dans la logique de cette architecture, plus il y a d’informations, mieux c’est. Rien ne permet aux individus de faire le choix du moins.

La différence entre ces deux conceptions est que l’une garantit la vie privée, alors que l’autre non. La première inscrit le respect de la vie privée au cœur de l’architecture d’identification, en laissant un choix clair à l’utilisateur sur ce qu’il veut révéler ; la seconde néglige cette valeur.

Ainsi, le fait que l’architecture de certification qui se construit respecte ou non la vie privée dépend des choix de ceux qui codent. Leurs choix dépendent des incitations qu’ils reçoivent. S’il n’existe aucune incitation à protéger la vie privée – si la demande n’existe pas sur le marché, et que la loi est muette – alors le code ne le fera pas.

L’identification n’est qu’un exemple parmi d’autres. Prenons-en un deuxième, concernant la confidentialité des informations personnelles. RealJukebox est une technologie permettant de copier un CD de musique sur un ordinateur, ou de de télécharger de la musique sur le Net pour la stocker sur un disque dur. Il est apparu en octobre que le système était un peu trop curieux : il inspectait discrètement le disque dur de l’utilisateur, puis transférait à l’entreprise le fruit de ses recherches. Tout ceci en secret, bien entendu : RealNetworks n’avait prévenu personne que son produit collectait et transférait des données personnelles. Quand cet espionnage a été découvert, l’entreprise a tout d’abord tenté de justifier cette pratique (en avançant qu’aucune donnée personnelle n’était conservée), mais elle a fini par revenir à la raison, et a promis de ne plus recueillir ces données.

Ce problème est dû, une fois de plus, à l’architecture. Il n’est pas facile de dire qui espionne quoi, dans le cyberespace. Bien que le problème puisse être corrigé au niveau de l’architecture (en faisant appel à la technologie P3P, par exemple), voici un cas pour lequel la loi est préférable. Si les données personnelles étaient reconnues comme propriété de l’individu, alors leur collecte sans consentement exprès s’apparenterait à du vol.

Dans toutes ces circonstances, les architectures viendront garantir nos valeurs traditionnelles – ou pas. À chaque fois, des décisions seront prises afin de parvenir à une architecture d’Internet respectueuse de ces valeurs et conforme à la loi. Les choix concernant le code et le droit sont des choix de valeurs.

Une question de valeurs

Si c’est le code qui détermine nos valeurs, ne devons-nous pas intervenir dans le choix de ce code ? Devons-nous nous préoccuper de la manière dont les valeurs émergent ici ?

En d’autres temps, cette question aurait semblé incongrue. La démocratie consiste à surveiller et altérer les pouvoirs qui affectent nos valeurs fondamentales, ou comme je le disais au début, les contrôles qui affectent la liberté. En d’autres temps, nous aurions dit « Bien sûr que cela nous concerne. Bien sûr que nous avons un rôle à jouer. »

Mais nous vivons à une époque de scepticisme à l’égard de la démocratie. Notre époque est obsédée par la non-intervention. Laissons Internet se développer comme les codeurs l’entendent, voilà l’opinion générale. Laissons l’État en dehors de ça.

Ce point de vue est compréhensible, vu la nature des interventions étatiques. Vu leurs défauts, il semble préférable d’écarter purement et simplement l’État. Mais c’est une tentation dangereuse, en particulier aujourd’hui.

Ce n’est pas entre régulation et absence de régulation que nous avons à choisir. Le code régule. Il implémente – ou non – un certain nombre de valeurs. Il garantit certaines libertés, ou les empêche. Il protège la vie privée, ou promeut la surveillance. Des gens décident comment le code va se comporter. Des gens l’écrivent. La question n’est donc pas de savoir qui décidera de la manière dont le cyberespace est régulé : ce seront les codeurs. La seule question est de savoir si nous aurons collectivement un rôle dans leur choix – et donc dans la manière dont ces valeurs sont garanties – ou si nous laisserons aux codeurs le soin de choisir nos valeurs à notre place.

Car c’est une évidence : quand l’État se retire, la place ne reste pas vide. Les intérêts privés ont des objectifs qu’ils vont poursuivre. En appuyant sur le bouton anti-Étatique, on ne se téléporte pas au Paradis. Quand les intérêts gouvernementaux sont écartés, d’autres intérêts les remplacent. Les connaissons-nous ? Sommes-nous sûrs qu’ils sont meilleurs ?

Notre première réaction devrait être l’hésitation. Il est opportun de commencer par laisser le marché se développer. Mais, tout comme la Constitution contrôle et limite l’action du Congrès, les valeurs constitutionnelles devraient contrôler et limiter l’action du marché. Nous devrions examiner l’architecture du cyberespace de la même manière que nous examinons le fonctionnement de nos institutions.

Si nous ne le faisons pas, ou si nous n’apprenons pas à le faire, la pertinence de notre tradition constitutionnelle va décliner. Tout comme notre engagement autour de valeurs fondamentales, par le biais d’une constitution promulguée en pleine conscience. Nous resterons aveugles à la menace que notre époque fait peser sur les libertés et les valeurs dont nous avons hérité. La loi du cyberespace dépendra de la manière dont il est codé, mais nous aurons perdu tout rôle dans le choix de cette loi.

Lawrence Lessig est professeur de droit des affaires au Centre Berkman de la Harvard Law School. Son dernier livre, « Le code, et les autres lois du cyberespace » (Basic Books), vient d’être publié (voir http://code-is-law.org). Le site du Centre Berkman pour l’Internet et la Société est http://cyber.law.harvard.edu.

Notes

[1] Crédit photo : Chiara Marra (Creative Commons By))




Le Dividende Universel : valorisation de la couche libre et non marchande de la société

Zieak - CC byIl peut y avoir quelques nuances entre les différentes expressions, mais qu’on l’appelle Revenu citoyen, Revenu de vie, Allocation universelle ou Dividende Universel, l’idée principale consiste à verser tout au long de sa vie un revenu unique à tous les citoyens d’un pays, quels que soient leurs revenus, leur patrimoine, et leur statut professionnel. Ce revenu permettant à chaque individu de satisfaire ses besoins primaires tels que se nourrir, se loger, se vêtir, voire acquérir certains biens culturels de base.

À priori cela semble totalement fou. Mais quand on se penche sur les sites spécialisés, comme CreationMonetaire.info d’où est issu le billet reproduit ci-dessous, on réalise que c’est peut-être moins utopique qu’on ne le croit.

Du reste, nous pouvons témoigner : GNU/Linux, Wikipédia, OpenStreetMap… les projets utopiques existent, nous en avons rencontrés 😉

Et puis, reconnaissons surtout que c’est l’économie actuelle qui est devenue complètement folle et qui va finir par tous nous mettre à genoux. Alors folie contre folie…

En tout cas il n’est pas anodin de voir le logiciel libre et sa culture fournir des arguments aux partisans de cette idée folle. Et inversement, imaginez qu’on assure un jour à tous les membres de la communauté du Libre un revenu minimum pour vivre, ce serait à n’en pas douter une explosion d’enthousiasme et de projets !

Parce que c’est bien moins l’argent[1] qui nous manque que le temps. Un temps trop souvent occupé à devoir survivre…

PS : Comme ce n’est pas le premier article du Framablog qui tourne autour du sujet, je viens de créer un tag dédié pour l’occasion.

Les 4 arguments du Dividende Universel

URL d’origine du document

Stéphane Laborde – 17 mai 2010 – CreationMonetaire.info
Licence Creative Commons By

Depuis quelques semaines, je reçois des demandes d’arguments concernant le Dividende Universel, par des personnes connaissant le sujet, mais qui se trouvent confrontées à des interlocuteurs ignorants de la question. Il y a bien sûr la multitude de liens, d’explications et de justifications qui se trouvent sur l’article Wikipedia qui le concerne, mais je vais résumer ici les points fondamentaux nécessaires à l’introduction dans le sujet pour un novice :

1. L’argument massue de la propriété de la zone EURO (remplacer EURO par la monnaie de son choix).

La Zone EURO est une construction fondamentalement Citoyenne. Chaque Citoyen via son Etat respectif est co-propriétaire de la Zone Euro, et il est régulièrement convié à voter pour élire ses représentants tant locaux que continentaux, directement ou indirectement.

Or tout propriétaire d’une entreprise quelle qu’elle soit, reçoit, en proportion de sa détention du capital un Dividende annuel, généralement autour de 5% de la valeur de l’entreprise. La Zone Euro étant économiquement valorisable en proportion de sa Masse Monétaire en Circulation (voire du PIB, mais PIB et Masse Monétaire sont interdépendants).

Le Dividende Universel correspond donc simplement à la reconnaissance de la co-propriété de la zone économique par chaque Citoyen (présents et à venir, aucune génération n’a de droit privilégié de ce point de vue).

Cet argument conviendra à tout défenseur de la propriété et du droit économique.

2. L’argument de la création libre et non marchande

L’Art, les logiciels libres, les écrits libres de droit, le travail non marchand effectué par l’action associative ou individuelle etc… Que fournissent chaque citoyen de la zone euro, est une valeur, incommensurable, qui bénéficie au secteur marchand directement ou indirectement. (par exemple internet fonctionne avec une couche de logiciels libres qui ont été développés et distribués sans aucune reconnaissance monétaire).

Ces valeurs sont difficilement monnayables, parce que ce qui fait leur valeur, est justement l’adoption par le plus grand nombre, d’autant plus rapidement que c’est gratuit. Or sur ce substrat de valeur, se développent des valeurs marchandes, qui elles valorisent leurs produits raréfiés.

Le Dividende Universel est une valorisation de cette couche libre et non marchande de la société, qui est la juste compensation du droit d’usage de cette couche multi-valeur pour des activités marchandes.

Cet argument conviendra à tous ceux qui souhaitent travailler et créer pour autrui, sans contrainte marchande, en étant valorisé à minima, sans pour autant vouloir tirer un avantage économique de leur création (artistes, développeurs libres, auteurs libres, blogueurs, bénévoles associatifs, aides de voisinage etc…)…

3. L’argument anti-crises financières de la Création Monétaire neutre

La Création Monétaire par effet de levier est une dissymétrie qui accentue les écarts capitalistiques sans raison. Parce que X,Y ou Z ont un avantage capitalistique de départ, on leur permet de surévaluer cet avantage par un effet de levier de création monétaire, qui dévalue la monnaie existante, et leur permet à tout moment d’acheter ou de copier toute innovation par création de fausse monnaie momentanée (éventuellement détruite lors du remboursement de la fausse monnaie-dette émise, mais le mal est fait, et toute l’Histoire montre que jamais cette dette n’est réellement remboursée par les plus gros bénéficiaires, sommets de pyramides de Ponzi…).

Le Dividende Universel est une création monétaire neutre et symétrique dans le temps et dans l’espace, et rend à la monnaie tout sens sens premier : un Crédit Mutuel entre Citoyens, versé non pas en une fois, mais progressivement, tout le long de la vie, et de façon relative à la richesse mesurable (Proportionnelle à La masse monétaire / Citoyen), sans léser les générations futures.

Cet argument conviendra aux Scientifiques, Economistes et Ingénieurs, soucieux de justifications théoriques solides.

4. L’argument de la valeur fondamentale de toute économie

La valeur fondamentale de toute mesure est l’observateur lui même. En effet hors l’observateur il n’est point de mesure, alors que hors objet extérieur, l’observateur peut toujours se prendre lui même pour objet d’observation. C’est le point minimum et suffisant pour toute mesure.

L’homme est l’observateur de l’économie, autant que son acteur fondamental, et son service en est l’objectif premier. Or cette valeur fondamentale nécessite d’être valorisée sur une base éthiquement acceptable, afin que son potentiel de création, de travail pour autrui, de choix de développement économique, soit libre et non faussé.

En valorisant l’homme par un micro-investissement continu, tout le long de sa vie, c’est l’ensemble de l’économie qui investit dans chacune de ses composantes économiques fondamentales, le "risque" étant noyé dans la multitude.

Le Dividende Universel est un micro-investissement global et continu sur la valeur productive fondamentale de toute économie : l’homme.

Cet argument conviendra aux humanistes, philosophes, constitutionnalistes, et juristes soucieux des Droits de l’Homme.

Notes

[1] Crédit photo : Zieak (Creative Commons By)




Pourquoi le gouvernement du Québec ne s’ouvre pas davantage aux logiciels libres ?

Telle est en résumé la question posée le 26 avril dernier par Marie Malavoy, députée de Taillon pour le Parti Québécois, lors d’un échange public à la Commission des finances du Québec.

Cet échange est exemplaire et révélateur.

Exemplaire parce qu’il interpelle un gouvernement sur sa timidité vis-à-vis du logiciel libre. Et révélateur parce que les réponses données demeurent prudentes pour ne pas dire confuses voire embarrassées.

Mais ce passage est également à situer dans le contexte particulièrement tendu d’un procès local dénonçant la décision d’accorder sans appel d’offres un contrat public de 722 848 $ à Microsoft Canada pour une migration à Windows Vista. Nous l’avions évoqué dans un précédent billet.

Pour en savoir plus nous vous invitons à vous rendre sur le site de l’association FACIL dont nous profitons de l’occasion pour témoigner de notre soutien.

PS : Il est fait allusion, en fin d’intervention, à un remboursement de frais exorbitant demandé à FACIL dans le cadre d’une autre procédure (mais dont la coïncidence est plus que troublante). Nous savons désormais que l’association n’aura pas à payer cette somme indigente qui menaçait son existence même.

—> La vidéo au format webm

Transcription

URL d’origine du document (extrait)

Mme Malavoy : Merci, M. le Président et bonjour. Moi, j’aimerais aborder, Mme la ministre, une question très précise. Je… J’entends la ministre parler des appels d’offres, j’entends la ministre parler d’une concurrence qui existerait malgré tout. Je l’entends, bien entendu, parler de l’impérieuse nécessité de réduire les coûts de tous nos systèmes d’exploitation. Mais il y a une chose dont elle ne parle pas, absolument pas, c’est d’ouvrir ces appels d’offres aux logiciels libres.

Et j’aimerais aborder cette question-là, cet après-midi. J’aimerais l’aborder d’abord parce que dans beaucoup de pays du monde, on a pris le virage des logiciels libres. On leur a permis de, non seulement, faire des soumissions, mais on leur a permis aussi de gagner un certain nombre de systèmes d’exploitation, et il s’agit de logiciels qui sont plus souples, plus efficaces, qui permettent de faire des choses qu’aucun logiciel propriétaire ne permet de…

Mme Malavoy : …mais on leur a permis aussi de gagner un certain nombre de systèmes d’exploitation, et il s’agit de logiciels qui sont plus souples, plus efficaces, qui permettent de faire des choses qu’aucun logiciel propriétaire ne permet de faire, ils sont mois coûteux pour les contribuables, et, à l’heure où on cherche désespérément de l’argent, j’aimerais comprendre pourquoi le gouvernement du Québec ne fait pas un virage important pour s’ouvrir aux logiciels libres.

Le Président (M. Bernier) : Merci, Mme la députée. Mme la ministre.

Mme Gagnon-Tremblay : Alors, M. le Président, comme mon expertise n’est pas tellement poussée dans la matière, et j’aimerais que la députée ait véritablement la bonne réponse, si vous le permettez, je demanderais au secrétaire associé, M. Parenteau, si vous le souhaitez, de répondre à la députée pour lui donner la meilleure réponse possible.

Le Président (M. Bernier) : Est-ce qu’il y a consentement du côté de l’opposition officielle? Consentement. Allez-y, M. Parenteau, on vous écoute. La parole est à vous.

M. Parenteau (Alain) : Alors, bonjour aux membres de la commission. Écoutez, sur le plan de l’application ou de l’existence des logiciels libres, il y a déjà à des… c’est peut-être pas à une immense envergure, j’en conviens, mais le logiciel libre, au gouvernement du Québec, ça existe: le CSPQ, le MDEIE, le ministère des Services gouvernementaux, le MDEIE, c’est le ministère du Développement économique, là, bon, ont déjà pris en charge des logiciels libres au sein de l’organisation pour des applications peut-être un peu plus locales, mais ça existe.

L’autre défi auquel on est confrontés, puis il faut bien l’admettre, pour des grosses infrastructures, par exemple, si on parle des logiciels propriétaires, on parle des Microsoft et compagnie, quand arrive le temps de faire des changements au niveau des processus informatiques, il y a un… il faut prendre en considération les dimensions du coût d’impact que ça peut avoir que de transformer l’ensemble des… ce n’est pas juste une question de logiciel, il y a toute la mutation et les coûts d’impact que ça va avoir pour faire cette mutation-là.

Le défi auquel on est confrontés actuellement, et sur lequel on travaille, je ne vous dis pas qu’on ne travaille pas, au contraire, on travaille très fort pour essayer de déterminer comment on peut mettre en concurrence justement des entreprises qui favorisent les logiciels libres et les logiciels propriétaires. Je vous dis juste qu’au moment où on se parle sur le plan de la mécanique contractuelle, rien ne s’oppose dans la réglementation à ce qu’on y aille, mais il y a des limitations technologiques auxquelles on est confrontés, dont notamment le fait que, dans certains cas, le besoin est de mettre à niveau certains logiciels existants. Et le gain d’aller en logiciel libre dans un contexte comme celui-là doit être évalué au cas par cas, ce n’est pas nécessairement la meilleure solution, la panacée.

Partir à zéro, puis dire qu’on va y aller… mettons qu’on part qu’une nouvelle entreprise, une nouvelle organisation, puis on repart en logiciel libre, il n’y en a pas de problème. Le problème se pose lorsque tu as déjà une infrastructure de bien établie, par exemple, je ne sais pas, moi, Microsoft de niveau Vista, puis qu’on veut upgrader, par exemple, un certain niveau de logiciel, la question de l’opportunité doit être considérée, et ça, dans ce niveau-là, il y a des coûts d’impact comme je le mentionnais tantôt.

Ce que vous voyez actuellement dans certains ministères qui décident d’aller en appel… en gré à gré, c’est justement à cause de cette difficulté à pouvoir amener la mise à niveau et de mettre en concurrence potentiellement des logiciels libres, puis dire: On fait fi de tout ce qui existe, puis on rentre du logiciel libre. Il faut voir un peu du cas par cas puis comment on peut l’amener. Mais je vous dis: Sérieusement, on travaille là-dessus. Le Président (M. Bernier): Merci, M. Parenteau. Mme la députée de Taillon.

Mme Malavoy : J’apprécie beaucoup les commentaires de M. Parenteau, mais il y a aussi une dimension politique à ma question. Et, à cette dimension-là, j’aimerais aussi que la ministre me réponde. Le problème des logiciels propriétaires, c’est qu’à chaque fois que vus voulez les mettre au niveau, vous devez tout racheter. Ça on n’a pas besoin d’être spécialiste pour comprendre ça. Vous êtes pris avec une suite Office, Microsoft Office, vous voulez la mettre à niveau, vous ne pouvez pas l’ajuster à vos besoins, vous devez la mettre de côté, en racheter une autre. Ce sont des coûts astronomiques.

L’avantage du logiciel libre, c’est qu’il a justement dans sa nature même la possibilité d’une évolution permanente en fonction de expertises qu’on a chez nous, mais en fonction des expertises qu’il y a dans le monde entier. Et je pense qu’il ne s’agit pas à ce moment-ci de regarder: Est-ce que l’on peut, cas par cas, à petite dimension, les introduire timidement? Je pense qu’il s’agit de voir si le gouvernement du Québec pourrait, comme par exemple, les 27 pays de l’OCDE, faire un virage et exprimer une volonté politique. Il y a des millions de dollars en cause dans cette aventure, et je pense qu’il est temps que le Québec prenne le tournant.

Le Président (M. Bernier) : Merci, Mme la députée. Mme la ministre.

Mme Gagnon-Tremblay : Bien, écoutez, M. le Président, c’est qu’on n’est pas en défaveur, là, d’avoir des coûts ou d’essayer d’avoir des coûts moins élevés, au contraire, on est en faveur de ça. Mais, en même temps, il faut dire que c’est des logiciels propriétaires qu’on appelle. Alors, est-ce que, demain matin, on met tout à la porte et on recommence…

Mme Gagnon-Tremblay : …des faveurs, là, de… d’avoir des coûts ou d’essayer d’avoir des coûts moins élevés. Au contraire, on est en faveur de ça. Mais en même temps, c’est… il faut dire que ça, c’est des logiciels propriétaires, qu’on appelle, alors, est-ce que demain matin on met tout à la porte et on recommence à zéro? Alors, c’est ça, là, je pense qu’il faut le faire graduellement, mais tu ne peux pas d’une journée à l’autre arriver puis dire: Bien, voici… Ça, c’est comme je vous dis, c’est des logiciels qui sont déjà la propriété. Alors donc, on ne peut pas demain matin tout balancer puis revenir. Alors, il faut le faire correctement, mais il faut le faire aussi, je dirais, régulièrement, mais ça ne peut pas… on ne peut pas tout balancer demain matin. Alors donc, nous, est-ce qu’on est en faveur? Oui, on est en faveur de… d’avoir… de… on est en faveur d’aller chercher des sommes, des… c’est-à-dire des réductions de coûts, mais il faut le faire correctement. On ne peut demain matin faire table rase et puis dire: Bien, voici, on met de côté tout ce que nous possédons actuellement et on recommence à zéro avec ce genre… ce libre… ces logiciels libres. Mais on n’est pas en défaveur, mais encore faut-il faire correctement.

Le Président (M. Bernier) : Merci. Mme la députée de Taillon.

Mme Malavoy : Bien, j’aimerais en profiter, M. le Président, pour dénoncer une situation qui me semble un peu aberrante. Je comprends donc qu’il y a, mettons, une timide volonté politique pour s’ouvrir petit à petit au logiciel libre, en même temps il y a un groupe qui s’appelle le FACIL, qui plaide sa cause depuis des années et le gouvernement du Québec actuellement le poursuit pour 107 000 $. J’essaie de comprendre comment on peut, d’un côté, croire que le logiciel libre est une voie d’avenir éventuellement, et, d’un autre côté, mettre dans la misère, parce que c’est ça qui va se passer, un groupe qui se porte à la défense de ce type d’exploitation qui est assez révolutionnaire, mais qui n’est pas unique au Québec, qui a fait ses preuves déjà dans bien des pays du monde. Et vous me permettrez de donner un seul exemple qui devrait nous toucher. L’Assemblée nationale française, après un projet pilote, est passée entièrement au logiciel libre. Alors, je me demande pourquoi au Québec on devrait être en retard par rapport à d’autres pays de la planète qui ont compris que c’est un virage essentiel.

Le Président (M. Bernier) : Merci. Mme la ministre.

Mme Gagnon-Tremblay : Bien, M. le Président, c’est qu’on… comme je le mentionnais tout à l’heure, on ne l’exclut pas, il faut le faire, je dirais, graduellement. Mais en même temps, bon, la députée de Taillon a fait mention d’une compagnie qui est actuellement devant la cour face au gouvernement, alors vous comprendrez que je vais m’abstenir de… d’élaborer sur ce sujet.