De la contradiction d’avoir un iPhone

Mat Honan - CC byL’été dernier, me voici attablé à la terrasse d’un café, place de la Bastille, en compagnie de quelques membres influents de la blogosphère française. L’occasion d’évoquer Hadopi. Il allait de soit qu’ils étaient tous contre.

Un petit détail m’a frappé : ils étaient tous accompagnés de leur iPhone, qui d’ailleurs ne leur laissait que rarement plus de cinq minutes de répit. iPhone qui vers la fin de notre entretien est carrément devenu le sujet principal de conversation, lorsque le possesseur de je ne sais plus quelle toute nouvelle application issue de l’App Store a voulu en faire la démonstration aux autres[1].

Peut-on être un pourfendeur d’Hadopi et plus généralement un chaud défenseur des libertés numériques tout en possédant un iPhone ? Certes oui. Sauf que, comme vient nous le rappeler Bruno Kerouanton dans ce court et percutant article, nous sommes peut-être en situation de compromis, voire de compromission, avec quelques uns de nos idéaux, fussent-ils numériques[2].

Le paradoxe du citoyen consommateur

URL d’origine du document

Bruno Kerouanton – 14 septembre 2009 – Le Club des Vigilants
Licence Creative Commons By-Nc

Apple est loin d’être seule en cause mais le succès phénoménal de son iPhone illustre, à bien des égards, le paradoxe du citoyen consommateur contemporain.

D’un côté, il se dit écolo. De l’autre, il se jette sur un appareil dont la batterie est intégrée au téléphone, faisant de l’objet un produit jetable complexe à recycler.

D’un côté, il prône la liberté de téléchargement sur Internet, et le droit de dupliquer à l’infini films et œuvres musicales au grand dam des auteurs et de leurs ayants droit. De l’autre, il se précipite sur l’une des plateformes informatiques les plus verrouillées en termes de mesures anticopie.

D’un côté, il se méfie des monopoles. De l’autre, il utilise la plateforme de téléchargement AppStore qui centralise de manière obligatoire toute application disponible, préalablement soumise à la censure de l’éditeur californien.

D’un côté, il défend les logiciels libres et leur gratuité. De l’autre, il n’a jamais autant acheté de logiciels depuis la mise en place de l’AppStore.

D’un côté, il aime l’anonymat et le respect de la vie privée. De l’autre, il se rue sur l’iPhone qui est l’une des plateformes les plus intrusives, en termes de géolocalisation, mais également de suivi des habitudes d’utilisation et de consommation.

Le succès d’Apple tient à la technologie et à l’innovation. En offrant à ses clients un produit très en avance sur ses concurrents, en termes d’ergonomie et de fonctionnalités, ceux-ci sont prêts à en oublier les inconvénients, voire carrément à en occulter l’existence.

Ce comportement paradoxal doit être pris en compte dans le cadre de nouveaux enjeux sociétaux relatifs aux nouvelles technologies. Risques liés aux réseaux sociaux, difficulté de mise en application de réglementations de type Hadopi et bien d’autres thèmes d’actualité devraient être revus en tenant compte de cette surprenante tendance.

Notes

[1] Crédit photo : Mat Honan (Creative Commons By)

[2] Sur le même sujet on pourra aussi lire cet autre article du Framablog : iPhone 3G : tout ce qui brille n’est pas or.




SARD : première initiative marquante de l’ère post Hadopi ?

Delcio G.P. Filho - CC byLe 8 septembre prochain à Paris, au cours d’une rencontre ouverte à tous où seront présentes de nombreuses et éminentes personnalités (Richard Stallman, Bernard Stiegler, Martine Billard, Laurent Chemla…), va se créer officiellement la SARD, acronyme de Société d’Acceptation et de Répartition des Dons.

Vous en trouverez le Communiqué de Presse ci-dessous ainsi qu’une première Foire Aux Questions.

J’en suis signataire, tout comme Benjamin Jean qui outre ses fonctions à Veni Vidi Libri est également membre de Framasoft[1].

Je lui cède d’ailleurs la place pour nous présenter une initiative qu’il n’hésite pas à qualifier de « pavé dans la mare » qui pourrait changer, modifier notre vision de la propriété intellectuelle et la place qu’elle occupe dans notre société. Ces propos n’engagent que son auteur[2] mais je m’y associe bien volontiers.

Tout le monde connaît, même vaguement la Propriété Intellectuelle[3] et les utilisations qui peuvent en être faites (pour prendre les deux extrêmes : le contrôle absolu représenté par la SACEM ou les éditeurs de logiciels traditionnels, et le partage par les licences libres).

En bref, la propriété intellectuelle repose sur un équilibre entre l’intérêt du public (A) et l’intérêt des créateurs/auteurs/inventeurs/etc (B)[4]. Ses objectifs (qui justifie le monopole accordé aux ayants-droits (B)) sont : 1. de faciliter et favoriser l’innovation (au bénéfice de la société et donc du public (A)), 2. donner à l’auteur un contrôle sur son oeuvre en raison du lien qui les unit[5].

Ce système repose sur un postulat : « puisqu’il existe et qu‘il marche (des gens continuent à créer et innover), c’est bien que le système actuel favorise la création et sa diffusion. »

La SARD serait donc une remise en question de ce dernier postulat : un changement de paradigme, de mentalité, un système différent qui, s’il fonctionne, montrerait que le système actuel de Propriété Intellectuelle n’est pas la seule (et/ou la meilleure) façon de favoriser la création et l’innovation. Attention, il ne s’agit pas forcément d’une alternative, mais plus d’un système parallèle qui, s’il marche, délégitimerait celui que l’on connaît aujourd’hui.

Ainsi, ces artistes pourraient éventuellement toucher de l’argent/un financement sans user de leurs droits de propriété intellectuelle, à eux de voir ensuite s’ils désirent jouer dans les deux camps (qui sont néanmoins contradictoire puisqu’il me semble légitime de penser que celui qui compte diffuser gratuitement et massivement sa musique aura plus de facilité à recevoir des dons que celui qui ne vend que quelques exemplaires dans quelques boutiques spécialisées).

Voici donc une initiative des plus ambitieuses ! Difficile de prédire ce qu’il en adviendra.

Au pire nous aurons contribué à déplacer le « débat Hadopi » vers une réflexion moins répressive et plus constructive. Au mieux nous aurons effectivement participé à ce « changement de paradigme », sachant que, GNU/Linux ou Wikipédia peuvent en témoigner, l’époque semble favorable aux projets impossibles qui aboutissent.

Naissance de la SARD, Société d’acceptation et de répartition des dons, un nouveau mécanisme pour pour financer équitablement la créativité et la diversité numérique

URL d’origine du communiqué de presse

Paris, le 4 septembre 2009. Mardi 8 septembre à 16h sera fondée à Paris la Société d’acceptation et de répartition des dons (SARD), dans le cadre d’une journée consacrée aux alternatives au système des droits d’auteur, fragilisés à l’heure des réseaux d’information et de communication. En présence d’un des fondateurs du mouvement pour le logiciel libre, Richard Stallman, du philosophe Bernard Stiegler, d’artistes et de politiques (Pierre Aidenbaum, Martine Billard, Patrick Bloche), les fondateurs de la SARD présenteront ce système volontaire nouveau, inspiré par la proposition du Mécénat Global, basé sur le don du public aux œuvres qu’il souhaite soutenir.

Hadopi n’est pas encore adoptée par le Parlement en France que ce projet de loi liberticide se trouve déjà dépassé. Partout dans le monde, les lois qui régissent les rapports entre public et création sont en chantier, les industries culturelles crient au loup (le piratage), tandis que les auteurs n’ont toujours pas accès à un système de financement de leurs œuvres. Et les (longs) débats législatifs autour de la répression du public au nom de la protection des auteurs n’ont fait émerger aucun nouveau système de soutien à la création.

Pour sortir des discours caricaturaux et aborder les questions du financement de la création sur l’Internet et les réseaux, la reconnaissance des artistes et auteurs d’oeuvres numériques sur Internet, la SARD, ouverte au public, aux artistes, auteurs et créateurs, du monde entier et de toutes nationalités, se mobilise pour le libre accès à la culture, grâce à un système de financement par le don.

Trop utopiste, trop compliqué, trop alternatif, trop expérimental ? Ces critiques à l’encontre des tentatives de réfléchir à des alternatives viables à la notion hégémonique et confuse de « propriété intellectuelle » sont fréquentes. Pour répondre aux questions et appeler à un dialogue constructif entre public, auteurs et politiques,les membres fondateurs de la SARD (artistes, éditeurs, ingénieurs, journalistes, membres d’associations soutenant le libre, scientifiques) vous invitent à cette journée exceptionnelle.

Quand ?

  • Le 8 septembre, de 16h à 22h.

Où ?

  • Mairie du 3ème, 2 rue Eugène Spuller, 75003 Paris.

Quoi ?

  • De 16h à 19h: Assemblée constituante de la Société d’Acceptation et de Répartition des Dons (SARD).
  • De 19h à 20h: Conférence de presse.
  • De 20h à 22h: Conférence: quelle alternative concrète pour le financement des œuvres numériques ? Avec Richard Stallman (le fondateur de GNU/Linux présentera le Mécénat global), Bernard Stiegler (le président d’Ars Industrialis parlera d’« Amateur d’art ou consommateur » et Antoine Moreau, l’instigateur de la Licence Art Libre, posera la question du « tous artistes ? ». Modération Laurent Chemla.

Comment ?

  • Accès libre.

En savoir plus ?

SARD, la FAQ

URL d’origine du document

Qui ?

Benjamin Jean (Veni Vidi Libri), Valentin Lacambre (Altern), Dominique Lacroix, Philippe Langlois (Hacklab), Christian Lavigne (poete et cybersculpteur), Antoine Moreau (instigateur de la Licence Art Libre), Francis Muguet (Mécénat global), Jérémie Nestel (Attention Chantier), Mathieu Pasquini (InLibroVeritas), Louis Pouzin (un pere de l’internet), Annick Rivoire (Poptronics), Raphael Rousseau (un fils de l’internet, activiste du Libre), Michel Sitbon (ACJ, Association des cyber-journaliste), Pierre Troller (artiste), Alexis Kauffmann (Framasoft).

Quoi ?

La SARD ou Société d’acceptation et de répartition des dons est ouverte aux artistes, auteurs et créateurs de toutes nationalités. Elle a pour objet de favoriser le libre acces a la culture, grâce a un systeme de financement par le don.

Ce mode de financement concerne toute production de l’esprit, et notamment tous les types d’oeuvres numériques et numérisées, qu’elles soient textuelles (blogs, sites, articles…), audio, visuelles, logicielles, plastiques ou musicales.

Sont considérés comme auteurs, toutes les personnes ayant contribué a la création de l’oeuvre.

Où ?

Sur l’Internet, et, plus largement, sur tous les réseaux d’information et de communication et dans tous les pays.

Pourquoi ?

Aujourd’hui, la création sur Internet et les réseaux d’information ne peut se suffire de la seule gratuité. Elle doit etre financée d’une maniere juste et équitable pour répondre aux attentes des artistes, des auteurs et du public. Le succes d’Internet reposant sur des millions d’auteurs et de contributeurs, il est important que ceux-ci, dans leur pluralité, puissent se fédérer pour que se constitue un mode de financement de la création.

Comment ?

Il s’agit de mettre en place un mécanisme simple de répartition des dons, faits par les internautes pour les oeuvres de leur choix. Il ne s’agit pas d’une nouvelle taxe ou redevance, mais bien d’une nouvelle façon de concevoir le rapport entre les auteurs et le public.

Qui donne ? Les grands donateurs (prestataires Internet, opérateurs télécoms, etc.) et les internautes directement, selon leur appréciation.

Comment l’argent collecté est-il réparti ? La SARD, en tant que structure d’expérimentation, mettra en place plusieurs systemes de répartition :

  • l’internaute donne directement aux oeuvres de son choix.
  • l’internaute verse au pot commun a la SARD selon des clés de répartition transparentes et claires, établies a partir de l’appréciation des internautes.
  • les grands donateurs versent au pot commun de la SARD.

Un comité d’évaluation indépendant contrôlera régulierement le fonctionnement de l’association.

Combien ?

L’intégralité des dons destinés aux oeuvres est redistribuée aux oeuvres. Les frais de gestion de l’association sont financés par des donations spécifiques.

Pour Qui ?

Tous les artistes, auteurs et créateurs qui ont inscrit volontairement leurs oeuvres au service d’acceptation et et de répartition des dons.

Sont susceptibles d’inscrire leurs oeuvres :

  • les artistes, auteurs et créateurs inscrits aupres des sociétés de gestion collective traditionnelles, la SARD vient en parallele des dispositifs existants.
  • les artistes, auteurs et créateurs qui ne sont pas inscrits aupres des sociétés de gestion collective, l’inscription a la SARD n’engage en rien leurs droits sur leurs oeuvres.
  • les artistes, auteurs et créateurs sous licence libre qui ne sont pas membres d’une société de gestion collective, la SARD est favorable a l’usage des licences libres.

Pour en savoir plus ?

http://www.sard-info.org

Notes

[1] Crédit photo : Delcio G.P. Filho (Creative Commons By)

[2] Source : Blog de Veni Vidi Libri (sous licence Art Libre)

[3] Pour faire court, un ensemble de droits reconnus à une personne sur une création particulière et assimilable à ceux d’un propriétaire sur sa chose/son bien.

[4] De nombreuses thèses existent sur ce « droit du public à l’information » qui relative les droits des auteurs notamment.

[5] Néanmoins, durant de longues années, les USA assuraient une protection quasi-équivalente aux droits moraux sans user des droits de propriété intellectuelle.




Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire

Rudolf Schuba - CC bySéquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Daria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard dans les communications de l’ACM (CACM), le journal de l’Association for Computer Machinery. « Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité d’utilisation ».

Apparemment ils y sont arrivés. Unix va évoluer pour devenir une pierre angulaire de l’informatique, largement installé sur les serveurs et les postes de travail dans les universités, les gouvernements et les entreprises. Et son influence s’est étendue bien au-delà de ses déploiements, comme l’a noté l’ACM en 1983, lorsqu’ils ont attribué leur prix le plus élevé à Thompson et Ritchie, le A.M. Turing Award pour leur contribution à l’informatique : « Le modèle du système Unix a conduit une génération de concepteurs logiciels à repenser leur manière de programmer ».

Les premiers pas

Bien sûr, le succès d’Unix n’est pas arrivé d’un coup. En 1971, il a été porté sur le mini-ordinateur PDP-11, une plateforme plus puissante que le PDP-7 pour laquelle il avait été écrit à l’origine. Des programmes d’édition et de formatage de texte ont été ajoutés, et il a été déployé pour quelques dactylos du département des Brevets des Bell Labs, ses premiers utilisateurs en dehors de l’équipe de développement.

En 1972, Ritchie écrivait le langage de programmation de haut-niveau C (basé sur un langage précédent de Thompson, le B) ; suite à cela, Thompson réécrivit Unix en C, ce qui permit d’améliorer la portabilité de l’OS sur différents environnements. En cours de chemin, il acquit le nom de Unics (Uniplexed Information and Computing Services), un jeu de mots sur Multics ; l’orthographe se transforma rapidement en Unix.

Il était temps d’envahir le monde. L’article de Ritchie et Thompson de Juillet 1974 dans le CACM, « Le système temps-partagé UNIX », prit le monde de l’informatique dans un ouragan. Jusqu’alors, Unix avait été confiné à une poignée d’utilisateurs dans les Laboratoires Bell. Mais maintenant, avec l’Association for Computing Machinery derrière lui, un éditeur l’ayant qualifié comme étant élégant, Unix était à un moment crucial.

« L’article du CACM avait eu un impact très fort », raconte l’historien de l’informatique Peter Salus dans son livre The Daemon, the Gnu and the Penguin (NdT : Le démon, le Gnou et le manchot). « Peu de temps après, Ken était assailli de demandes concernant Unix ».

Un paradis pour les hackers

Thompson et Ritchie étaient des hackers accomplis, quand ce terme désignait quelqu’un qui combinait une créativité hors pair, une intelligence à toute épreuve et de l’huile de coude pour résoudre des problèmes logiciels que l’on a peine à imaginer.

Leur approche, et le code qu’ils avaient écrit, étaient attractifs pour les programmeurs des universités, et plus tard pour des entreprises qui démarraient sans les méga budgets de IBM, Hewlett-Packard ou Microsoft. Unix était tout ce dont les autres hackers, comme Bill Joy à l’Université de Californie, Rick Rashid à l’Université Carnegie Mellon et David Korn plus tard aux Laboratoires Bell avaient rêvé.

« Presque depuis le début, le système était capable de se maintenir seul, et il l’avait prouvé », écrivaient Thompson et Ritchie dans l’article du CACM. « Comme tous les programmes sources étaient toujours disponibles et facilement modifiables en ligne, nous étions volontaires pour réviser et modifier le système et ses logiciels lorsque de nouvelles idées étaient inventées, découvertes ou suggérées par d’autres ».

Korn, maintenant membre d’AT&T, travaillait comme programmeur aux Bell Labs dans les années 1970. « L’une des caractéristiques de Unix était que des outils pouvaient être écrits, et de meilleurs outils pouvaient les remplacer », se souvient-il. « Ce n’était pas un monolithe dans lequel il fallait tout approuver ; vous pouviez en fait développer de meilleures versions ». Il a développé l’influent Korn shell, un langage de programmation permettant d’interagir directement avec Unix, maintenant disponible en open source.

Salus, auteur et historien des technologies, se souvient de son travail avec le langage de programmation APL sur un mainframe IBM tournant sous System/360, en tant que professeur à l’Université de Toronto dans les années 1970. Mais le lendemain de Noël 1978, un ami à l’Université de Colombia lui fit une démonstration de Unix, tournant sur un mini-ordinateur. « Je me suis exclamé : Oh mon Dieu !, et j’étais totalement converti », raconte Salus.

Il dit que pour lui, l’un des avantages clés de Unix était la fonctionnalité pipe, introduite en 1973, qui rendait facile le passage de données d’un programme à l’autre. Le concept de pipeline, inventé par McIlroy des Bell Labs, fut par la suite copié dans de nombreux OS, parmi lesquels les variantes d’Unix, Linux, DOS et Windows.

Un autre avantage de Unix, le deuxième effet Wooow, comme le dit Salus, était qu’il n’avait pas besoin d’un mainframe d’un demi-million de dollars pour tourner. Il avait été écrit sur le petit mini-ordinateur DEC PDP-7, assez primitif, car c’était tout ce que Thompson et Ritchie avaient sous la main en 1969. « Le PDP-7 était presque incapable de quoi que ce soit », se souvient Salus. « J’étais scotché ».

Pas mal de monde a également été rendu accro. Les chercheurs des universités ont adopté Unix car il était assez simple et facilement modifiable, ne demandait pas beaucoup de ressources, et le code source était libre pour une bonne partie. Des startups comme Sun Microsystems et un ensemble d’entreprises maintenant défuntes qui se spécialisaient dans l’informatique scientifique, comme Multiflow Computer, en ont fait leur système d’exploitation de choix pour les mêmes raisons.

La progéniture d’Unix

Unix a grandi comme un système non-propriétaire car en 1956 AT&T avait été enjoint par une décret fédéral à ne pas s’écarter de sa mission de production de service téléphonique. Il pouvait développer du logiciel, et même le licencier pour un tarif raisonnable, mais l’entreprise ne pouvait pas entrer sur le marché de l’informatique.

Unix, qui avait été développé sans encouragement du management, avait d’abord été vu par AT&T comme quelque chose entre une curiosité et un casse-tête légal.

C’est à ce moment là, à la fin des années 1970, AT&t a réalisé qu’ils avaient quelque chose de commercialement intéressant en main. Ses avocats ont commencé à adopter une interprétation plus favorable de l’ordonnance de 1956, comme ils cherchaient des manières de protéger Unix comme un secret de fabrication. A partir de 1979, avec la sortie de la Version 7, les licences Unix interdisaient aux universités d’utiliser le code source Unix pour l’étudier pendant leurs cours.

Pas de problème, se dit alors le professeur d’informatique Andrew Tanenbaum, qui avait utilisé Unix V6 à l’Université Vrije à Amsterdam. En 1987, il écrivit un clone de Unix pour utiliser lors de ses cours, en créant le système d’exploitation open source Minix, qui tournait sur un microprocesseur Intel 80286.

« Minix comprenait toutes les idées d’Unix, et c’était un travail brillant », raconte Salus. « Seul un programmeur majeur, quelqu’un qui comprenait en profondeur les mécanismes internes d’un système d’exploitation, pouvait faire cela ». Minix allait devenir le point de départ pour la création de Linux par Linus Torvalds en 1991. Si ce n’était pas exactement un clone d’Unix, il s’agissait à n’en pas douter d’un Unix-like.

En reculant d’une décade ou à peu près, Bill Joy, qui était un étudiant diplômé et programmeur à l’Université de Californie de Berkeley dans les années 1970, mit la main sur une copie de l’Unix des Laboratoires Bell, et il pensa que c’était une bonne plateforme pour son propre travail sur un compilateur Pascal et un éditeur de texte.

Les modifications et extensions que lui et d’autres firent à Berkeley ont résulté dans la seconde branche majeure de Unix, appelée Berkeley Software Distribution (BSD) Unix. En mars 1978, Joy envoyait des copies de 1BSD, vendues 50$.

Ainsi en 1980 il y avait deux lignes majeures de Unix, l’une de Berkeley et l’autre de AT&T, et la scène était montée pour ce qui allait devenir la Guerre des Unix. La bonne nouvelle était que les développeurs de logiciels pouvaient avoir accès de partout au code source Unix, et l’adapter à leurs besoins et caprices. La mauvaise nouvelle c’est qu’ils firent exactement cela. Unix a proliféré, et les variantes ont divergé.

En 1982, Joy a contribué à fonder Sun Microsystems et offrait une station de travail, la Sun-1, qui utilisait une version de BSD appelée SunOS. (Solaris allait apparaitre environ 10 ans plus tard). L’année suivante, AT&T a sorti la première version de Unix System V, un système d’exploitation qui a eu une influence énorme et qui fut la base de IBM AIX et Hewlett-Packard HP-UX.

Les Guerres Unix

Unix History - Eraserhead1 et Infinity0 - CC by-saAu milieu des années 80, les utilisateurs, y compris le gouvernement fédéral, se sont plaints que si en théorie Unix était un système d’exploitation unique et portable, en fait on en était loin. Les éditeurs faisaient semblant d’adhérer à cette réclamation, mais travaillaient jour et nuit pour enfermer les clients avec des fonctionnalités et API uniques à leur Unix.

En 1987, Unix System Laboratories, qui faisait partie des Laboratoires Bell à cette époque, commença à travailler avec Sun sur un système qui pourrait unifier les deux branches majeures de Unix. Le produit de leur collaboration, appelé Unix System V Release 4.0, fut sorti deux ans plus tard, et combinait des fonctionnalités de System V Release 3, BSD, SunOS et du Xenix de Microsoft.

Les autres éditeurs Unix craignaient l’alliance AT&T/Sun. Les diverses parties ont formé des organismes standards concurrents, qui portaient des noms tels que X/Open, Open Software Foundation (ou OSF), Unix International et Corporation for Open Systems. Les arguments, contre-arguments et réussites de ces groupes pourraient remplir un livre, mais ils clamaient tous leur désir d’un Unix unifié, tout en se tirant dessus les uns les autres.

Dans un article écrit en 1988, mais non publié, pour la DARPA (Defense Advanced Research Projects Agency) (NdT : Agence pour les Projets de Recherche Avancée de la Défense), le pionnier des mini-ordinateurs Gordon Bell disait ceci de la toute nouvelle Open Software Foundation, qui incluait IBM, HP, DEC et d’autres, alliés contre le partenariat AT&T/Sun : « OSF est une manière pour ceux qui n’ont pas d’Unix d’entrer sur ce marché en devenir, tout en maintenant leur musées de code à hautes marges ».

Les Guerres Unix n’ont pas réussi à calmer les différences ou à créer un réel standard pour le système d’exploitation. Mais en 1993, la communauté Unix était réveillée par Microsoft, sous la forme de Windows NT, un système d’exploitation 32 bits utilisable en entreprise. Ce NT propriétaire visait directement Unix, et devait étendre l’hégémonie de Microsoft sur l’ordinateur de bureau aux centres serveurs et endroits similaires, tenus principalement par les serveurs Sun et autres.

Les utilisateurs Microsoft ont applaudi. Les fournisseurs Unix ont paniqué. Tous les principaux rivaux des Unix majeurs se sont réunis dans une initiative appelé Common Open Software Environnement (NdT : Environnement Logiciel Ouvert Commun), et l’année suivante ont plus ou moins déposé les armes en mixant le groupe Unix International, appuyé par AT&T/Sun avec l’Open Software Foundation. Cette coalition a évolué dans l’actuel The Open Group, organisme certificateur des systèmes Unix, et propriétaire de Single Unix Specification (SUS), maintenant la définition officielle de « Unix ».

D’un point de vue pratique, ces développements ont pu standardiser Unix au maximum possible, en fonction de la concurrence des éditeurs. Mais ils sont sans doute arrivés trop tard pour enrayer la montée d’une marée appelée Linux, le système d’exploitation open source dérivé de Minix du professeur Tanenbaum.

Mais qu’est ce que « Unix », finalement ?

Unix, vous diront la plupart des gens, est un système d’exploitation écrit il y a plusieurs dizaines d’années aux Laboratoires Bell de AT&T, et ses descendants. Les versions majeures d’Unix aujourd’hui proviennent de deux branches d’un même tronc : l’une émane directement de AT&T et l’autre vient de AT&T via l’Université de Californie de Berkeley. Les branches les plus robustes actuellement sont AIX d’IBM, HP-UX de HP et Solaris de Sun.

Toutefois, The Open Group, qui détient la marque déposée Unix, définit Unix comme n’importe quel système d’exploitation qui a été certifié par ses services pour se conformer à la Single Unix Specification (SUS) (NdT : Spécification Unix Unique). Ceci inclut des OS que l’on ne considère pas généralement comme étant des Unix, tel que Mac OS X Leopard (qui dérive d’un BSD Unix) et IBM z/OS (qui vient du système d’exploitation mainframe MVS), car ils se conforment au SUS et supportent les APIs SUS. L’idée basique est que c’est un Unix si cela agit comme Unix, quel que soit le code sous-jacent.

Une définition encore plus large d’Unix pourrait inclure les OS Unix Like (qui ressemblent à Unix), parfois appelé des clones d’Unix ou des sosies, qui ont copié une bonne partie des idées de Unix mais n’incorporent pas directement du code Unix. Le plus connu d’entre tous étant certainement Linux.

Finalement, même s’il est raisonnable d’appeler Unix un système d’exploitation, c’est finalement plus que cela. En plus du noyau de l’OS, les implémentations Unix embarquent typiquement des utilitaires tels que des éditeurs en ligne de commande, des interfaces de programmation applicatives (API), des environnements de développement, des librairies et de la documentation.

Le futur d’Unix

Le manque continuel de portabilité complète entre les différentes versions concurrentes d’Unix, de même que l’avantage financier de Linux et Windows sur les processeurs standards x86, vont inciter les organisations informatiques de quitter Unix, suggère un récent sondage du Gartner Group.

« Les résultats réaffirment l’enthousiasme continu pour Linux comme plate-forme serveur, avec Windows qui croît de la même manière, et Unix qui prend la route d’un long, mais graduel, déclin », décrit le sondage, publié en février 2009.

« Unix a eu un passé long et vivant, et même s’il n’est pas encore parti, il sera de plus en plus sous pression », dit l’analyste du Gartner George Weiss. « Linux est l’Unix de choix stratégique. Même si Linux n’a pas le long héritage de développement, de tuning et de tests de stress que Unix a pu avoir, il s’en approche et va bientôt égaler Unix en performance, stabilité et montée en charge », dit-il.

Mais un récent sondage de ComputerWorld suggère que le retrait d’Unix ne va pas arriver aussi rapidement. Dans cette enquête concernant 130 utilisateurs Unix sur 211 responsables informatiques, 90% ont déclaré que leur entreprise était « très ou extrêmement dépendante » de Unix. Un peu plus de la moitié a dit : « Unix est une plateforme essentielle pour nous et le restera indéfiniment », et seulement 12% ont dit « Nous pensons sortir de Unix dans le futur ». Les économies de coût, essentiellement au travers d’une consolidation de serveurs, étaient citées comme la raison n°1 pour migrer vers autre chose.

Weiss pense que la migration vers des processeurs x86 va s’accélérer à cause de l’avantage du coût du matériel. « Des architectures extensibles horizontalement ; le clustering ; le cloud computing ; la virtualisation sur x86, quand vous combinez toutes ces tendances, le système d’exploitation de choix tourne autour de Linux ou Windows », dit-il.

« Par exemple », déclare Weill, « dans l’annonce récente de Cisco de son architecture Unified Computing, vous avez dans un même équipement le réseau, le stockage, le calcul et la mémoire, et vous n’avez pas besoin d’Unix. Vous pouvez utiliser Linux ou Windows sur x86. Ainsi, Intel est en train de gagner la guerre pour le compte de Linux contre Unix ».

The Open Group, propriétaire des Single Unix Specification et organisme certificateur des systèmes Unix, concède peu à Linux, et déclare que Unix est le système de choix pour « le haut du panier en termes de fonctionnalités, montée en charge et performance pour des applications critiques ». Linux, dit-il, tend à être le standard pour les applications plus simples, moins critiques.

Korn, de AT&T, est parmi ceux qui pensent que Unix a encore un bel avenir. Korn dit que la force d’Unix pendant toutes ces années, depuis l’ajout des pipes en 1973, est qu’il peut facilement être éclaté en petits bouts et distribué. Ceci va pousser Unix en avant, dit-il. « La philosophie (du pipeline) fonctionne bien avec le cloud computing, dans lequel vous construisez des petits morceaux réutilisables plutôt qu’une grosse application monolithique ».

L’héritage d’Unix

Quel que soit le sort final d’Unix, le système d’exploitation né dans les Laboratoires Bell il y a 40 ans a établi un héritage qui risque de durer encore quelques dizaines d’années. Il peut revendiquer la paternité d’une longue liste de logiciels populaires, incluant l’offre Unix de IBM, HP, Sun, Apple Mac OS X et Linux. Il a également influencé des systèmes qui ont leurs racines dans Unix, comme Microsoft Windows NT et les versions IBM et Microsoft de DOS.

Unix a permis à de nombreuses entreprises qui démarraient de réussir, en leur offrant une plateforme peu onéreuse sur laquelle construire. C’était une des briques de base pour la construction d’Internet, et il fait partie du cœur des systèmes de télécommunications aujourd’hui. Il a engendré de nombreux concepts d’architecture, comme l’utilisation du pipeline, et le dérivé de Unix, Mach, a contribué énormément à l’informatique scientifique, distribuée et multiprocesseurs.

C’est peut-être l’ACM qui l’a mieux énoncé en 1983 dans sa citation du prix Turing en l’honneur de Thompson et Ritchie sur leur travail sur Unix : « Le génie du système Unix est dans sa structure, qui permet aux programmeurs de bâtir sur le travail des autres ».

Notes

[1] Crédit photos : 1. Rudolf Schuba (Creative Commons By) / 2. Hoshie (Domaine Public) / 3. Eraserhead1 et Infinity0 (Creative Commons By-Sa)




Le socialisme nouveau est arrivé

Copyleft FlagLe socialisme est mort, vive le socialisme ? À l’instar de Is Google making us stupid? c’est une nouvelle traduction de poids que nous vous proposons aujourd’hui.

Un socialisme nouveau, revu et corrigé, est en train de prendre forme sur Internet. Telle est l’hypothèse de Kevin Kelly, célèbre éditorialiste du célèbre magazine Wired. Et l’on ne s’étonnera guère d’y voir le logiciel libre associé aux nombreux arguments qui étayent son propos.

Vous reconnaissez-vous dans ce « socialisme 2.0 » tel qu’il est présenté ici ? Peut-être oui, peut-être non. Mais il n’est jamais inutile de prendre un peu de recul et tenter de s’interroger sur ce monde qui s’accélère et va parfois plus vite que notre propre capacité à lui donner du sens.

Le nouveau Socialisme : La société collectiviste globale se met en ligne

The New Socialism: Global Collectivist Society Is Coming Online

Kevin Kelly – 22 mai 2009 – Wired
(Traduction Framalang : Poupoul2, Daria et Don Rico)

Bill Gates s’est un jour moqué des partisans de l’Open Source avec le pire épithète qu’un capitaliste puisse employer. Ces gens-là, a-t-il dit, sont « une nouvelle race de communistes », une force maléfique décidée à détruire l’incitation monopolistique qui soutient le Rêve Américain. Gates avait tort : les fanatiques de l’Open Source sont plus proches des libertariens que des communistes. Il y a pourtant une part de vérité dans son propos. La course effrénée à laquelle on se livre partout sur la planète pour connecter tout le monde avec tout le monde dessine doucement les contours d’une version revue et corrigée du socialisme.

Les aspects communautaires de la culture numérique ont des racines profondes et étendues. Wikipédia n’est qu’un remarquable exemple de collectivisme émergeant parmi d’autres, et pas seulement Wikipédia mais aussi toute le système des wikis. Ward Cunningham, qui inventa la première page web collaborative en 1994, a recensé récemment plus de cent cinquante moteurs de wiki différents, chacun d’entre eux équipant une myriade de sites. Wetpaint, lancé il y a tout juste trois ans, héberge aujourd’hui plus d’un million de pages qui sont autant de fruits d’un effort commun. L’adoption massive des licences de partage Creative Commons et l’ascension de l’omniprésent partage de fichiers sont deux pas de plus dans cette direction. Les sites collaboratifs tels que Digg, Stumbleupon, the Hype Machine ou Twine poussent comme des champignons et ajoutent encore du poids à ce fantastique bouleversement. Chaque jour nous arrive une nouvelle start-up annonçant une nouvelle méthode pour exploiter l’action communautaire. Ces changements sont le signe que l’on se dirige lentement mais sûrement vers une sorte de socialisme uniquement tourné vers le monde en réseau.

Mais on ne parle pas là du socialisme de votre grand-père. En fait, il existe une longue liste d’anciens mouvements qui n’ont rien à voir avec ce nouveau socialisme. Il ne s’agit pas de lutte des classes. Il ne s’agit pas d’anti-américanisme. Le socialisme numérique pourrait même être l’innovation américaine la plus récente. Alors que le socialisme du passé était une arme d’État, le socialisme numérique propose un socialisme sans État. Cette nouvelle variété de socialisme agit dans le monde de la culture et de l’économie, plutôt que dans celui de la politique… pour le moment.

Le communisme avec lequel Gates espérait salir les créateurs de Linux est né dans une période où les frontières étaient rigides, la communication centralisée, et l’industrie lourde et omniprésente. Ces contraintes ont donné naissance à une appropriation collective de la richesse qui remplaçait l’éclatant chaos du libre marché par des plans quinquennaux imposés par un politburo tout puissant.

Ce système d’exploitation politique a échoué, c’est le moins que l’on puisse dire. Cependant, contrairement aux vieilles souches du socialisme au drapeau rouge, le nouveau socialisme s’étend sur un Internet sans frontières, au travers d’une économie mondiale solidement intégrée. Il est conçu pour accroître l’autonomie individuelle et contrecarrer la centralisation. C’est la décentralisation à l’extrême.

Au lieu de cueillir dans des fermes collectives, nous récoltons dans des mondes collectifs. Plutôt que des usines d’État, nous avons des usines d’ordinateurs connectées à des coopératives virtuelles. On ne partage plus des forêts, des pelles ou des pioches, mais des applications, des scripts et des APIs. Au lieu de politburos sans visage, nous avons des méritocracies anonymes, où seul le résultat compte. Plus de production nationale, remplacée par la production des pairs. Finis les rationnements et subventions distribués par le gouvernement, place à l’abondance des biens gratuits.

Je reconnais que le terme socialisme fera forcément tiquer de nombreux lecteurs. Il porte en lui un énorme poids culturel, au même titre que d’autres termes associés tels que collectif, communautaire ou communal. J’utilise le mot socialisme parce que techniquement, c’est celui qui représente le mieux un ensemble de technologies dont l’efficience dépend des interactions sociales. L’action collective provient grosso modo de la richesse créée par les sites Web et les applications connectées à Internet lorsqu’ils exploitent du contenu fourni par les utilisateurs. Bien sûr, il existe un danger rhétorique à réunir autant de types d’organisation sous une bannière aussi provocatrice. Mais puisqu’il n’existe aucun terme qui soit vierge de toute connotation négative, autant donner une nouvelle chance à celui-là. Lorsque la multitude qui détient les moyens de production travaille pour atteindre un objectif commun et partage ses produits, quand elle contribue à l’effort sans toucher de salaire et en récolte les fruits sans bourse délier, il n’est pas déraisonnable de qualifier ce processus de socialisme.

À la fin des années 90, John Barlow, activiste, provocateur et hippie vieillissant, a désigné ce courant par le terme ironique de « point-communisme » (NdT : en référence au point, dot, des nom de domaines des sites Web comme framablog point org). Il le définissait comme une « main d’œuvre composée intégralement d’agents libres », « un don décentralisé ou une économie de troc où il n’existe pas de propriété et où l’architecture technologique définit l’espace politique ». En ce qui concerne la monnaie virtuelle, il avait raison. Mais il existe un aspect pour lequel le terme socialisme est inapproprié lorsqu’il s’agit de désigner ce qui est en train de se produire : il ne s’agit pas d’une idéologie. Il n’y a pas d’exigence de conviction explicite. C’est plutôt un éventail d’attitudes, de techniques et d’outils qui encouragent la collaboration, le partage, la mise en commun, la coordination, le pragmatisme, et une multitude de coopérations sociales nouvellement rendues possibles. C’est une frontière conceptuelle et un espace extrêmement fertile pour l’innovation.

Socialisme 2.0 - HistoriqueDans son livre publié en 2008, Here Comes Everybody (NdT : Voici venir chacun), le théoricien des médias Clay Chirky propose une hiérarchie utile pour classer ces nouveaux dispositifs. Des groupes de personnes commencent simplement par partager, puis ils progressent et passent à la coopération, à la collaboration et, pour finir, au collectivisme. À chaque étape, on constate un accroissement de la coordination. Une topographie du monde en ligne fait apparaître d’innombrables preuves de ce phénomène.

I. Le partage

Les masses connectées à l’Internet sont animées par une incroyable volonté de partage. Le nombre de photos personnelles postées sur Facebook ou MySpace est astronomique, et il y a fort à parier que l’écrasante majorité des photos prises avec un appareil photo numérique sont partagées d’une façon ou d’une autre. Sans parler des mises à jour du statut de son identité numérique, des indications géographiques, des bribes de réflexion que chacun publie çà et là. Ajoutez-y les six milliards de vidéos vues tous les mois sur Youtube pour les seuls États-Unis et les millions de récits issus de l’imagination de fans d’œuvres existantes. La liste des sites de partage est presque infinie : Yelp pour les critiques, Loopt pour la géolocalisation, Delicious pour les marque-pages.

Le partage est la forme de socialisme la plus tempérée, mais elle sert de fondation aux niveaux les plus élevés de l’engagement communautaire.

II. La coopération

Lorsque des particuliers travaillent ensemble à atteindre un objectif d’envergure, les résultats apparaissent au niveau du groupe. Les amateurs n’ont pas seulement partagé plus de trois milliards de photos sur Flickr, ils les ont aussi associées à des catégories ou des mots-clés ou les ont étiquetées (NdT : les tags). D’autres membres de la communauté regroupent les images dans des albums. L’usage des populaires licences Creative Commons aboutit à ce que, d’une façon communautaire, voire communiste, votre photo devienne ma photo. Tout le monde peut utiliser une photo, exactement comme un communiste pourrait utiliser la brouette de la communauté. Je n’ai pas besoin de prendre une nouvelle photo de la tour Eiffel, puisque la communauté peut m’en fournir une bien meilleure que la mienne.

Des milliers de sites d’agrégation emploient la même dynamique sociale pour un bénéfice triple. Premièrement, la technologie assiste directement les utilisateurs, en leur permettant d’étiqueter, marquer, noter et archiver du contenu pour leur propre usage. Deuxièmement, d’autres utilisateurs profitent des tags et des marque-pages des autres… Et tout ceci, au final, crée souvent une valeur ajoutée que seul le groupe dans son ensemble peut apporter. Par exemple, des photos d’un même endroit prises sous différents angles peuvent être assemblées pour former une reproduction du lieu en 3D stupéfiante. (Allez voir du côté de Photosynth de Microsoft). Curieusement, cette proposition va plus loin que la promesse socialiste du « chacun contribue selon ses moyens, chacun reçoit selon ses besoins », puisqu’elle améliore votre contribution et fournit plus que ce dont vous avez besoin.

Les agrégateurs communautaires arrivent à d’incroyables résultats. Des sites tels que Digg ou Reddit, qui permettent aux utilisateurs de voter pour les liens qu’ils souhaitent mettre en évidence, peuvent orienter le débat public autant que les journaux ou les chaînes de télévision (pour info Reddit appartient à la maison mère de Wired, Condé Nast). Ceux qui contribuent sérieusement à ces sites y consacrent plus d’énergie qu’ils ne pourront jamais en recevoir en retour, mais ils continuent en partie à cause du pouvoir culturel que représentent ces outils. L’influence d’un participant s’étend bien au-delà d’un simple vote, et l’influence collective de la communauté surpasse de loin le nombre de ses participants. C’est l’essence même des institutions sociales, l’ensemble dépasse la somme de ses composants. Le socialisme traditionnel visait à propulser cette dynamique par le biais de l’État. Désormais dissociée du gouvernement et accrochée à la matrice numérique mondiale, cette force insaisissable s’exerce à une échelle plus importante que jamais.

III. La collaboration

La collaboration organisée peut produire des résultats dépassant ceux d’une coopération improvisée. Les centaines de projets de logiciel Open Source, tel que le serveur Web Apache, en sont le parfait exemple. Dans ces aventures, des outils finement ciselés par la communauté génèrent des produits de haute qualité à partir du travail coordonné de milliers ou dizaines de milliers de membres. Contrairement à la coopération traditionnelle, la collaboration sur d’énormes projets complexes n’apporte aux participants que des bénéfices indirects, puisque chaque membre du groupe n’intervient que sur une petite partie du produit final. Un développeur motivé peut passer des mois à écrire le code d’une infime partie d’un logiciel dont l’état global est encore à des années-lumière de son objectif. En fait, du point de vue du marché libre, le rapport travail/récompense est tellement dérisoire (les membres du projet fournissent d’immenses quantités de travail à haute valeur ajoutée sans être payés) que ces efforts collaboratifs n’ont aucun sens au sein du capitalisme.

Pour ajouter à la dissonance économique, nous avons pris l’habitude de profiter du fruit de ces collaborations sans mettre la main à la poche. Plutôt que de l’argent, ceux qui participent à la production collaborative gagnent en crédit, statut, réputation, plaisir, satisfaction et expérience. En plus d’être gratuit, le produit peut être copié librement et servir de socle à d’autres produits. Les schémas alternatifs de gestion de la propriété intellectuelle, parmi lesquelles Creative Commons ou les licences GNU, ont été créés pour garantir ces libertés.

En soi, la collaboration n’a bien sûr rien de spécialement socialiste. Mais les outils collaboratifs en ligne facilitent un style communautaire de production qui exclut les investisseurs capitalistes et maintient la propriété dans les mains de ceux qui travaillent, voire dans celles des masses consommatrices.

IV Le collectivisme

Socialisme 2.0 - Ancien / NouveauAlors qu’une encyclopédie peut être rédigée de façon coopérative, nul n’est tenu pour responsable si la communauté ne parvient pas au consensus, et l’absence d’accord ne met pas en danger l’entreprise dans son ensemble. L’objectif d’un collectif est cependant de concevoir un système où des pairs autogérés prennent la responsabilité de processus critiques, et où des décisions difficiles, comme par exemple définir des priorités, sont prises par l’ensemble des acteurs. L’Histoire abonde de ces centaines de groupes collectivistes de petite taille qui ont essayé ce mode de fonctionnement. Les résultats se sont révélés peu encourageants (quand bien même on ne tienne pas compte de Jim Jones et de la « famille » de Charles Manson).

Or, une étude approfondie du noyau dirigeant de Wikipédia, Linux ou OpenOffice, par exemple, montre que ces projets sont plus éloignés de l’idéal collectiviste qu’on pourrait le croire vu de l’extérieur. Des millions de rédacteurs contribuent à Wikipédia, mais c’est un nombre plus restreint d’éditeurs (environ mille cinq cents) qui est responsable de la majorité de l’édition. Il en va de même pour les collectifs qui écrivent du code. Une myriade de contributions est gérée par un groupe plus réduit de coordinateurs. Comme Mitch Kapor, membre fondateur de la Mozilla Open Source Code Factory, le formule : « au cœur de toutes les anarchies qui marchent, il y a un réseau à l’ancienne ».

Ce n’est pas forcément une mauvaise chose. Certaines formes de collectivisme tirent avantage de la hiérarchie, alors que d’autres en souffrent. Des plateformes tels qu’Internet et Facebook, ou même la démocratie, qui servent de substrat à la production de biens ou à la fourniture de services, profitent de l’absence quasi totale de hiérarchie, laquelle réduit les obstacles à l’intégration et permet la répartition équitable des droits et responsabilités. Lorsque des acteurs puissants émergent, la structure dans son ensemble souffre. D’un autre côté, les organisations bâties pour créer des produits ont souvent besoin de dirigeants forts, et de hiérarchies organisées capable de se projeter dans l’avenir : l’un des niveaux se concentre sur les besoins immédiats, l’autre sur les cinq années à venir.

Par le passé, il était quasi impossible de construire une organisation qui exploitait la hiérarchie tout en maximisant le collectivisme. Désormais, les réseaux numériques fournissent l’infrastructure nécessaire. Le Net donne la possibilité aux organisations concentrées sur le produit de fonctionner collectivement, tout en empêchant la hiérarchie d’en prendre totalement le pouvoir. L’organisation qui conçoit MySQL, une base de données Open Source, n’est pas animée par un refus romantique de la hiérarchie, mais elle est bien plus collectiviste qu’Oracle. De la même manière, Wikipédia n’est pas un bastion d’égalité, mais elle est largement plus collectiviste que l’encyclopédie Britannica. Le cœur élitiste que nous trouvons au centre des collectifs en ligne est en fait un signe que le socialisme sans État peut fonctionner à grande échelle.

La plupart des occidentaux, moi y compris, ont été endoctrinés par l’idée que l’extension du pouvoir des individus réduit forcément le pouvoir de l’État, et vice versa. Pourtant, dans la pratique, la plupart des politiques socialisent certaines ressources et en individualisent d’autres. Les économies de marché ont pour la plupart socialisé l’éducation, et même les sociétés les plus socialisées autorisent une certaine forme de propriété privée.

Plutôt que de voir le socialisme technologique comme une sorte de compromis à somme nulle entre l’individualisme du marché libre et une autorité centralisée, on peut le considérer comme un système d’exploitation culturel qui élève en même temps l’individu et le groupe. Le but, largement désarticulé mais intuitivement compréhensible, de la technologie communautaire consiste à maximiser l’autonomie individuelle et le pouvoir de ceux qui travaillent ensemble. Ainsi, on peut voir le socialisme numérique comme une troisième voie rendant les vieux débats obsolètes.

Ce concept de troisième voie est également rapporté par Yochai Benkler, auteur de The Wealth of Networks (NdT : La richesse des réseaux), qui a probablement réfléchi plus que quiconque aux politiques des réseaux. Il affirme voir « l’émergence de la production sociale et de la production collective comme une alternative aux systèmes propriétaires et fermés, basés sur l’État ou le marché », notant que ces activités « peuvent accroître la créativité, la productivité et la liberté ». Le nouveau système d’exploitation, ce n’est ni le communisme classique et sa planification centralisée sans propriété privée, ni le chaos absolu du marché libre. C’est au contraire un espace de création émergeant, dans lequel la coordination publique décentralisée peut résoudre des problèmes et créer des richesses, là où ni le communisme ni le capitalisme purs et durs n’en sont capables.

Les systèmes hybrides qui mélangent les mécanismes marchands et non marchands ne sont pas nouveaux. Depuis des décennies, les chercheurs étudient les méthodes de production décentralisées et socialisées des coopératives du nord de l’Italie et du Pays Basque, dans lesquelles les employés sont les propriétaires, prennent les décisions, limitent la distribution des profits et sont indépendants du contrôle de l’État. Mais seule l’arrivée de la collaboration à bas prix, instantanée et omniprésente que permet Internet a rendu possible la migration du cœur de ces idées vers de nombreux nouveaux domaines telle que l’écriture de logiciels de pointe ou de livres de référence.

Le rêve, ce serait que cette troisième voie aille au-delà des expériences locales. Jusqu’où ? Ohloh, une entreprise qui analyse l’industrie de l’Open Source, a établi une liste d’environ deux cent cinquante mille personnes travaillant sur deux cent soixante-quinze mille projets. C’est à peu près la taille de General Motors et cela représente énormément de gens travaillant gratuitement, même si ce n’est pas à temps complet. Imaginez si tous les employés de General Motors n’étaient pas payés, tout en continuant à produire des automobiles !

Jusqu’à présent, les efforts les plus importants ont été ceux des projets Open Source, dont des projets comme Apache gèrent plusieurs centaines de contributeurs, environ la taille d’un village. Selon une étude récente, la version 9 de Fedora, sortie l’année dernière, représenterait soixante mille années-homme de travail. Nous avons ainsi la preuve que l’auto-assemblage et la dynamique du partage peuvent gouverner un projet à l’échelle d’une ville ou d’un village décentralisé.

Évidemment, le recensement total des participants au travail collectif en ligne va bien au-delà. YouTube revendique quelques trois cent cinquante millions de visiteurs mensuels. Presque dix millions d’utilisateurs enregistrés ont contribué à Wikipédia, cent soixante mille d’entre eux sont actifs. Plus de trente-cinq millions de personnes ont publié et étiqueté plus de trois milliards de photos et vidéos sur Flickr. Yahoo héberge près de huit millions de groupes sur tous les sujets possibles et imaginables. Google en compte près de quatre millions.

Ces chiffres ne représentent toujours pas l’équivalent d’une entière nation. Peut-être ces projets ne deviendront-ils jamais grand public (mais si Youtube n’est pas un phénomène grand public, qu’est-ce qui l’est ?). Pourtant, la population qui baigne dans les médias socialisés est indéniablement significative. Le nombre de personnes qui créent gratuitement, partagent gratuitement et utilisent gratuitement, qui sont membres de fermes logicielles collectives, qui travaillent sur des projets nécessitant des décisions collectives, ou qui expérimentent les bénéfices du socialisme décentralisé, ce nombre a atteint des millions et progresse en permanence. Des révolutions sont nées avec bien moins que cela.

On pourrait s’attendre à de la démagogie de la part de ceux qui construisent une alternative au capitalisme et au corporatisme. Mais les développeurs qui conçoivent des outils de partage ne se voient pas eux-mêmes comme des révolutionnaires. On n’est pas en train d’organiser de nouveaux partis politiques dans les salles de réunions, du moins pas aux États-Unis (en Suède, le Parti Pirate s’est formé sur une plateforme de partage, et il a remporté un piètre 0,63% des votes aux élections nationales de 2006).

En fait, les leaders du nouveau socialisme sont extrêmement pragmatiques. Une étude a été menée auprès de deux mille sept cent quatre-vingt-quatre développeurs Open Source afin d’analyser leurs motivations. La plus commune d’entre elles est « apprendre et développer de nouvelles compétences ». C’est une approche pratique. La vision académique de cette motivation pourrait être : « si je bosse sur du code libre, c’est surtout pour améliorer le logiciel ». En gros, la politique pour la politique n’est pas assez tangible.

Même ceux qui restent et ne participent pas au mouvement pourraient ne pas être politiquement insensibles à la marée montante du partage, de la coopération, de la collaboration et du collectivisme. Pour la première fois depuis des années, des pontes de la télévision et des grands magazines nationaux osent prononcer le mot tabou « socialisme », désormais reconnu comme une force qui compte dans la politique des États-Unis. À l’évidence, la tendance à la nationalisation de grosses portions de l’industrie, à l’établissement d’un système de santé public et à la création d’emplois avec l’argent du contribuable n’est pas dû en totalité au techno-socialisme. Ainsi les dernières élections ont démontré le pouvoir d’une base décentralisée et active sur le Web, dont le cœur bat au rythme de la collaboration numérique. Plus nous tirons les bénéfices d’une telle collaboration, plus nous nous ouvrons la porte à un avenir d’institutions socialistes au gouvernement. Le système coercitif et totalitaire de la Corée du Nord n’est plus, le futur est un modèle hybride qui s’inspire de Wikipédia et du socialisme modéré de la Suède.

Jusqu’où ce mouvement nous rapprochera-t-il d’une société non capitaliste, Open Source, à la productivité collaborative ? Chaque fois cette question apparue, la réponse a été : plus près que nous le pensons. Prenons Craigslist, par exemple. Ce ne sont que des petites annonces classées, n’est-ce pas ? Pourtant, ce site a démultiplié l’efficacité d’une sorte de troc communautaire pour toucher un public régional, puis l’a amélioré en intégrant des images et des mises à jour en temps réel, jusqu’à devenir soudain un trésor national. Fonctionnant sans financement ni contrôle public, connectant les citoyens entre eux sans intermédiaire, cette place de marché essentiellement gratuite produit du bien et du lien social avec une efficacité qui laisserait pantois n’importe quel gouvernement ou organisation traditionnelle. Bien sûr, elle ébranle le modèle économique des journaux, mais en même temps il devient indiscutable que le modèle de partage est une alternative viable aux entreprises à la recherche permanente de profits et aux institutions civiques financées par les impôts.

Qui aurait cru que des paysans précaires pourraient obtenir et rembourser des prêts de cent dollars accordés par de parfaits étrangers vivant à l’autre bout du monde ? C’est ce que réussit Kiva en fournissant des prêts de pair-à-pair. Tous les experts de santé publique ont déclaré sous le sceau de la confidentialité que le partage, ça convenait pour les photos, mais que personne ne partagerait son dossier médical. Pourtant, PatientsLikeMe, où les patients mettent en commun les résultats de leurs traitements pour échanger et mieux prendre soin d’eux-mêmes, a montré que l’action collective peut contredire les médecins et leurs craintes concernant la confidentialité.

L’habitude de plus en plus répandue qui consiste à partager ce que vous pensez (Twitter), ce que vous lisez (StumbleUpon), ce que vous gagnez (Wesabe), bref tout et n’importe quoi (le Web) est en train de prendre une place essentielle dans notre culture. En faire de même en créant des encyclopédies, des agences de presse, des archives vidéo, des forges logicielles, de façon collaborative, dans des groupes rassemblant des contributeurs du monde entier sans distinction de classe sociale, voilà ce qui fait du socialisme politique la prochaine étape logique.

Un phénomène similaire s’est produit avec les marchés libres du siècle dernier. Chaque jour, quelqu’un demandait : « Y a-t-il quelque chose que les marchés ne peuvent pas faire ? ». Et on établissait ainsi une liste de problèmes qui semblaient nécessiter une planification rationnelle ou un mode de gouvernance paternaliste en leur appliquant une logique de place de marché. Dans la plupart des cas, c’était la solution du marché qui fonctionnait le mieux, et de loin. Les gains de prospérité des décennies récentes ont été obtenus en appliquant les recettes du marché aux problèmes sociaux.

Nous essayons aujourd’hui d’en faire de même avec la technologie sociale collaborative, en appliquant le socialisme numérique à une liste de souhaits toujours plus grande (jusqu’aux problèmes que le marché libre n’a su résoudre) pour voir si cela fonctionne. Pour l’instant, les résultats ont été impressionnants. Partout, la puissance du partage, de la coopération, de la collaboration, de l’ouverture, de la transparence et de la gratuité s’est montrée plus pragmatique que nous autres capitalistes le pensions possible. À chaque nouvelle tentative, nous découvrons que le pouvoir du nouveau socialisme est plus grand que nous ne l’imaginions.

Nous sous-estimons la capacité de nos outils à remodeler nos esprits. Croyions-nous réellement que nous pourrions construire de manière collaborative et habiter des mondes virtuels à longueur de temps sans que notre perception de la réalité en soit affectée ? La force du socialisme en ligne s’accroît. Son dynamisme s’étend au-delà des électrons, peut-être même jusqu’aux élections.




Framakey Ubuntu-fr Remix

Patrice Vetsel - CC by-sa

Framasoft et Ubuntu-fr sont fiers de vous annoncer la naissance de leur fille « Framakey Ubuntu-fr Remix ». Elle est bien précoce car elle sait déjà marcher !

Pour en savoir plus :

  • La page officielle du projet sur le site Framakey
  • La billet blog de Patrice Vetsel (également auteur de la photo sous CC by-sa)

PS : Ouf, juste avant les RMLL !




Des citoyens plus libres dans l’État de New York

Aku Busy - CC byLe Sénat de l’État de New York vient d’afficher sa volonté d’ouverture en créant un espace dédié (dont nous avons traduit la page d’accueil ci-dessous) où il annonce son intention de proposer à ses administrés des « Free and Open-Source Software & Services ».

Ce billet est à rapprocher de S’il te plaît… dessine-moi une ville libre qui concernait la ville de Vancouver, ainsi que du plan d’action britannique en faveur de l’Open Source. Sans oublier bien sûr l’article New York : déduction d’impôts pour les développeurs Open Source ?[1] qui témoigne du réel intérêt porté par cet état américain vis-à-vis du logiciel libre.

Formats ouverts, accès aux données et logiciels maisons mis à disposition sous licence libre, cela semble n’être que du bon sens lorsqu’il s’agit de politique et de deniers publics. Cela ne va pourtant pas encore de soi, parce que nous héritons le plus souvent d’une situation antérieure baignant consciemment ou non dans une « culture propriétaire ».

Ce n’est pas la France qui nous contredira, dont la nouvelle version de travail du Référentiel Général d’Interopérabilité (RGI) constitue plus qu’une déception en la matière.

Le Sénat de l’État de New York en route vers l’Open Source

Free and Open-Source Software & Services

New York State Senate – juin 2009 – Licence Creative Commons By-Nc-Nd
(Traduction non officielle Framalang : Poupoul2 et Tyah)

Bienvenue au Sénat ouvert de New York

Afin de poursuivre son engagement de transparence et d’ouverture, le Sénat de l’État de New York s’engage dans un programme de pointe afin non seulement de libérer les données, mais également d’aider les citoyens et de donner un exemple de restitution à la communauté. Sous ce programme et pour la toute première fois, le Sénat de New York donnera aux développeurs et aux autres utilisateurs un accès direct à ses données grâce à des API et publiera ses propres logiciels. En plaçant dans le domaine public les données et développements technologiques créés par le Sénat, le Sénat de New York espère animer, renforcer et engager les citoyens dans la création politique et le dialogue.

Ce que vous trouverez ici :

  • Des interfaces de programmation (API) pour construire vos propres applications et services
  • Des widgets interactifs pour faciliter le partage sur vos sites, profils ou blogs
  • Des logiciels originaux tels que des modules Drupal et des librairies Java
  • Des ensembles de données dans des formats variés, accompagnés de langages simples et d’explications graphiques sur des documents importants et des définitions
  • Les règles légales et les licences adoptées par le Sénat garantissant que ces informations et ces outils peuvent être librement utilisés

Merci d’utiliser les données et outils offerts ici, de les mixer, de les améliorer, et de les re-distribuer pour aider le Sénat à former et impliquer les citoyens de New York.

API

Le Sénat de New York a créé une API développeur afin d’aider les organisations et les particuliers à compiler les données du Sénat tel qu’ils le souhaitent. L’objectif principal était de proposer les enregistrements du LRS (NdT : Legislative Retrieval System, base de données de suivi des décisions législatives, de la proposition jusqu’au vote) dans un format ouvert. Ces donnés peuvent alors être interrogées au travers d’une simple API afin de produire des résultats dans de nombreux formats ou standards, XML (RSS, Atom, schémas personnalisés), JSON, CSV, HTML (widgets).

Widgets embarqués

Les widgets sont un moyen agréable et simple de diffuser des informations importantes auprès du public. Merci de consulter notre bibliothèque de widgets et servez-vous dans les outils qui amélioreront l’expérience de vos utilisateurs et des nôtres, sur l’ensemble du Web. Si vous avez votre propre widgets utilisant notre API ou nos données, contactez-nous et nous pourrions le présenter ici.

Logiciels originaux

En tant qu’utilisateur de logiciel Open Source, le Sénat de New York souhaite restituer à la communauté qui lui a tant donné, y compris ce site Web. Afin de satisfaire ses besoins, le Sénat crée en permanence du nouveau code et corrige des dysfonctionnements existants. Non seulement le Sénat reconnaît qu’il a une responsabilité de restitution à la communauté Open Source, mais les développements publics, réalisés avec de l’argent public devraient être publics.

Vous pouvez trouver tout le code source du Sénat de New York publié sur Github à http://github.com/nysenatecio.

Ensembles de données

La page Open Data (NdT : Données ouvertes) du Sénat de New York est le dépôt officiel de toutes les données gouvernementales. Vous pourrez ici naviguer au travers des données produites et étudiées par le Sénat dans leur forme originale ainsi que d’autres types de fichiers variés créés pour votre confort, y compris : des feuilles de calcul Excel, des fichiers CSV, texte ou PDF (liste non exhaustive). Afin de compléter les données source qu’il rend publiques, le Sénat a également créé l’Initiative Langage Simple (NdT : Plain Language Initiative) conçue afin de permettre d’expliquer les jeux de données complexes et les mentions légales en langage simple.

Logiciels Open Source et licences de logiciels

Afin de rendre public au maximum les informations et les logiciels du Sénat, Il a été adopté un système unique de double licence : la GNU General Public License ainsi que la BSD License. Ce système a pour objectif de garantir que les licences publiques sont utilisées dans chaque cas particulier tels que :

  1. Chaque logiciel publié et contenant des composants initialement sous licence GPL doit être publié conformément aux termes de la licence GPL V3.
  2. Chaque logiciel créé indépendamment par le Sénat sans licence initiale sur aucun de ses composants sera publié sous double licence et prendre l’une de ces formes : (a) licence BSD, ou (b) licence GPL. L’utilisateur final d’un tel logiciel choisira la licence qui aura le plus de sens pour son projet.
  3. Concernant les logiciels contenant des mentions légales autres que la GPL, le CIO (NdT : Chief Information Officer, responsable des technologies de l’information et de la communication) décidera du mode de publication de tels logiciels.

Notes

[1] Crédit photo : Aku Busy (Creative Commons By)




Google Wave : une bonne nouvelle pour le logiciel libre ?

Rappensuncle - CC by-sa« Google Wave, c’est ce que pourrait être le mail si on devait l’inventer aujourd’hui » s’exclame le grand Tim O’Reilly, se mettant ainsi au diapason de cette autre citation, « Wave va rendre caducs tous les outils actuels de communication », entendue au moment même de la présentation de ce nouveau projet, il y a quinze jours de cela.

Le dévoilement de Wave a d’abord valu à Google une standing ovation au sortir de la conférence inaugurale. Puis, dans la foulée, des articles souvent dithyrambiques sont apparus sur la Toile. C’est donc clairement la sensation du moment, avant même que le moindre utilisateur ait pu tester quoi que ce soit. Une nouvelle vague (wave en anglais) va-t-elle déferler sur le Web ?

Si vous voulez en savoir plus quant à son approche originale et à ses fonctionnalités, je vous invite à lire theClimber, TechCrunch ou Transnets. Outre tout ce qu’il nous propose de faire, retenons qu’on a besoin du HTML 5 et surtout que le protocole sera Open Source, basé sur XMPP (Jabber), avec un serveur qui sera libre et qu’on pourra installer chez soi (cf Minitel 2.0).

Cet aspect libre (ou prétendu tel) est très important et n’a pas forcément été mis en avant par la blogosphère (sauf l’inévitable journal LinuxFr). Pour marquer le coup et nous interroger ensemble sur l’impact potentiel d’une telle nouveauté sur le logiciel libre, nous avons choisi de traduire un article enthousiaste (peut-être trop ?) issu de la revue Free Software Magazine.

Cet article envisage Google Wave sous l’angle de ce qu’il pourrait apporter à une communauté agrégée autour d’un logiciel libre. Jusqu’à se demander si Wave ne va pas se substituer aux bons vieux outils que sont les logiciels de gestion de versions (CVS, etc.), les wikis, et autres listes de discussion. Ce qui, au sein des développeurs, serait effectivement une petite révolution dans la manière de travailler et de communiquer.

Mais il n’entre pas dans le détail des licences, dans l’évalutation du degré réel ou supposé de l’ouverture annoncée par Google (à sa décharge, on ne dispose à l’heure actuelle que le peu d’informations qu’a bien voulu nous donner la société). Et surtout il oublie d’évoquer une, pour ne pas dire la, question majeure que l’on résume souvent dans la formule « Google everywhere ». Ok pour la possibilité d’avoir son petit serveur à domicile mais dans la pratique la grande majorité se connectera à n’en pas douter chez Google. Du Google partout, tout le temps, qui va finir par devenir problématique (si ça ne l’est pas déjà !). On peut, par exemple, compter sur Google pour nous proposer son navigateur Chrome configuré aux petits oignons pour Google Wave, si vous voyez ce que je veux dire.

Aussi puissant, séduisant et ouvert (protocole, API…) soit Google Wave, le logiciel libre a-t-il intérêt à surfer tête baissée sur cette vague[1], ou bien laisser couler et continuer tranquillement dans son coin à ériger sa petite berge qui deviendra un jour si haute que pas même un tsunami ne pourra l’emporter ?

Google Wave va-t-il révolutionner la collaboration dans le logiciel libre ?

Will Google Wave revolutionise free software collaboration?

Ryan Cartwright – 15 juin 2009 – Free Software Magazine
(Traduction Framalang : Poupoul2, Daria et Tyah)

Si vous n’en avez pas encore entendu parler, Google a publié une version de développement de Wave, son nouvel outil de réseau social et collaboratif. Quel impact cela peut-il avoir sur les utilisateurs et les développeurs de logiciel libre ?

Wave est ce que Google appelle un « nouvel outil de communication et de collaboration sur le Web ». Voyez-le comme un carrefour entre le courriel, le réseau social, la messagerie instantanée, l’IRC et Twitter. Wave apporte (ou plus exactement apportera) non seulement de nouveaux moyens de communication, mais offre également un retour instantané aux autres participants. En utilisant la base d’une vague comme une conversation, il permet aux destinataires de vos conversations de voir ce que vous écrivez en temps réel, au moment où vous l’écrivez. Plus besoin d’attendre que votre contact de messagerie instantanée termine son message. Wave offre également aux participants, dans le même outil, des messages de type panneau d’affichage, afin de savoir à quel moment ils se reconnectent. Il propose des fonctionnalités sympathiques qui permettent contextuellement de répondre à différentes parties d’un message. De nouveaux participants peuvent entrer à n’importe quel moment, tout en bénéficiant à la fois de l’historique complet de la vague, mais aussi en ayant la possibilité de « rejouer la vague » telle qu’elle s’est formée, en voyant qui a écrit quoi et dans l’ordre chronologique.

Ouais, ouais, encore un outil de réseautage social… allez, circulez !

Aussi intéressant, ou pas, que cela puisse paraître, quel impact cela aura-t-il pour nous, utilisateurs de logiciels libres et plus particulièrement développeurs ? Et bien, tout d’abord, Wave est développé grâce à un nouveau protocole ouvert et Google souhaite que nous l’aidions à le développer. Ce protocole est disponible sous les termes ouverts d’une licence que Google considère « libérale » (Un oxymore peut-être ?). En plaçant un protocole ouvert derrière cette technologie, Google nous invite activement à contribuer, distribuer et propager cette technologie. Cela signifie que nous, utilisateurs de logiciels libres, pouvons créer des outils libres qui utilisent le protocole Wave. Un protocole ouvert est assurément une bonne chose dans ce contexte : Pas d’accord de confidentialité, pas de royalties liées à des licences telles que pour les formats GIF ou MP3. Google nous demande également que nous aidions à donner forme au protocole. Les contributions sont réalisées sous un contrat de licence contributeur, qui insiste sur le fait que vous donnez à Google, le droit de « reproduire, construire des travaux dérivés, publier, exécuter en public, sous-licencier et distribuer vos contributions et les travaux dérivés associés ». Google semble être parti sur la bonne voie. Le temps nous en dira bien sûr plus, mais nous ne devrions pas être trop sceptique, c’est une opportunité réelle. Là où Android est un système ouvert sur un matériel fermé, en devenant ainsi de fait semi-fermé, nous avons une chance de développer Wave avec une foule d’outils libres et ouverts basés sur l’API et le protocole de Wave.

Google a livré quelques informations sur le fait de conserver le code source ouvert. Mais jusqu’à présent, ils n’ont publié aucun code source (à l’exception peut-être pour la version développeur, dont je ne fais pas partie), Cependant, même s’ils conservent les sources de l’API fermées, disposer d’un protocole ouvert (et d’une licence libérale) signifie que nous pouvons créer des outils qui utiliseront ce protocole et que ceux qui utiliseront les outils de Google pourront collaborer avec ces outils libres, du moins en théorie.

Mais qu’est-ce que cela peut nous apporter ?

Pensez à la manière de développer du logiciel libre. Peut-être plus que n’importe quel autre type de produits, le logiciel libre a besoin d’un effort collaboratif intense de la part de ses créateurs. Grâce à SVN, Sourceforge et consorts, nous avons des moyens de partager du code source et nous possédons des outils de communication durant le cycle de développement : wiki, panneaux d’affichage, liste de dicusssions, etc. Imaginez que vous disposez d’une « vague » pour les développeurs d’un projet logiciel. Chaque contributeur, en temps réel s’il le souhaite, dispose d’une conversation sans peur de perdre le fil dans de multiples embranchements. Les nouveaux membres peuvent rejouer la discussion pour comprendre l’état présent. Des fragments de code pourraient être placés à l’intérieur de la conversation et édités en temps réel par les autres membres. Et tout cela se déroule dans un des outils les plus communs, le navigateur. Les rassemblements de développeurs pourraient inclure ceux qui ne peuvent participer physiquement grâce à l’utilisation d’une vague. Les meilleurs esprits ne seront plus exclus parce qu’ils n’ont pu réserver une place dans l’avion[2].

Si cela semble excitant, c’est parce que je m’exalte. Google Wave a le potentiel pour aller bien au-delà du simple buzz pour foules numériques. Wave a la possibilité de réellement faire du bruit et de représenter un grand pas dans la manière dont nous développons du logiciel libre. Évidemment, il m’est venu à l’esprit que les développeurs de logiciels propriétaires pourraient utiliser le même système pour produire leurs logiciels, mais soyons honnêtes : qui de deux est le plus habitué à la collaboration (en réalité, en dépend même) ?

J’ai entendu certaines personnes dire que Google Wave pourrait dépasser Twitter et Facebook d’ici 2011. Je n’en sais rien, et même peu m’importe, mais je crois que Wave peut avoir un impact aussi fort sur le développement de logiciel libre que CVS ou les wikis.

Notes

[1] Crédit photo : Rappensuncle (Creative Commons By-Sa)

[2] Non pas que j’ai entendu que cela arrive, je conjecture juste.




La suite de Blade Runner sous licence libre ? C’est presque vrai !

Psd - CC byLa photo ci-contre s’intitule « Room With a Blade Runner View »[1]. Si ce titre fait une référence directe au célèbre film de science-fiction Blade Runner, c’est que son esthétique a marqué toute une génération.

En fait, et au delà de sa forme, ce film, inspiré d’un roman de Philip K. Dick et réalisé en 1982 par Rydley Scott (avec Harrison Ford dans le rôle principal), est considéré par beaucoup comme l’un des films cultes de l’histoire du cinéma.

Or une série vidéo s’en inspirant fortement est en préparation, série dont la société de production appartient à Ridley Scott en personne.

Il n’en fallait pas plus pour émouvoir les fans (de la première et de la dernière heure). D’autant que, excellente et originale initiative, tous les épisodes seront placées sous la très libre licence Creative Commons By-Sa, avec tout ce que cela suppose comme appropriation et remix !

De plus en en plus de monde attiré par la « culture libre » ? Ce n’est pas de la science-fiction, c’est la réalité 😉

Une série inspirée de Blade Runner en préparation

Web Series Tied to Blade Runner Is In the Works

Brad Stone – 4 juin 2009 – New-York Times (blog)
(Traduction Framalang : Don Rico)

Voici une nouvelle qui va donner des frissons d’anticipation ou d’appréhension aux fans de Blade Runner, le film de science-fiction culte sorti en 1982.

Ridley Scott, le réalisateur du film, a annoncé jeudi 4 mai qu’une nouvelle branche de sa société de production, RSA Films, travaillait à une série vidéo intitulée Purefold. L’action de cette série constituée d’épisodes de 5 à 10 minutes, tout d’abord destinés à une diffusion sur Internet puis peut-être à la télévision, se déroulera à une époque située avant 2019, date à laquelle le film dont Harrison Ford tenait le premier rôle se passait dans un Los Angeles cauchemardesque.

Ridley Scott, son frère Tony et son fils Luke sont en train de développer ce projet en partenariat avec le studio indépendant Ag8, que dirige un des créateurs de Where are the Joneses?, sitcom Web britannique qui sollicitait la participation du public pour l’élaboration des épisodes. De le même façon, Purefold récoltera les idées de scénario des téléspectateurs, par le biais du site social FriendFeed.

Mais la série ne collera pas trop près aux personnages ou aux situations que l’on a pu voir dans Blade Runner, en partie tirés de la nouvelle de Philip K. Dick Les androïdes rêvent-ils de moutons électriques ?, sur laquelle les auteurs de Purefold ne possèdent aucun droit.

« Nous n’utiliserons aucun des éléments du film placés sous copyright », explique David Bausola, co-fondateur de Ag8, qui espère un lancement de la série dans le courant de l’été, avec des premiers épisodes dont les évènements devraient se dérouler dans un futur très proche (environ deux ans). « On y développera les mêmes thèmes que dans Blade Runner. La quête pour savoir ce que ça signifie d’être humain et comprendre la notion d’empathie. On s’inspire beaucoup de Blade Runner. »

Parmi les partenaires du projet, on compte les agences de publicité et de marketing WPP, Publicis, Aegis Media et Naked Communications. Celles-ci apporteront des annonceurs dont les produits et les marques – ou leurs versions futures hypothétiques – seront susceptibles d’apparaître dans la série.

Signe que l’exploration d’un nouveau genre de créativité collective et interactive intéresse les cinéastes à l’origine du projet, les épisodes de la série seront diffusés sous une licence Creative Commons, fait sans précédent puisque ce sera la première fois qu’un réalisateur majeur d’Hollywood choisit cette solution alternative au copyright. Grâce à cette licence, les fans de la série pourront transformer et adapter les épisodes à leur guise, et même exploiter commercialement leur propre version placée sous la même licence.

Notes

[1] Crédit photo : Psd (Creative Commons By)