Trente mille euros de dons en sept mois et Framasoft se donne un peu d’air

Logo Framasoft - LL de Mars - Art LibreDu fond du cœur merci !

Merci à tous ceux qui ont participé à notre campagne de dons.

Ceci nous permet d’aborder la rentrée avec confiance et d’entrevoir l’exercice 2009/2010 avec beaucoup plus de sérénité.

En février dernier, lorsque nous avons constaté que les caisses de l’association étaient insuffisantes pour conserver notre unique (et indispensable) salarié, nous avons donc décidé de lancer une campagne de dons.

Cela s’est fait en toute discrétion : aucune annonce tonitruante, aucune demande de relai, une simple référence en haut de page de tous les sites du réseau, ainsi qu’une fenêtre d’information s’affichant au moment du téléchargement d’une framakey ou d’un framabook.

Nous avions fixé un peu arbitrairement la somme à atteindre à trente mille euros, le minimum vital pour achever l’année 2009. Certains, chez nous, ont dit que c’était trop bas eu égard à nos réels besoins. D’autres ont dit au contraire que c’était trop haut et qu’en temps de crise et de processus complexe de dons sur Internet, on se « taperait la honte » en n’y arrivant pas.

La honte attendra, la fin de l’aventure également, puisque, grâce à vous, nous y sommes arrivés (ou presque, vous pouvez encore y aller !). Et, au delà de l’aspect purement comptable, cela donne la pêche à toute l’équipe parce que cela témoigne de votre attachement à ce qu’est et ce que fait Framasoft.

À rapprocher d’un autre succès, celui de l’April et de ses cinq mille membres, pour émettre l’hypothèse que le logiciel libre francophone dispose d’une petite mais solide base de personnes capables de se mobiliser en soutenant aussi matériellement certains de ces acteurs. De quoi rendre optimiste en ces temps où la « mentalité Hadopi » menace les biens communs…

Objectif atteint certes, mais nous n’en déboucherons pas le champagne pour autant (notre trésorier nous l’interdirait de toutes les façons). Rien n’est acquis et notre fragilité demeure. Ce n’était qu’une étape, en quelque sorte celle de l’urgence et de la survie, et nous n’avons malheureusement pas fini de vous solliciter. Mais nous le ferons avec d’autant plus de facilité (voire de légitimité) que nous pouvons pour le moment continuer à nous concentrer sur notre travail, nos projets et le service rendu par notre réseau.

Dans un prochain billet nos vous donnerons quelques détails sur ce que nous comptons poursuivre et développer ensemble cette année. Nous publierons également le budget et les dépenses de l’association.

Une nouvelle fois merci pour votre reconnaissance et vos encouragements.

La route est longue mais la voie est libre.
L’équipe Framasoft




SARD : première initiative marquante de l’ère post Hadopi ?

Delcio G.P. Filho - CC byLe 8 septembre prochain à Paris, au cours d’une rencontre ouverte à tous où seront présentes de nombreuses et éminentes personnalités (Richard Stallman, Bernard Stiegler, Martine Billard, Laurent Chemla…), va se créer officiellement la SARD, acronyme de Société d’Acceptation et de Répartition des Dons.

Vous en trouverez le Communiqué de Presse ci-dessous ainsi qu’une première Foire Aux Questions.

J’en suis signataire, tout comme Benjamin Jean qui outre ses fonctions à Veni Vidi Libri est également membre de Framasoft[1].

Je lui cède d’ailleurs la place pour nous présenter une initiative qu’il n’hésite pas à qualifier de « pavé dans la mare » qui pourrait changer, modifier notre vision de la propriété intellectuelle et la place qu’elle occupe dans notre société. Ces propos n’engagent que son auteur[2] mais je m’y associe bien volontiers.

Tout le monde connaît, même vaguement la Propriété Intellectuelle[3] et les utilisations qui peuvent en être faites (pour prendre les deux extrêmes : le contrôle absolu représenté par la SACEM ou les éditeurs de logiciels traditionnels, et le partage par les licences libres).

En bref, la propriété intellectuelle repose sur un équilibre entre l’intérêt du public (A) et l’intérêt des créateurs/auteurs/inventeurs/etc (B)[4]. Ses objectifs (qui justifie le monopole accordé aux ayants-droits (B)) sont : 1. de faciliter et favoriser l’innovation (au bénéfice de la société et donc du public (A)), 2. donner à l’auteur un contrôle sur son oeuvre en raison du lien qui les unit[5].

Ce système repose sur un postulat : « puisqu’il existe et qu‘il marche (des gens continuent à créer et innover), c’est bien que le système actuel favorise la création et sa diffusion. »

La SARD serait donc une remise en question de ce dernier postulat : un changement de paradigme, de mentalité, un système différent qui, s’il fonctionne, montrerait que le système actuel de Propriété Intellectuelle n’est pas la seule (et/ou la meilleure) façon de favoriser la création et l’innovation. Attention, il ne s’agit pas forcément d’une alternative, mais plus d’un système parallèle qui, s’il marche, délégitimerait celui que l’on connaît aujourd’hui.

Ainsi, ces artistes pourraient éventuellement toucher de l’argent/un financement sans user de leurs droits de propriété intellectuelle, à eux de voir ensuite s’ils désirent jouer dans les deux camps (qui sont néanmoins contradictoire puisqu’il me semble légitime de penser que celui qui compte diffuser gratuitement et massivement sa musique aura plus de facilité à recevoir des dons que celui qui ne vend que quelques exemplaires dans quelques boutiques spécialisées).

Voici donc une initiative des plus ambitieuses ! Difficile de prédire ce qu’il en adviendra.

Au pire nous aurons contribué à déplacer le « débat Hadopi » vers une réflexion moins répressive et plus constructive. Au mieux nous aurons effectivement participé à ce « changement de paradigme », sachant que, GNU/Linux ou Wikipédia peuvent en témoigner, l’époque semble favorable aux projets impossibles qui aboutissent.

Naissance de la SARD, Société d’acceptation et de répartition des dons, un nouveau mécanisme pour pour financer équitablement la créativité et la diversité numérique

URL d’origine du communiqué de presse

Paris, le 4 septembre 2009. Mardi 8 septembre à 16h sera fondée à Paris la Société d’acceptation et de répartition des dons (SARD), dans le cadre d’une journée consacrée aux alternatives au système des droits d’auteur, fragilisés à l’heure des réseaux d’information et de communication. En présence d’un des fondateurs du mouvement pour le logiciel libre, Richard Stallman, du philosophe Bernard Stiegler, d’artistes et de politiques (Pierre Aidenbaum, Martine Billard, Patrick Bloche), les fondateurs de la SARD présenteront ce système volontaire nouveau, inspiré par la proposition du Mécénat Global, basé sur le don du public aux œuvres qu’il souhaite soutenir.

Hadopi n’est pas encore adoptée par le Parlement en France que ce projet de loi liberticide se trouve déjà dépassé. Partout dans le monde, les lois qui régissent les rapports entre public et création sont en chantier, les industries culturelles crient au loup (le piratage), tandis que les auteurs n’ont toujours pas accès à un système de financement de leurs œuvres. Et les (longs) débats législatifs autour de la répression du public au nom de la protection des auteurs n’ont fait émerger aucun nouveau système de soutien à la création.

Pour sortir des discours caricaturaux et aborder les questions du financement de la création sur l’Internet et les réseaux, la reconnaissance des artistes et auteurs d’oeuvres numériques sur Internet, la SARD, ouverte au public, aux artistes, auteurs et créateurs, du monde entier et de toutes nationalités, se mobilise pour le libre accès à la culture, grâce à un système de financement par le don.

Trop utopiste, trop compliqué, trop alternatif, trop expérimental ? Ces critiques à l’encontre des tentatives de réfléchir à des alternatives viables à la notion hégémonique et confuse de « propriété intellectuelle » sont fréquentes. Pour répondre aux questions et appeler à un dialogue constructif entre public, auteurs et politiques,les membres fondateurs de la SARD (artistes, éditeurs, ingénieurs, journalistes, membres d’associations soutenant le libre, scientifiques) vous invitent à cette journée exceptionnelle.

Quand ?

  • Le 8 septembre, de 16h à 22h.

Où ?

  • Mairie du 3ème, 2 rue Eugène Spuller, 75003 Paris.

Quoi ?

  • De 16h à 19h: Assemblée constituante de la Société d’Acceptation et de Répartition des Dons (SARD).
  • De 19h à 20h: Conférence de presse.
  • De 20h à 22h: Conférence: quelle alternative concrète pour le financement des œuvres numériques ? Avec Richard Stallman (le fondateur de GNU/Linux présentera le Mécénat global), Bernard Stiegler (le président d’Ars Industrialis parlera d’« Amateur d’art ou consommateur » et Antoine Moreau, l’instigateur de la Licence Art Libre, posera la question du « tous artistes ? ». Modération Laurent Chemla.

Comment ?

  • Accès libre.

En savoir plus ?

SARD, la FAQ

URL d’origine du document

Qui ?

Benjamin Jean (Veni Vidi Libri), Valentin Lacambre (Altern), Dominique Lacroix, Philippe Langlois (Hacklab), Christian Lavigne (poete et cybersculpteur), Antoine Moreau (instigateur de la Licence Art Libre), Francis Muguet (Mécénat global), Jérémie Nestel (Attention Chantier), Mathieu Pasquini (InLibroVeritas), Louis Pouzin (un pere de l’internet), Annick Rivoire (Poptronics), Raphael Rousseau (un fils de l’internet, activiste du Libre), Michel Sitbon (ACJ, Association des cyber-journaliste), Pierre Troller (artiste), Alexis Kauffmann (Framasoft).

Quoi ?

La SARD ou Société d’acceptation et de répartition des dons est ouverte aux artistes, auteurs et créateurs de toutes nationalités. Elle a pour objet de favoriser le libre acces a la culture, grâce a un systeme de financement par le don.

Ce mode de financement concerne toute production de l’esprit, et notamment tous les types d’oeuvres numériques et numérisées, qu’elles soient textuelles (blogs, sites, articles…), audio, visuelles, logicielles, plastiques ou musicales.

Sont considérés comme auteurs, toutes les personnes ayant contribué a la création de l’oeuvre.

Où ?

Sur l’Internet, et, plus largement, sur tous les réseaux d’information et de communication et dans tous les pays.

Pourquoi ?

Aujourd’hui, la création sur Internet et les réseaux d’information ne peut se suffire de la seule gratuité. Elle doit etre financée d’une maniere juste et équitable pour répondre aux attentes des artistes, des auteurs et du public. Le succes d’Internet reposant sur des millions d’auteurs et de contributeurs, il est important que ceux-ci, dans leur pluralité, puissent se fédérer pour que se constitue un mode de financement de la création.

Comment ?

Il s’agit de mettre en place un mécanisme simple de répartition des dons, faits par les internautes pour les oeuvres de leur choix. Il ne s’agit pas d’une nouvelle taxe ou redevance, mais bien d’une nouvelle façon de concevoir le rapport entre les auteurs et le public.

Qui donne ? Les grands donateurs (prestataires Internet, opérateurs télécoms, etc.) et les internautes directement, selon leur appréciation.

Comment l’argent collecté est-il réparti ? La SARD, en tant que structure d’expérimentation, mettra en place plusieurs systemes de répartition :

  • l’internaute donne directement aux oeuvres de son choix.
  • l’internaute verse au pot commun a la SARD selon des clés de répartition transparentes et claires, établies a partir de l’appréciation des internautes.
  • les grands donateurs versent au pot commun de la SARD.

Un comité d’évaluation indépendant contrôlera régulierement le fonctionnement de l’association.

Combien ?

L’intégralité des dons destinés aux oeuvres est redistribuée aux oeuvres. Les frais de gestion de l’association sont financés par des donations spécifiques.

Pour Qui ?

Tous les artistes, auteurs et créateurs qui ont inscrit volontairement leurs oeuvres au service d’acceptation et et de répartition des dons.

Sont susceptibles d’inscrire leurs oeuvres :

  • les artistes, auteurs et créateurs inscrits aupres des sociétés de gestion collective traditionnelles, la SARD vient en parallele des dispositifs existants.
  • les artistes, auteurs et créateurs qui ne sont pas inscrits aupres des sociétés de gestion collective, l’inscription a la SARD n’engage en rien leurs droits sur leurs oeuvres.
  • les artistes, auteurs et créateurs sous licence libre qui ne sont pas membres d’une société de gestion collective, la SARD est favorable a l’usage des licences libres.

Pour en savoir plus ?

http://www.sard-info.org

Notes

[1] Crédit photo : Delcio G.P. Filho (Creative Commons By)

[2] Source : Blog de Veni Vidi Libri (sous licence Art Libre)

[3] Pour faire court, un ensemble de droits reconnus à une personne sur une création particulière et assimilable à ceux d’un propriétaire sur sa chose/son bien.

[4] De nombreuses thèses existent sur ce « droit du public à l’information » qui relative les droits des auteurs notamment.

[5] Néanmoins, durant de longues années, les USA assuraient une protection quasi-équivalente aux droits moraux sans user des droits de propriété intellectuelle.




Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire

Rudolf Schuba - CC bySéquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Daria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard dans les communications de l’ACM (CACM), le journal de l’Association for Computer Machinery. « Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité d’utilisation ».

Apparemment ils y sont arrivés. Unix va évoluer pour devenir une pierre angulaire de l’informatique, largement installé sur les serveurs et les postes de travail dans les universités, les gouvernements et les entreprises. Et son influence s’est étendue bien au-delà de ses déploiements, comme l’a noté l’ACM en 1983, lorsqu’ils ont attribué leur prix le plus élevé à Thompson et Ritchie, le A.M. Turing Award pour leur contribution à l’informatique : « Le modèle du système Unix a conduit une génération de concepteurs logiciels à repenser leur manière de programmer ».

Les premiers pas

Bien sûr, le succès d’Unix n’est pas arrivé d’un coup. En 1971, il a été porté sur le mini-ordinateur PDP-11, une plateforme plus puissante que le PDP-7 pour laquelle il avait été écrit à l’origine. Des programmes d’édition et de formatage de texte ont été ajoutés, et il a été déployé pour quelques dactylos du département des Brevets des Bell Labs, ses premiers utilisateurs en dehors de l’équipe de développement.

En 1972, Ritchie écrivait le langage de programmation de haut-niveau C (basé sur un langage précédent de Thompson, le B) ; suite à cela, Thompson réécrivit Unix en C, ce qui permit d’améliorer la portabilité de l’OS sur différents environnements. En cours de chemin, il acquit le nom de Unics (Uniplexed Information and Computing Services), un jeu de mots sur Multics ; l’orthographe se transforma rapidement en Unix.

Il était temps d’envahir le monde. L’article de Ritchie et Thompson de Juillet 1974 dans le CACM, « Le système temps-partagé UNIX », prit le monde de l’informatique dans un ouragan. Jusqu’alors, Unix avait été confiné à une poignée d’utilisateurs dans les Laboratoires Bell. Mais maintenant, avec l’Association for Computing Machinery derrière lui, un éditeur l’ayant qualifié comme étant élégant, Unix était à un moment crucial.

« L’article du CACM avait eu un impact très fort », raconte l’historien de l’informatique Peter Salus dans son livre The Daemon, the Gnu and the Penguin (NdT : Le démon, le Gnou et le manchot). « Peu de temps après, Ken était assailli de demandes concernant Unix ».

Un paradis pour les hackers

Thompson et Ritchie étaient des hackers accomplis, quand ce terme désignait quelqu’un qui combinait une créativité hors pair, une intelligence à toute épreuve et de l’huile de coude pour résoudre des problèmes logiciels que l’on a peine à imaginer.

Leur approche, et le code qu’ils avaient écrit, étaient attractifs pour les programmeurs des universités, et plus tard pour des entreprises qui démarraient sans les méga budgets de IBM, Hewlett-Packard ou Microsoft. Unix était tout ce dont les autres hackers, comme Bill Joy à l’Université de Californie, Rick Rashid à l’Université Carnegie Mellon et David Korn plus tard aux Laboratoires Bell avaient rêvé.

« Presque depuis le début, le système était capable de se maintenir seul, et il l’avait prouvé », écrivaient Thompson et Ritchie dans l’article du CACM. « Comme tous les programmes sources étaient toujours disponibles et facilement modifiables en ligne, nous étions volontaires pour réviser et modifier le système et ses logiciels lorsque de nouvelles idées étaient inventées, découvertes ou suggérées par d’autres ».

Korn, maintenant membre d’AT&T, travaillait comme programmeur aux Bell Labs dans les années 1970. « L’une des caractéristiques de Unix était que des outils pouvaient être écrits, et de meilleurs outils pouvaient les remplacer », se souvient-il. « Ce n’était pas un monolithe dans lequel il fallait tout approuver ; vous pouviez en fait développer de meilleures versions ». Il a développé l’influent Korn shell, un langage de programmation permettant d’interagir directement avec Unix, maintenant disponible en open source.

Salus, auteur et historien des technologies, se souvient de son travail avec le langage de programmation APL sur un mainframe IBM tournant sous System/360, en tant que professeur à l’Université de Toronto dans les années 1970. Mais le lendemain de Noël 1978, un ami à l’Université de Colombia lui fit une démonstration de Unix, tournant sur un mini-ordinateur. « Je me suis exclamé : Oh mon Dieu !, et j’étais totalement converti », raconte Salus.

Il dit que pour lui, l’un des avantages clés de Unix était la fonctionnalité pipe, introduite en 1973, qui rendait facile le passage de données d’un programme à l’autre. Le concept de pipeline, inventé par McIlroy des Bell Labs, fut par la suite copié dans de nombreux OS, parmi lesquels les variantes d’Unix, Linux, DOS et Windows.

Un autre avantage de Unix, le deuxième effet Wooow, comme le dit Salus, était qu’il n’avait pas besoin d’un mainframe d’un demi-million de dollars pour tourner. Il avait été écrit sur le petit mini-ordinateur DEC PDP-7, assez primitif, car c’était tout ce que Thompson et Ritchie avaient sous la main en 1969. « Le PDP-7 était presque incapable de quoi que ce soit », se souvient Salus. « J’étais scotché ».

Pas mal de monde a également été rendu accro. Les chercheurs des universités ont adopté Unix car il était assez simple et facilement modifiable, ne demandait pas beaucoup de ressources, et le code source était libre pour une bonne partie. Des startups comme Sun Microsystems et un ensemble d’entreprises maintenant défuntes qui se spécialisaient dans l’informatique scientifique, comme Multiflow Computer, en ont fait leur système d’exploitation de choix pour les mêmes raisons.

La progéniture d’Unix

Unix a grandi comme un système non-propriétaire car en 1956 AT&T avait été enjoint par une décret fédéral à ne pas s’écarter de sa mission de production de service téléphonique. Il pouvait développer du logiciel, et même le licencier pour un tarif raisonnable, mais l’entreprise ne pouvait pas entrer sur le marché de l’informatique.

Unix, qui avait été développé sans encouragement du management, avait d’abord été vu par AT&T comme quelque chose entre une curiosité et un casse-tête légal.

C’est à ce moment là, à la fin des années 1970, AT&t a réalisé qu’ils avaient quelque chose de commercialement intéressant en main. Ses avocats ont commencé à adopter une interprétation plus favorable de l’ordonnance de 1956, comme ils cherchaient des manières de protéger Unix comme un secret de fabrication. A partir de 1979, avec la sortie de la Version 7, les licences Unix interdisaient aux universités d’utiliser le code source Unix pour l’étudier pendant leurs cours.

Pas de problème, se dit alors le professeur d’informatique Andrew Tanenbaum, qui avait utilisé Unix V6 à l’Université Vrije à Amsterdam. En 1987, il écrivit un clone de Unix pour utiliser lors de ses cours, en créant le système d’exploitation open source Minix, qui tournait sur un microprocesseur Intel 80286.

« Minix comprenait toutes les idées d’Unix, et c’était un travail brillant », raconte Salus. « Seul un programmeur majeur, quelqu’un qui comprenait en profondeur les mécanismes internes d’un système d’exploitation, pouvait faire cela ». Minix allait devenir le point de départ pour la création de Linux par Linus Torvalds en 1991. Si ce n’était pas exactement un clone d’Unix, il s’agissait à n’en pas douter d’un Unix-like.

En reculant d’une décade ou à peu près, Bill Joy, qui était un étudiant diplômé et programmeur à l’Université de Californie de Berkeley dans les années 1970, mit la main sur une copie de l’Unix des Laboratoires Bell, et il pensa que c’était une bonne plateforme pour son propre travail sur un compilateur Pascal et un éditeur de texte.

Les modifications et extensions que lui et d’autres firent à Berkeley ont résulté dans la seconde branche majeure de Unix, appelée Berkeley Software Distribution (BSD) Unix. En mars 1978, Joy envoyait des copies de 1BSD, vendues 50$.

Ainsi en 1980 il y avait deux lignes majeures de Unix, l’une de Berkeley et l’autre de AT&T, et la scène était montée pour ce qui allait devenir la Guerre des Unix. La bonne nouvelle était que les développeurs de logiciels pouvaient avoir accès de partout au code source Unix, et l’adapter à leurs besoins et caprices. La mauvaise nouvelle c’est qu’ils firent exactement cela. Unix a proliféré, et les variantes ont divergé.

En 1982, Joy a contribué à fonder Sun Microsystems et offrait une station de travail, la Sun-1, qui utilisait une version de BSD appelée SunOS. (Solaris allait apparaitre environ 10 ans plus tard). L’année suivante, AT&T a sorti la première version de Unix System V, un système d’exploitation qui a eu une influence énorme et qui fut la base de IBM AIX et Hewlett-Packard HP-UX.

Les Guerres Unix

Unix History - Eraserhead1 et Infinity0 - CC by-saAu milieu des années 80, les utilisateurs, y compris le gouvernement fédéral, se sont plaints que si en théorie Unix était un système d’exploitation unique et portable, en fait on en était loin. Les éditeurs faisaient semblant d’adhérer à cette réclamation, mais travaillaient jour et nuit pour enfermer les clients avec des fonctionnalités et API uniques à leur Unix.

En 1987, Unix System Laboratories, qui faisait partie des Laboratoires Bell à cette époque, commença à travailler avec Sun sur un système qui pourrait unifier les deux branches majeures de Unix. Le produit de leur collaboration, appelé Unix System V Release 4.0, fut sorti deux ans plus tard, et combinait des fonctionnalités de System V Release 3, BSD, SunOS et du Xenix de Microsoft.

Les autres éditeurs Unix craignaient l’alliance AT&T/Sun. Les diverses parties ont formé des organismes standards concurrents, qui portaient des noms tels que X/Open, Open Software Foundation (ou OSF), Unix International et Corporation for Open Systems. Les arguments, contre-arguments et réussites de ces groupes pourraient remplir un livre, mais ils clamaient tous leur désir d’un Unix unifié, tout en se tirant dessus les uns les autres.

Dans un article écrit en 1988, mais non publié, pour la DARPA (Defense Advanced Research Projects Agency) (NdT : Agence pour les Projets de Recherche Avancée de la Défense), le pionnier des mini-ordinateurs Gordon Bell disait ceci de la toute nouvelle Open Software Foundation, qui incluait IBM, HP, DEC et d’autres, alliés contre le partenariat AT&T/Sun : « OSF est une manière pour ceux qui n’ont pas d’Unix d’entrer sur ce marché en devenir, tout en maintenant leur musées de code à hautes marges ».

Les Guerres Unix n’ont pas réussi à calmer les différences ou à créer un réel standard pour le système d’exploitation. Mais en 1993, la communauté Unix était réveillée par Microsoft, sous la forme de Windows NT, un système d’exploitation 32 bits utilisable en entreprise. Ce NT propriétaire visait directement Unix, et devait étendre l’hégémonie de Microsoft sur l’ordinateur de bureau aux centres serveurs et endroits similaires, tenus principalement par les serveurs Sun et autres.

Les utilisateurs Microsoft ont applaudi. Les fournisseurs Unix ont paniqué. Tous les principaux rivaux des Unix majeurs se sont réunis dans une initiative appelé Common Open Software Environnement (NdT : Environnement Logiciel Ouvert Commun), et l’année suivante ont plus ou moins déposé les armes en mixant le groupe Unix International, appuyé par AT&T/Sun avec l’Open Software Foundation. Cette coalition a évolué dans l’actuel The Open Group, organisme certificateur des systèmes Unix, et propriétaire de Single Unix Specification (SUS), maintenant la définition officielle de « Unix ».

D’un point de vue pratique, ces développements ont pu standardiser Unix au maximum possible, en fonction de la concurrence des éditeurs. Mais ils sont sans doute arrivés trop tard pour enrayer la montée d’une marée appelée Linux, le système d’exploitation open source dérivé de Minix du professeur Tanenbaum.

Mais qu’est ce que « Unix », finalement ?

Unix, vous diront la plupart des gens, est un système d’exploitation écrit il y a plusieurs dizaines d’années aux Laboratoires Bell de AT&T, et ses descendants. Les versions majeures d’Unix aujourd’hui proviennent de deux branches d’un même tronc : l’une émane directement de AT&T et l’autre vient de AT&T via l’Université de Californie de Berkeley. Les branches les plus robustes actuellement sont AIX d’IBM, HP-UX de HP et Solaris de Sun.

Toutefois, The Open Group, qui détient la marque déposée Unix, définit Unix comme n’importe quel système d’exploitation qui a été certifié par ses services pour se conformer à la Single Unix Specification (SUS) (NdT : Spécification Unix Unique). Ceci inclut des OS que l’on ne considère pas généralement comme étant des Unix, tel que Mac OS X Leopard (qui dérive d’un BSD Unix) et IBM z/OS (qui vient du système d’exploitation mainframe MVS), car ils se conforment au SUS et supportent les APIs SUS. L’idée basique est que c’est un Unix si cela agit comme Unix, quel que soit le code sous-jacent.

Une définition encore plus large d’Unix pourrait inclure les OS Unix Like (qui ressemblent à Unix), parfois appelé des clones d’Unix ou des sosies, qui ont copié une bonne partie des idées de Unix mais n’incorporent pas directement du code Unix. Le plus connu d’entre tous étant certainement Linux.

Finalement, même s’il est raisonnable d’appeler Unix un système d’exploitation, c’est finalement plus que cela. En plus du noyau de l’OS, les implémentations Unix embarquent typiquement des utilitaires tels que des éditeurs en ligne de commande, des interfaces de programmation applicatives (API), des environnements de développement, des librairies et de la documentation.

Le futur d’Unix

Le manque continuel de portabilité complète entre les différentes versions concurrentes d’Unix, de même que l’avantage financier de Linux et Windows sur les processeurs standards x86, vont inciter les organisations informatiques de quitter Unix, suggère un récent sondage du Gartner Group.

« Les résultats réaffirment l’enthousiasme continu pour Linux comme plate-forme serveur, avec Windows qui croît de la même manière, et Unix qui prend la route d’un long, mais graduel, déclin », décrit le sondage, publié en février 2009.

« Unix a eu un passé long et vivant, et même s’il n’est pas encore parti, il sera de plus en plus sous pression », dit l’analyste du Gartner George Weiss. « Linux est l’Unix de choix stratégique. Même si Linux n’a pas le long héritage de développement, de tuning et de tests de stress que Unix a pu avoir, il s’en approche et va bientôt égaler Unix en performance, stabilité et montée en charge », dit-il.

Mais un récent sondage de ComputerWorld suggère que le retrait d’Unix ne va pas arriver aussi rapidement. Dans cette enquête concernant 130 utilisateurs Unix sur 211 responsables informatiques, 90% ont déclaré que leur entreprise était « très ou extrêmement dépendante » de Unix. Un peu plus de la moitié a dit : « Unix est une plateforme essentielle pour nous et le restera indéfiniment », et seulement 12% ont dit « Nous pensons sortir de Unix dans le futur ». Les économies de coût, essentiellement au travers d’une consolidation de serveurs, étaient citées comme la raison n°1 pour migrer vers autre chose.

Weiss pense que la migration vers des processeurs x86 va s’accélérer à cause de l’avantage du coût du matériel. « Des architectures extensibles horizontalement ; le clustering ; le cloud computing ; la virtualisation sur x86, quand vous combinez toutes ces tendances, le système d’exploitation de choix tourne autour de Linux ou Windows », dit-il.

« Par exemple », déclare Weill, « dans l’annonce récente de Cisco de son architecture Unified Computing, vous avez dans un même équipement le réseau, le stockage, le calcul et la mémoire, et vous n’avez pas besoin d’Unix. Vous pouvez utiliser Linux ou Windows sur x86. Ainsi, Intel est en train de gagner la guerre pour le compte de Linux contre Unix ».

The Open Group, propriétaire des Single Unix Specification et organisme certificateur des systèmes Unix, concède peu à Linux, et déclare que Unix est le système de choix pour « le haut du panier en termes de fonctionnalités, montée en charge et performance pour des applications critiques ». Linux, dit-il, tend à être le standard pour les applications plus simples, moins critiques.

Korn, de AT&T, est parmi ceux qui pensent que Unix a encore un bel avenir. Korn dit que la force d’Unix pendant toutes ces années, depuis l’ajout des pipes en 1973, est qu’il peut facilement être éclaté en petits bouts et distribué. Ceci va pousser Unix en avant, dit-il. « La philosophie (du pipeline) fonctionne bien avec le cloud computing, dans lequel vous construisez des petits morceaux réutilisables plutôt qu’une grosse application monolithique ».

L’héritage d’Unix

Quel que soit le sort final d’Unix, le système d’exploitation né dans les Laboratoires Bell il y a 40 ans a établi un héritage qui risque de durer encore quelques dizaines d’années. Il peut revendiquer la paternité d’une longue liste de logiciels populaires, incluant l’offre Unix de IBM, HP, Sun, Apple Mac OS X et Linux. Il a également influencé des systèmes qui ont leurs racines dans Unix, comme Microsoft Windows NT et les versions IBM et Microsoft de DOS.

Unix a permis à de nombreuses entreprises qui démarraient de réussir, en leur offrant une plateforme peu onéreuse sur laquelle construire. C’était une des briques de base pour la construction d’Internet, et il fait partie du cœur des systèmes de télécommunications aujourd’hui. Il a engendré de nombreux concepts d’architecture, comme l’utilisation du pipeline, et le dérivé de Unix, Mach, a contribué énormément à l’informatique scientifique, distribuée et multiprocesseurs.

C’est peut-être l’ACM qui l’a mieux énoncé en 1983 dans sa citation du prix Turing en l’honneur de Thompson et Ritchie sur leur travail sur Unix : « Le génie du système Unix est dans sa structure, qui permet aux programmeurs de bâtir sur le travail des autres ».

Notes

[1] Crédit photos : 1. Rudolf Schuba (Creative Commons By) / 2. Hoshie (Domaine Public) / 3. Eraserhead1 et Infinity0 (Creative Commons By-Sa)




Framasoft en 5 minutes vidéo aux RMLL 2009

Pour nos archives, pour ceux qui sont curieux de voir nos binettes, pour une courte présentation de la FUR, alias la Framakey Ubuntu-fr Remix, et pour… entretenir le mythe d’une communauté pleine de poils !

—> La vidéo au format webm




George Clooney a une sale gueule ou la question des images dans Wikipédia

George Clooney - Bad Dog - Public DomainÀ moins d’être aussi bien le photographe que le sujet photographié (et encore il faut faire attention au décor environnant), impliquant alors soit d’avoir le don d’ubiquité soit d’avoir un pied ou le bras assez long, c’est en théorie un pur casse-tête que de mettre en ligne des photographies sur Internet.

Il y a donc pour commencer le droit de l’auteur, le photographe. Mais quand bien même il aurait fait le choix de l’ouverture pour ses images, avec par exemple une licence Creative Commons, il reste la question épineuse du droit du sujet photographié (qui peut être une personne, un monument architectural…). Et pour corser le tout, n’oublions pas le fait que la législation est différente selon les pays.

Et c’est ainsi que le Framablog se met quasi systématiquement dans l’illégalité lorsqu’il illustre ses billets par une photographie où apparaissent des gens certes photogéniques mais non identifiés. Parce que si il prend bien le soin d’aller puiser ses photos parmi le stock d’images sous Creative Commons d’un site comme Flickr, il ne respecte que le droit du photographe et non celui du ou des photographié(s), dont il n’a jamais eu la moindre autorisation.

C’est peut-être moins grave (avec un bon avocat) que ces millions de photos que l’écrasante majorité de la jeune génération partage et échange sans aucune précaution d’usage sur les blogs, MySpace ou Facebook, mais nous ne sommes clairement qu’à la moitié du chemin.

Le chemin complet du respect des licences et du droit à l’image, c’est ce que tente d’observer au quotidien l’encyclopédie libre Wikipédia. Et c’est un véritable… sacerdoce !

Vous voulez mettre en ligne une photo sur Wikipédia ? Bon courage ! L’avantage c’est que vous allez gagner rapidement et gratuitement une formation accélérée en droit à l’image 😉

Pour l’anecdote on cherche toujours à illustrer le paragraphe Framakey de notre article Framasoft de l’encyclopédie et on n’y arrive pas. Une fois c’est le logo de Firefox (apparaissant au microscope sur une copie d’écran de l’interface de la Framakey) qui ne convient pas, parce que la marque Firefox est propriété exclusive de Mozilla. Une fois c’est notre propre logo (la grenouille Framanouille réalisée par Ayo) qui est refusé parce qu’on ne peut justifier en bonne et due forme que sa licence est l’Art Libre.

Toujours est-il donc que si vous souhaitez déposer une image dans la médiathèque de Wikipédia (Wikimédia Commons) alors le parcours est semé d’embûches. L’enseignant que je suis est plutôt content parce que l’encyclopédie participe ainsi à éduquer et sensibiliser les utilisateurs à toutes ces questions de droit d’auteurs, de propriété intellectuelle… avec moultes explications sur l’intérêt d’opter (et de respecter) les licences libres. Mais il n’empêche que l’une des conséquences de ces drastiques conditions d’entrée, c’est que pour le moment Wikipédia manque globalement de photographies de qualité (comparativement à son contenu textuel).

C’est particulièrement criant lorsqu’il s’agit d’illustrer les articles sur des personnalités contemporaines[1] (les plus anciennes échappant a priori au problème avec le domaine public, sauf quand ces personnalités ont vécu avant… l’invention de la photographie !). Et c’est cette carence iconographique que le New York Times a récemment prise pour cible dans une chronique acide dont le traduction ci-dessous nous a servi de prétexte pour aborder cette problématique (chronique qui aborde au passage la question complexe du photographe professionnel qui, craignant pour son gagne-pain, peut hésiter à participer).

La situation est-elle réellement aussi noire que veut bien nous le dire le vénérable journal ?

Peut-être pas. Il y a ainsi de plus en plus de photographes de qualité, tel Luc Viatour, qui participent au projet . Il y a de plus en plus d’institutions qui, contrairement au National Portrait Gallery, collaborent avec Wikipédia en ouvrant leurs fonds et archives, comme en témoigne l‘exemple allemand. Même le Forum économique mondial de Davos s’y met (dépôt dans Flickr, utilisation dans Wikipédia). Sans oublier les promenades locales et festives où, appareil photo en bandoulière, on se donne pour objectif d’enrichir ensemble l’encyclopédie.

Du coup mon jugement péremptoire précédent, à propos de la prétendue absence globale de qualité des images de Wikipédia, est à nuancer. Il suffit pour s’en convaincre de parcourir les pages « images de qualité » ou l’« image du jour ».

L’encyclopédie est en constante évolution, pour ne pas dire en constante amélioration, et bien heureusement la photographie n’échappe pas à la règle. Même si il est vrai que le processus est plus lent parce qu’on lui demande de s’adapter à Wikipédia et non l’inverse.

Wikipédia, terre fertile pour les articles, mais désert aride pour les photos

Wikipedia May Be a Font of Facts, but It’s a Desert for Photos

Noam Cohen – 19 juillet 2009 – New York Times
(Traduction Framalang : Olivier et Goofy)

Une question de la plus haute importance : existe-t-il de mauvaises photos de Halle Berry ou de George Clooney ?

Halle Berry - Nancy Smelser - Public DomainFacile, allez sur Wikipédia ! Vous y trouverez une photo floue de Mlle Berry, datant du milieu des années quatre-vingt, lors de la tournée U.S.O. avec d’autres candidates au titre de miss USA. La mise au point est mauvaise, elle porte une casquette rouge et blanche, un short, c’est à peine si on la reconnait. L’article de Wikipédia sur M. Clooney est, quant à lui, illustré par une photo le montrant au Tchad, portant une veste kaki est une casquette des Nations Unies. Avec son grand sourire et ses traits anguleux il est toujours aussi beau, en compagnie de deux femmes travaillant pour les Nations Unies, mais on est loin d’un portait glamour.

Certains personnages éminemment célèbres, comme Howard Stern ou Julius Erving, n’ont même pas la chance d’avoir leur photo sur Wikipédia.

George Clooney - Nando65 - Public DomainAlors que de nos jours les célébrités s’offrent couramment les services d’une équipe de professionnels pour contrôler leur image, sur Wikipédia c’est la loi du chaos. Très peu de photographies de bonne qualité, particulièrement de célébrités, viennent enrichir ce site. Tout cela tient au fait que le site n’accepte que les images protégées par la plus permissive des licences Creative Commons, afin qu’elles puissent être ré-utilisées par n’importe qui, pour en tirer profit ou pas, tant que l’auteur de la photo est cité.

« Des représentants ou des agents publicitaires nous contactent, horrifiés par les photos qu’on trouve sur le site », confie Jay Walsh, porte-parole de la Wikimedia Foundation, l’organisme qui gère Wikipédia, l’encyclopédie en plus de 200 langues. « Ils nous disent : J’ai cette image, je voudrais l’utiliser. Mais ça n’est pas aussi simple que de mettre en ligne la photo qu’on nous envoie en pièce jointe. »

Il poursuit : « En général, nous leur faisons comprendre que de nous envoyer une photo prise par la photographe Annie Leibovitz ne servira à rien si nous n’avons pas son accord. »

Les photos sont l’un des défauts les plus flagrants de Wikipédia. À la différence des articles du site, qui, en théorie, sont vérifiés, détaillés à l’aide de notes, et qui se bonifient avec le temps, les photos sont l’œuvre d’une seule personne et elles sont figées. Si un mauvais article peut être amélioré, une mauvaise photo reste une mauvaise photo.

Les wikipédiens tentent de corriger ce défaut, ils organisent des événements ou des groupes de contributeurs vont prendre des clichés de bonne qualité de bâtiments ou d’objets. De même, Wikipédia s’efforce d’obtenir la permission d’utiliser d’importantes collections de photographies.

L’hiver dernier, les archives fédérales allemandes ont placé cent mille photos basse résolution sous une licence permettant leur usage dans Wikipédia. Récemment, un utilisateur de Wikipédia, Derrick Coetzee, a téléchargé plus de trois mille photos haute résolution d’œuvres de la National Portrait Gallery de Londres, pour qu’elles soient utilisées, essentiellement, pour illustrer les articles se rapportant à des personnes historiques célèbres comme Charlotte Brontë ou Charles Darwin.

La galerie a menacé de porter plainte contre M. Coetzee, affirmant que même si les portraits, de par leur ancienneté, ne tombent plus sous la protection du droit d’auteur, les photographies elles sont récentes et du coup protégées. La galerie exige une réponse de M. Coetzee pour lundi. Il est représenté par l’Electronic Frontier Foundation. S’exprimant par e-mail vendredi, une porte-parole de la galerie, Eleanor Macnair, écrit qu’un « contact a été établi » avec la Wikimedia Foundation et que « nous espérons toujours que le dialogue est possible ».

On reste pourtant bien loin du compte et le problème des photographies sur Wikipédia est tout sauf réglé. Dans la galerie des horreurs, l’ancienne star de la NBA, George Gervin, aurait une place de choix. Debout, droit comme un I dans son costard, sur une photo aux dimensions pour le moins étranges, même pour un joueur de basket-ball. La photo, recadrée et libre de droit, provient du bureau du sénateur du Texas, John Cornyn.

Barack Obama - Pete Souza - CC byL’exemple de M. Gervin illustre un fait établi : le gouvernement alimente le domaine public de nombreuses photographies. Celle illustrant l’article du président Obama, par exemple, est un portrait officiel tout ce qu’il y a de posé et sérieux.

Mais les collections de photographies du gouvernement servent aussi aux contributeurs de Wikipédia. Ils espèrent y dénicher des images de rencontres entre célébrités et personnages politiques, qu’ils massacrent ensuite pour illustrer un article.

L’ancien roi du baseball, Hank Aaron, a l’honneur d’être illustré par une photo prise hors contexte, bizarrement découpée, prise en 1978 à la Maison Blanche. De même, l’illustration principale de l’article sur Michael Jackson a été réalisée en 1984 à l’occasion de sa visite à Ronald et Nancy Reagan.

Natalie Dessay - Alixkovich - CC by-saLes photos récentes sur Wikipédia sont, pour une large majorité, l’œuvre d’amateurs qui partagent volontiers leur travail. Amateur étant même un terme flatteur puisque ce sont plutôt des photos prises par des fans qui par chance avaient un appareil photo sous la main. La page de la cantatrice Natalie Dessay la montre en train de signer un autographe, fuyant l’objectif, l’actrice Allison Janney est masquée par des lunettes de soleil au Toronto Film Festival. Les frères Coen, Joel et Ethan, sont pris à distance moyenne à Cannes en 2001 et Ethan se couvre la bouche, certainement parce qu’il était en train de tousser. Et il y a aussi les photos prises depuis les tribunes où on distingue à peine le sujet. D’après sa photo, on pourrait croire que la star du baseball Barry Bonds est un joueur de champ extérieur. David Beckham, quant à lui, apparait les deux mains sur les hanches lors d’un match de football en 1999.

Placido Domingo- Sheila Rock - Copyright (with permission)Certaines personnes célèbres, comme Plácido Domingo et Oliver Stone, ont cependant eu la bonne idée de fournir elles-mêmes une photographie placée sous licence libre. Quand on pense à tout l’argent que les stars dépensent pour protéger leur image, il est étonnant de voir que si peu d’entre elles ont investi dans des photos de haute qualité, sous licence libre, pour Wikipédia ou d’autres sites. Peut-être ne se rendent-elles pas compte de la popularité de Wikipédia ? Rien que pour le mois de juin, par exemple, la page de Mlle Berry a reçu plus de 180 000 visites.

D’après Jerry Avenaim, photographe spécialisé dans les portraits de célébrités, il faut encore réussir à persuader les photographes, car placer une photo sous licence libre pourrait faire de l’ombre à toutes les autres. Il se démarque par le fait qu’il a déjà enrichi Wikipédia d’une douzaine de clichés en basse résolution, parmi lesquels un superbe portrait de Mark Harmon pris à l’origine pour un magazine télé.

Dans un interview, M. Avenaim semblait toujours indécis quant à l’idée de partager son travail. Sa démarche poursuit un double but : « D’abord, je voulais vraiment aider les célébrités que j’apprécie à apparaitre sous leur meilleur jour », dit-il, « Ensuite, c’est une stratégie marketing intéressante pour moi ».

Mark Harmon - Jerry Avenaim - CC by-saSa visibilité en ligne a largement augmenté grâce à la publication de ses œuvres sur Wikipédia, comme le montrent les résultats des moteurs de recherche ou la fréquentation de son site Web. Mais c’est une publicité qui peut aussi lui coûter très cher. « C’est mon gagne-pain », dit-il, rappelant que les photographes sont parfois très peu payés par les magazines pour leurs images de célébrités. L’essentiel de leurs revenus provient de la revente des images. Même si les images qu’il a mises gratuitement à disposition, par exemple le portrait de Dr. Phil, sont en basse résolution, elles deviennent les photographies par défaut sur Internet. Pourquoi payer alors pour une autre de ses photos ?

Et c’est bien là que la bât blesse pour les photographes qui voudraient mettre leurs œuvres à disposition sur Wikipédia, et seulement sur Wikipédia, pas sur tout Internet. « Wikipédia force à libérer le contenu déposé sur le site, c’est là que réside le problème à mes yeux », explique M. Avenaim. « S’ils veulent vraiment que la qualité des photos sur le site s’améliore, ils devrait permettre aux photographes de conserver leurs droits d’auteur. »

Notes

[1] Crédits photos : 1. George Clooney, par Bad Dog (domaine public) / 2. Halle Berry, par Nancy Smelser (domaine public) / 3. George Clooney, par Nando65 (domaine public)/ 4. Barack Obama, par Pete Souza (creative commons by) / 5. Natalie Dessay, par Alixkovich (creative commons by-sa) / 6. Placido Domingo, par Sheila Rock (copyright avec permission) / 7. Mark Harmon, par Jerry Avenaim (creative commons by-sa)




Si rien ne bouge en France dans les cinq ans je demande ma mutation à Genève

Broma - CC byCe billet souhaite avant tout saluer l’action du SEM qui, dans le cadre des MITIC, favorise les SOLL au sein du DIP. Gageons cependant que si vous n’êtes pas familier avec le système éducatif genevois, cette introduction risque de vous apparaitre bien énigmatique !

Le DIP, c’est le Département de l’Instruction Publique du Canton de Génève et le SEM, le Service Écoles-Médias chargé de la mise en œuvre de la politique du Département dans le domaine des Médias, de l’Image et des Technologies de l’Information et de la Communication, autrement dit les MITIC.

Mais l’acronyme le plus intéressant est sans conteste les SOLL puisqu’il s’agit rien moins que des Standards Ouverts et des Logiciels Libres.

En mars dernier en effet le SEM a élaboré un plan de déploiement 2009-2013 sur cinq ans des postes de travail pédagogiques (autrement dit les ordinateurs des élèves[1]) qui présente la particularité d’être peu ou prou… exactement ce qu’il nous faudrait à nous aussi en France ! Lecture chaudement recommandée.

L’objectif du présent plan de déploiement est de parvenir d’ici la rentrée 2013 à doter les écoles d’un poste de travail fonctionnant uniquement sous GNU/Linux, dans sa distribution Ubuntu.

Impressionnant non ! Proposez aujourd’hui la même chose de l’autres côté de la frontière et c’est le tremblement de terre (assorti d’une belle panique du côté des « enseignants innovants » de Projetice, du Café pédagogique et de Microsoft) !

Mais ainsi exposé, il y a un petit côté radical à nuancer :

Le solde constitue les exceptions pour lesquelles il n’aura pas été possible de trouver une solution ou pour lesquelles les systèmes propriétaires restent manifestement mieux adaptés au métier.

Et comment ne pas souscrire à ce qui suit (que je m’en vais de ce pas imprimer et encadrer dans ma chambre) :

Il s’agit en fait d’opérer un changement de paradigme : aujourd’hui, le standard est Windows, l’exception MacOS. Demain, le standard sera GNU/Linux, les exceptions MacOS et Windows.

Tout est dit ou presque. Ce n’est ni un désir, ni une prédiction, c’est à n’en pas douter le choix technologique d’avenir de nos écoles. Et plus tôt on prendra le train en marche, mieux ça vaudra.

Je n’ai pu résister à vous recopier intégralement la première page du plan tant elle est pertinente et pourrait se décliner partout où l’on analyse sérieusement la situation.

Depuis 2004, l’État de Genève a annoncé son intention d’orienter progressivement son informatique vers les standards ouverts et les logiciels libres (SOLL).

Cette décision est motivée par la prise de conscience que « l’information gérée par l’État est une ressource stratégique dont l’accessibilité par l’administration et les citoyens, la pérennité et la sécurité ne peuvent être garanties que par l’utilisation de standards ouverts et de logiciels dont le code source est public ».

Un intérêt économique est aussi présent : diminution des dépenses de licences bien sûr, mais également en favorisant les compétences et les services offerts par des sociétés locales plutôt que de financer de grands comptes internationaux.

Dans le domaine de l’informatique pédagogique, l’intérêt pour les SOLL est bien antérieur. En effet, les logiciels libres offrent pour l’éducation des avantages spécifiques, en plus des avantages communs à tous les secteurs de l’État. Ces logiciels permettent de donner gratuitement aux élèves les outils utilisés en classe et donc de favoriser le lien entre l’école et la maison ; ils offrent un apprentissage affranchi de la volonté des grands éditeurs de créer des utilisateurs captifs ; et la large communauté qui s’est développée autour des SOLL produit des solutions de qualité adaptées aux besoins de l’éducation.

La question des ressources pédagogiques est également au centre de cette problématique. S’appuyant sur le fonctionnement collaboratif propre au logiciel libre, il s’agit de mettre à disposition des enseignants et des élèves des environnements numériques technologiques performants à même de valoriser les contenus créés par les enseignants, de leur offrir la possibilité de les partager et de les échanger tout en protégeant les auteurs.

Conscient de ces enjeux, le DIP a validé en juin 2008 une directive formalisant sa décision « d’orienter résolument son informatique tant administrative que pédagogique vers des solutions libres et ouvertes ». La responsabilité de cette démarche a été confiée au SEM.

On peut toujours qualifier la Suisse de « neutre » et « conservatrice » mais certainement pas pour ce qui concerne les TICE du côté de Genève !

L’excellente directive dont il est question à la fin de l’extrait, nous en avions longuement parlé dans un billet dédié du Framablog. On notera qu’il est également questions des ressources pédagogiques, évoquées (malheureusement en creux) lors du billet L’académie en ligne ou la fausse modernité de l’Éducation nationale.

Vous me direz peut-être que cette belle intention ne se décrète pas. Et vous aurez raison ! Mais on en a pleinement conscience et c’est aussi pour cela qu’on se donne du temps, cinq ans, en commençant progressivement par quelques écoles pilotes.

Comme lors de tout changement, la transition vers un poste de travail logiciels libres va susciter des oppositions importantes, liées à des critères objectifs ou à des craintes non fondées. Pour assurer la réussite du projet, il conviendra donc d’identifier les risques et de mettre en œuvre les moyens de les réduire.

Les principaux risques identifiables dès maintenant sont les suivants :

– résistance au changement des utilisateurs parce que celui-ci demande un effort d’apprentissage et d’adaptation ;

– habitudes acquises lors de la formation (notamment universitaire) d’utiliser certains produits propriétaires, même si ceux-ci sont onéreux et parfois moins performants ou pratiques ;

– difficultés à récupérer les contenus déjà réalisés avec les nouveaux logiciels proposés ;

– difficultés à échanger les documents entre l’environnement mis à disposition par le DIP et les divers environnement acquis dans le domaine privé (même si les logiciels libres peuvent gratuitement être installés à domicile) ;

– ressources insuffisantes pour accompagner le changement et assurer une aide locale aux utilisateurs ;

– manque de clarté des objectifs de l’Etat dans le domaine des SOLL et impression que le DIP fait cavalier seul (ou, plus grave, renoncement de l’Etat à ses objectifs) ;

Et pour se donner le maximum de chances de franchir l’obstacle :

Dans la plupart des cas, la réponse aux préoccupations décrites passe par un effort d’information et de formation. Il faudra en particulier :

– rendre très clairement lisibles les objectifs de l’Etat et du DIP ;

– assurer lors de chaque migration une réelle plus-value pour les utilisateurs, soit pour la couverture des besoins, soit dans la mise à jour et la maintenance du poste, soit pour le support et la maintenance ou encore l’autoformation en ligne ;

– être en mesure d’apporter une aide spécifique, personnalisée, locale, efficace et rapide pour résoudre les problématiques soulevées.

Le plan décrit dans ce document est évolutif. Il pourra être adapté en fonction des opportunités ou difficultés rencontrées au sein du périmètre concerné, ou en fonction de l’évolution du contexte (politique des éditeurs de logiciels, modification des orientations globales de l’Etat, etc.).

Face à ce types d’initiatives, vous pouvez être certain que la politique de certains éditeurs, que l’on ne nommera pas, va évoluer, et évoluer dans le bon sens (ce n’est pas autrement que s’y prend le Becta en Angleterre).

Et pour conclure :

Le but visé par la transition vers les standards ouverts et les logiciels libres consiste en premier lieu à améliorer la qualité et la pérennité des outils informatiques mis à la disposition de l’enseignement.

Les avantages sont évidents dans une perspective globale. Vue du terrain, la réalité est nettement plus nuancée étant donné l’effort personnel que demande le changement d’habitudes et de moyens.

C’est la raison pour laquelle la compréhension par chacun des enjeux est essentielle, de même que la qualité de l’accompagnement qui devra soutenir la démarche.

Voilà une démarche que nous allons suivre de près.

Si vous voulez mon humble avis, on serait bien inspiré d’inviter nos amis du SEM au prochain Salon de l’Éducation à Paris, avec le secret espoir d’être remarqués par notre ministre et ses experts conseillers.

PS : La source de ce billet provient de l’article Écoles : l’informatique en logiciels libres du quotidien suisse indépendant Le Courrier, qui cite souvent le directeur du SEM Manuel Grandjean : « On ne va pas changer une Ferrari pour une 2CV juste parce qu’elle est open source » ou encore « Le travail d’enseignant intègre largement la collaboration et la mise en commun de ressources (…) On est véritablement dans une défense du bien commun ».

Notes

[1] Crédit photo : Broma (Creative Commons By)




Rencontre avec le Parti Pirate suédois

Ann Catrin Brockman - CC by-saDans notre imaginaire collectif la Suède est un pays où il fait bon vivre, auquel on accole souvent certains adjectifs comme « social », « mesuré », « organisé », « tranquille, voire même « conservateur ».

C’est pourquoi l’irruption soudaine dans le paysage politique local du Parti Pirate (ou Piratpartiet) a surpris bon nombre d’observateurs.

Surprise qui a dépassé les frontières lors du récent et tonitruant succès du parti aux dernières élections européennes (7% des voix, 1 et peut-être 2 sièges).

Nous avons eu envie d’en savoir plus en traduisant un entretien réalisé par Bruce Byfield avec le leader du parti, Rickard Falkvinge (cf photo[1] ci-dessus).

Ce succès est-il reproductible dans d’autres pays à commencer par l’Europe et par la France ? C’est une question que l’on peut se poser à l’heure où les différents (et groupusculaires) partis pirates français ont, semble-t-il, décidé d’unir (enfin) leurs forces. À moins d’estimer que l’action, l’information et la pression d’une structure comme La Quadrature du Net sont amplement suffisants pour le moment (j’en profite pour signaler qu’eux aussi ont besoin de sou(s)tien actuellement).

Remarque : C’est le troisième article que le Framablog consacre directement au Parti Pirate suédois après l’appel à voter pour eux (vidéo inside) et la toute récente mise au point de Richard Stallman sur les conséquences potentielles pour le logiciel libre de leur programme politique (question précise que le journaliste n’évoque pas dans son interview).

Interview avec le leader du Parti Pirate : « Des libertés cruciales »

Interview with Pirate Party Leader: "These are Crucial Freedoms"

Bruce Byfield – 16 juin 2009 – Datamation
(Traduction Framalang : Tyah, Olivier et Severino)

Le 7 Juin 2009, les électeurs suédois ont élu un membre du PiratPartiet (Parti Pirate) au Parlement Européen. Ils bénéficieront même d’un second siège si le Traité de Lisbonne est ratifié, celui-ci octroyant à la Suède deux sièges supplémentaires.

Bien que relativement faibles, ce sont de bons résultats pour un parti fondé il y a à peine trois ans, et qui fait campagne avec très peu de moyens, s’appuyant essentiellement sur ses militants. Que s’est-il passé et pourquoi cet événement est-il important bien au-delà de la Suède ?

Pour Richard Falkvinge, fondateur et leader du Parti Pirate, l’explication est simple : les pirates ont fait entrer pour la première fois dans le débat public les préoccupations de la communauté libre concernant la question du copyright et du brevet, et cela en utilisant les réseaux sociaux, un média complètement ignoré par leurs opposants.

Falkvinge nous en a dit un peu plus sur le sujet à l’occasion d’une présentation au cours du récent congrès Open Web Vancouver, ainsi que dans une brève interview qu’il nous a accordée le lendemain.

Falkvinge, entrepreneur depuis son adolescence, s’est intéressé à l’informatique toute sa vie d’adulte, et naturellement aux logiciels libres. « J’ai participé à différents projets open source » dit-il en ajoutant promptement : « Vous ne risquez pas d’avoir entendu parler des projets auxquels j’ai participé. Je fais partie des gens qui ont la malchance de toujours s’engager dans des projets qui ne vont nulle part – excepté celui-ci, évidemment. »

Comme pour de nombreuses autres personnes, le tournant fut pour Falkvinge la volonté de l’Europe d’imposer des droits d’auteurs plus strictes encore en 2005. Selon Falkvinge, le sujet fut largement couvert et débattu en Suède par tout le monde – sauf par les politiciens.

« Je me suis donc demandé : que faut-il faire pour obtenir l’attention des politiciens ? J’ai réalisé que l’on ne pouvait sûrement pas capter leur attention sans amener le débat sur leur terrain. Le seul recours était de contourner totalement les politiciens et de s’adresser directement aux citoyens lors des élections, de nous lancer sur leur terrain pour qu’ils ne puissent plus nous ignorer. »

Si pour les nord-américains, le nom peut sembler provocateur, Falkvinge explique que c’était un choix évident étant donné le contexte politique. En 2001 fut fondé un lobby défendant le copyright nommé le Bureau Anti-Pirate, donc quand un think-tank adverse s’est créé en 2003, il prit tout naturellement le nom de Bureau Pirate.

Selon Falkvinge, « la politique pirate devint connue et reconnue. Chacun savait ce qu’était la politique pirate, l’important n’était donc pas de réfléchir à un nom, mais bien de fonder le parti. », ce qu’il fit le 1er janvier 2006.

Dès le départ, Falkvinge rejetta l’idée de s’appuyer sur les vieux média : TV, radio, presse.

« Ils n’auraient jamais accordé le moindre crédit à ce qu’ils considéraient comme une mouvance marginale. Ils n’auraient jamais parlé suffisamment de nous pour que nos idées se répandent. Il faut dire aussi qu’elles ne rentrent pas vraiment dans leur moule, alors comment expliquer quelque chose que vous avez du mal à saisir ? »

« Nous n’avions d’autre choix que de construire un réseau d’activistes. Nous savions que nous devions faire de la politique d’une manière jamais vue auparavant, de proposer aux gens quelque chose de nouveau, de nous appuyer sur ce qui fait le succès de l’open source. Nous avons essentiellement contourné tous les vieux médias. Nous n’avons pas attendu qu’ils décident de s’intéresser à nous; nous nous sommes simplement exprimés partout où nous le pouvions. »

Leur succès prit tous les autres partis politiques par surprise. Seulement quelques jours après avoir mis en ligne le premier site du parti, le 1er janvier 2006, Falkvinge apprit que celui-ci comptabilisait déjà plusieurs millions de visiteurs. La descente dans les locaux de Pirate Bay et les élections nationales suédoises qui se sont tenues plus tard dans l’année ont contribué à faire connaître le parti, mais c’est bien sur Internet, grâce aux blogs et à d’autres médias sociaux, qu’il a gagné sa notoriété.

Aujourd’hui c’est le troisième parti le plus important de Suède, et il peut se vanter d’être le parti politique qui rassemble, et de loin, le plus de militants parmi les jeunes.

« Ce n’est pas seulement le plus grand parti en ligne », dit Falkvinge. « C’est le seul parti dont les idées sont débattues en ligne. »

Les analystes politiques traditionnels avaient du mal à croire que le Parti Pirate puisse être régulièrement crédité de 7 à 9% d’intentions de vote dans les sondages.

« J’ai lu une analyste politique qui se disait complètement surprise » rapporte Falkvinge. « Elle disait : « Comment peuvent-ils être si haut dans les sondages ? Ils sont complètement invisibles ». Son analyse était évidemment entièrement basée sur sa connaissance classique de la politique. La blogosphère de son côté se demandait si elle n’avait pas passé ces dernières années dans une caverne. »

La plateforme du Parti Pirate

Aux yeux de Falkvinge, la lutte pour l’extension des droits d’auteurs et des brevets, c’est l’Histoire qui bégaye. Il aborde le sujet des droits d’auteurs en rappelant que l’Église catholique réagit à l’invention de l’imprimerie, qui rendait possible la diffusion de points de vue alternatifs, en bannissant la technologie de France en 1535.

Un exemple plus marquant encore est celui de l’Angleterre, qui créa un monopole commercial sur l’imprimerie. Bien qu’elle connue une période sans droit d’auteur, après l’abdication de Jacques II en 1688, il fut restauré en 1709 par le Statute of Anne. Les monopolistes, qui affirmaient que les écrivains tireraient bénéfice du droit d’auteur, ont largement pesé sur cette décision.

Dans les faits, explique Falkvinge, « le droit d’auteur a toujours bénéficié aux éditeurs. Jamais, ô grand jamais, aux créateurs. Les créateurs ont été utilisés comme prétexte pour les lois sur les droits d’auteur, et c’est toujours le cas 300 ans plus tard. Les politiciens emploient toujours la même rhétorique que celle utilisée en 1709, il y a 300 foutues années ! »

Aujourd’hui, Falkvinge décrit le droit d’auteur comme « une limitation du droit de propriété » qui a de graves conséquences sur les libertés civiles. Pour Falkvinge, les efforts faits par des groupes comme les distributeurs de musique et de films pour renforcer et étendre les droits d’auteurs menacent ce qu’il appelle le « secret de correspondance », la possibilité de jouir de communications privées grâce à un service public ou privé.

Partout dans le monde les pressions montent pour rendre les fournisseurs d’accès responsables de ce qui circule sur leurs réseaux, ce qui remet en cause leur statut de simple intermédiaire. « C’est comme si l’on poursuivait les services postaux parce que l’on sait qu’ils sont les plus gros distributeurs de narcotiques en Suède », raisonne Falkvinge par analogie.

Une autre conséquence concerne la liberté de la presse, sujet cher aux journalistes et aux dénonciateurs. « Si vous ne pouvez confier un scandale à la presse sans que des groupes privés ou gouvernementaux y jettent un œil avant qu’il ne parvienne à la presse, quels sujets allez-vous traiter ? Et bien, rien ne sera révélé, car personne ne sera assez fou pour prendre ce risque. À quoi vous servira alors la liberté de la presse ? À écrire des communiqués de presse ? »

Falkvinge défend un droit d’auteur beaucoup plus souple, réservé uniquement à la distribution commerciale et sévèrement restreint ; cinq ans serait une durée raisonnable, suggère-t-il. « Il faut que les droits d’auteurs sortent de la vie privée des personnes honnêtes. Les droits d’auteurs ressemblent de plus en plus à des policiers en uniformes qui font des descentes avec des chiens chez les gens honnêtes. C’est inacceptable. »

Il croit aussi que la copie privée est un progrès social, en faisant valoir que « Nous savons que la société avance quand le culture et les connaissances se diffusent aux citoyens. Nous voulons donc encourager la copie non-commerciale. »

De même, le Parti Pirate s’oppose aux brevets, particulièrement aux brevets logiciels, mais aussi dans d’autres domaines.

« Chaque brevet, dans sa conception même, inhibe l’innovation », maintient-il. « Les brevets ont retardé la révolution industrielle de trente ans, ils ont retardé l’avènement de l’industrie aéronautique nord-américaine de trente autres années, jusqu’à ce que la Première Guerre mondiale éclate et que le gouvernement des États-Unis confisque les brevets. Ils ont retardé la radio de cinq ans. » Aujourd’hui, suggère t-il, les progrès technologiques en matière de voitures électriques et d’infrastructures écologiques sont bloqués par les brevets.

« Tout cela n’est en rien différent de la réaction de l’Église Catholique », explique Falkvinge. « Quand il y a une technologie dérangeante, vecteur d’égalisation, la classe dirigeante n’attaque pas les personnes qui essaient de devenir égales. Elle s’en prend à la technologie qui rend cela possible. On le voit dans le monde entier, la classe dirigeante attaque Internet. »

« Les excuses varient. En Chine, c’est le contrôle. En Asie du Sud, c’est la morale publique, dans d’autres endroits, c’est l’ordre et la loi. En Égypte, je pense, la raison est de respecter les préceptes de la religion, l’Islam dans leur cas. Aux États-Unis, il y a trois excuses majeures : le droit d’auteur, le terrorisme et la pédophilie. Ces excuses sont en train d’être utilisées pour briser le plus grand égalisateur de population jamais inventé. »

« Voilà le véritable enjeu. Les libertés fondamentales doivent être grignotées ou abolies pour sauvegarder un monopole chancelant d’industries obsolètes. Il est compréhensible qu’une industrie déliquescente se batte pour sa survie, mais il appartient aux politiciens de dire que, non, nous n’allons pas démanteler les libertés fondamentales juste pour que vous n’ayez pas à changer. Adaptez-vous ou bien mourrez. »

C’est dans cette situation, déclare Falkvinge, que les perspectives du Parti Pirate sont si importantes.

Le Parti Pirate « adopte une position sur les droits civiques que les politiciens ne comprennent pas. Ils écoutent les lobbys et s’attaquent de manière extrêmement dangereuse aux libertés fondamentales. »

Les efforts du lobby pro-copyright pourraient se révéler en fin de compte futiles, pour Falkvinge ils se battent pour une cause perdue. Mais il met aussi en garde contre les dommages considérables que pourrait causer le lobby avant d’être finalement emporté par l’inéluctable.

Courtiser les Pirates

Cybriks - CC byÀ la prochaine séance du Parlement Européen, Christian Engstrom siègera dans l’hémicycle, un entrepreneur devenu activiste qui milite contre les brevets depuis ces cinq dernières années. Si le Parti Pirate obtient un second siège, Engstrom sera rejoint par Amelia Andersdotter (cf photo ci-contre), que Falksvinge décrit comme « un des plus brillants esprits que nous ayons dans le Parti Pirate ». Elle serait alors la plus jeune membre jamais élue du Parlement Européen.

Le Parti Pirate aborde des problèmes dont personne, jusqu’à maintenant, n’a vraiment pris conscience. Est-ce là l’explication pour le soudain intérêt dont bénéficie le parti ? Peut-être. Mais leur popularité chez les électeurs de moins de trente ans, un groupe que les autres partis ont toujours eu du mal à séduire, compte au moins autant.

De plus, avec un électorat divisé entre une multitude de partie, les 7% recueillis par le Parti Pirate sont loin d’être négligeables.

« Ces sept coalitions se mettent en quatre pour s’approprier notre crédibilité », résume Falkvinge. « Nous jouissons d’un vrai soutien populaire que ces partis se battent pour nous avoir. »

S’exprimant quelques jours après les élections, Falkvinge ne cachait pas sa satisfaction. Malgré tout, il se prépare déjà pour les prochaines élections nationales en Suède, où il espère que le Parti Pirate jouera un rôle dans un gouvernement minoritaire. Le prix d’une alliance avec les Pirates sera, bien sûr, l’adoption de leurs idées.

« Aux élections européennes nous avons gagné notre légitimité », constate Falkvinge. « Les prochaines élections nationales nous permettront de réécrire les lois. »

Si tel est le cas, l’Union Européenne et le reste du monde pourront peut-être en sentir les effets. Déjà, des Partis Pirates se mettent en place à l’image du parti suédois, et, comme le montre leur faculté à attirer les jeunes, pour des milliers d’entre eux le Parti Pirate est le seul parti politique qui aborde les questions qui les intéressent.

« Il y a deux choses qu’il ne faut pas perdre de vue » remarque Falkvinge. « Premièrement, nous faisons partie de la nouvelle génération de défenseurs des libertés fondamentales. C’est un mouvement pour les libertés fondamentales. Des libertés fondamentales et des droits fondamentaux essentiels sont compromis par des personnes voulant contrôler le Net, et nous voulons sauvegarder ces droits. Au fond, nous voulons que les droits et devoirs fondamentaux s’appliquent aussi bien sur Internet que dans la vie courante. »

« Le deuxième point que je voudrais souligner c’est que nous nous faisons connaître uniquement par le bouche à oreille. Nous avons gagné à peu près un quart de million de voix, 50 000 membres, 17 000 activistes, par le bouche à oreille, conversation après conversation, collègue, parent, étudiant, un par un, en trois ans. »

« C’est, je crois, la meilleure preuve que c’est possible. Vous n’êtes plus dépendants des médias traditionnels. Si vous avez un message fort et que les gens s’y reconnaissent, vous pouvez y arriver. »

Notes

[1] Crédit photos : 1. Ann Catrin Brockman (Creative Commons By-Sa) 2. Cybriks (Creative Commons By)




Mésentente cordiale entre Stallman et le Parti Pirate suédois sur le logiciel libre

Mecredis - CC byPourquoi les propositions du Parti Pirate suédois sont paradoxalement susceptibles de se retourner contre le logiciel libre ?

C’est ce que nous relate Richard Stallman[1] dans un récent article traduit pas nos soins, où l’on s’apercevra que la réduction du copyright et la mise dans le domaine public ont peut-être plus d’inconvénients que d’avantages lorsqu’il s’agit du cas très particulier des logiciels libres.

Remarque : Cette traduction vous est proposée par Framalang dans le cadre d’une collaboration avec l’April (dont Cédric Corazza a assuré la relecture finale).

Pourquoi les propositions du Parti Pirate suédois se retournent contre le logiciel libre

How the Swedish Pirate Party Platform Backfires on Free Software
URL d’origine de la traduction

Richard Stallman – 24 juillet 2009 – GNU.org
(Traduction Framalang : Don Rico, Goofy et aKa)

La campagne de harcèlement à laquelle se livre l’industrie du copyright en Suède a conduit à la création du premier parti politique dont le programme vise à réduire les restrictions dues au copyright : le Parti Pirate. Parmi ses propositions, on trouve l’interdiction des DRM, la légalisation du partage à but non lucratif d’œuvres culturelles, et la réduction à une durée de cinq ans du copyright pour une utilisation commerciale. Cinq ans après sa publication, toute œuvre publiée passerait dans le domaine public.

Dans l’ensemble, je suis favorable à ces changements, mais l’ironie de la chose, c’est que ce choix particulier effectué par le Parti Pirate aurait un effet néfaste sur le logiciel libre. Je suis convaincu qu’ils n’avaient nulle intention de nuire au logiciel libre, mais c’est pourtant ce qui se produirait.

En effet, la GNU General Public License (NdT : ou licence GPL) et d’autres licences copyleft se servent du copyright pour défendre la liberté de tous les utilisateurs. La GPL permet à chacun de publier des programmes modifiés, mais à condition de garder la même licence. La redistribution d’un programme qui n’aurait pas été modifié doit elle aussi conserver la même licence. Et tous ceux qui redistribuent doivent donner aux utilisateurs l’accès au code source du logiciel.

Pourquoi les propositions du Parti Pirate suédois affecteraient-elles un logiciel libre placé sous copyleft ? Au bout de cinq ans, son code source passerait dans le domaine public, et les développeurs de logiciel privateur pourraient alors l’inclure dans leurs programmes. Mais qu’en est-il du cas inverse ?

Le logiciel privateur est soumis à des CLUF, pas seulement au copyright, et les utilisateurs n’en ont pas le code source. Même si le copyright permet le partage à but non commercial, il se peut que les CLUF, eux, l’interdisent. Qui plus est, les utilisateurs, n’ayant pas accès au code source, ne contrôlent pas les actions du programme lorsqu’ils l’exécutent. Exécuter un de ces programmes revient à abandonner votre liberté et à donner au développeur du pouvoir sur vous.

Que se passerait-il si le copyright de ce programme prenait fin au bout de cinq ans ? Cela n’obligerait en rien les développeurs à libérer le code source, et il y a fort à parier que la plupart ne le feront jamais. Les utilisateurs, que l’on privera toujours du code source, se verraient toujours dans l’impossibilité d’utiliser ce programme en toute liberté. Ce programme pourrait même contenir une « bombe à retardement » conçue pour empêcher son fonctionnement au bout de cinq ans, auquel cas les exemplaires passés dans le « domaine public » ne fonctionneraient tout simplement pas.

Ainsi, la proposition du Parti Pirate donnerait aux développeurs de logiciels privateurs la jouissance du code source protégé par la GPL, après cinq ans, mais elle ne permettrait pas aux développeurs de logiciel libre d’utiliser du code propriétaire, ni après cinq ans, ni même cinquante. Le monde du Libre ne récolterait donc que les inconvénients et aucun avantage. La différence entre code source et code objet, ainsi que la pratique des CLUF, permettraient bel et bien au logiciel privateur de déroger à la règle générale du copyright de cinq ans, ce dont ne pourrait profiter le logiciel libre.

Nous nous servons aussi du copyright pour atténuer en partie le danger que représentent les brevets logiciels. Nous ne pouvons en protéger complètement nos programmes, nul programme n’est à l’abri des brevets logiciels dans un pays où ils sont autorisés, mais au moins nous empêchons qu’on les utilise pour rendre le programme non-libre. Le Parti Pirate propose d’abolir les brevets logiciels, et si cela se produisait, ce problème ne se poserait plus. Mais en attendant, nous ne devons pas perdre notre seul moyen de protection contre les brevets.

Aussitôt après que le Parti Pirate a annoncé ses propositions, les développeurs de logiciel libre ont décelé cet effet secondaire et proposé qu’on établisse une règle à part pour le logiciel libre : on allongerait la durée du copyright pour le logiciel libre, de sorte que l’on puisse le garder sous licence copyleft. Cette exception explicite accordée au logiciel libre contrebalancerait l’exception de fait dont bénéficierait le logiciel privateur. Dix ans devraient suffire, à mon sens. Toutefois, cette proposition s’est heurtée à une forte résistance des dirigeants du Parti Pirate, qui refusent de faire un cas particulier en allongeant la durée du copyright.

Je pourrais approuver une loi par laquelle le code source d’un logiciel placé sous licence GPL passerait dans le domaine public au bout de cinq ans, à condition que cette loi ait le même effet sur le code source des logiciels privateurs. Car le copyleft n’est qu’un moyen pour atteindre une fin (la liberté de l’utilisateur), et pas une fin en soi. En outre, j’aimerais autant ne pas me faire le chantre d’un copyright plus fort.

J’ai donc proposé que le programme du Parti Pirate exige que le code source des logiciels privateurs soit déposé en main tierce dès la publication des binaires. Ce code source serait ensuite placé dans le domaine public au bout de cinq ans. Au lieu d’accorder au logiciel libre une exception officielle à la règle des cinq ans de copyright, ce système éliminerait l’exception officieuse dont bénéficierait le logiciel privateur. D’un côté comme de l’autre, le résultat est équitable.

Un partisan du Parti Pirate a proposé une variante plus large de ma première suggestion : une règle générale selon laquelle le copyright serait allongé à mesure que l’on accorde plus de liberté au public dans l’utilisation du programme. Cette solution présente l’avantage d’insérer le logiciel libre dans un mouvement collectif de copyright à durée variable au lieu de n’en faire qu’une exception isolée.

Je préfèrerais la solution de la main tierce, mais l’une ou l’autre de ces méthodes éviterait un retour de flamme, particulièrement nuisible au logiciel libre. Il existe sans doute d’autres solutions. Quoi qu’il en soit, le Parti Pirate suédois devrait éviter d’infliger un handicap à un mouvement spécifique lorsqu’il se propose de défendre la population contre les géants prédateurs.

Notes

[1] Crédit photo : Mecredis (Creative Commons By)