Devenir chasseur de primes pour la FSF (en débusquant du code non libre)

FSF - GNU BuckPeut-être ignoriez-vous que la Free Software Foundation (FSF) maintient une liste de ce qu’elle considère selon ses propres critères comme des distributions GNU/Linux libres.

Ses critères sont stricts, voire drastiques. Rares sont celles qui ont passé l’examen avec succès. Ubuntu, Fedora, Mandriva, openSUSE… les plus connus des distributions grand public n’en font pas partie ! Même Debian n’y est pas, c’est vous dire !

L’idée, me semble-t-il, n’est pas de désigner ces distributions comme le mal absolu, en nous invitant à nous en détourner, mais plutôt, en alertant ainsi publiquement l’opinion, d’inciter les développeurs à ne plus inclure du code non libre dans leurs distributions (que cette inclusion soit effective ou potentielle).

Et pour garantir que ces distributions soient bien libres et surtout le demeurent, la FSF vient d’annoncer une originale campagne visant à récompenser toute personne qui trouverait du code non libre accidentellement inclus dans les distributions de la fameuse liste.

Une campagne qui se veut pragmatique mais non dénuée d’un certain humour hacker.

FSF Gnu Bucks

FSF announces new bounty program, offering "GNU Bucks" for finding nonfree works in free distributions

Communiqué de presse – 1 octobre – FSF.org
(Traduction Framalang : Quentin et Claude)

La Free Software Foundation annonce un nouveau programme de récompenses, en offrant des « GNU Bucks » à toute personne qui découvrirait des travaux non libres dans les distributions libres.

BOSTON, Massachussets, USA, Jeudi 1er Octobre 2009. La Free Software Foundation (FSF) a annoncé aujourd’hui qu’elle allait récompenser, d’une reconnaissance publique accompagnée d’une rémunération honorifique en « GNU Buck », ceux qui débusqueraient des composants non-libres contenus dans les distributions de systèmes d’exploitation libres. La FSF tient une liste de directives définissant ce qui, selon elle, est une distribution libre, et approuve les distributions qui s’engagent à suivre ces directives.

« En incitant les utilisateurs à trouver et à rapporter les problèmes, ce nouveau programme de récompenses aidera à s’assurer que les distributions GNU/Linux approuvées par la FSF demeurent réellement libres », dit Peter Brown le directeur exécutif de la FSF.

« Depuis que nous avons publié les directives nécessaires pour être une distribution libre, nous avons cherché des solutions pratiques pour nous assurer que des composants non libres n’étaient pas inclus accidentellement dans ces distributions (dans la mesure de nos moyens et de ceux des responsables de distribution). Cette nouvelle initiative est un bon moyen de participer à la recherche de ces composants. » dit Brett Smith, l’ingénieur en charge de la conformité des licences pour la FSF.

Les personnes retenues pour les récompenses recevront des billets « GNU Buck », d’un montant égal au nombre Pi et signé par Richard Stallman, le président de la Free Software Foundation et « Chef de la GNUisance ».

Pour avoir droit à une récompense GNU Buck, la personne doit initialement envoyer à la FSF et aux responsables de la distribution, un rapport détaillé concernant l’élément non libre trouvé. Si ce rapport est confirmé, la personne recevra sa récompense et l’option d’une reconnaissance publique. La FSF avertira alors les autres distributions libres impactées pour s’assurer qu’elles traitent également du problème.

Ces récompenses s’inscrivent dans la tradition des chèques que le légendaire ingénieur informatique Donald Knuth envoyait à ceux qui trouvaient des erreurs dans son livre phare The Art of Computer Programming. Recevoir un chèque de Donald Knuth était un tel honneur qu’il était la plupart du temps affiché sur les murs du bureau et non encaissé. (Knuth a arrêté d’envoyer des chèques en 2008 pour cause de fraude.)

À propos de la Free Software Foundation

La Fondation pour le Logiciel Libre, fondée en 1985, est dédiée à la promotion des droits des utilisateurs d’ordinateurs à utiliser, copier, modifier et redistribuer les programmes informatiques. La FSF encourage le développement et l’emploi de logiciels libres, particulièrement du système d’exploitation GNU et de ses variantes et de la documentation libre pour le logiciel libre. La FSF renforce également la sensibilisation autour des problèmes éthiques et politiques de la liberté dans l’usage des logiciels.

Son site Internet, http://www.fsf.org/, est une importante source d’information sur GNU/Linux. Des contributions pour soutenir son travail peuvent être faites à http://donate.fsf.org/. Son siège est à Boston, MA, USA.

À propos du Logiciel Libre et de l’Open Source

Le mouvement du logiciel libre a pour but la liberté des utilisateurs. Certains, plus spécialement des sociétés, soutiennent un point de vue différent, connu sous le nom d‘open source, qui évoquent seulement les buts pratiques comme construire un logiciel solide et sûr, se concentrant sur les modèles de développement, et évitant les discussions d’éthiques et de liberté. Ces deux points de vue sont profondément différents.

Pour en savoir plus : http://www.gnu.org/philosophy/open-source-misses-the-point.html.

À propos du système d’exploitation GNU et de Linux

Richard Stallman annonça en Septembre 1983 le projet de développer un logiciel libre semblable au système d’exploitation Unix qui s’appelerait GNU. GNU est le seul système d’exploitation développé spécifiquement pour la liberté des utilisateurs.

Pour en savoir plus : http://www.gnu.org/gnu/the-gnu-project.html.

En 1992, les composants de GNU étaient complets, à une expression près : le noyau. Quand en 1992, le noyau Linux a été re-publié sous GNU GPL, faisant de lui un logiciel libre, la combinaison de GNU et de Linux a formé un système d’exploitation complètement libre, qui donnait la possibilité pour la première fois de faire tourner un PC sans logiciel non-libre. Leur combinaison est le système d’exploitation GNU/Linux.

Pour en savoir plus : http://www.gnu.org/gnu/gnu-linux-faq.html.




Le logiciel libre est mort, longue vie à l’open source ?

Squacco - CC by-saVous n’êtes pas un familier du Framablog et de ses thèmes de prédilection ? Alors ce billet risque de vous sembler destiné à une chapelle de spécialistes, susceptibles et pointilleux, toujours prompts à s’enflammer pour d’obscures querelles de clochers[1] (autrement appelés trolls dans le milieu).

Or, c’est peut-être plus significatif que cela.

En effet, ceux qui découvrent « le logiciel libre », en ayant déjà eu du mal à saisir toute la finesse du concept, sont parfois étonnés de constater la présence d’une autre expression, qu’ils jugent de prime abord synonyme : « l’open source ».

Par exemple, l’Open World Forum 2009, qui se déroule en ce moment même à Paris, est ainsi présenté en accueil du site : « Au coeur de la révolution de l‘Open Source, l’Open World Forum 2009 permettra de cross-fertiliser les initiatives pour favoriser la croissance économique : Les logiciels libres au coeur de la relance économique ». Quant à son président, il évoque, rien que ça, un « Davos des logiciels libres et de l’innovation ouverte »[2].

Les deux expressions semblent ici interchangeables. Et pourtant, pour paraphraser Wikipédia : « La principale critique issue du Mouvement du Logiciel Libre (de Richard Stallman) est le fait que l’open source ne communique presque exclusivement que sur les caractéristiques techniques des logiciels (la liberté d’accès au fonctionnement du logiciel) en occultant les motivations premières dont elles sont issues, au risque de les perdre. Ils accusent l’open source d’être mû par une dynamique économique et commerciale, l’opposant au logiciel libre mû par des idéaux d’ordre philosophique et politique. »

Critique renforcée par cet article de Richard Stallman : Pourquoi l’« open source » passe à coté du problème que soulève le logiciel libre.

Avec cette grille de lecture, on pourrait reprendre l’exemple de l’Open World Forum et en conclure qu’il aurait été peut-être plus pertinent et cohérent de permuter les associations : « révolution du logiciel libre », « Davos de l’open source ».

Or le titre de mon billet laisse à penser que la donne a changé puisque l’un l’emporterait désormais clairement sur l’autre, jusqu’à prendre acte de sa disparition. C’est en tout cas la thèse de Matt Asay qui a réveillé les antagonismes dans un récent article intitulé justement : Free software is dead. Long live open source.

Réponse immédiate de Glyn Moody dans un autre article, qui est celui que nous avons choisi de traduire ci-dessous.

Parce que si le pragmatisme et le compromis ont leurs vertus, il serait dommage que le souci de « suivre le courant dominant » en vienne à sacrifier la liberté sur l’autel de l’open source.

Sans le logiciel libre, l’open source perdrait tout son sens

Without Free Software, Open Source Would Lose its Meaning

Glyn Moody – 28 septembre 2009 – LinuxJournal.com
(Traduction Framalang : Claude)

Je suis un grand fan des écrits de Matt Asay sur le logiciel libre. Il associe une fine intelligence analytique avec cette chose rare : une longue expérience de terrain dans le monde du business open source. Mais alors que j’attendais généralement avec intérêt la lecture de ses billets, je redoutais particulièrement l’apparition de celui qu’il, je le savais, écrirait un jour… car il aurait tort. Voilà, ce billet est maintenant écrit, et avec un titre pour le moins explicite : « Le logiciel libre est mort, longue vie à l’open source ».

Matt précise dans son premier paragraphe quel est le problème principal :

L’une des choses les plus exaltantes, à laquelle j’ai assisté pendant plus de dix années dans l’open source, est son adhésion progressive au pragmatisme. Par « pragmatisme », je ne veux pas dire « capitulation » au sens où l’open source en vienne à ressembler au monde propriétaire qu’il chercherait à remplacer. Plus précisément, je sous-entends que, plus l’open source suit le courant dominant (NdT : going mainstream), plus il apprend à faire des compromis : compromis qui le rendent plus fort, pas plus faible.

Quand j’ai interviewé Richard Stallman en 1999, voici ce qu’il avait à dire à ce sujet :

Si nous avons aujourd’hui un système d’exploitation entièrement libre, c’est grâce au Mouvent du Logiciel Libre qui affirmait que nous voulions un système d’exploitation entièrement libre, et non libre à 90%.

L’open source existe parce que des créateurs de programmes libres ont refusé tout compromis. Le « pragmatisme » exalté par Matt est une option pour l’open source uniquement parce que ceux qui firent tout le travail difficile de création du logiciel libre, ont refusé initialement toute compromission.

Il y a dix ans, Stallman stigmatisait les dangers de la compromission :

Si vous n’avez pas la liberté pour principe, vous trouverez toujours une bonne raison de faire une exception. Il y aura toujours des moments où, pour une raison ou pour une autre, vous trouverez un avantage pratique à faire une exception.

La compromission est une pente glissante : une fois que vous commencez à la descendre, il n’existe pas d’endroit précis où s’arrêter. C’est alors un bel instrument entre les mains d’un Microsoft : sa stratégie actuelle est de diluer le sens « d’open source », la classique stratégie « adopte, étend et étouffe » (NdT : « embrace, extend and extinguish »), jusqu’à ce qu’il devienne une nouvelle expression marketing à la mode, systématiquement employée , ayant perdu toute sa substance et au bout du compte sans réelle valeur.

Et alors ? pourriez-vous demander. Si, comme l’écrit Matt, toute la question est de « suivre le courant dominant », alors un telle dilution de la ligne séparant logiciel libre et non-libre n’est sûrement qu’un faible prix à payer pour parvenir à un usage plus large de l’open source. Ceci pourrait être vrai à court terme, mais je ne pense pas que ce soit une stratégie judicieuse à long terme, même d’un point de vue purement pragmatique.

Par exemple les compromissions actuelles, incluant le travail sur des technologies développées par Microsoft (dont elle pourrait détenir les brevets sous certaines conditions juridiques), signifient qu’en fin de compte les développeurs open source prennent des risques et fragilisent leur autonomie et pouvoir d’autodétermination futur.

Qui plus est, si le terme « open source » perd de sa valeur, de nombreux codeurs et utilisateurs deviendront désabusés et commenceront à l’abandonner. Ceux-ci trouveront le partage de plus en plus asymétrique, leurs contributions n’ayant que peu de retour en échange (ce qui pourrait très bien arriver aux sociétés Open Source utilisant la licence GNU/GPL si elles demandent, comme cela arrive de plus en plus souvent, aux contributeurs de céder leurs droits d’auteurs). De la même manière, les utilisateurs découvriront que certaines de ces nouvelles et « troubles » applications open source ne fournissent plus les bénéfices promis de contrôle, personnalisation et réduction du coût.

Or la question n’est pas de « suivre le courant dominant » mais, comme le rappelle Stallman, d’avoir la « liberté comme principe ». Diffuser du logiciel libre concerne la diffusion de logiciel libre pas la libération du logiciel : le programme n’est que le moyen, pas la fin. C’est ce que disait déjà Stallman, il y a dix ans :

Il y a des problèmes de liberté plus importants. Des problèmes de liberté dont tout le monde a entendu parlé et qui sont bien plus importants que cela : la liberté de parole, la liberté de la presse, la liberté de se réunir.

Mais pourquoi donc Stallman se préoccupe-t-il autant du logiciel libre ?

Je ne vois pas comment je pourrais faire quelque chose de plus important dans un autre domaine.

Stallman continue farouchement sa croisade pour la liberté par le biais du logiciel libre car, comme il le reconnaît humblement, c’est là qu’il peut apporter sa plus grande contribution.

Puique c’est cette absence de compromission qui caractérise sa manière de lutter pour la liberté, il est prêt à faire et dire des choses (NdT : comme d’accuser récemment Miguel de Icaza de traîtrise) que les gens du monde pragmatique de l’open source trouvent regrettables voire choquantes. Et comme Stallman contrarie ainsi leur souhait de « suivre le courant dominant », ils en éprouvent souvent un grand ressentiment à son égard. Mais ils oublient que les combattants de la liberté (puisque c’est ainsi que se définit Stallman lui-même ) ont toujours été si concentrés sur leurs objectifs essentiels, que les affaires triviales comme le confort ou les bonnes manières ont tendance à être mises de côté.

En fin de compte, la raison pour laquelle le logiciel libre ne peut se compromettre, est que toute compromission liée à la liberté se fait à nos dépends : il n’y a rien de libre à 50%. Comme nous l’apprend l’histoire, la liberté n’est pas obtenue en « suivant le courant dominant », mais par une infime minorité de monomaniaques têtus, souvent agaçants qui refusent toute compromission tant qu’ils n’ont pas eu ce qu’ils souhaitent. Chose merveilleuse, nous pouvons tous partager les libertés qu’ils ont gagnées, que nous les ayons ou pas aidé, que nous soyons ou pas à la hauteur de leurs exigences de rigueur.

De la même manière, sans leur obstination, leurs efforts constants et leurs éventuelles victoires, nous perdrions toutes ces libertés, car elles sont toutes temporaires et doivent être en permanence reconquises. En particulier, sans la question précise de l’intégrité du logiciel libre , l’open source se diluerait vite d’elle-même dans un courant inconsistant qui ne trouverait plus de sens.

Notes

[1] Crédit photo : Squacco (Creative Commons By-Sa)

[2] Davos de l’open source et/ou Porto Alegre du logiciel libre ? Telle pourrait d’ailleurs être l’ironique question ! Ou encore : Les RMLL sont au logiciel libre ce que l’Open World Forum est à l’open source !




Appel de soutien de la FSF à l’occasion des 25 ans du projet GNU

Appenz - CC byDans un récent entretien que nous avions traduit, Richard Stallman évoquait le fait d’être parfois marginalisé au sein d’une communauté qu’il a lui même contribué à construire.

Son regret ne concerne bien entendu pas l’efficience, la qualité et les succès toujours plus nombreux que remportent le logiciel libre. Mais celui de constater que certains en chemin minimisent voire écartent le mouvement social et éthique qui sous-tend à ses yeux le logiciel libre.

C’est l’historique et classique opposition entre « open source » et « free software ». Et il serait dommage que le premier phagocyte le second sous prétexte qu’il est bien plus politiquement correct.

Voici très grossièrement synthétisé pourquoi nous soutenons la Free Software Foundation, et ne manquons pas de traduire et relayer bon nombre de ses appels et communiqués[1].

25 ans de GNU – Soutenons la liberté du logiciel

25 years of GNU – support software freedom!

Peter Brown – 29 septembre 2009 – FSF.org
(Traduction Framalang : Quentin et Goofy)

Chers supporters du logiciel libre,

Demain s’achèvera une année de célébrations du 25ème anniversaire du projet GNU. Une célébration démarrée en trombe en septembre 2008 avec l’excellente vidéo de l’auteur et comédien Stephen Fry.

Aujourd’hui, nous célébrons le fait que nous avons passé le cap des 25 000 personnes inscrites à notre newsletter mensuelle, la Free Software Supporter, et nous remercions les 3 200 personnes qui ont rejoint la Free Software Foundation comme membres associés pour financer notre travail. Vous pouvez rejoindre leur rang tout de suite et arborer fièrement votre carte de membre en :

Je suis fier que la FSF ait autant d’activistes et de membres dévoués, qui chaque jour proclament leur soutien à notre cause et plaident pour une société libre.

Le mouvement du logiciel libre a passé une excellente année, et son importance sur le plan éthique est de plus en plus reconnue. Ensemble, nous combattons le fléau du logiciel propriétaire, des brevets logiciels, des DRM, et de l’informatique pleine de chausse-trappes, dans un effort pour construire un monde de logiciels libres où nous, les utilisateurs, nous serons libres.

« J’aurais pu gagner de l’argent (en rejoignant le monde des logiciels propriétaires), et peut-être pris du bon temps à écrire du code. Mais je savais qu’à la fin de ma carrière, j’aurais fait le bilan de ces années passées à ériger des murs entre les individus, et j’aurais eu le sentiment d’avoir gâché ma vie en rendant le monde pire qu’il n’aurait pu l’être. »

Richard Stallman, projet GNU.

Aidez-nous à finir en beauté cette année faste pour le GNU en devenant membre ou en effectuant un don, et merci pour votre soutien sans faille !

Notes

[1] Crédit photo : Appenz (Creative Commons By)




La liberté ambigüe du paramétrage par défaut

Manuel Cernuda - CC byMon lycée a, depuis un certain temps déjà, opté pour un déploiement massif de la suite bureautique libre OpenOffice.org. Sauf que notre informaticien l’installe sur les postes en modifiant systématiquement l’option du format d’enregistrement « par défaut », substituant au format natif et ouvert ODF la famille de formats fermés bien connus de la suite Microsoft Office (le .DOC pour Word, le .XLS pour Excel et le .PPT pour Powerpoint).

Et lorsque je lui signifie, outré, mon mécontentement, il me répond qu’il convient de ne surtout pas perturber les enseignants, qui ont tous MS Office chez eux, et qui sont habitués à travailler dessus depuis des années (« Tu comprends, sinon ils vont rentrer à la maison avec leurs fichiers ODF dans leur clé, cliquer dessus pour ouvrir le document et… ça va être le bordel parce qu’aucune application ne sera trouvée par le système. Ils vont râler, m’assaillir de questions et c’est bibi qui assurera la hotline ! »).

Et c’est ainsi que l’on passe à côté de toute la problématique des formats (excellente porte d’entrée pour engager une discussion plus générale sur « le libre »). En tirant un peu le trait, on pourrait presque dire que l’on ne réalise finalement ici qu’une « fausse » migration, ou tout du moins que l’on s’est arrêté au milieu du chemin.

Fin de l’anecdote qui n’avait pour but que d’introduire le sujet (et la traduction) du jour : le paramétrage par défaut.

Lorsqu’on découvre un logiciel (ou carrément un système d’exploitation) pour la première fois, un certain nombre de choix ont été réalisés pour nous, afin, en théorie, de nous faciliter la tâche pour que nous soyons de suite opérationnels. Mais ces choix ne sont pas forcément neutres. D’abord parce que nous sommes tous différents (« l’utilisateur lambda » n’existe pas). Mais aussi, voire surtout, parce que nous savons fort bien qu’une forte majorité d’utilisateurs, pour de multiples raisons (inertie, crainte…) ne modifieront jamais ces options de démarrage.

Vous êtes un utilisateur désormais aguerri de GNU/Linux. Vous avez choisi votre distribution (Ubuntu, Mandriva, Fedora…), vous avez choisi votre environnement graphique (GNOME, KDE…), vous avez configuré le tout aux petits oignons en rivalisant d’esthétisme et d’ergonomie pour vous offrir un magnifique bureau personnalisé (illustration[1]). Vous naviguez sur un Firefox bourré d’extensions toutes plus utiles les unes que les autres eu égard à vos propres besoins et intérêts… Alors, félicitations, vous baignez dans l’univers culturel numérique de la richesse, de la diversité et de l’autonomie. Vous y êtes même tellement habitué que vous avez certainement oublié le nombre de paramétrages par défaut qu’il vous aura fallu lever pour arriver à cette situation qui est la vôtre aujourd’hui.

Parce que votre univers est malheureusement passablement éloigné de celui de Madame Michu (qui, je suis d’accord, n’existe pas non plus). Elle a acheté un ordinateur avec « par défaut » Windows à l’intérieur, dans lequel se trouvait « par défaut » Internet Explorer (page d’accueil Microsoft, Google ou FAI, inchangée), Outlook Express, Windows Media Player etc. et elle s’y tient. Elle s’y cramponne même, en résistant dur comme fer si jamais on s’en vient lui montrer, avec pourtant moultes précautions, qu’un « autre monde informatique est possible » (dans ce contexte là j’en arrive même parfois à me demander, un brin provocateur, si ce n’est pas « l’utilisateur par défaut » qu’il convient de paramétrer plutôt que ses logiciels !). C’est frustrant et dommage, parce que si il y a paramétrage par défaut, cela signifie également qu’il y a liberté de changer ces paramètres. Comme dirait l’autre, la liberté ne s’use que si l’on ne s’en sert pas…

Mais je m’égare, puisqu’il s’agissait juste de présenter l’article ci-dessous qui, bien que ne se souciant nullement des conséquences du paramétrage par défaut sur le logiciel libre, nous offre ici un exposé original et intéressant.

Remarque (à la lisière du troll) : C’est peut-être aussi là que réside le succès d’Ubuntu, dont la relative absence de choix à l’installation (un seul bureau, un seul logiciel par application, etc.) a grandement rassuré les nouveaux venus issus de Windows. De là à affirmer qu’Ubuntu est devenue « la distribution par défaut de l’OS GNU/Linux », il n’y a qu’un pas que je me garderais bien de franchir 😉

Le triomphe du « par défaut »

Triumph of the Default

Kevin Kelly – 22 juin 2009 – The Technium
(Traduction Framalang : Olivier et Julien R.)

Peu reconnu, le « par défaut » est l’une des plus grandes inventions de l’ère moderne. « Par défaut » est un concept technique introduit par l’informatique dans les années 1960 pour désigner les réglages pré-sélectionnés (comme par exemple dans « Ce programme accepte par défaut les dates au format jj/mm/aa, et non jj/mm/aaaa »). De nos jours, la notion de réglage par défaut dépasse le simple cadre de l’informatique et s’est répandue dans la vie de tous les jours. Aussi insignifiant que cela puisse paraître, l’idée de réglage par défaut est fondamentale pour « The Technium » (NdT : le livre qu’est en train de rédiger l’auteur dont cet article fait partie).

Difficile de concevoir aujourd’hui une époque où le « par défaut » n’existait pas. Mais le « par défaut » n’a gagné en popularité qu’à mesure que l’informatique s’est démocratisée ; c’est l’héritage de systèmes technologiques complexes. Le « par défaut » n’existait pas sous l’ère industrielle. À l’aube de l’ère moderne, quand les ordinateurs plantaient souvent et qu’entrer les variables était un vrai calvaire, une valeur par défaut était la valeur que le système s’assignait automatiquement si le programme échouait ou s’il était démarré pour la première fois. C’était une idée brillante. Sauf si l’utilisateur ou un programmeur prenait la peine de le modifier, le réglage par défaut régnait, assurant ainsi que le système hôte fonctionne. Chaque produit électronique et chaque logiciel était livré dans sa configuration par défaut. Les réglages par défaut répondent aux normes attendues par les acheteurs (par exemple la tension des appareils électriques aux États-Unis), ou à ce qu’ils attendent d’un produit (les sous-titres désactivés pour les films), ou encore aux questions de bon sens (anti-virus activé). La plupart du temps les réglages par défaut satisfont les clients, et ils ont maintenant envahi tout ce qui est personnalisable : automobiles, assurances, réseaux, téléphones, assurance maladie, cartes de crédit, etc.

En effet, chaque objet contenant un tant soit peu d’intelligence informatique (c’est à dire tout équipement moderne) est paramétré par défaut. Ces présélections sont autant de partis pris implantés dans le gadget, le système ou l’institution. Mais les réglages par défaut ne sont pas que des hypothèses silencieuses matérialisées dans tout objet manufacturé. Par exemple, tous les outils manuels sont faits, par défaut, pour les droitiers. Faire l’hypothèse que l’utilisateur sera droitier étant simplement normal, pas besoin d’en faire étalage. De même, la forme des outils est généralement faite pour des mains d’hommes. Mais ça ne se limite pas qu’aux outils : les premières automobiles étaient construites sur l’hypothèse que le conducteur serait un homme. Pour toute chose manufacturée, le constructeur doit faire des hypothèses sur ses clients potentiels et leurs motivations ; ces hypothèses trouvent naturellement leur place aussi dans tout ce qui est technologique. Plus le système est vaste, plus le constructeur doit faire des hypothèses. En examinant attentivement une infrastructure technologique particulière vous pouvez deviner les hypothèses cachées dans sa conception. Ainsi, on retrouve dans des domaines aussi variés que le réseau électrique, le système ferroviaire, les autoroutes ou l’enseignement certaines caractéristiques du citoyen américain : optimisme, importance de l’individu et penchant pour le changement.

Mais, alors que ces choix arbitraires, communs à toutes les technologies, sont à bien des égards semblables au concept de « défaut », ce n’est plus vrai aujourd’hui et ce pour une raison essentielle : les réglages par défaut sont des hypothèses qui peuvent être modifiées. Vous ne pouvez pas adapter des outils faits pour les droitiers à l’usage des gauchers. À l’époque, l’hypothèse que le conducteur était un homme se retrouvait dans la position du siège dans les automobiles. En changer n’était pas simple. Mais ce que l’on ne pouvait faire hier est désormais permis par la technologie actuelle. En effet presque tous les systèmes technologiques d’aujourd’hui ont en commun la facilité à être rebranchés, modifiés, reprogrammés, adaptés et changés pour convenir à de nouveaux usages ou à de nouveaux utilisateurs. Beaucoup (pas toutes) des hypothèses faites ne sont pas immuables et définitives. La multiplication des paramètres par défauts et leur modularité offre aux utilisateurs un vrai choix, s’ils le désirent. Les technologies peuvent être adaptées à vos préférences et optimisées pour mieux vous correspondre.

L’inconvénient de toutes cette personnalisation, cependant, est qu’on se retrouve un peu noyé sous le choix. Trop d’alternatives et pas assez de temps (sans parler de l’envie) de toutes les tester. Ne vous-êtes vous pas déjà retrouvé paralysé par l’indécision devant les 99 variétés de moutardes sur les étalages du supermarché, ou devant les 2 536 options de votre assurance santé, ou encore devant les 36 000 coupes de cheveux différentes pour votre avatar dans un monde virtuel ? Il existe une solution toute simple à cette sur-abondance délirante de choix : les paramètres par défaut. Les « défauts » vous permettent de choisir quand choisir. Votre avatar par défaut pourrait pas exemple être un avatar quelconque, un gamin en jean par exemple. Vous pouvez vous soucier de la personnalisation plus tard. C’est un peu un choix guidé. Ces milliers de variables, de vrais choix, peuvent être guidés en optant pour un choix par défaut intelligent, un choix fait à notre place, mais qui ne nous prive pas de notre liberté de le changer dans le futur, à notre convenance. Mes libertés ne sont pas restreintes, mais sont étalées dans le temps. Quand je me sens plus à l’aise, je peux revenir sur mes préférences pour mieux les adapter, en ajouter ou en retirer, en changer ou les personnaliser. Dans les systèmes par défaut bien pensés, je conserve toujours mon entière liberté, mais les choses me sont présentées de telle sorte que je peux prendre mon temps pour faire mes choix, au fur et à mesure et quand je me sens mieux à même de les faire.

Comparez maintenant cette sur-abondance de choix à ce que vous propose un marteau, une automobile ou le réseau téléphonique des années 1950. L’utilisation de ces outils vous était imposée. Les meilleurs ingénieurs ont planché des années pour proposer une conception qui s’adapte le mieux à la majorité, de nos jours encore, certains sont des chef-d’œuvre d’ingéniosité. Si ces objets et infrastructures étaient peu modulables, ils étaient remarquablement conçus pour être utilisés par la majorité des personnes. Peut-être qu’aujourd’hui vous ne personnalisez pas plus votre téléphone qu’il y a cinquante ans, mais la possibilité existe. Et les options disponibles sont toujours plus nombreuses. Cette myriade de choix possibles reflète la nature adaptative des téléphones portables et des réseaux. Les choix s’offrent à vous quand vous faites appel à eux, ce qui n’était pas possible quand toutes les décisions étaient prises pour vous.

Les paramètres par défaut ont fait leur apparition dans le monde complexe de l’informatique et des réseaux de communication, mais il n’est pas ridicule pour autant d’envisager leur utilisation pour les marteaux, les voitures, les chaussures, les poignées de portes, etc. En rendant ces objets personnalisables, en y injectant une pincée de puces informatiques et de matériaux intelligents, nous leur ouvrons le monde des paramètres par défaut. Imaginez le manche d’un marteau qui se moulerait automatiquement pour s’adapter à votre prise en main de gaucher, ou à la main d’une femme. On peut très bien envisager d’entrer son genre, son âge, son expertise ou son environnement de travail directement dans les petits neurones du marteau. Si un tel marteau existait, il serait livré avec des paramètres par défauts pré-programmés.

Mais les paramètres par défauts sont tenaces. De nombreuses études psychologiques ont montré que le petit effort supplémentaire demandé pour modifier les paramètres par défaut est souvent de trop et les utilisateurs s’en tiennent aux pré-réglages, malgré la liberté qui leur est offerte. Ils ne prennent pas la peine de régler l’heure sur leur appareil photo, le « 12:00 » entré par défaut continue de clignoter, ou encore ils ne s’embettent pas à changer le mot de passe temporaire qui leur est attribué. La dure vérité, n’importe quel ingénieur vous le confirmera, est que souvent les paramètres par défaut restent inchangés. Prenez n’importe quel objet, 98 options sur 100 seront celles préconfigurées en usine. Je reconnais que, moi-même, j’ai très rarement touché aux options qui m’étaient offertes, je m’en suis tenu aux paramètres par défaut. J’utilise un Macintosh depuis le début, voilà plus de 25 ans, et je découvre encore des paramètres par défaut et des préférences dont je n’avais jamais entendu parler. Du point de vue de l’ingénieur, cette inertie est un signe de réussite, cela signifie que les paramètres par défaut sont bien choisis. Leurs produits sont utilisés sans beaucoup de personnalisation et leurs systèmes ronronnent doucement.

Décider d’une valeur par défaut est synonyme de puissance et d’influence. Les paramètres par défaut ne sont pas qu’un outil pour aider les utilisateurs à apprivoiser leurs options, c’est aussi un levier puissant dont disposent les fabricants, ceux qui décident de ces valeurs, pour diriger le système. Les orientations profondes que traduisent ces valeurs par défaut façonnent l’usage que l’on fait du système. Même le degré de liberté qui vous est accordé, avec les choix occasionnels que l’on vous demande de faire, est primordial. Tout bon vendeur sait ça. Ils agencent magasins et sites Web pour canaliser vos décisions et ainsi augmenter leurs ventes. Disons que vous laissez des étudiants affamés choisir leur dessert en premier plutôt qu’en dernier, cet ordre par défaut a une influence énorme sur leur nutrition.

Chaque rouage d’une technologie complexe, du langage de programmation, à l’aspect de l’interface utilisateur, en passant par la sélection de périphériques, renferme d’innombrables paramètres par défaut. L’accès est-il anonyme ? Les intentions des utilisateurs sont-elles bonnes ou mauvaises ? Les paramètres par défaut encouragent-ils l’échange ou le secret ? Les règles devraient-elles expirer à une période donnée ou le renouvellement est-il tacite ? Avec quelle facilité peut-on revenir sur une décision ? Telle décision devrait-elle être activée par défaut ou l’utilisateur doit-il la valider lui-même ? Rien que la combinaison de quatre ou cinq choix par défaut engendre des centaines de possibilités.

Prenez deux infrastructures technologiques, disons deux réseaux d’ordinateurs basés sur le même matériel et sur les mêmes logiciels. L’expérience sur les deux réseaux peut être complètement différente selon les options par défaut imposées. Leur influence est telle qu’on peut presque parler d’effet papillon. En modifiant légèrement un paramètre par défaut, on peut transformer des réseaux gigantesques. Par exemple, la plupart des plans épargne retraite, comme le plan « Corporate 401k », demandent des mensualités très basses, en partie parce qu’ils proposent un choix phénoménal d’options. L’économiste/comportementaliste Richard Thaler rapporte des expériences où les épargnants amélioraient nettement leur épargne lorsque les options étaient sélectionnées par défaut (« choix guidé »). Chacun avait la possiblité de résilier leur programme quand il le désirait et ils étaient libres de modifier leur contrat quand bon leur semblait. Mais le simple fait de passer de « souscription » à « inscription automatique » changeait complètement l’intérêt du système. On peut prendre également l’exemple du don d’organe. Si on déclarait que chacun est donneur à moins qu’il n’émette le souhait contraire, le nombre d’organes donnés augmenterait largement.

Chaque paramètre par défaut est un levier pour façonner le déploiement d’une innovation. L’élaboration d’une infrastructure à l’échelle d’un continent, par exemple, comme le réseau électrique 110V aux États-Unis, peut s’imposer à mesure qu’elle reçoit le soutien d’autres infrastructures (comme les générateurs diesels ou les lignes d’assemblage dans les usines). Ainsi il peut obtenir le suffrage nécessaire pour s’imposer face à une technologie pré-existante, mais à chaque nœud du réseau électrique se cache un paramètre par défaut. Tous ces petits choix par défaut définissent la nature du réseau, ouvert et évolutif mais plus fragile ou fermé et plus sûr. Chaque paramètre par défaut est un levier permettant de façonner le réseau, s’il peut s’accroître facilement ou pas, s’il accepte les sources de puissance non-conventionnelle ou pas, s’il est centralisé ou décentralisé… La technologie définit les systèmes technologiques, mais c’est à nous d’en établir la nature.

Aucun système n’est neutre. Chacun a ses options naturels. On dompte les choix en cascade engendrés par l’accélération de la technologie par petites touches, en adoptant nos propres options afin de les faire tendre vers nos objectifs communs, ce qui a pour conséquence d’augmenter la diversité, la complexité, la spécialisation, la sensibilité et la beauté.

Le « par défaut » nous rappelle également une autre vérité. Par définition, le « par défaut » entre en jeu lorsque nous — utilisateur, consommateur ou citoyen — ne faisons rien. Mais ne rien faire n’est pas neutre, car cela entraîne une option par défaut. Ce qui signifie que « ne pas faire de choix » est un choix lui-même. Il n’y a rien de neutre, même, ou surtout, dans l’absence d’action. Malgré ce que certains veulent bien nous faire croire, la technologie n’est jamais neutre. Même quand vous ne choisissez pas ce que vous en faites, un choix est fait. Un système s’orientera dans une direction plutôt qu’une autre selon que l’on agit ou non sur lui. Le mieux que l’on puisse faire est de lui donner la direction qui va dans notre sens.

Notes

[1] Crédit photo : Manuel Cernuda (Creative Commons By-Sa)




Entretien avec Richard Stallman

Mlinksva - CC byCertains pensent que Richard Stallman a déjà tout dit et qu’il ne fait que répéter (voire ânonner) inlassablement le même discours aux quatre coins de la planète.

Ce n’est pas forcément vrai. Surtout quand l’exercice est un entretien et que celle qui pose les questions oriente habilement la conversation, en particulier sur l’activisme et les conditions de sa réussite.

Et pour vous en donner un avant-goût voici sa réponse à la question de son plus grand échec : « Le plus grand échec du mouvement des logiciels libres est ironique : notre logiciel libre et devenu si attirant pour les geeks que l’usage et le développement de logiciels libres se sont beaucoup plus répandus que l’appréciation de la liberté sur laquelle le mouvement se fonde. Le résultat est que nos points de vue en sont venus à être considérés comme excentriques dans la communauté que nous avons construite. »

Une traduction Framalang, avec l’aimable autorisation d’Hillary Rettig[1].

Interview de Richard Stallman

Interview with Richard Stallman

Hillary Rettig – 9 février 2009 – LifeLongActivist.com
(Traduction Framalang : Yonnel et Goofy)

Mon ami Richard Stallman est le fondateur du mouvement du logiciel libre. Ses idées sont à l’origine non seulement du système d’exploitation GNU/Linux, mais aussi de Wikipédia, Creative Commons, de la campagne anti-DRM Defective by Design et d’autres mouvements sociaux importants. Il est lauréat du prix MacArthur, et peut-être l’activiste le plus couronné de succès. Je suis honorée d’avoir pu l’interviewer.

Hillary Rettig : Qu’est-ce que le logiciel libre ?

Richard Stallman : Le logiciel libre, cela implique que l’utilisateur dispose de quatre libertés essentielles :

  • 0. La liberté d’exécuter le programme comme bon vous semble.
  • 1. La liberté d’étudier le code source du programme, puis de le modifier pour que le programme fasse ce que vous voulez.
  • 2. La liberté de distribuer aux autres des copies identiques du programme. (On appelle aussi cela la liberté d’aider son voisin.)
  • 3. La liberté de distribuer des copies de vos versions modifiées. (On appelle aussi cela la liberté de contribuer à votre communauté.)

Vous travaillez pour la cause du logiciel libre depuis plus de 20 ans. Comment gardez-vous le cap, comment restez-vous « attaché » à votre travail, avec le même sentiment d’urgence ?

J’utilise moi-même des ordinateurs, donc je serai moi-même un de ceux qui perdront leur liberté si le logiciel libre ne s’impose pas. J’ai donc toute la motivation nécessaire pour poursuivre la lutte.

Est-ce que vous ressentez souvent de la peur ou du découragement ? Comment gérez-vous ces sentiments ?

Je suis pessimiste de nature, donc il m’est facile d’imaginer la défaite, surtout étant donné la taille des entreprises contre lesquelles nous nous battons, et leur gouvernement lèche-bottes à Washington. Mais il n’en faut pas autant pour me mener au désespoir. Si je fais quelques tentatives pour corriger un bogue et qu’elles n’aboutissent pas, la frustration peut monter au point que je crie d’angoisse. Mais ce sentiment ne dure que quelques minutes, et ensuite je me remets au travail.

Quant à la peur, ma principale peur est la défaite de la liberté. Le meilleur moyen de l’éviter est de continuer, ce que je fais.

Pourquoi est-ce si important de travailler dans une équipe ou une communauté avec un but commun, et qu’est-ce que vous considérez comme une équipe/communauté efficace ou inefficace ?

La communauté du logiciel libre est très décentralisée – chaque programme a sa propre équipe de support. Il reste beaucoup de place. Si deux personnes ne s’entendent pas, elles n’ont pas besoin de travailler ensemble, elles peuvent travailler séparément. Cela n’élimine pas le problème des conflits de personnalité et des comportements insultants, mais au pire cela ne peut créer que du retard.

Quelles sont vos habitudes de travail, votre emploi du temps, et pourquoi ces habitudes et cet emploi du temps ont-ils évolué ?

Je n’ai pas ou ne veux pas de journée structurée. Quand je me lève, d’habitude je commence à répondre à mes messages. Quand je sens que j’ai besoin d’une pause, je la prends – je peux lire, rêver, écouter de la musique ou manger. Après un moment, je me remets au travail. Je ne suis pas un emploi du temps, sauf pour les voyages et les réunions. Mais quand même, en ce moment, cela représente une bonne partie de mon emploi du temps, ce qui d’une certaine façon est agaçant.

L’époque où j’étais le plus productif, c’était quand je programmais, en 1982. J’avais très peu de rendez-vous, donc je n’avais pas besoin de gérer un emploi du temps sur 24 heures. Quand j’étais fatigué, j’allais dormir. Quand je me levais, je recommençais à travailler. Quand j’avais faim, je mangeais. Aucun emploi du temps ! Cela me permettait d’être très productif, parce que quand je ne dormais pas, j’étais complètement éveillé.

Avez-vous déjà pris un congé sabbatique ou interrompu votre tâche d’activiste ? Pourquoi, ou pourquoi pas ? Si oui, quels bienfaits en avez-vous retiré ?

Dans les années 80, quand le mouvement était nouveau et que mon travail en son sein consistait principalement à développer des logiciels, je n’ai jamais pensé à vouloir me mettre en pause bien longtemps. À présent, comme mon travail est principalement de correspondre avec des personnes, je ne peux plus le faire. Les courriers s’accumuleraient horriblement si je ne les traitais pas jour après jour.

Comment jugez-vous votre efficacité à changer les choses ?

Je ne peux pas être impartial dans l’estimation de mes propres capacités, donc je ne puis répondre à cette question. Ce qui est clair, c’est qu’au moins nous avons mis la première pierre à l’utilisation libre d’ordinateurs, mais nous sommes encore loin de notre objectif : que tous les utilisateurs de logiciels soient libres. Mais au moins le mouvement des logiciels libres continue à grandir.

Que considéreriez-vous comme vos réussites les plus significatives en tant qu’activiste ?

Nous avons développé des systèmes d’exploitation libres, des environnements graphiques libres, des applications libres, des lecteurs média libres, des jeux libres – des milliers. Certaines régions ont adopté GNU/Linux dans leurs écoles publiques. Maintenant il nous faut convaincre le reste du monde d’en faire de même.

Que considéreriez-vous comme vos échecs les plus significatifs, ou dans quels domaines auriez-vous souhaité faire plus de progrès ?

Le plus grand échec du mouvement des logiciels libres est ironique : notre logiciel libre et devenu si attirant pour les geeks que l’usage et le développement de logiciels libres se sont beaucoup plus répandus que l’appréciation de la liberté sur laquelle le mouvement se fonde. Le résultat est que nos points de vue en sont venus à être considérés comme excentriques dans la communauté que nous avons construite.

Dans quelle mesure c’est un échec personnel, je ne le sais pas. Je ne sais pas si j’aurais pu éviter cela en agissant différemment.

Quels avantages naturels (cognitifs, émotionnels, dans votre style de vie, etc.) pensez-vous voir en tant qu’activiste ?

Mes plus gros avantages, autres que ma capacité naturelle en tant que programmeur, sont la persévérance et la détermination, ainsi qu’un sens du défi plein d’insolence et de moquerie qui me permet de faire des choses qui ne sont vraiment pas difficiles, mais devant lesquelles d’autres se déroberaient peut-être.

La plupart des gens semblent supposer que si on vous éloigne de la victoire alors on abandonne. Cela n’a aucun sens pour moi. Quel intérêt pourrait-il bien y avoir à laisser tomber ? Rien de ce que je peux imaginer réussir dans le monde n’est plus important que la défense des droits de l’homme. Tant que mes chances de victoire sont plus grandes si j’essaie que si j’abandonne, il serait absurde de laisser tomber.

Un autre avantage semblerait être que vous faites preuve d’une énorme résistance face aux critiques ou même aux railleries. On s’est moqué de vous pendant des années à propos de points de vue qui sont maintenant considérés comme valides et même majoritaires. Peu de gens savent s’accommoder de ce genre de critiques ou de railleries intenses. Est-ce que cela vous a été difficile, et si vous avez un mécanisme pour vous en accommoder, quel était-il ?

Tout ce que ces railleries disent vraiment, c’est « nous sommes plus gros que vous, nananère ! » Le but est d’intimider les insoumis, et le moyen de contrecarrer ceci est de refuser de se laisser intimider.

Parfois tous les insoumis sont intimidés, sauf un. Cela m’est arrivé plus d’une fois. C’était décourageant jusqu’à ce que j’ai appris à me souvenir que d’autres sont probablement du même avis, même s’ils ne le disent pas tout haut, donc dans les faits je suis leur porte-parole. Je me rends aussi compte que beaucoup d’autres, qui sont indécis, écoutent probablement en pesant les arguments. Rien qu’en restant sur ma position, en restant calme, et en réfutant les arguments des adversaires sans rancœur, je peux en rallier quelques-uns. Bien sûr, il est plus simple de rester calme par e-mail qu’en tête-à-tête, j’essaie donc d’avoir ces débats par e-mail. Une liste de diffusion est aussi susceptible de toucher un plus grand nombre d’indécis que je pourrais peut-être rallier.

Par contraste, dans une discussion en privé j’ai appris à ne pas perdre de temps à écouter les railleries. À la place, je fais quelque chose de plus utile, ce qui est d’habitude également plus agréable.

Quels défauts naturels avez-vous dû compenser ou vaincre ?

Mon principal défaut est une tendance à perdre mon sang-froid. Mais j’ai trouvé un moyen de contrôler cela la plupart du temps : je relis et je réécris mes e-mails avant de les envoyer.

Beaucoup d’activistes ont du mal à décider quels projets ou tâches entreprendre. Beaucoup font le mauvais choix, perdent du temps et compromettent leur efficacité. Comment décidez-vous des projets ou tâches à entreprendre ?

J’ai essayé de me demander à quels problèmes était confrontée la communauté, et ce que je pouvais faire pour changer la situation.

Quelles autres erreurs voyez-vous des activistes faire qui compromettent leur efficacité ?

Je trouve que de nombreux techos qui veulent soutenir le mouvement ne pensent qu’en termes de ce qu’ils peuvent faire seuls dans leur coin. Il ne leur vient pas à l’esprit de chercher des alliés pour agir avec plus de force.

Cependant, d’autres qui se trouvent apprécier les idées du mouvement du logiciel libre sont découragés par la taille de la tâche qui pourrait demander des années de travail, et abandonnent avant la première étape. Ils perçoivent une telle tâche comme impossible à surmonter, sans prendre en compte que nous avons déjà surmonté des tâches bien plus dures.

Quels sacrifices personnels avez-vous fait pour votre activisme ? En regardant en arrière, comment est-ce que vous les percevez ?

Je travaille dur, mais je n’appellerais pas cela un sacrifice. Comment pouvez-vous réussir quelque chose d’important sans travail ? La plupart des gens travaillent dur pour des choses qui n’en valent pas vraiment la peine.

Je me passe de certaines choses que l’on apprend à désirer à la plupart des Américains : je n’ai jamais eu une maison, une voiture ou des enfants. Mais je ne le regrette pas. Si vous avez ces choses, elles font de votre vie un combat désespéré pour pouvoir vous les payer. Souvent les hommes divorcent, après quoi c’est à peine s’ils arrivent à voir les enfants pour la subsistance desquels ils doivent se démener toute leur vie.

Quel gâchis de se battre toute sa vie pour pouvoir se continuer à se battre. C’est en rejetant ces lourds fardeaux que j’ai pu combattre pour quelque chose qui vaut ce combat.

Quels bénéfices personnels avez-vous tiré de votre activisme ?

Je passe le plus clair de mon temps à voyager là où l’on m’a invité à donner des conférences. Par certains aspects, c’est très agréable – je vois beaucoup de pays, je visite des endroits beaux et intéressants, j’essaie de nombreuses nourritures, j’écoute de nombreux styles de musique, et je me fais des amis. Il y a aussi des mauvais côtés : les voyages en avion prennent du temps, la sécurité est fascisante, et je ne peux suivre aucun cours parce que je ne suis pas assez longtemps à la maison.

Quel conseil donneriez-vous aux activistes qui voudraient avoir plus de réussite ou d’efficacité ?

Restez concentrés sur la façon de changer l’avenir. Ne vous reposez pas sur le passé sauf pour tirer les leçons sur le moyen d’être plus efficace à l’avenir. Ne perdez pas de temps à des gestes symboliques, ne mettez pas plus de la moitié de vos efforts dans des actions qui sont efficaces mais qui ne véhiculent aucun message. Dans l’idéal chaque action devrait créer une brèche dans le problème, et aussi inspirer les autres.

Quel est le meilleur moyen pour quelqu’un qui n’a pas beaucoup de temps ou d’argent pour aider le mouvement du logiciel libre ou tout autre mouvement à soutenir ?

Vous pouvez soutenir le mouvement du logiciel libre avec une petite somme d’argent, en devenant membre de la Free Software Foundation. Vous pouvez soutenir le mouvement en donnant un petit peu de temps, en vous inscrivant sur DefectiveByDesign.org pour participer à nos protestations contre les mesures de gestion numérique du droit d’auteur (DRM). Cela fait référence à la pratique qui vise à développer des produits pour restreindre les droits de l’utilisateur.

Vous pouvez aussi aider en économisant du temps et de l’argent, en n’achetant pas des médias que vous n’avez pas la possibilité de copier. N’achetez pas de BluRay ni de HD-DVD. N’achetez pas de lecteur de livre électronique comme le Swindle d’Amazon (NdT : jeu de mot avec le Kindle signifiant escroquerie) ou le Sony Reader. N’achetez pas de musique ni de films dans des formats cryptés. Insistez pour n’avoir que des médias sans restrictions.

Si vous n’étiez pas programmeur ou activiste du logiciel libre, quelle autre profession auriez-vous aimé embrasser ?

J’aurais apprécié faire de la recherche en physique. Tout comme j’aurais aimé faire du stand-up (NdT : du one-man-show comique cf Wikipédia). Quant à savoir si j’ai la capacité de faire l’un ou l’autre, qui sait ?

Du stand-up ! Quelle est votre blague préférée ?

Je n’ai pas de blague préférée, de plat préféré, de livre préféré, ou de quoi que ce soit préféré. J’ai besoin de notes pour me rappeler de toutes les blagues que je pourrais raconter si les circonstances me les rappellent. Et si je pouvais me souvenir de toutes, j’aurais du mal à les comparer pour en choisir une préférée.

Mais il me revient ce à quoi j’ai pensé aujourd’hui, en un éclair, quand c’était utile. J’ai fait un bilan médical, et le docteur m’a dit « Bon pour le service ! ». J’ai répondu « Quel service ? On n’a même pas de service de santé ! »

Notes

[1] Crédit photo : Mlinksva (Creative Commons By)




La guerre contre le partage doit cesser, nous dit Richard Stallman

Wikimania2009 - CC byIl n’y a aucune justification à la guerre actuelle menée contre le partage en général et celui de la musique en particulier, nous dit ici Richard Stallman, non sans proposer au passage quelques pistes pour sortir de cette inacceptable situation.

On remarquera que cet article ne figure ni sur le site de GNU ni sur celui de la FSF mais sur son site personnel[1].

En finir avec la guerre au partage

Ending the War on Sharing

Richard Stallman – Septembre 2009 – Site personnel
(Traduction Framalang : Claude et Goofy)

Quand les maisons de disques font toute une histoire autour du danger du « piratage », elles ne parlent pas d’attaques violentes de navires. Elles se plaignent du partage de copies de musique, une activité à laquelle participent des millions de personnes dans un esprit de coopération. Le terme « piratage » est utilisé par les maisons de disques pour diaboliser le partage et la coopération en les comparant à un enlèvement,un meurtre ou un vol.

Le copyright (NdT : Pour des questions de non correspondance juridique nous avons choisi de ne pas traduire copyright par droit d’auteur) a été mis en place lorsque la presse imprimée a fait de la copie un produit de masse, le plus souvent à des fins commerciales. Le copyright était acceptable dans ce contexte technologique car il servait à réguler la production industrielle, ne restreignant pas les lecteurs ou (plus tard) les auditeurs de musique.

Dans les années 1890, les maisons de disques commencèrent à vendre des enregistrements musicaux produits en série. Ceux-ci facilitèrent le plaisir de la musique et ne furent pas un obstacle à son écoute. Le copyright sur ces enregistrements était en général peu sujet à controverse dans la mesure où il ne restreignait que les maisons de disques mais pas les auditeurs.

La technique numérique d’aujourd’hui permet à chacun de faire et partager des copies. Les maisons de disques cherchent maintenant à utiliser les lois sur le copyright pour nous refuser l’utilisation de cette avancée technologique. La loi, acceptable quand elle ne restreignait que les éditeurs, est maintenant une injustice car elle interdit la coopération entre citoyens.

Empêcher les gens de partager s’oppose à la nature humaine, aussi la propagande orwellienne du « partager, c’est voler » tombe-t-elle généralement dans l’oreille de sourds. Il semble que le seule manière d’empêcher les gens de partager soit une guerre rude contre le partage. Ainsi, les maisons de disques, au moyen de leurs armes légales comme la RIAA (NdT : RIAA : Recording Industry Association of America), poursuivent en justice des adolescents, leur demandant des centaines de milliers de dollars, pour avoir partagé. Au même moment, des coalitions d’entreprises, en vue de restreindre l’accès du public à la technologie, ont développé des systèmes de Gestion de Droits Numériques (NdT : Systèmes anti-copie ou DRM : Digital Restrictions Management) pensés pour menotter les utilisateurs et rendre les copies impossibles : les exemples incluent iTunes ou encore les disques DVD et Blueray (voir DefectiveByDesign.org pour plus d’informations). Bien que ces coalitions opèrent de façon anti-concurrentielle, les gouvernements oublient systématiquement de les poursuivre légalement.

Le partage continue malgré ces mesures, l’être humain ayant un très fort désir de partage. En conséquence, les maisons de disques et autres éditeurs demandent des mesures toujours plus dures pour châtier les partageurs. Ainsi les États-Unis ont voté une loi en octobre 2008 afin de saisir les ordinateurs utilisés pour le partage interdit. L’union Européenne envisage une directive afin de couper l’accès à Internet aux personnes accusées (pas condamnées) de partage : voir laquadrature.net si vous souhaitez aider et vous opposer à cela. La Nouvelle-Zélande a déjà adopté une telle loi en 2008.

Au cours d’une récente conférence, j’ai entendu une proposition demandant que les gens prouvent leur identité afin d’accéder à Internet : une telle surveillance aiderait aussi à écraser la dissidence et la démocratie. La Chine a annoncé une telle politique pour les cybercafés : l’Europe lui emboitera-t-elle le pas ? Un premier ministre au Royaume-Uni a proposé d’emprisonner dix ans les personnes en cas de partage. Ce n’est toujours pas appliqué… pour le moment. Pendant ce temps, au Mexique, les enfants sont invités à dénoncer leurs propres parents, dans le meilleur style soviétique, pour des copies non-autorisées. Il semble qu’il n’y ait pas de limite à la cruauté proposée par l’industrie du copyright dans sa guerre au partage.

Le principal argument des maisons de disques, en vue de l’interdiction du partage, est que cela cause des pertes d’emplois. Cette assertion se révèle n’être que pure hypothèse[2]. Et même en admettant qu’elle soit vraie, cela ne justifierait pas la guerre au partage. Devrions-nous empêcher les gens de nettoyer leurs maisons pour éviter la perte d’emplois de concierges ? Empêcher les gens de cuisiner ou empêcher le partage de recettes afin d’éviter des pertes d’emplois dans la restauration ? De tels arguments sont absurdes parce que le remède est radicalement plus nocif que la maladie.

Les maisons de disques prétendent aussi que le partage de musique ôte de l’argent aux musiciens. Voilà une sorte de demi-vérité pire qu’un mensonge : on n’y trouve même pas une vraie moitié de vérité.
Car même en admettant leur supposition que vous auriez acheté sinon un exemplaire de la même musique (généralement faux, mais parfois vrai), c’est seulement si les musiciens sont des célébrités établies depuis longtemps qu’ils gagneront de l’argent suite à votre achat. Les maisons de disques intimident les musiciens, au début de leur carrière, par des contrats abusifs les liant pour cinq ou sept albums. Il est rarissime qu’un enregistrement, sous incidence de ces contrats, vende suffisamment d’exemplaires pour rapporter un centime à son auteur. Pour plus de détails, suivez ce lien. Abstraction faite des célébrités bien établies, le partage ne fait que réduire le revenu que les industriels du disque vont dépenser en procès intentés aux amateurs de musique.

Quant aux quelques musiciens qui ne sont pas exploités par leurs contrats, les célébrités bien assises, ce n’est pas un problème particulier pour la société ou la musique si elles deviennent un peu moins riches. Il n’y a aucune justification à la guerre au partage. Nous, le public, devrions y mettre un terme.

Certains prétendent que les maisons de disques ne réussiront jamais à empêcher les gens de partager, que cela est tout simplement impossible[3]. Etant données les forces asymétriques des lobbyistes des maisons de disques et des amateurs de musique, je me méfie des prédictions sur l’issue de cette guerre ; en tout cas, c’est folie de sous-estimer l’ennemi. Nous devons supposer que chaque camp peut gagner et que le dénouement dépend de nous.

De plus, même si les maisons de disques ne réussiront jamais à étouffer la coopération humaine, elles causent déjà aujourd’hui énormément de dégâts, juste en s’y essayant, avec l’intention d’en générer davantage demain. Plutôt que de les laisser continuer cette guerre au partage jusqu’à ce qu’ils admettent sa futilité, nous devons les arrêter aussi vite que possible. Nous devons légaliser le partage.

Certains disent que la société en réseau n’a plus besoin de maisons de disques. Je n’adhère pas à cette position. Je ne paierai jamais pour un téléchargement de musique tant que je ne pourrais pas le faire anonymement, je veux donc être capable d’acheter des CDs anonymement dans une boutique. Je ne souhaite pas la disparition des maisons de disques en général, mais je n’abandonnerai pas ma liberté pour qu’elles puissent continuer.

Le but du copyright (sur des enregistrements musicaux ou toute autre chose) est simple : encourager l’écriture et l’art. C’est un but séduisant mais il y a des limites à sa justification. Empêcher les gens de pratiquer le partage sans but commercial, c’est tout simplement abusif. Si nous voulons promouvoir la musique à l’âge des réseaux informatiques, nous devons choisir des méthodes correspondant à ce que nous voulons faire avec la musique, et ceci comprend le partage.

Voici quelques suggestions à propos de ce que nous pourrions faire :

  • Les fans d’un certain style de musique pourraient organiser des fans clubs qui aideraient les gens aimant cette musique.
  • Nous pourrions augmenter les fonds des programmes gouvernementaux existants qui subventionnent les concerts et autres représentations publiques.
  • Les artistes pourraient financer leurs projets artistiques coûteux par des souscriptions, les fonds devant être remboursés si rien n’est fait.
  • De nombreux musiciens obtiennent plus d’argent des produits dérivés que des enregistrements. S’ils adoptent cette voie, ils n’ont aucune raison de restreindre la copie, bien au contraire.
  • Nous pourrions soutenir les artistes musiciens par des fonds publics distribués directement en fonction de la racine cubique de leur popularité. Utiliser la racine cubique signifie que, si la célébrité A est 1000 fois plus populaire que l’artiste chevronné B, A touchera 10 fois plus que B. Cette manière de partager l’argent est une façon efficace de promouvoir une grande diversité de musique.
    La loi devrait s’assurer que les labels de disques ne pourront pas confisquer ces sommes à l’artiste, l’expérience montrant qu’elles vont essayer de le faire. Parler de « compensation » des « détenteurs de droits » est une manière voilée de proposer de donner l’essentiel de l’argent aux maisons de disques, au nom des artistes.
    Ces fonds pourraient venir du budget général, ou d’une taxe spéciale sur quelque chose liée plus ou moins directement à l’écoute de musique, telle que disques vierges ou connexion internet.
  • Soutenir l’artiste par des paiements volontaires. Cela fonctionne déjà plutôt bien pour quelques artistes tels que Radiohead, Nine Inch nail (NdT : Voir cette vidéo) ou Jane Siberry (sheeba.ca), même en utilisant des systèmes peu pratiques qui obligent l’acheteur à avoir une carte de crédit.
    Si chaque amateur de musique pouvait payer avec une monnaie numérique (NdT : digital cash), si chaque lecteur de musique comportait un bouton sur lequel appuyer pour envoyer un euro à l’artiste qui a créé le morceau que vous écoutez, ne le pousseriez-vous pas occasionnellement, peut-être une fois par semaine ? Seuls les pauvres et les vrais radins refuseraient.

Vous avez peut-être d’autres bonnes idées. Soutenons les musiciens et légalisons le partage.

Copyright 2009 Richard Stallman
Cet article est sous licence Creative Commons Attribution Noderivs version 3.0

Notes

[1] Crédit photo : Wikimania2009 (Creative Commons By)

[2] Voir cet article, mais attention à son utilisation du terme de propagande « propriété intellectuelle », qui entretient la confusion en mettant dans le même panier des lois sans rapport. Voir ce lien et pourquoi il n’est jamais bon d’utiliser ce terme.

[3] Voir the-future-of-copyright.




Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire

Rudolf Schuba - CC bySéquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Daria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard dans les communications de l’ACM (CACM), le journal de l’Association for Computer Machinery. « Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité d’utilisation ».

Apparemment ils y sont arrivés. Unix va évoluer pour devenir une pierre angulaire de l’informatique, largement installé sur les serveurs et les postes de travail dans les universités, les gouvernements et les entreprises. Et son influence s’est étendue bien au-delà de ses déploiements, comme l’a noté l’ACM en 1983, lorsqu’ils ont attribué leur prix le plus élevé à Thompson et Ritchie, le A.M. Turing Award pour leur contribution à l’informatique : « Le modèle du système Unix a conduit une génération de concepteurs logiciels à repenser leur manière de programmer ».

Les premiers pas

Bien sûr, le succès d’Unix n’est pas arrivé d’un coup. En 1971, il a été porté sur le mini-ordinateur PDP-11, une plateforme plus puissante que le PDP-7 pour laquelle il avait été écrit à l’origine. Des programmes d’édition et de formatage de texte ont été ajoutés, et il a été déployé pour quelques dactylos du département des Brevets des Bell Labs, ses premiers utilisateurs en dehors de l’équipe de développement.

En 1972, Ritchie écrivait le langage de programmation de haut-niveau C (basé sur un langage précédent de Thompson, le B) ; suite à cela, Thompson réécrivit Unix en C, ce qui permit d’améliorer la portabilité de l’OS sur différents environnements. En cours de chemin, il acquit le nom de Unics (Uniplexed Information and Computing Services), un jeu de mots sur Multics ; l’orthographe se transforma rapidement en Unix.

Il était temps d’envahir le monde. L’article de Ritchie et Thompson de Juillet 1974 dans le CACM, « Le système temps-partagé UNIX », prit le monde de l’informatique dans un ouragan. Jusqu’alors, Unix avait été confiné à une poignée d’utilisateurs dans les Laboratoires Bell. Mais maintenant, avec l’Association for Computing Machinery derrière lui, un éditeur l’ayant qualifié comme étant élégant, Unix était à un moment crucial.

« L’article du CACM avait eu un impact très fort », raconte l’historien de l’informatique Peter Salus dans son livre The Daemon, the Gnu and the Penguin (NdT : Le démon, le Gnou et le manchot). « Peu de temps après, Ken était assailli de demandes concernant Unix ».

Un paradis pour les hackers

Thompson et Ritchie étaient des hackers accomplis, quand ce terme désignait quelqu’un qui combinait une créativité hors pair, une intelligence à toute épreuve et de l’huile de coude pour résoudre des problèmes logiciels que l’on a peine à imaginer.

Leur approche, et le code qu’ils avaient écrit, étaient attractifs pour les programmeurs des universités, et plus tard pour des entreprises qui démarraient sans les méga budgets de IBM, Hewlett-Packard ou Microsoft. Unix était tout ce dont les autres hackers, comme Bill Joy à l’Université de Californie, Rick Rashid à l’Université Carnegie Mellon et David Korn plus tard aux Laboratoires Bell avaient rêvé.

« Presque depuis le début, le système était capable de se maintenir seul, et il l’avait prouvé », écrivaient Thompson et Ritchie dans l’article du CACM. « Comme tous les programmes sources étaient toujours disponibles et facilement modifiables en ligne, nous étions volontaires pour réviser et modifier le système et ses logiciels lorsque de nouvelles idées étaient inventées, découvertes ou suggérées par d’autres ».

Korn, maintenant membre d’AT&T, travaillait comme programmeur aux Bell Labs dans les années 1970. « L’une des caractéristiques de Unix était que des outils pouvaient être écrits, et de meilleurs outils pouvaient les remplacer », se souvient-il. « Ce n’était pas un monolithe dans lequel il fallait tout approuver ; vous pouviez en fait développer de meilleures versions ». Il a développé l’influent Korn shell, un langage de programmation permettant d’interagir directement avec Unix, maintenant disponible en open source.

Salus, auteur et historien des technologies, se souvient de son travail avec le langage de programmation APL sur un mainframe IBM tournant sous System/360, en tant que professeur à l’Université de Toronto dans les années 1970. Mais le lendemain de Noël 1978, un ami à l’Université de Colombia lui fit une démonstration de Unix, tournant sur un mini-ordinateur. « Je me suis exclamé : Oh mon Dieu !, et j’étais totalement converti », raconte Salus.

Il dit que pour lui, l’un des avantages clés de Unix était la fonctionnalité pipe, introduite en 1973, qui rendait facile le passage de données d’un programme à l’autre. Le concept de pipeline, inventé par McIlroy des Bell Labs, fut par la suite copié dans de nombreux OS, parmi lesquels les variantes d’Unix, Linux, DOS et Windows.

Un autre avantage de Unix, le deuxième effet Wooow, comme le dit Salus, était qu’il n’avait pas besoin d’un mainframe d’un demi-million de dollars pour tourner. Il avait été écrit sur le petit mini-ordinateur DEC PDP-7, assez primitif, car c’était tout ce que Thompson et Ritchie avaient sous la main en 1969. « Le PDP-7 était presque incapable de quoi que ce soit », se souvient Salus. « J’étais scotché ».

Pas mal de monde a également été rendu accro. Les chercheurs des universités ont adopté Unix car il était assez simple et facilement modifiable, ne demandait pas beaucoup de ressources, et le code source était libre pour une bonne partie. Des startups comme Sun Microsystems et un ensemble d’entreprises maintenant défuntes qui se spécialisaient dans l’informatique scientifique, comme Multiflow Computer, en ont fait leur système d’exploitation de choix pour les mêmes raisons.

La progéniture d’Unix

Unix a grandi comme un système non-propriétaire car en 1956 AT&T avait été enjoint par une décret fédéral à ne pas s’écarter de sa mission de production de service téléphonique. Il pouvait développer du logiciel, et même le licencier pour un tarif raisonnable, mais l’entreprise ne pouvait pas entrer sur le marché de l’informatique.

Unix, qui avait été développé sans encouragement du management, avait d’abord été vu par AT&T comme quelque chose entre une curiosité et un casse-tête légal.

C’est à ce moment là, à la fin des années 1970, AT&t a réalisé qu’ils avaient quelque chose de commercialement intéressant en main. Ses avocats ont commencé à adopter une interprétation plus favorable de l’ordonnance de 1956, comme ils cherchaient des manières de protéger Unix comme un secret de fabrication. A partir de 1979, avec la sortie de la Version 7, les licences Unix interdisaient aux universités d’utiliser le code source Unix pour l’étudier pendant leurs cours.

Pas de problème, se dit alors le professeur d’informatique Andrew Tanenbaum, qui avait utilisé Unix V6 à l’Université Vrije à Amsterdam. En 1987, il écrivit un clone de Unix pour utiliser lors de ses cours, en créant le système d’exploitation open source Minix, qui tournait sur un microprocesseur Intel 80286.

« Minix comprenait toutes les idées d’Unix, et c’était un travail brillant », raconte Salus. « Seul un programmeur majeur, quelqu’un qui comprenait en profondeur les mécanismes internes d’un système d’exploitation, pouvait faire cela ». Minix allait devenir le point de départ pour la création de Linux par Linus Torvalds en 1991. Si ce n’était pas exactement un clone d’Unix, il s’agissait à n’en pas douter d’un Unix-like.

En reculant d’une décade ou à peu près, Bill Joy, qui était un étudiant diplômé et programmeur à l’Université de Californie de Berkeley dans les années 1970, mit la main sur une copie de l’Unix des Laboratoires Bell, et il pensa que c’était une bonne plateforme pour son propre travail sur un compilateur Pascal et un éditeur de texte.

Les modifications et extensions que lui et d’autres firent à Berkeley ont résulté dans la seconde branche majeure de Unix, appelée Berkeley Software Distribution (BSD) Unix. En mars 1978, Joy envoyait des copies de 1BSD, vendues 50$.

Ainsi en 1980 il y avait deux lignes majeures de Unix, l’une de Berkeley et l’autre de AT&T, et la scène était montée pour ce qui allait devenir la Guerre des Unix. La bonne nouvelle était que les développeurs de logiciels pouvaient avoir accès de partout au code source Unix, et l’adapter à leurs besoins et caprices. La mauvaise nouvelle c’est qu’ils firent exactement cela. Unix a proliféré, et les variantes ont divergé.

En 1982, Joy a contribué à fonder Sun Microsystems et offrait une station de travail, la Sun-1, qui utilisait une version de BSD appelée SunOS. (Solaris allait apparaitre environ 10 ans plus tard). L’année suivante, AT&T a sorti la première version de Unix System V, un système d’exploitation qui a eu une influence énorme et qui fut la base de IBM AIX et Hewlett-Packard HP-UX.

Les Guerres Unix

Unix History - Eraserhead1 et Infinity0 - CC by-saAu milieu des années 80, les utilisateurs, y compris le gouvernement fédéral, se sont plaints que si en théorie Unix était un système d’exploitation unique et portable, en fait on en était loin. Les éditeurs faisaient semblant d’adhérer à cette réclamation, mais travaillaient jour et nuit pour enfermer les clients avec des fonctionnalités et API uniques à leur Unix.

En 1987, Unix System Laboratories, qui faisait partie des Laboratoires Bell à cette époque, commença à travailler avec Sun sur un système qui pourrait unifier les deux branches majeures de Unix. Le produit de leur collaboration, appelé Unix System V Release 4.0, fut sorti deux ans plus tard, et combinait des fonctionnalités de System V Release 3, BSD, SunOS et du Xenix de Microsoft.

Les autres éditeurs Unix craignaient l’alliance AT&T/Sun. Les diverses parties ont formé des organismes standards concurrents, qui portaient des noms tels que X/Open, Open Software Foundation (ou OSF), Unix International et Corporation for Open Systems. Les arguments, contre-arguments et réussites de ces groupes pourraient remplir un livre, mais ils clamaient tous leur désir d’un Unix unifié, tout en se tirant dessus les uns les autres.

Dans un article écrit en 1988, mais non publié, pour la DARPA (Defense Advanced Research Projects Agency) (NdT : Agence pour les Projets de Recherche Avancée de la Défense), le pionnier des mini-ordinateurs Gordon Bell disait ceci de la toute nouvelle Open Software Foundation, qui incluait IBM, HP, DEC et d’autres, alliés contre le partenariat AT&T/Sun : « OSF est une manière pour ceux qui n’ont pas d’Unix d’entrer sur ce marché en devenir, tout en maintenant leur musées de code à hautes marges ».

Les Guerres Unix n’ont pas réussi à calmer les différences ou à créer un réel standard pour le système d’exploitation. Mais en 1993, la communauté Unix était réveillée par Microsoft, sous la forme de Windows NT, un système d’exploitation 32 bits utilisable en entreprise. Ce NT propriétaire visait directement Unix, et devait étendre l’hégémonie de Microsoft sur l’ordinateur de bureau aux centres serveurs et endroits similaires, tenus principalement par les serveurs Sun et autres.

Les utilisateurs Microsoft ont applaudi. Les fournisseurs Unix ont paniqué. Tous les principaux rivaux des Unix majeurs se sont réunis dans une initiative appelé Common Open Software Environnement (NdT : Environnement Logiciel Ouvert Commun), et l’année suivante ont plus ou moins déposé les armes en mixant le groupe Unix International, appuyé par AT&T/Sun avec l’Open Software Foundation. Cette coalition a évolué dans l’actuel The Open Group, organisme certificateur des systèmes Unix, et propriétaire de Single Unix Specification (SUS), maintenant la définition officielle de « Unix ».

D’un point de vue pratique, ces développements ont pu standardiser Unix au maximum possible, en fonction de la concurrence des éditeurs. Mais ils sont sans doute arrivés trop tard pour enrayer la montée d’une marée appelée Linux, le système d’exploitation open source dérivé de Minix du professeur Tanenbaum.

Mais qu’est ce que « Unix », finalement ?

Unix, vous diront la plupart des gens, est un système d’exploitation écrit il y a plusieurs dizaines d’années aux Laboratoires Bell de AT&T, et ses descendants. Les versions majeures d’Unix aujourd’hui proviennent de deux branches d’un même tronc : l’une émane directement de AT&T et l’autre vient de AT&T via l’Université de Californie de Berkeley. Les branches les plus robustes actuellement sont AIX d’IBM, HP-UX de HP et Solaris de Sun.

Toutefois, The Open Group, qui détient la marque déposée Unix, définit Unix comme n’importe quel système d’exploitation qui a été certifié par ses services pour se conformer à la Single Unix Specification (SUS) (NdT : Spécification Unix Unique). Ceci inclut des OS que l’on ne considère pas généralement comme étant des Unix, tel que Mac OS X Leopard (qui dérive d’un BSD Unix) et IBM z/OS (qui vient du système d’exploitation mainframe MVS), car ils se conforment au SUS et supportent les APIs SUS. L’idée basique est que c’est un Unix si cela agit comme Unix, quel que soit le code sous-jacent.

Une définition encore plus large d’Unix pourrait inclure les OS Unix Like (qui ressemblent à Unix), parfois appelé des clones d’Unix ou des sosies, qui ont copié une bonne partie des idées de Unix mais n’incorporent pas directement du code Unix. Le plus connu d’entre tous étant certainement Linux.

Finalement, même s’il est raisonnable d’appeler Unix un système d’exploitation, c’est finalement plus que cela. En plus du noyau de l’OS, les implémentations Unix embarquent typiquement des utilitaires tels que des éditeurs en ligne de commande, des interfaces de programmation applicatives (API), des environnements de développement, des librairies et de la documentation.

Le futur d’Unix

Le manque continuel de portabilité complète entre les différentes versions concurrentes d’Unix, de même que l’avantage financier de Linux et Windows sur les processeurs standards x86, vont inciter les organisations informatiques de quitter Unix, suggère un récent sondage du Gartner Group.

« Les résultats réaffirment l’enthousiasme continu pour Linux comme plate-forme serveur, avec Windows qui croît de la même manière, et Unix qui prend la route d’un long, mais graduel, déclin », décrit le sondage, publié en février 2009.

« Unix a eu un passé long et vivant, et même s’il n’est pas encore parti, il sera de plus en plus sous pression », dit l’analyste du Gartner George Weiss. « Linux est l’Unix de choix stratégique. Même si Linux n’a pas le long héritage de développement, de tuning et de tests de stress que Unix a pu avoir, il s’en approche et va bientôt égaler Unix en performance, stabilité et montée en charge », dit-il.

Mais un récent sondage de ComputerWorld suggère que le retrait d’Unix ne va pas arriver aussi rapidement. Dans cette enquête concernant 130 utilisateurs Unix sur 211 responsables informatiques, 90% ont déclaré que leur entreprise était « très ou extrêmement dépendante » de Unix. Un peu plus de la moitié a dit : « Unix est une plateforme essentielle pour nous et le restera indéfiniment », et seulement 12% ont dit « Nous pensons sortir de Unix dans le futur ». Les économies de coût, essentiellement au travers d’une consolidation de serveurs, étaient citées comme la raison n°1 pour migrer vers autre chose.

Weiss pense que la migration vers des processeurs x86 va s’accélérer à cause de l’avantage du coût du matériel. « Des architectures extensibles horizontalement ; le clustering ; le cloud computing ; la virtualisation sur x86, quand vous combinez toutes ces tendances, le système d’exploitation de choix tourne autour de Linux ou Windows », dit-il.

« Par exemple », déclare Weill, « dans l’annonce récente de Cisco de son architecture Unified Computing, vous avez dans un même équipement le réseau, le stockage, le calcul et la mémoire, et vous n’avez pas besoin d’Unix. Vous pouvez utiliser Linux ou Windows sur x86. Ainsi, Intel est en train de gagner la guerre pour le compte de Linux contre Unix ».

The Open Group, propriétaire des Single Unix Specification et organisme certificateur des systèmes Unix, concède peu à Linux, et déclare que Unix est le système de choix pour « le haut du panier en termes de fonctionnalités, montée en charge et performance pour des applications critiques ». Linux, dit-il, tend à être le standard pour les applications plus simples, moins critiques.

Korn, de AT&T, est parmi ceux qui pensent que Unix a encore un bel avenir. Korn dit que la force d’Unix pendant toutes ces années, depuis l’ajout des pipes en 1973, est qu’il peut facilement être éclaté en petits bouts et distribué. Ceci va pousser Unix en avant, dit-il. « La philosophie (du pipeline) fonctionne bien avec le cloud computing, dans lequel vous construisez des petits morceaux réutilisables plutôt qu’une grosse application monolithique ».

L’héritage d’Unix

Quel que soit le sort final d’Unix, le système d’exploitation né dans les Laboratoires Bell il y a 40 ans a établi un héritage qui risque de durer encore quelques dizaines d’années. Il peut revendiquer la paternité d’une longue liste de logiciels populaires, incluant l’offre Unix de IBM, HP, Sun, Apple Mac OS X et Linux. Il a également influencé des systèmes qui ont leurs racines dans Unix, comme Microsoft Windows NT et les versions IBM et Microsoft de DOS.

Unix a permis à de nombreuses entreprises qui démarraient de réussir, en leur offrant une plateforme peu onéreuse sur laquelle construire. C’était une des briques de base pour la construction d’Internet, et il fait partie du cœur des systèmes de télécommunications aujourd’hui. Il a engendré de nombreux concepts d’architecture, comme l’utilisation du pipeline, et le dérivé de Unix, Mach, a contribué énormément à l’informatique scientifique, distribuée et multiprocesseurs.

C’est peut-être l’ACM qui l’a mieux énoncé en 1983 dans sa citation du prix Turing en l’honneur de Thompson et Ritchie sur leur travail sur Unix : « Le génie du système Unix est dans sa structure, qui permet aux programmeurs de bâtir sur le travail des autres ».

Notes

[1] Crédit photos : 1. Rudolf Schuba (Creative Commons By) / 2. Hoshie (Domaine Public) / 3. Eraserhead1 et Infinity0 (Creative Commons By-Sa)




George Clooney a une sale gueule ou la question des images dans Wikipédia

George Clooney - Bad Dog - Public DomainÀ moins d’être aussi bien le photographe que le sujet photographié (et encore il faut faire attention au décor environnant), impliquant alors soit d’avoir le don d’ubiquité soit d’avoir un pied ou le bras assez long, c’est en théorie un pur casse-tête que de mettre en ligne des photographies sur Internet.

Il y a donc pour commencer le droit de l’auteur, le photographe. Mais quand bien même il aurait fait le choix de l’ouverture pour ses images, avec par exemple une licence Creative Commons, il reste la question épineuse du droit du sujet photographié (qui peut être une personne, un monument architectural…). Et pour corser le tout, n’oublions pas le fait que la législation est différente selon les pays.

Et c’est ainsi que le Framablog se met quasi systématiquement dans l’illégalité lorsqu’il illustre ses billets par une photographie où apparaissent des gens certes photogéniques mais non identifiés. Parce que si il prend bien le soin d’aller puiser ses photos parmi le stock d’images sous Creative Commons d’un site comme Flickr, il ne respecte que le droit du photographe et non celui du ou des photographié(s), dont il n’a jamais eu la moindre autorisation.

C’est peut-être moins grave (avec un bon avocat) que ces millions de photos que l’écrasante majorité de la jeune génération partage et échange sans aucune précaution d’usage sur les blogs, MySpace ou Facebook, mais nous ne sommes clairement qu’à la moitié du chemin.

Le chemin complet du respect des licences et du droit à l’image, c’est ce que tente d’observer au quotidien l’encyclopédie libre Wikipédia. Et c’est un véritable… sacerdoce !

Vous voulez mettre en ligne une photo sur Wikipédia ? Bon courage ! L’avantage c’est que vous allez gagner rapidement et gratuitement une formation accélérée en droit à l’image 😉

Pour l’anecdote on cherche toujours à illustrer le paragraphe Framakey de notre article Framasoft de l’encyclopédie et on n’y arrive pas. Une fois c’est le logo de Firefox (apparaissant au microscope sur une copie d’écran de l’interface de la Framakey) qui ne convient pas, parce que la marque Firefox est propriété exclusive de Mozilla. Une fois c’est notre propre logo (la grenouille Framanouille réalisée par Ayo) qui est refusé parce qu’on ne peut justifier en bonne et due forme que sa licence est l’Art Libre.

Toujours est-il donc que si vous souhaitez déposer une image dans la médiathèque de Wikipédia (Wikimédia Commons) alors le parcours est semé d’embûches. L’enseignant que je suis est plutôt content parce que l’encyclopédie participe ainsi à éduquer et sensibiliser les utilisateurs à toutes ces questions de droit d’auteurs, de propriété intellectuelle… avec moultes explications sur l’intérêt d’opter (et de respecter) les licences libres. Mais il n’empêche que l’une des conséquences de ces drastiques conditions d’entrée, c’est que pour le moment Wikipédia manque globalement de photographies de qualité (comparativement à son contenu textuel).

C’est particulièrement criant lorsqu’il s’agit d’illustrer les articles sur des personnalités contemporaines[1] (les plus anciennes échappant a priori au problème avec le domaine public, sauf quand ces personnalités ont vécu avant… l’invention de la photographie !). Et c’est cette carence iconographique que le New York Times a récemment prise pour cible dans une chronique acide dont le traduction ci-dessous nous a servi de prétexte pour aborder cette problématique (chronique qui aborde au passage la question complexe du photographe professionnel qui, craignant pour son gagne-pain, peut hésiter à participer).

La situation est-elle réellement aussi noire que veut bien nous le dire le vénérable journal ?

Peut-être pas. Il y a ainsi de plus en plus de photographes de qualité, tel Luc Viatour, qui participent au projet . Il y a de plus en plus d’institutions qui, contrairement au National Portrait Gallery, collaborent avec Wikipédia en ouvrant leurs fonds et archives, comme en témoigne l‘exemple allemand. Même le Forum économique mondial de Davos s’y met (dépôt dans Flickr, utilisation dans Wikipédia). Sans oublier les promenades locales et festives où, appareil photo en bandoulière, on se donne pour objectif d’enrichir ensemble l’encyclopédie.

Du coup mon jugement péremptoire précédent, à propos de la prétendue absence globale de qualité des images de Wikipédia, est à nuancer. Il suffit pour s’en convaincre de parcourir les pages « images de qualité » ou l’« image du jour ».

L’encyclopédie est en constante évolution, pour ne pas dire en constante amélioration, et bien heureusement la photographie n’échappe pas à la règle. Même si il est vrai que le processus est plus lent parce qu’on lui demande de s’adapter à Wikipédia et non l’inverse.

Wikipédia, terre fertile pour les articles, mais désert aride pour les photos

Wikipedia May Be a Font of Facts, but It’s a Desert for Photos

Noam Cohen – 19 juillet 2009 – New York Times
(Traduction Framalang : Olivier et Goofy)

Une question de la plus haute importance : existe-t-il de mauvaises photos de Halle Berry ou de George Clooney ?

Halle Berry - Nancy Smelser - Public DomainFacile, allez sur Wikipédia ! Vous y trouverez une photo floue de Mlle Berry, datant du milieu des années quatre-vingt, lors de la tournée U.S.O. avec d’autres candidates au titre de miss USA. La mise au point est mauvaise, elle porte une casquette rouge et blanche, un short, c’est à peine si on la reconnait. L’article de Wikipédia sur M. Clooney est, quant à lui, illustré par une photo le montrant au Tchad, portant une veste kaki est une casquette des Nations Unies. Avec son grand sourire et ses traits anguleux il est toujours aussi beau, en compagnie de deux femmes travaillant pour les Nations Unies, mais on est loin d’un portait glamour.

Certains personnages éminemment célèbres, comme Howard Stern ou Julius Erving, n’ont même pas la chance d’avoir leur photo sur Wikipédia.

George Clooney - Nando65 - Public DomainAlors que de nos jours les célébrités s’offrent couramment les services d’une équipe de professionnels pour contrôler leur image, sur Wikipédia c’est la loi du chaos. Très peu de photographies de bonne qualité, particulièrement de célébrités, viennent enrichir ce site. Tout cela tient au fait que le site n’accepte que les images protégées par la plus permissive des licences Creative Commons, afin qu’elles puissent être ré-utilisées par n’importe qui, pour en tirer profit ou pas, tant que l’auteur de la photo est cité.

« Des représentants ou des agents publicitaires nous contactent, horrifiés par les photos qu’on trouve sur le site », confie Jay Walsh, porte-parole de la Wikimedia Foundation, l’organisme qui gère Wikipédia, l’encyclopédie en plus de 200 langues. « Ils nous disent : J’ai cette image, je voudrais l’utiliser. Mais ça n’est pas aussi simple que de mettre en ligne la photo qu’on nous envoie en pièce jointe. »

Il poursuit : « En général, nous leur faisons comprendre que de nous envoyer une photo prise par la photographe Annie Leibovitz ne servira à rien si nous n’avons pas son accord. »

Les photos sont l’un des défauts les plus flagrants de Wikipédia. À la différence des articles du site, qui, en théorie, sont vérifiés, détaillés à l’aide de notes, et qui se bonifient avec le temps, les photos sont l’œuvre d’une seule personne et elles sont figées. Si un mauvais article peut être amélioré, une mauvaise photo reste une mauvaise photo.

Les wikipédiens tentent de corriger ce défaut, ils organisent des événements ou des groupes de contributeurs vont prendre des clichés de bonne qualité de bâtiments ou d’objets. De même, Wikipédia s’efforce d’obtenir la permission d’utiliser d’importantes collections de photographies.

L’hiver dernier, les archives fédérales allemandes ont placé cent mille photos basse résolution sous une licence permettant leur usage dans Wikipédia. Récemment, un utilisateur de Wikipédia, Derrick Coetzee, a téléchargé plus de trois mille photos haute résolution d’œuvres de la National Portrait Gallery de Londres, pour qu’elles soient utilisées, essentiellement, pour illustrer les articles se rapportant à des personnes historiques célèbres comme Charlotte Brontë ou Charles Darwin.

La galerie a menacé de porter plainte contre M. Coetzee, affirmant que même si les portraits, de par leur ancienneté, ne tombent plus sous la protection du droit d’auteur, les photographies elles sont récentes et du coup protégées. La galerie exige une réponse de M. Coetzee pour lundi. Il est représenté par l’Electronic Frontier Foundation. S’exprimant par e-mail vendredi, une porte-parole de la galerie, Eleanor Macnair, écrit qu’un « contact a été établi » avec la Wikimedia Foundation et que « nous espérons toujours que le dialogue est possible ».

On reste pourtant bien loin du compte et le problème des photographies sur Wikipédia est tout sauf réglé. Dans la galerie des horreurs, l’ancienne star de la NBA, George Gervin, aurait une place de choix. Debout, droit comme un I dans son costard, sur une photo aux dimensions pour le moins étranges, même pour un joueur de basket-ball. La photo, recadrée et libre de droit, provient du bureau du sénateur du Texas, John Cornyn.

Barack Obama - Pete Souza - CC byL’exemple de M. Gervin illustre un fait établi : le gouvernement alimente le domaine public de nombreuses photographies. Celle illustrant l’article du président Obama, par exemple, est un portrait officiel tout ce qu’il y a de posé et sérieux.

Mais les collections de photographies du gouvernement servent aussi aux contributeurs de Wikipédia. Ils espèrent y dénicher des images de rencontres entre célébrités et personnages politiques, qu’ils massacrent ensuite pour illustrer un article.

L’ancien roi du baseball, Hank Aaron, a l’honneur d’être illustré par une photo prise hors contexte, bizarrement découpée, prise en 1978 à la Maison Blanche. De même, l’illustration principale de l’article sur Michael Jackson a été réalisée en 1984 à l’occasion de sa visite à Ronald et Nancy Reagan.

Natalie Dessay - Alixkovich - CC by-saLes photos récentes sur Wikipédia sont, pour une large majorité, l’œuvre d’amateurs qui partagent volontiers leur travail. Amateur étant même un terme flatteur puisque ce sont plutôt des photos prises par des fans qui par chance avaient un appareil photo sous la main. La page de la cantatrice Natalie Dessay la montre en train de signer un autographe, fuyant l’objectif, l’actrice Allison Janney est masquée par des lunettes de soleil au Toronto Film Festival. Les frères Coen, Joel et Ethan, sont pris à distance moyenne à Cannes en 2001 et Ethan se couvre la bouche, certainement parce qu’il était en train de tousser. Et il y a aussi les photos prises depuis les tribunes où on distingue à peine le sujet. D’après sa photo, on pourrait croire que la star du baseball Barry Bonds est un joueur de champ extérieur. David Beckham, quant à lui, apparait les deux mains sur les hanches lors d’un match de football en 1999.

Placido Domingo- Sheila Rock - Copyright (with permission)Certaines personnes célèbres, comme Plácido Domingo et Oliver Stone, ont cependant eu la bonne idée de fournir elles-mêmes une photographie placée sous licence libre. Quand on pense à tout l’argent que les stars dépensent pour protéger leur image, il est étonnant de voir que si peu d’entre elles ont investi dans des photos de haute qualité, sous licence libre, pour Wikipédia ou d’autres sites. Peut-être ne se rendent-elles pas compte de la popularité de Wikipédia ? Rien que pour le mois de juin, par exemple, la page de Mlle Berry a reçu plus de 180 000 visites.

D’après Jerry Avenaim, photographe spécialisé dans les portraits de célébrités, il faut encore réussir à persuader les photographes, car placer une photo sous licence libre pourrait faire de l’ombre à toutes les autres. Il se démarque par le fait qu’il a déjà enrichi Wikipédia d’une douzaine de clichés en basse résolution, parmi lesquels un superbe portrait de Mark Harmon pris à l’origine pour un magazine télé.

Dans un interview, M. Avenaim semblait toujours indécis quant à l’idée de partager son travail. Sa démarche poursuit un double but : « D’abord, je voulais vraiment aider les célébrités que j’apprécie à apparaitre sous leur meilleur jour », dit-il, « Ensuite, c’est une stratégie marketing intéressante pour moi ».

Mark Harmon - Jerry Avenaim - CC by-saSa visibilité en ligne a largement augmenté grâce à la publication de ses œuvres sur Wikipédia, comme le montrent les résultats des moteurs de recherche ou la fréquentation de son site Web. Mais c’est une publicité qui peut aussi lui coûter très cher. « C’est mon gagne-pain », dit-il, rappelant que les photographes sont parfois très peu payés par les magazines pour leurs images de célébrités. L’essentiel de leurs revenus provient de la revente des images. Même si les images qu’il a mises gratuitement à disposition, par exemple le portrait de Dr. Phil, sont en basse résolution, elles deviennent les photographies par défaut sur Internet. Pourquoi payer alors pour une autre de ses photos ?

Et c’est bien là que la bât blesse pour les photographes qui voudraient mettre leurs œuvres à disposition sur Wikipédia, et seulement sur Wikipédia, pas sur tout Internet. « Wikipédia force à libérer le contenu déposé sur le site, c’est là que réside le problème à mes yeux », explique M. Avenaim. « S’ils veulent vraiment que la qualité des photos sur le site s’améliore, ils devrait permettre aux photographes de conserver leurs droits d’auteur. »

Notes

[1] Crédits photos : 1. George Clooney, par Bad Dog (domaine public) / 2. Halle Berry, par Nancy Smelser (domaine public) / 3. George Clooney, par Nando65 (domaine public)/ 4. Barack Obama, par Pete Souza (creative commons by) / 5. Natalie Dessay, par Alixkovich (creative commons by-sa) / 6. Placido Domingo, par Sheila Rock (copyright avec permission) / 7. Mark Harmon, par Jerry Avenaim (creative commons by-sa)