Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.




« Le droit de lire » de Richard Stallman… 13 ans après !

Marfis75 - CC by-saÀ l’heure où le feuilleton Hadopi poursuit ses aventures parlementaires, il nous a semblé intéressant de déterrer un énième écrit de Richard Stallman.

D’abord parce que ce n’est pas tous les jours que Stallman verse dans la nouvelle de science-fiction (et nous parle… d’amour, dans un univers orwellien à souhait[1]). Mais aussi et surtout parce que, bien que rédigé en 1996, ce texte n’est pas loin d’avoir aujourd’hui des petits accents prophétiques (à commencer par la récente affaire Kindle).

Malheureusement…

Le droit de lire

Richard Stallman – février 1997 – GNU.org
(Traduction : Pierre Sarrazin)

URL d’origine du document

(extrait de « The Road to Tycho », une collection d’articles sur les antécédents de la Révolution lunaire, publiée à Luna City en 2096)

Pour Dan Halbert, la route vers Tycho commença à l’université — quand Lissa Lenz lui demanda de lui prêter son ordinateur. Le sien était en panne, et à moins qu’elle puisse en emprunter un autre, elle échouerait son projet de mi-session. Il n’y avait personne d’autre à qui elle osait demander, à part Dan.

Ceci posa un dilemme à Dan. Il se devait de l’aider — mais s’il lui prêtait son ordinateur, elle pourrait lire ses livres. À part le fait que vous pouviez aller en prison pour plusieurs années pour avoir laissé quelqu’un lire vos livres, l’idée même le choqua au départ. Comme à tout le monde, on lui avait enseigné dès l’école primaire que partager des livres était malicieux et immoral — une chose que seuls les pirates font.

Et il était improbable que la SPA — la Software Protection Authority — manquerait de le pincer. Dans ses cours sur les logiciels, Dan avait appris que chaque livre avait un moniteur de copyright qui rapportait quand et où il était lu, et par qui, à la Centrale des licences. (Elle utilisait ces informations pour attraper les lecteurs pirates, mais aussi pour vendre des renseignements personnels à des détaillants.) La prochaine fois que son ordinateur serait en réseau, la Centrale des licences se rendrait compte. Dan, comme propriétaire d’ordinateur, subirait les punitions les plus sévères — pour ne pas avoir tout tenté pour éviter le délit.

Bien sûr, Lissa n’avait pas nécessairement l’intention de lire ses livres. Elle pourrait ne vouloir l’ordinateur que pour écrire son projet. Mais Dan savait qu’elle venait d’une famille de classe moyenne et qu’elle arrivait difficilement à payer ses frais de scolarité, sans compter ses frais de lecture. Lire les livres de Dan pourrait être sa seule façon d’obtenir son diplôme. Il comprenait cette situation; lui-même avait eu à emprunter pour payer pour tous les articles scientifiques qu’il avait eu à lire. (10% de ces frais allaient aux chercheurs qui écrivaient ces articles; puisque Dan visait une carrière académique, il pouvait espérer que si ses propres articles scientiques étaient souvent lus, il gagnerait un revenu suffisant pour rembourser sa dette).

Par la suite, Dan apprendrait qu’il y eut un temps où n’importe qui pouvait aller à la bibliothèque et lire des articles de journaux, et même des livres, sans avoir à payer. Il y avait des universitaires indépendants qui lisaient des milliers de pages sans subventions des bibliothèques gouvernementales. Mais dans les années 1990, les éditeurs aussi bien commerciaux qu’à but non lucratif avaient commencé à facturer l’accès. En 2047, les bibliothèques offrant un accès public gratuit à la littérature scientifique n’étaient qu’un pâle souvenir.

Il y avait des façons, bien sûr, de contourner la SPA et la Centrale des licences. Elles étaient elles-mêmes illégales. Dan avait eu un compagnon de classe dans son cours sur les logiciels, Frank Martucci, qui avait obtenu un outil illégal de déboguage, et l’avait utilisé pour outrepasser le code du moniteur de copyright quand il lisait des livres. Mais il en avait parlé à trop d’amis, et l’un d’eux l’a dénoncé auprès de la SPA pour une récompense (des étudiants criblés de dettes pouvaient facilement être tentés par la trahison). En 2047, Frank était en prison, non pas pour lecture pirate, mais pour possession d’un débogueur.

Dan apprendrait plus tard qu’il y eut un temps où n’importe qui pouvait posséder des outils de déboguage. Il y avait même des outils de déboguage disponibles gratuitement sur des CD ou qu’on pouvait télécharger du Net. Mais des usagers ordinaires commencèrent à s’en servir pour outrepasser les moniteurs de copyright, et finalement un juge a décidé que c’était devenu leur principale utilisation en pratique. Ceci voulait dire qu’ils étaient illégaux; les développeurs de ces débogueurs furent envoyés en prison.

Les programmeurs avaient encore besoin d’outils pour déboguer, bien sûr, mais les vendeurs de débogueurs en 2047 ne distribuaient que des copies numérotées, et seulement à des programmeurs officiellement licenciés et soumis. Le débogueur que Dan utilisait dans son cours sur les logiciels était gardé derrière un garde-barrière spécial afin qu’il ne puisse servir que pour les exercices du cours.

Il était aussi possible de contourner les moniteurs de copyright en installant un noyau système modifié. Dan apprendrait finalement l’existence de noyaux libres, et même de systèmes d’exploitation entièrement libres, qui avaient existé au tournant du siècle. Mais non seulement étaient-ils illégaux, comme les débogueurs, mais vous ne pouviez en installer un, si vous en aviez un, sans connaître le mot de passe de l’usager superviseur de votre ordinateur. Or, ni le FBI ni l’Aide technique Microsoft ne vous le révèlerait.

Dan conclut qu’il ne pouvait simplement prêter son ordinateur à Lissa. Mais il ne pouvait refuser de l’aider, car il l’aimait. Chaque chance de lui parler le remplissait d’aise. Et le fait qu’elle l’avait choisi pour demander de l’aide pouvait signifier qu’elle l’aimait aussi.

Dan résolut le dilemme en faisant une chose encore plus impensable — il lui prêta l’ordinateur, et lui dit son mot de passe. Ainsi, si Lissa lisait ses livres, la Centrale des licences penserait que c’était lui qui les lisait. C’était quand même un délit, mais la SPA ne s’en rendrait pas compte automatiquement. Ils ne s’en rendraient compte que si Lissa le dénonçait.

Bien sûr, si l’école devait un jour apprendre qu’il avait donné son propre mot de passe à Lissa, ce serait la fin de leurs études, peu importe ce à quoi le mot de passe aurait servi. La politique de l’école était que toute interférence avec ses mécanismes de surveillance de l’utilisation des ordinateurs par les étudiants était punissable. Il n’importait pas qu’aucun mal n’ait été fait — l’offense était de se rendre difficile à surveiller par les administrateurs. Ils supposaient que ça signifiait que vous faisiez quelque chose d’autre qui était interdit, et ils n’avaient pas besoin de savoir de quoi il s’agissait.

Les étudiants n’étaient habituellement pas expulsés pour cela — pas directement. Ils étaient plutôt bannis des systèmes informatiques de l’école, et échouaient inévitablement leurs cours.

Plus tard, Dan apprendrait que ce genre de politique n’a commencé dans les universités que dans les années 1980, quand des étudiants commencèrent à être nombreux à utiliser des ordinateurs. Avant, les universités avaient une approche différente au sujet de la discipline auprès des étudiants; elles punissaient des activités qui causaient du tort, et non pas simplement celles qui soulevaient des doutes.

Lissa ne dénonça pas Dan à la SPA. La décision de Dan de l’aider mena à leur mariage, et les amena aussi à remettre en question ce qu’on leur avait enseigné durant leur enfance au sujet du piratage. Le couple se mit à lire sur l’histoire du copyright, sur l’Union soviétique et ses restrictions sur la copie, et même sur la Constitution originale des États-Unis. Ils déménagèrent à Luna, où ils trouvèrent d’autres gens qui comme eux avaient pris leurs distances par rapport au bras long de la SPA. Quand la révolte de Tycho commença en 2062, le droit universel de lire devint bientôt un de ses buts principaux.

Copyright © 1996 Richard Stallman
La reproduction exacte et la distribution intégrale de cet article est permise sur n’importe quel support d’archivage, pourvu que cette notice soit préservée.

Cet article a été publié dans la parution de février 1997 de Communications of the ACM (volume 40, numéro 2). Il a fait l’objet d’une intéressante note de l’auteur mise à jour en 2007 que nous n’avons pas reproduite ici.

Notes

[1] Crédit photo : Marfis75 (Creative Commons By-Sa)




De la contradiction d’avoir un iPhone

Mat Honan - CC byL’été dernier, me voici attablé à la terrasse d’un café, place de la Bastille, en compagnie de quelques membres influents de la blogosphère française. L’occasion d’évoquer Hadopi. Il allait de soit qu’ils étaient tous contre.

Un petit détail m’a frappé : ils étaient tous accompagnés de leur iPhone, qui d’ailleurs ne leur laissait que rarement plus de cinq minutes de répit. iPhone qui vers la fin de notre entretien est carrément devenu le sujet principal de conversation, lorsque le possesseur de je ne sais plus quelle toute nouvelle application issue de l’App Store a voulu en faire la démonstration aux autres[1].

Peut-on être un pourfendeur d’Hadopi et plus généralement un chaud défenseur des libertés numériques tout en possédant un iPhone ? Certes oui. Sauf que, comme vient nous le rappeler Bruno Kerouanton dans ce court et percutant article, nous sommes peut-être en situation de compromis, voire de compromission, avec quelques uns de nos idéaux, fussent-ils numériques[2].

Le paradoxe du citoyen consommateur

URL d’origine du document

Bruno Kerouanton – 14 septembre 2009 – Le Club des Vigilants
Licence Creative Commons By-Nc

Apple est loin d’être seule en cause mais le succès phénoménal de son iPhone illustre, à bien des égards, le paradoxe du citoyen consommateur contemporain.

D’un côté, il se dit écolo. De l’autre, il se jette sur un appareil dont la batterie est intégrée au téléphone, faisant de l’objet un produit jetable complexe à recycler.

D’un côté, il prône la liberté de téléchargement sur Internet, et le droit de dupliquer à l’infini films et œuvres musicales au grand dam des auteurs et de leurs ayants droit. De l’autre, il se précipite sur l’une des plateformes informatiques les plus verrouillées en termes de mesures anticopie.

D’un côté, il se méfie des monopoles. De l’autre, il utilise la plateforme de téléchargement AppStore qui centralise de manière obligatoire toute application disponible, préalablement soumise à la censure de l’éditeur californien.

D’un côté, il défend les logiciels libres et leur gratuité. De l’autre, il n’a jamais autant acheté de logiciels depuis la mise en place de l’AppStore.

D’un côté, il aime l’anonymat et le respect de la vie privée. De l’autre, il se rue sur l’iPhone qui est l’une des plateformes les plus intrusives, en termes de géolocalisation, mais également de suivi des habitudes d’utilisation et de consommation.

Le succès d’Apple tient à la technologie et à l’innovation. En offrant à ses clients un produit très en avance sur ses concurrents, en termes d’ergonomie et de fonctionnalités, ceux-ci sont prêts à en oublier les inconvénients, voire carrément à en occulter l’existence.

Ce comportement paradoxal doit être pris en compte dans le cadre de nouveaux enjeux sociétaux relatifs aux nouvelles technologies. Risques liés aux réseaux sociaux, difficulté de mise en application de réglementations de type Hadopi et bien d’autres thèmes d’actualité devraient être revus en tenant compte de cette surprenante tendance.

Notes

[1] Crédit photo : Mat Honan (Creative Commons By)

[2] Sur le même sujet on pourra aussi lire cet autre article du Framablog : iPhone 3G : tout ce qui brille n’est pas or.




Pandémie grippale + Sanction Hadopi = Continuité pédagogique non assurée

Freeparking - CC byCette rentrée scolaire rime avec risque annoncé de pandémie grippale A/H1N1.

C’est pourquoi le ministère de l’Éducation nationale a rédigé une circulaire apportant « les réponses que la communauté éducative attend, en matière d’hygiène et de santé au travail et en matière de continuité pédagogique ».

Pour ce qui concerne la continuité pédagogique, on peut lire ceci pour les collèges et les lycées[1] :

« Dans tous les cas d’absence d’élèves, de fermeture de classes ou d’établissements, il appartient à chaque professeur d’assurer la continuité pédagogique des cours de sa discipline. Pour ce faire, plusieurs moyens sont mobilisables ; les établissements s’organiseront en tenant compte de l’ensemble des équipements et des compétences dont ils disposent.

Pour les établissements disposant d’espace numérique de travail (E.N.T.) ou fournissant par le biais d’internet un accès à des ressources pédagogiques, les professeurs pourront adresser les supports de cours et d’exercices aux élèves absents et permettre ainsi un échange continu et interactif ;

En l’absence d’E.N.T., les travaux à faire pourront être mis en ligne sur le site de l’établissement, et s’appuieront sur les manuels scolaires utilisés en classe.

Si le site de l’établissement est indisponible, et pour les élèves ne disposant pas d’accès à internet, les travaux à faire à la maison seront remis aux élèves dès l’avis de fermeture de la classe ou de l’établissement.

De surcroît, les professeurs conseilleront aux familles équipées d’internet de se connecter au site http://www.academie-en-ligne.fr, mis en place par le CNED qui propose à titre gratuit des ressources téléchargeables : cours et exercices sous forme écrite ou audio. Ces ressources seront disponibles dès la mi-septembre pour le premier degré, fin octobre pour la plupart des disciplines d’enseignement général du second degré. »

Le dénominateur commun de toutes ces mesures (sauf une) ?

Elles nécessitent un accès à Internet. Ce qui n’est pas encore le cas de tous les foyers français.

Mais si en plus Hadopi s’en mêle, en étant susceptible de couper la connexion à toute une famille, on arrive à une situation pour le moins problématique !

C’est ce que nous rappelle l’Isoc France[2], dans un récent communiqué que nous avons reproduit ci-dessous, à la veille de l’examen à l’Assemblée nationale du projet de loi « Hadopi 2 » (qui aura lieu le mardi 15 septembre prochain).

PS : Pour une lecture (plus que) critique du site de l’Académie en ligne, nous vous renvoyons vers ce billet du Framablog.

Hadopi 2 et pandémie : ne coupez pas l’éducation en ligne !

URL d’origine du document

Isoc – 9 septembre – Communique de Presse

Les solutions proposées pour affronter la pandémie grippale mettent au jour l’inanité des dispositions contenues dans la loi dite Hadopi 2, à commencer par la coupure de l’accès pour toute une famille.

Prochainement proposée au vote du Parlement, cette loi fait suite à la loi Hadopi 1 qui a été partiellement invalidée par le Conseil constitutionnel. Dès le début de la discussion relative à ce premier texte, le chapitre français de l’Internet Society a contesté que la coupure à Internet puisse être une sanction acceptable.

Pour faire face aux fermetures d’établissements, le gouvernement voudrait proposer des cours de substitution par Internet. En attendant que les classes puissent rouvrir normalement, Internet permettra ainsi à nos enfants de continuer à apprendre.

Or, si les dispositions de la Loi Hadopi 2 étaient en vigueur aujourd’hui, l’accès au net de milliers de famille pourrait être suspendu et leurs enfants privés de facto du droit à l’éducation.

Peut-on punir une famille entière, pour les errements supposés d’un de ses membres (ou de ses voisins) ? Quelle législation nationale, pour préserver les profits de quelques artistes et industriels du divertissement, priverait des milliers de familles de l’accès au réseau ?

La pandémie grippale vient rappeler qu’on ne peut pas prétendre entrer dans la société du 21e siècle avec des conceptions disciplinaires d’un autre âge. La société de la connaissance qui s’annonce est une société ouverte, où l’échange direct entre les individus est créateur de richesse et de sens. En votant l’Hadopi 2, les parlementaires français voteront pour le monde d’avant-hier.

La suspension d’Internet ne peut pas être la sanction au téléchargement illégal ou au défaut de sécurisation de sa connexion.

L’Isoc France demande aux députés français de penser au présent et l’avenir de nos enfants, au moment du vote. En leur âme et conscience.

Notes

[1] Crédit photo : Freeparking (Creative Commons By)

[2] Fondée en 1996 par une poignée de pionniers, l’Internet Society France est le Chapitre Français de l’Isoc Association internationale, A l’heure où le réseau devient un enjeu technologique, économique et sociétal majeur, l’Isoc France s’attache à préserver et à défendre les valeurs fondamentales de l’Internet que sont l’universalité, l’accessibilité, le respect des standards ouverts, la non discrimination du réseau et l’interopérabilité des solutions techniques.




La guerre contre le partage doit cesser, nous dit Richard Stallman

Wikimania2009 - CC byIl n’y a aucune justification à la guerre actuelle menée contre le partage en général et celui de la musique en particulier, nous dit ici Richard Stallman, non sans proposer au passage quelques pistes pour sortir de cette inacceptable situation.

On remarquera que cet article ne figure ni sur le site de GNU ni sur celui de la FSF mais sur son site personnel[1].

En finir avec la guerre au partage

Ending the War on Sharing

Richard Stallman – Septembre 2009 – Site personnel
(Traduction Framalang : Claude et Goofy)

Quand les maisons de disques font toute une histoire autour du danger du « piratage », elles ne parlent pas d’attaques violentes de navires. Elles se plaignent du partage de copies de musique, une activité à laquelle participent des millions de personnes dans un esprit de coopération. Le terme « piratage » est utilisé par les maisons de disques pour diaboliser le partage et la coopération en les comparant à un enlèvement,un meurtre ou un vol.

Le copyright (NdT : Pour des questions de non correspondance juridique nous avons choisi de ne pas traduire copyright par droit d’auteur) a été mis en place lorsque la presse imprimée a fait de la copie un produit de masse, le plus souvent à des fins commerciales. Le copyright était acceptable dans ce contexte technologique car il servait à réguler la production industrielle, ne restreignant pas les lecteurs ou (plus tard) les auditeurs de musique.

Dans les années 1890, les maisons de disques commencèrent à vendre des enregistrements musicaux produits en série. Ceux-ci facilitèrent le plaisir de la musique et ne furent pas un obstacle à son écoute. Le copyright sur ces enregistrements était en général peu sujet à controverse dans la mesure où il ne restreignait que les maisons de disques mais pas les auditeurs.

La technique numérique d’aujourd’hui permet à chacun de faire et partager des copies. Les maisons de disques cherchent maintenant à utiliser les lois sur le copyright pour nous refuser l’utilisation de cette avancée technologique. La loi, acceptable quand elle ne restreignait que les éditeurs, est maintenant une injustice car elle interdit la coopération entre citoyens.

Empêcher les gens de partager s’oppose à la nature humaine, aussi la propagande orwellienne du « partager, c’est voler » tombe-t-elle généralement dans l’oreille de sourds. Il semble que le seule manière d’empêcher les gens de partager soit une guerre rude contre le partage. Ainsi, les maisons de disques, au moyen de leurs armes légales comme la RIAA (NdT : RIAA : Recording Industry Association of America), poursuivent en justice des adolescents, leur demandant des centaines de milliers de dollars, pour avoir partagé. Au même moment, des coalitions d’entreprises, en vue de restreindre l’accès du public à la technologie, ont développé des systèmes de Gestion de Droits Numériques (NdT : Systèmes anti-copie ou DRM : Digital Restrictions Management) pensés pour menotter les utilisateurs et rendre les copies impossibles : les exemples incluent iTunes ou encore les disques DVD et Blueray (voir DefectiveByDesign.org pour plus d’informations). Bien que ces coalitions opèrent de façon anti-concurrentielle, les gouvernements oublient systématiquement de les poursuivre légalement.

Le partage continue malgré ces mesures, l’être humain ayant un très fort désir de partage. En conséquence, les maisons de disques et autres éditeurs demandent des mesures toujours plus dures pour châtier les partageurs. Ainsi les États-Unis ont voté une loi en octobre 2008 afin de saisir les ordinateurs utilisés pour le partage interdit. L’union Européenne envisage une directive afin de couper l’accès à Internet aux personnes accusées (pas condamnées) de partage : voir laquadrature.net si vous souhaitez aider et vous opposer à cela. La Nouvelle-Zélande a déjà adopté une telle loi en 2008.

Au cours d’une récente conférence, j’ai entendu une proposition demandant que les gens prouvent leur identité afin d’accéder à Internet : une telle surveillance aiderait aussi à écraser la dissidence et la démocratie. La Chine a annoncé une telle politique pour les cybercafés : l’Europe lui emboitera-t-elle le pas ? Un premier ministre au Royaume-Uni a proposé d’emprisonner dix ans les personnes en cas de partage. Ce n’est toujours pas appliqué… pour le moment. Pendant ce temps, au Mexique, les enfants sont invités à dénoncer leurs propres parents, dans le meilleur style soviétique, pour des copies non-autorisées. Il semble qu’il n’y ait pas de limite à la cruauté proposée par l’industrie du copyright dans sa guerre au partage.

Le principal argument des maisons de disques, en vue de l’interdiction du partage, est que cela cause des pertes d’emplois. Cette assertion se révèle n’être que pure hypothèse[2]. Et même en admettant qu’elle soit vraie, cela ne justifierait pas la guerre au partage. Devrions-nous empêcher les gens de nettoyer leurs maisons pour éviter la perte d’emplois de concierges ? Empêcher les gens de cuisiner ou empêcher le partage de recettes afin d’éviter des pertes d’emplois dans la restauration ? De tels arguments sont absurdes parce que le remède est radicalement plus nocif que la maladie.

Les maisons de disques prétendent aussi que le partage de musique ôte de l’argent aux musiciens. Voilà une sorte de demi-vérité pire qu’un mensonge : on n’y trouve même pas une vraie moitié de vérité.
Car même en admettant leur supposition que vous auriez acheté sinon un exemplaire de la même musique (généralement faux, mais parfois vrai), c’est seulement si les musiciens sont des célébrités établies depuis longtemps qu’ils gagneront de l’argent suite à votre achat. Les maisons de disques intimident les musiciens, au début de leur carrière, par des contrats abusifs les liant pour cinq ou sept albums. Il est rarissime qu’un enregistrement, sous incidence de ces contrats, vende suffisamment d’exemplaires pour rapporter un centime à son auteur. Pour plus de détails, suivez ce lien. Abstraction faite des célébrités bien établies, le partage ne fait que réduire le revenu que les industriels du disque vont dépenser en procès intentés aux amateurs de musique.

Quant aux quelques musiciens qui ne sont pas exploités par leurs contrats, les célébrités bien assises, ce n’est pas un problème particulier pour la société ou la musique si elles deviennent un peu moins riches. Il n’y a aucune justification à la guerre au partage. Nous, le public, devrions y mettre un terme.

Certains prétendent que les maisons de disques ne réussiront jamais à empêcher les gens de partager, que cela est tout simplement impossible[3]. Etant données les forces asymétriques des lobbyistes des maisons de disques et des amateurs de musique, je me méfie des prédictions sur l’issue de cette guerre ; en tout cas, c’est folie de sous-estimer l’ennemi. Nous devons supposer que chaque camp peut gagner et que le dénouement dépend de nous.

De plus, même si les maisons de disques ne réussiront jamais à étouffer la coopération humaine, elles causent déjà aujourd’hui énormément de dégâts, juste en s’y essayant, avec l’intention d’en générer davantage demain. Plutôt que de les laisser continuer cette guerre au partage jusqu’à ce qu’ils admettent sa futilité, nous devons les arrêter aussi vite que possible. Nous devons légaliser le partage.

Certains disent que la société en réseau n’a plus besoin de maisons de disques. Je n’adhère pas à cette position. Je ne paierai jamais pour un téléchargement de musique tant que je ne pourrais pas le faire anonymement, je veux donc être capable d’acheter des CDs anonymement dans une boutique. Je ne souhaite pas la disparition des maisons de disques en général, mais je n’abandonnerai pas ma liberté pour qu’elles puissent continuer.

Le but du copyright (sur des enregistrements musicaux ou toute autre chose) est simple : encourager l’écriture et l’art. C’est un but séduisant mais il y a des limites à sa justification. Empêcher les gens de pratiquer le partage sans but commercial, c’est tout simplement abusif. Si nous voulons promouvoir la musique à l’âge des réseaux informatiques, nous devons choisir des méthodes correspondant à ce que nous voulons faire avec la musique, et ceci comprend le partage.

Voici quelques suggestions à propos de ce que nous pourrions faire :

  • Les fans d’un certain style de musique pourraient organiser des fans clubs qui aideraient les gens aimant cette musique.
  • Nous pourrions augmenter les fonds des programmes gouvernementaux existants qui subventionnent les concerts et autres représentations publiques.
  • Les artistes pourraient financer leurs projets artistiques coûteux par des souscriptions, les fonds devant être remboursés si rien n’est fait.
  • De nombreux musiciens obtiennent plus d’argent des produits dérivés que des enregistrements. S’ils adoptent cette voie, ils n’ont aucune raison de restreindre la copie, bien au contraire.
  • Nous pourrions soutenir les artistes musiciens par des fonds publics distribués directement en fonction de la racine cubique de leur popularité. Utiliser la racine cubique signifie que, si la célébrité A est 1000 fois plus populaire que l’artiste chevronné B, A touchera 10 fois plus que B. Cette manière de partager l’argent est une façon efficace de promouvoir une grande diversité de musique.
    La loi devrait s’assurer que les labels de disques ne pourront pas confisquer ces sommes à l’artiste, l’expérience montrant qu’elles vont essayer de le faire. Parler de « compensation » des « détenteurs de droits » est une manière voilée de proposer de donner l’essentiel de l’argent aux maisons de disques, au nom des artistes.
    Ces fonds pourraient venir du budget général, ou d’une taxe spéciale sur quelque chose liée plus ou moins directement à l’écoute de musique, telle que disques vierges ou connexion internet.
  • Soutenir l’artiste par des paiements volontaires. Cela fonctionne déjà plutôt bien pour quelques artistes tels que Radiohead, Nine Inch nail (NdT : Voir cette vidéo) ou Jane Siberry (sheeba.ca), même en utilisant des systèmes peu pratiques qui obligent l’acheteur à avoir une carte de crédit.
    Si chaque amateur de musique pouvait payer avec une monnaie numérique (NdT : digital cash), si chaque lecteur de musique comportait un bouton sur lequel appuyer pour envoyer un euro à l’artiste qui a créé le morceau que vous écoutez, ne le pousseriez-vous pas occasionnellement, peut-être une fois par semaine ? Seuls les pauvres et les vrais radins refuseraient.

Vous avez peut-être d’autres bonnes idées. Soutenons les musiciens et légalisons le partage.

Copyright 2009 Richard Stallman
Cet article est sous licence Creative Commons Attribution Noderivs version 3.0

Notes

[1] Crédit photo : Wikimania2009 (Creative Commons By)

[2] Voir cet article, mais attention à son utilisation du terme de propagande « propriété intellectuelle », qui entretient la confusion en mettant dans le même panier des lois sans rapport. Voir ce lien et pourquoi il n’est jamais bon d’utiliser ce terme.

[3] Voir the-future-of-copyright.




Trente mille euros de dons en sept mois et Framasoft se donne un peu d’air

Logo Framasoft - LL de Mars - Art LibreDu fond du cœur merci !

Merci à tous ceux qui ont participé à notre campagne de dons.

Ceci nous permet d’aborder la rentrée avec confiance et d’entrevoir l’exercice 2009/2010 avec beaucoup plus de sérénité.

En février dernier, lorsque nous avons constaté que les caisses de l’association étaient insuffisantes pour conserver notre unique (et indispensable) salarié, nous avons donc décidé de lancer une campagne de dons.

Cela s’est fait en toute discrétion : aucune annonce tonitruante, aucune demande de relai, une simple référence en haut de page de tous les sites du réseau, ainsi qu’une fenêtre d’information s’affichant au moment du téléchargement d’une framakey ou d’un framabook.

Nous avions fixé un peu arbitrairement la somme à atteindre à trente mille euros, le minimum vital pour achever l’année 2009. Certains, chez nous, ont dit que c’était trop bas eu égard à nos réels besoins. D’autres ont dit au contraire que c’était trop haut et qu’en temps de crise et de processus complexe de dons sur Internet, on se « taperait la honte » en n’y arrivant pas.

La honte attendra, la fin de l’aventure également, puisque, grâce à vous, nous y sommes arrivés (ou presque, vous pouvez encore y aller !). Et, au delà de l’aspect purement comptable, cela donne la pêche à toute l’équipe parce que cela témoigne de votre attachement à ce qu’est et ce que fait Framasoft.

À rapprocher d’un autre succès, celui de l’April et de ses cinq mille membres, pour émettre l’hypothèse que le logiciel libre francophone dispose d’une petite mais solide base de personnes capables de se mobiliser en soutenant aussi matériellement certains de ces acteurs. De quoi rendre optimiste en ces temps où la « mentalité Hadopi » menace les biens communs…

Objectif atteint certes, mais nous n’en déboucherons pas le champagne pour autant (notre trésorier nous l’interdirait de toutes les façons). Rien n’est acquis et notre fragilité demeure. Ce n’était qu’une étape, en quelque sorte celle de l’urgence et de la survie, et nous n’avons malheureusement pas fini de vous solliciter. Mais nous le ferons avec d’autant plus de facilité (voire de légitimité) que nous pouvons pour le moment continuer à nous concentrer sur notre travail, nos projets et le service rendu par notre réseau.

Dans un prochain billet nos vous donnerons quelques détails sur ce que nous comptons poursuivre et développer ensemble cette année. Nous publierons également le budget et les dépenses de l’association.

Une nouvelle fois merci pour votre reconnaissance et vos encouragements.

La route est longue mais la voie est libre.
L’équipe Framasoft




SARD : première initiative marquante de l’ère post Hadopi ?

Delcio G.P. Filho - CC byLe 8 septembre prochain à Paris, au cours d’une rencontre ouverte à tous où seront présentes de nombreuses et éminentes personnalités (Richard Stallman, Bernard Stiegler, Martine Billard, Laurent Chemla…), va se créer officiellement la SARD, acronyme de Société d’Acceptation et de Répartition des Dons.

Vous en trouverez le Communiqué de Presse ci-dessous ainsi qu’une première Foire Aux Questions.

J’en suis signataire, tout comme Benjamin Jean qui outre ses fonctions à Veni Vidi Libri est également membre de Framasoft[1].

Je lui cède d’ailleurs la place pour nous présenter une initiative qu’il n’hésite pas à qualifier de « pavé dans la mare » qui pourrait changer, modifier notre vision de la propriété intellectuelle et la place qu’elle occupe dans notre société. Ces propos n’engagent que son auteur[2] mais je m’y associe bien volontiers.

Tout le monde connaît, même vaguement la Propriété Intellectuelle[3] et les utilisations qui peuvent en être faites (pour prendre les deux extrêmes : le contrôle absolu représenté par la SACEM ou les éditeurs de logiciels traditionnels, et le partage par les licences libres).

En bref, la propriété intellectuelle repose sur un équilibre entre l’intérêt du public (A) et l’intérêt des créateurs/auteurs/inventeurs/etc (B)[4]. Ses objectifs (qui justifie le monopole accordé aux ayants-droits (B)) sont : 1. de faciliter et favoriser l’innovation (au bénéfice de la société et donc du public (A)), 2. donner à l’auteur un contrôle sur son oeuvre en raison du lien qui les unit[5].

Ce système repose sur un postulat : « puisqu’il existe et qu‘il marche (des gens continuent à créer et innover), c’est bien que le système actuel favorise la création et sa diffusion. »

La SARD serait donc une remise en question de ce dernier postulat : un changement de paradigme, de mentalité, un système différent qui, s’il fonctionne, montrerait que le système actuel de Propriété Intellectuelle n’est pas la seule (et/ou la meilleure) façon de favoriser la création et l’innovation. Attention, il ne s’agit pas forcément d’une alternative, mais plus d’un système parallèle qui, s’il marche, délégitimerait celui que l’on connaît aujourd’hui.

Ainsi, ces artistes pourraient éventuellement toucher de l’argent/un financement sans user de leurs droits de propriété intellectuelle, à eux de voir ensuite s’ils désirent jouer dans les deux camps (qui sont néanmoins contradictoire puisqu’il me semble légitime de penser que celui qui compte diffuser gratuitement et massivement sa musique aura plus de facilité à recevoir des dons que celui qui ne vend que quelques exemplaires dans quelques boutiques spécialisées).

Voici donc une initiative des plus ambitieuses ! Difficile de prédire ce qu’il en adviendra.

Au pire nous aurons contribué à déplacer le « débat Hadopi » vers une réflexion moins répressive et plus constructive. Au mieux nous aurons effectivement participé à ce « changement de paradigme », sachant que, GNU/Linux ou Wikipédia peuvent en témoigner, l’époque semble favorable aux projets impossibles qui aboutissent.

Naissance de la SARD, Société d’acceptation et de répartition des dons, un nouveau mécanisme pour pour financer équitablement la créativité et la diversité numérique

URL d’origine du communiqué de presse

Paris, le 4 septembre 2009. Mardi 8 septembre à 16h sera fondée à Paris la Société d’acceptation et de répartition des dons (SARD), dans le cadre d’une journée consacrée aux alternatives au système des droits d’auteur, fragilisés à l’heure des réseaux d’information et de communication. En présence d’un des fondateurs du mouvement pour le logiciel libre, Richard Stallman, du philosophe Bernard Stiegler, d’artistes et de politiques (Pierre Aidenbaum, Martine Billard, Patrick Bloche), les fondateurs de la SARD présenteront ce système volontaire nouveau, inspiré par la proposition du Mécénat Global, basé sur le don du public aux œuvres qu’il souhaite soutenir.

Hadopi n’est pas encore adoptée par le Parlement en France que ce projet de loi liberticide se trouve déjà dépassé. Partout dans le monde, les lois qui régissent les rapports entre public et création sont en chantier, les industries culturelles crient au loup (le piratage), tandis que les auteurs n’ont toujours pas accès à un système de financement de leurs œuvres. Et les (longs) débats législatifs autour de la répression du public au nom de la protection des auteurs n’ont fait émerger aucun nouveau système de soutien à la création.

Pour sortir des discours caricaturaux et aborder les questions du financement de la création sur l’Internet et les réseaux, la reconnaissance des artistes et auteurs d’oeuvres numériques sur Internet, la SARD, ouverte au public, aux artistes, auteurs et créateurs, du monde entier et de toutes nationalités, se mobilise pour le libre accès à la culture, grâce à un système de financement par le don.

Trop utopiste, trop compliqué, trop alternatif, trop expérimental ? Ces critiques à l’encontre des tentatives de réfléchir à des alternatives viables à la notion hégémonique et confuse de « propriété intellectuelle » sont fréquentes. Pour répondre aux questions et appeler à un dialogue constructif entre public, auteurs et politiques,les membres fondateurs de la SARD (artistes, éditeurs, ingénieurs, journalistes, membres d’associations soutenant le libre, scientifiques) vous invitent à cette journée exceptionnelle.

Quand ?

  • Le 8 septembre, de 16h à 22h.

Où ?

  • Mairie du 3ème, 2 rue Eugène Spuller, 75003 Paris.

Quoi ?

  • De 16h à 19h: Assemblée constituante de la Société d’Acceptation et de Répartition des Dons (SARD).
  • De 19h à 20h: Conférence de presse.
  • De 20h à 22h: Conférence: quelle alternative concrète pour le financement des œuvres numériques ? Avec Richard Stallman (le fondateur de GNU/Linux présentera le Mécénat global), Bernard Stiegler (le président d’Ars Industrialis parlera d’« Amateur d’art ou consommateur » et Antoine Moreau, l’instigateur de la Licence Art Libre, posera la question du « tous artistes ? ». Modération Laurent Chemla.

Comment ?

  • Accès libre.

En savoir plus ?

SARD, la FAQ

URL d’origine du document

Qui ?

Benjamin Jean (Veni Vidi Libri), Valentin Lacambre (Altern), Dominique Lacroix, Philippe Langlois (Hacklab), Christian Lavigne (poete et cybersculpteur), Antoine Moreau (instigateur de la Licence Art Libre), Francis Muguet (Mécénat global), Jérémie Nestel (Attention Chantier), Mathieu Pasquini (InLibroVeritas), Louis Pouzin (un pere de l’internet), Annick Rivoire (Poptronics), Raphael Rousseau (un fils de l’internet, activiste du Libre), Michel Sitbon (ACJ, Association des cyber-journaliste), Pierre Troller (artiste), Alexis Kauffmann (Framasoft).

Quoi ?

La SARD ou Société d’acceptation et de répartition des dons est ouverte aux artistes, auteurs et créateurs de toutes nationalités. Elle a pour objet de favoriser le libre acces a la culture, grâce a un systeme de financement par le don.

Ce mode de financement concerne toute production de l’esprit, et notamment tous les types d’oeuvres numériques et numérisées, qu’elles soient textuelles (blogs, sites, articles…), audio, visuelles, logicielles, plastiques ou musicales.

Sont considérés comme auteurs, toutes les personnes ayant contribué a la création de l’oeuvre.

Où ?

Sur l’Internet, et, plus largement, sur tous les réseaux d’information et de communication et dans tous les pays.

Pourquoi ?

Aujourd’hui, la création sur Internet et les réseaux d’information ne peut se suffire de la seule gratuité. Elle doit etre financée d’une maniere juste et équitable pour répondre aux attentes des artistes, des auteurs et du public. Le succes d’Internet reposant sur des millions d’auteurs et de contributeurs, il est important que ceux-ci, dans leur pluralité, puissent se fédérer pour que se constitue un mode de financement de la création.

Comment ?

Il s’agit de mettre en place un mécanisme simple de répartition des dons, faits par les internautes pour les oeuvres de leur choix. Il ne s’agit pas d’une nouvelle taxe ou redevance, mais bien d’une nouvelle façon de concevoir le rapport entre les auteurs et le public.

Qui donne ? Les grands donateurs (prestataires Internet, opérateurs télécoms, etc.) et les internautes directement, selon leur appréciation.

Comment l’argent collecté est-il réparti ? La SARD, en tant que structure d’expérimentation, mettra en place plusieurs systemes de répartition :

  • l’internaute donne directement aux oeuvres de son choix.
  • l’internaute verse au pot commun a la SARD selon des clés de répartition transparentes et claires, établies a partir de l’appréciation des internautes.
  • les grands donateurs versent au pot commun de la SARD.

Un comité d’évaluation indépendant contrôlera régulierement le fonctionnement de l’association.

Combien ?

L’intégralité des dons destinés aux oeuvres est redistribuée aux oeuvres. Les frais de gestion de l’association sont financés par des donations spécifiques.

Pour Qui ?

Tous les artistes, auteurs et créateurs qui ont inscrit volontairement leurs oeuvres au service d’acceptation et et de répartition des dons.

Sont susceptibles d’inscrire leurs oeuvres :

  • les artistes, auteurs et créateurs inscrits aupres des sociétés de gestion collective traditionnelles, la SARD vient en parallele des dispositifs existants.
  • les artistes, auteurs et créateurs qui ne sont pas inscrits aupres des sociétés de gestion collective, l’inscription a la SARD n’engage en rien leurs droits sur leurs oeuvres.
  • les artistes, auteurs et créateurs sous licence libre qui ne sont pas membres d’une société de gestion collective, la SARD est favorable a l’usage des licences libres.

Pour en savoir plus ?

http://www.sard-info.org

Notes

[1] Crédit photo : Delcio G.P. Filho (Creative Commons By)

[2] Source : Blog de Veni Vidi Libri (sous licence Art Libre)

[3] Pour faire court, un ensemble de droits reconnus à une personne sur une création particulière et assimilable à ceux d’un propriétaire sur sa chose/son bien.

[4] De nombreuses thèses existent sur ce « droit du public à l’information » qui relative les droits des auteurs notamment.

[5] Néanmoins, durant de longues années, les USA assuraient une protection quasi-équivalente aux droits moraux sans user des droits de propriété intellectuelle.




Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire

Rudolf Schuba - CC bySéquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Daria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard dans les communications de l’ACM (CACM), le journal de l’Association for Computer Machinery. « Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité d’utilisation ».

Apparemment ils y sont arrivés. Unix va évoluer pour devenir une pierre angulaire de l’informatique, largement installé sur les serveurs et les postes de travail dans les universités, les gouvernements et les entreprises. Et son influence s’est étendue bien au-delà de ses déploiements, comme l’a noté l’ACM en 1983, lorsqu’ils ont attribué leur prix le plus élevé à Thompson et Ritchie, le A.M. Turing Award pour leur contribution à l’informatique : « Le modèle du système Unix a conduit une génération de concepteurs logiciels à repenser leur manière de programmer ».

Les premiers pas

Bien sûr, le succès d’Unix n’est pas arrivé d’un coup. En 1971, il a été porté sur le mini-ordinateur PDP-11, une plateforme plus puissante que le PDP-7 pour laquelle il avait été écrit à l’origine. Des programmes d’édition et de formatage de texte ont été ajoutés, et il a été déployé pour quelques dactylos du département des Brevets des Bell Labs, ses premiers utilisateurs en dehors de l’équipe de développement.

En 1972, Ritchie écrivait le langage de programmation de haut-niveau C (basé sur un langage précédent de Thompson, le B) ; suite à cela, Thompson réécrivit Unix en C, ce qui permit d’améliorer la portabilité de l’OS sur différents environnements. En cours de chemin, il acquit le nom de Unics (Uniplexed Information and Computing Services), un jeu de mots sur Multics ; l’orthographe se transforma rapidement en Unix.

Il était temps d’envahir le monde. L’article de Ritchie et Thompson de Juillet 1974 dans le CACM, « Le système temps-partagé UNIX », prit le monde de l’informatique dans un ouragan. Jusqu’alors, Unix avait été confiné à une poignée d’utilisateurs dans les Laboratoires Bell. Mais maintenant, avec l’Association for Computing Machinery derrière lui, un éditeur l’ayant qualifié comme étant élégant, Unix était à un moment crucial.

« L’article du CACM avait eu un impact très fort », raconte l’historien de l’informatique Peter Salus dans son livre The Daemon, the Gnu and the Penguin (NdT : Le démon, le Gnou et le manchot). « Peu de temps après, Ken était assailli de demandes concernant Unix ».

Un paradis pour les hackers

Thompson et Ritchie étaient des hackers accomplis, quand ce terme désignait quelqu’un qui combinait une créativité hors pair, une intelligence à toute épreuve et de l’huile de coude pour résoudre des problèmes logiciels que l’on a peine à imaginer.

Leur approche, et le code qu’ils avaient écrit, étaient attractifs pour les programmeurs des universités, et plus tard pour des entreprises qui démarraient sans les méga budgets de IBM, Hewlett-Packard ou Microsoft. Unix était tout ce dont les autres hackers, comme Bill Joy à l’Université de Californie, Rick Rashid à l’Université Carnegie Mellon et David Korn plus tard aux Laboratoires Bell avaient rêvé.

« Presque depuis le début, le système était capable de se maintenir seul, et il l’avait prouvé », écrivaient Thompson et Ritchie dans l’article du CACM. « Comme tous les programmes sources étaient toujours disponibles et facilement modifiables en ligne, nous étions volontaires pour réviser et modifier le système et ses logiciels lorsque de nouvelles idées étaient inventées, découvertes ou suggérées par d’autres ».

Korn, maintenant membre d’AT&T, travaillait comme programmeur aux Bell Labs dans les années 1970. « L’une des caractéristiques de Unix était que des outils pouvaient être écrits, et de meilleurs outils pouvaient les remplacer », se souvient-il. « Ce n’était pas un monolithe dans lequel il fallait tout approuver ; vous pouviez en fait développer de meilleures versions ». Il a développé l’influent Korn shell, un langage de programmation permettant d’interagir directement avec Unix, maintenant disponible en open source.

Salus, auteur et historien des technologies, se souvient de son travail avec le langage de programmation APL sur un mainframe IBM tournant sous System/360, en tant que professeur à l’Université de Toronto dans les années 1970. Mais le lendemain de Noël 1978, un ami à l’Université de Colombia lui fit une démonstration de Unix, tournant sur un mini-ordinateur. « Je me suis exclamé : Oh mon Dieu !, et j’étais totalement converti », raconte Salus.

Il dit que pour lui, l’un des avantages clés de Unix était la fonctionnalité pipe, introduite en 1973, qui rendait facile le passage de données d’un programme à l’autre. Le concept de pipeline, inventé par McIlroy des Bell Labs, fut par la suite copié dans de nombreux OS, parmi lesquels les variantes d’Unix, Linux, DOS et Windows.

Un autre avantage de Unix, le deuxième effet Wooow, comme le dit Salus, était qu’il n’avait pas besoin d’un mainframe d’un demi-million de dollars pour tourner. Il avait été écrit sur le petit mini-ordinateur DEC PDP-7, assez primitif, car c’était tout ce que Thompson et Ritchie avaient sous la main en 1969. « Le PDP-7 était presque incapable de quoi que ce soit », se souvient Salus. « J’étais scotché ».

Pas mal de monde a également été rendu accro. Les chercheurs des universités ont adopté Unix car il était assez simple et facilement modifiable, ne demandait pas beaucoup de ressources, et le code source était libre pour une bonne partie. Des startups comme Sun Microsystems et un ensemble d’entreprises maintenant défuntes qui se spécialisaient dans l’informatique scientifique, comme Multiflow Computer, en ont fait leur système d’exploitation de choix pour les mêmes raisons.

La progéniture d’Unix

Unix a grandi comme un système non-propriétaire car en 1956 AT&T avait été enjoint par une décret fédéral à ne pas s’écarter de sa mission de production de service téléphonique. Il pouvait développer du logiciel, et même le licencier pour un tarif raisonnable, mais l’entreprise ne pouvait pas entrer sur le marché de l’informatique.

Unix, qui avait été développé sans encouragement du management, avait d’abord été vu par AT&T comme quelque chose entre une curiosité et un casse-tête légal.

C’est à ce moment là, à la fin des années 1970, AT&t a réalisé qu’ils avaient quelque chose de commercialement intéressant en main. Ses avocats ont commencé à adopter une interprétation plus favorable de l’ordonnance de 1956, comme ils cherchaient des manières de protéger Unix comme un secret de fabrication. A partir de 1979, avec la sortie de la Version 7, les licences Unix interdisaient aux universités d’utiliser le code source Unix pour l’étudier pendant leurs cours.

Pas de problème, se dit alors le professeur d’informatique Andrew Tanenbaum, qui avait utilisé Unix V6 à l’Université Vrije à Amsterdam. En 1987, il écrivit un clone de Unix pour utiliser lors de ses cours, en créant le système d’exploitation open source Minix, qui tournait sur un microprocesseur Intel 80286.

« Minix comprenait toutes les idées d’Unix, et c’était un travail brillant », raconte Salus. « Seul un programmeur majeur, quelqu’un qui comprenait en profondeur les mécanismes internes d’un système d’exploitation, pouvait faire cela ». Minix allait devenir le point de départ pour la création de Linux par Linus Torvalds en 1991. Si ce n’était pas exactement un clone d’Unix, il s’agissait à n’en pas douter d’un Unix-like.

En reculant d’une décade ou à peu près, Bill Joy, qui était un étudiant diplômé et programmeur à l’Université de Californie de Berkeley dans les années 1970, mit la main sur une copie de l’Unix des Laboratoires Bell, et il pensa que c’était une bonne plateforme pour son propre travail sur un compilateur Pascal et un éditeur de texte.

Les modifications et extensions que lui et d’autres firent à Berkeley ont résulté dans la seconde branche majeure de Unix, appelée Berkeley Software Distribution (BSD) Unix. En mars 1978, Joy envoyait des copies de 1BSD, vendues 50$.

Ainsi en 1980 il y avait deux lignes majeures de Unix, l’une de Berkeley et l’autre de AT&T, et la scène était montée pour ce qui allait devenir la Guerre des Unix. La bonne nouvelle était que les développeurs de logiciels pouvaient avoir accès de partout au code source Unix, et l’adapter à leurs besoins et caprices. La mauvaise nouvelle c’est qu’ils firent exactement cela. Unix a proliféré, et les variantes ont divergé.

En 1982, Joy a contribué à fonder Sun Microsystems et offrait une station de travail, la Sun-1, qui utilisait une version de BSD appelée SunOS. (Solaris allait apparaitre environ 10 ans plus tard). L’année suivante, AT&T a sorti la première version de Unix System V, un système d’exploitation qui a eu une influence énorme et qui fut la base de IBM AIX et Hewlett-Packard HP-UX.

Les Guerres Unix

Unix History - Eraserhead1 et Infinity0 - CC by-saAu milieu des années 80, les utilisateurs, y compris le gouvernement fédéral, se sont plaints que si en théorie Unix était un système d’exploitation unique et portable, en fait on en était loin. Les éditeurs faisaient semblant d’adhérer à cette réclamation, mais travaillaient jour et nuit pour enfermer les clients avec des fonctionnalités et API uniques à leur Unix.

En 1987, Unix System Laboratories, qui faisait partie des Laboratoires Bell à cette époque, commença à travailler avec Sun sur un système qui pourrait unifier les deux branches majeures de Unix. Le produit de leur collaboration, appelé Unix System V Release 4.0, fut sorti deux ans plus tard, et combinait des fonctionnalités de System V Release 3, BSD, SunOS et du Xenix de Microsoft.

Les autres éditeurs Unix craignaient l’alliance AT&T/Sun. Les diverses parties ont formé des organismes standards concurrents, qui portaient des noms tels que X/Open, Open Software Foundation (ou OSF), Unix International et Corporation for Open Systems. Les arguments, contre-arguments et réussites de ces groupes pourraient remplir un livre, mais ils clamaient tous leur désir d’un Unix unifié, tout en se tirant dessus les uns les autres.

Dans un article écrit en 1988, mais non publié, pour la DARPA (Defense Advanced Research Projects Agency) (NdT : Agence pour les Projets de Recherche Avancée de la Défense), le pionnier des mini-ordinateurs Gordon Bell disait ceci de la toute nouvelle Open Software Foundation, qui incluait IBM, HP, DEC et d’autres, alliés contre le partenariat AT&T/Sun : « OSF est une manière pour ceux qui n’ont pas d’Unix d’entrer sur ce marché en devenir, tout en maintenant leur musées de code à hautes marges ».

Les Guerres Unix n’ont pas réussi à calmer les différences ou à créer un réel standard pour le système d’exploitation. Mais en 1993, la communauté Unix était réveillée par Microsoft, sous la forme de Windows NT, un système d’exploitation 32 bits utilisable en entreprise. Ce NT propriétaire visait directement Unix, et devait étendre l’hégémonie de Microsoft sur l’ordinateur de bureau aux centres serveurs et endroits similaires, tenus principalement par les serveurs Sun et autres.

Les utilisateurs Microsoft ont applaudi. Les fournisseurs Unix ont paniqué. Tous les principaux rivaux des Unix majeurs se sont réunis dans une initiative appelé Common Open Software Environnement (NdT : Environnement Logiciel Ouvert Commun), et l’année suivante ont plus ou moins déposé les armes en mixant le groupe Unix International, appuyé par AT&T/Sun avec l’Open Software Foundation. Cette coalition a évolué dans l’actuel The Open Group, organisme certificateur des systèmes Unix, et propriétaire de Single Unix Specification (SUS), maintenant la définition officielle de « Unix ».

D’un point de vue pratique, ces développements ont pu standardiser Unix au maximum possible, en fonction de la concurrence des éditeurs. Mais ils sont sans doute arrivés trop tard pour enrayer la montée d’une marée appelée Linux, le système d’exploitation open source dérivé de Minix du professeur Tanenbaum.

Mais qu’est ce que « Unix », finalement ?

Unix, vous diront la plupart des gens, est un système d’exploitation écrit il y a plusieurs dizaines d’années aux Laboratoires Bell de AT&T, et ses descendants. Les versions majeures d’Unix aujourd’hui proviennent de deux branches d’un même tronc : l’une émane directement de AT&T et l’autre vient de AT&T via l’Université de Californie de Berkeley. Les branches les plus robustes actuellement sont AIX d’IBM, HP-UX de HP et Solaris de Sun.

Toutefois, The Open Group, qui détient la marque déposée Unix, définit Unix comme n’importe quel système d’exploitation qui a été certifié par ses services pour se conformer à la Single Unix Specification (SUS) (NdT : Spécification Unix Unique). Ceci inclut des OS que l’on ne considère pas généralement comme étant des Unix, tel que Mac OS X Leopard (qui dérive d’un BSD Unix) et IBM z/OS (qui vient du système d’exploitation mainframe MVS), car ils se conforment au SUS et supportent les APIs SUS. L’idée basique est que c’est un Unix si cela agit comme Unix, quel que soit le code sous-jacent.

Une définition encore plus large d’Unix pourrait inclure les OS Unix Like (qui ressemblent à Unix), parfois appelé des clones d’Unix ou des sosies, qui ont copié une bonne partie des idées de Unix mais n’incorporent pas directement du code Unix. Le plus connu d’entre tous étant certainement Linux.

Finalement, même s’il est raisonnable d’appeler Unix un système d’exploitation, c’est finalement plus que cela. En plus du noyau de l’OS, les implémentations Unix embarquent typiquement des utilitaires tels que des éditeurs en ligne de commande, des interfaces de programmation applicatives (API), des environnements de développement, des librairies et de la documentation.

Le futur d’Unix

Le manque continuel de portabilité complète entre les différentes versions concurrentes d’Unix, de même que l’avantage financier de Linux et Windows sur les processeurs standards x86, vont inciter les organisations informatiques de quitter Unix, suggère un récent sondage du Gartner Group.

« Les résultats réaffirment l’enthousiasme continu pour Linux comme plate-forme serveur, avec Windows qui croît de la même manière, et Unix qui prend la route d’un long, mais graduel, déclin », décrit le sondage, publié en février 2009.

« Unix a eu un passé long et vivant, et même s’il n’est pas encore parti, il sera de plus en plus sous pression », dit l’analyste du Gartner George Weiss. « Linux est l’Unix de choix stratégique. Même si Linux n’a pas le long héritage de développement, de tuning et de tests de stress que Unix a pu avoir, il s’en approche et va bientôt égaler Unix en performance, stabilité et montée en charge », dit-il.

Mais un récent sondage de ComputerWorld suggère que le retrait d’Unix ne va pas arriver aussi rapidement. Dans cette enquête concernant 130 utilisateurs Unix sur 211 responsables informatiques, 90% ont déclaré que leur entreprise était « très ou extrêmement dépendante » de Unix. Un peu plus de la moitié a dit : « Unix est une plateforme essentielle pour nous et le restera indéfiniment », et seulement 12% ont dit « Nous pensons sortir de Unix dans le futur ». Les économies de coût, essentiellement au travers d’une consolidation de serveurs, étaient citées comme la raison n°1 pour migrer vers autre chose.

Weiss pense que la migration vers des processeurs x86 va s’accélérer à cause de l’avantage du coût du matériel. « Des architectures extensibles horizontalement ; le clustering ; le cloud computing ; la virtualisation sur x86, quand vous combinez toutes ces tendances, le système d’exploitation de choix tourne autour de Linux ou Windows », dit-il.

« Par exemple », déclare Weill, « dans l’annonce récente de Cisco de son architecture Unified Computing, vous avez dans un même équipement le réseau, le stockage, le calcul et la mémoire, et vous n’avez pas besoin d’Unix. Vous pouvez utiliser Linux ou Windows sur x86. Ainsi, Intel est en train de gagner la guerre pour le compte de Linux contre Unix ».

The Open Group, propriétaire des Single Unix Specification et organisme certificateur des systèmes Unix, concède peu à Linux, et déclare que Unix est le système de choix pour « le haut du panier en termes de fonctionnalités, montée en charge et performance pour des applications critiques ». Linux, dit-il, tend à être le standard pour les applications plus simples, moins critiques.

Korn, de AT&T, est parmi ceux qui pensent que Unix a encore un bel avenir. Korn dit que la force d’Unix pendant toutes ces années, depuis l’ajout des pipes en 1973, est qu’il peut facilement être éclaté en petits bouts et distribué. Ceci va pousser Unix en avant, dit-il. « La philosophie (du pipeline) fonctionne bien avec le cloud computing, dans lequel vous construisez des petits morceaux réutilisables plutôt qu’une grosse application monolithique ».

L’héritage d’Unix

Quel que soit le sort final d’Unix, le système d’exploitation né dans les Laboratoires Bell il y a 40 ans a établi un héritage qui risque de durer encore quelques dizaines d’années. Il peut revendiquer la paternité d’une longue liste de logiciels populaires, incluant l’offre Unix de IBM, HP, Sun, Apple Mac OS X et Linux. Il a également influencé des systèmes qui ont leurs racines dans Unix, comme Microsoft Windows NT et les versions IBM et Microsoft de DOS.

Unix a permis à de nombreuses entreprises qui démarraient de réussir, en leur offrant une plateforme peu onéreuse sur laquelle construire. C’était une des briques de base pour la construction d’Internet, et il fait partie du cœur des systèmes de télécommunications aujourd’hui. Il a engendré de nombreux concepts d’architecture, comme l’utilisation du pipeline, et le dérivé de Unix, Mach, a contribué énormément à l’informatique scientifique, distribuée et multiprocesseurs.

C’est peut-être l’ACM qui l’a mieux énoncé en 1983 dans sa citation du prix Turing en l’honneur de Thompson et Ritchie sur leur travail sur Unix : « Le génie du système Unix est dans sa structure, qui permet aux programmeurs de bâtir sur le travail des autres ».

Notes

[1] Crédit photos : 1. Rudolf Schuba (Creative Commons By) / 2. Hoshie (Domaine Public) / 3. Eraserhead1 et Infinity0 (Creative Commons By-Sa)