La voie négative du Net-Art par Antoine Moreau

Lorsqu’Antoine Moreau prend sa plume pour nous parler d’Art Libre c’est encore de l’Art Libre quand bien même le sujet central de cet article soit l’Art à l’heure d’Internet.

C’est avec plaisir que nous lui ouvrons nos modestes colonnes histoire de partager sa réflexion. Parce qu’il est doux et peut-être salutaire d’entendre parler de forme gracieuse de don à une époque où l’Art peut se perdre dans sa marchandisation baigné dans une Culture qui ne serait plus que de l’entertainment.

L’illustration est une photographie de N. Frespech sous licence Art Libre issue du projet Echoppe Photographique. où les visiteurs sont invités à commander une photographie en laissant un texte dans un formulaire. Il s’agit ici de la Commande 1712 : Chirac en prison. Commandée le 22-11-2007 par Coralie Fonck et reçue le 04-12-2007.

Chirac en prison - Frespech - Licence Art Libre

La voie négative du Net-Art

Un texte d’Antoine Moreau paru dans la revue Terminal, n°101, Printemps 2008.

Que peut être le Net-Art en suite d’une histoire de l’Art traversée par la négation ? Nous tenterons de montrer qu’il est une pratique précise et sensible du réseau des réseaux en intelligence avec son écosystème. Nous ferons la distinction entre « l’Art sur le Net », le « Net-Art » et « l’art du net ». Il s’agira de montrer que le Net-Art, en réalité, n’est pas autre chose que l’art du net : une pratique à la fois ordinaire et éclairée de l’internet. Celle-ci a le souci de la beauté intrinsèque du réseau, elle en observe les qualités qu’on trouve dans les principes fondateurs de l’internet et dans ceux du logiciel libre.

Net-Art : Niet-Art ?

Commençons par une observation : il y a des artistes, reconnus comme tels, qui font de l’art sur le réseau internet. Ils font de l’art avec le net, pour le net et par le net. Ils sont qualifiés de « Net-Artistes ». Les oeuvres créées s’inscrivent dans le lieu où elles évoluent, elles sont très souvent interactives et n’existent que dans le « réseau des réseaux »[1].
En quoi relèvent-elles du « Net-Art » ? Ne persiste-t-il pas, dans ce lieu bouleversant qu’est l’internet, une A.O.A.C. (« Appellation d’Origine Artistique Contrôlée ») qui donne à penser que le Net-Art est le fait d’artistes reconnus comme tels et produisant de l’art lui-même reconnu comme tel ?
Qu’est-ce que le Net-Art en suite du ready-made de Duchamp, de l’exposition du vide de Klein ou des sculptures sociales de Beuys ? De quelle nature est la qualité artistique avec l’internet ? De quelle qualité pouvons-nous parler après qu’on ait pu déceler l’art contemporain comme étant un « Art sans qualités »[2] ?

Nous n’avons pas l’intention de nier aux oeuvres qualifiées de « Net-Art » leur indéniable intérêt. Nous voulons simplement tenter de comprendre comment et pourquoi il y a de l’art par et pour le Net. Que serait-il juste de qualifier de « Net-Art » ? Nous allons commencer par prendre en compte trois constats :

– Premièrement : selon Hegel, l’art est quelque chose de révolu[3]. Après avoir accompli sa tâche, à travers les différentes étapes de son histoire, l’activité artistique laisse la place à d’autres types de productions de l’esprit. Ainsi, la philosophie est, d’après le philosophe de la fin de l’histoire, seule capable désormais de penser l’humanité et d’en former le dessein. Non pas qu’il n’y ait plus d’art possible, mais que c’est à la pensée elle-même de réaliser ce que l’art ne peut plus atteindre.

– Deuxièmement : selon les artistes eux-mêmes, le non-art est l’accomplissement ultime de l’art. Non pas l’avènement de l’iconoclasme, mais de l’art lui-même quand « l’art, c’est ce qui rend la vie plus intéressante que l’art » selon la formule célèbre de Robert Filliou[4]. Ce n’est pas la négation de l’art, mais sa voie négative qui, par un mouvement dialectique, affirme l’art par excellence comme étant l’art de vivre.

– Troisièmement : selon certains observateurs de l’art contemporain, l’art se trouve aujourd’hui « à l’état gazeux »[5]. Disséminé dans toutes activités possibles, il est nulle part et partout à la fois. En fait, selon nous, sa présence est aussi réelle que son absence est manifeste, car la dissolution de l’art dans la réalité n’est pas la disparition réelle de l’art. La réalité de l’art qui nous est contemporain n’est pas tant dans sa « forme formée » que dans sa « forme formante ». Plus que jamais, pour reprendre le mot de Léonard de Vinci, l’art est « causa mentale ». Il est une production de l’esprit qui forme. Il est formant. Sa forme est une formation de l’esprit et l’opération qu’il réalise est la transformation de notre perception où « ce sont les regardeurs qui font le tableau » comme a pu l’observer Marcel Duchamp[6].

Ce que peut être le Net-Art.

En prenant en compte l’état contemporain de l’art, nous pouvons maintenant envisager le « peut-être » du Net-Art selon trois axes. Notre approche sera dialectique, nous allons procéder à chaque fois par « affirmation, négation et négation de la négation »[7].

1/ Le Net-Art c’est l’art qui se pratique par et pour l’internet. Ce n’est pas de l’Art sur le Net.

Affirmation : Une forme d’art sur le réseau internet est une forme d’art visiblement. Une oeuvre plastique qui se trouve sur le Net est déclarée artistique car elle présente toutes les apparences convenues de l’Art reconnu comme tel. Ce sont, par exemple, toutes formes que l’on voit sur les sites web d’artistes et tous types d’objets présentant des qualité artistiques apparentes.?
Négation : Ces objets d’art ne sont pas du Net-Art. Ils ne sont pas faits par et pour le réseau internet. Ils sont en visibilité sur la surface de la Toile[8] mais ne font pas partie de la réalité du réseau. Pour qu’une oeuvre puisse être déclarée « Net-Art », il lui faut être conçue spécialement par et pour le réseau. L’oeuvre de Net-Art n’existe que dans la réalité réticulaire. Sa matière n’est pas seulement numérique, elle fait partie intégrante du flux « on-line » du réseau. C’est le fait des artistes reconnus comme tels et qui investissent l’internet comme champ d’exercice artistique.?
Négation de la négation : Il ne suffit pas que les oeuvres soient du Net-Art pour être véritablement du Net-Art. Elles sont qualifiées ainsi car elles sont réalisées par des artistes qui utilisent le Net pour faire de l’Art. Mais ce sont, la plupart du temps, toujours des objets d’Art selon les critères dévolus aux oeuvres matérielles, quand bien même ils seraient véritablement produits avec le matériau réticulaire et conçues spécialement pour le Net. Dans les faits, il ne suffit pas de réaliser des objets d’Art pour le Net pour que ces objets soient, selon nous, qualifiés de « Net-Art ».?
Pour qu’une forme d’art soit du net-art (nous ne mettons pas de majuscules[9]) il lui faut intégrer ce qui fait la nature même de l’internet et être en intelligence avec l’esprit qui lui a donné corps. Disons-le d’une formule simple : le net-art c’est l’art du net.

2/ Le net-art c’est l’art du net. Ce n’est pas le Net-Art.

Qu’est-ce que le net-art entendu comme « art du net »?
Nous qualifierons de « net-art », toutes formes d’actions et de créations conformes à la forme de l’internet. Ces formes d’actions et de créations peuvent être qualifiées de net-art si et seulement si elles observent les protocoles ouverts de l’internet et les respectent. En effet, l’internet doit son existence à des protocoles ouverts et qui en ordonnent l’architecture et les transports (Web, e-mail, usenet, FTP, IRC, etc.). Basé sur la suite de protocoles TCP/IP[10], l’internet permet ainsi l’accès à tous les ordinateurs quelles que soient leurs particularités. Grâce à ses standards ouverts,[11] l’internet est devenu un réseau non propriétaire et qui a vocation universelle. Il est ouvert à tous, il est fait par tous et pour tous : c’est cela même la réalité du réseau internet, son corps, son esprit.?
C’est la raison pour laquelle nous avançons que c’est l’observation des protocoles du net et le respect des standards ouverts qui va déterminer la qualité artistique des formes. Cette qualité artistique ne se situe pas seulement dans des effets purement formels qui, en surface, font semblant d’art. Elle est dans la prise en considération de l’écosystème du réseau. Cette prise en compte, par tout auteur, du mode d’existence de l’internet peut produire des oeuvres artistiques dans la tradition de l’histoire de l’art, mais aussi des oeuvres qui n’ont pas, à priori, les qualités artistiques pour s’y inscrire. Le net-art (l’art du net) n’est pas le seul fait des artistes reconnus comme tels de la même façon qu’il n’est pas seulement une fabrique d’objets d’art reconnus comme tels.

Le net-art c’est l’art de se conduire dans et avec le net. C’est aussi l’art de conduire le net au mieux de sa forme. Toute technique qui sera en phase avec la réalité de son « moteur » et pas seulement, comme dans de nombreuses oeuvres reconnues comme étant du Net-Art, un formalisme esthétiquement convenu.?
L’esthétique dont il s’agit avec le net-art, tel que nous en proposons la définition, est une esthétique qui procède d’une éthique[12]. Nous entendons cette esthétique comme « es-éthique ». C’est à dire une forme de connaissances et de pratiques qui procède de l’esprit du net et qui précède la mise en forme des objets s’y rattachant. Il s’agit d’une esthétique qui conserve à l’art sa puissance d’action quand, nous l’avons vu, l’art avait été jugé « chose révolue » par ailleurs[13]. Aussi, l’es-éthique du net-art est-il, selon nous, l’esprit de l’art et l’art de l’esprit à l’ère du numérique et de l’internet. La pensée est en forme et forme le dessein d’un art toujours présent quand bien même il aurait pu être révolu à un moment de son histoire.

Par exemple : une simple forme de communication (e-mail, forum de discussion, mailing-list, IRC, etc) peut avoir les qualités de net-art si elle observe la netiquette, c’est à dire l’étiquette du net qu’on trouve dans la Request For Comment n°1855.[14] La netiquette participe de l’es-éthique du réseau des réseaux.?
Pour les formes que les pratiques artistiques investissent ordinairement (textes, images, sons, etc), le net-art (c’est-à-dire : l’art du net) consistera à créer en utilisant des formats ouverts. Ainsi, une page web sera écrite en HTML ou un autre langage comme le PHP et qui tient compte des normes du W3C[15]. Elle n’utilisera pas de codes qui ne permettent pas sa visualisation par n’importe quels logiciels de navigation web. Tout format propriétaire et donc fermé sera honni pour la simple raison qu’ils contredit l’internet en son sens même, en sa forme même, en son art même.?
Il en est de même avec les droits d’auteur que nous allons aborder plus loin dans la partie consacrée au copyleft. Mais avant cela, voyons l’infini du net-art.

3/ Le net-art c’est l’art qui s’offre infini. Ce n’est pas un objet fini.

De la même façon qu’on ne peut confondre un objet d’art avec l’objet même de l’art, on ne peut se méprendre sur la finalité de l’objet de net-art. Inachevé par nature[16], celui-ci n’a pas de fin. Nous le savons par ailleurs, l’objet de l’art ne s’achève jamais dans la fabrication d’un objet d’art, mais il excède son inscription dans la matière. L’objet de l’art passe à travers l’objet d’art fini pour ainsi ne pas choir et être clos dans sa définition.
Le net-art est par excellence un art en flux et en suspens. Il se fait, après qu’il ait été conçu à un moment « t » de son invention, en interaction avec le découvreur qui l’agit sur la Toile. Il n’y a pas d’arrêt sur l’objet, il y a un objet sans fin dont la finalité n’est pas tant l’objet lui-même que ce qui est poursuivi à travers sa production : l’art infini..
Aussi, nous pouvons dire qu’il n’y a pas d’objets de net-art en réalité, mais que l’objet de l’art se manifeste avec l’internet, par et pour l’internet, à travers certaines formes conformes à l’esprit de l’internet. Ces formes ne sont pas l’expression d’un « conformisme » mais manifestent le souci d’être en intelligence avec la forme du net. D’être en phase avec le réseau comme le surfeur peut l’être avec la vague qui le transporte. C’est la raison pour laquelle nous disons que ces formes d’art forment la forme du réseau, qu’elles participent à sa bonne santé, à sa vie. Une vie suspendue entre la naissance et la mort, une vie infinie, non achevée encore dans une supposée maturité, signe avant-coureur de sa fin et de sa destruction..
Ce qui fait la vitalité du net-art, ce en quoi le net-art est vivant et vrai dans sa forme, c’est son immaturité. Cette immaturité du net-art nous l’entendons au sens où Gombrowicz a pu faire comprendre la forme où l’art et la vie sont au mieux de leur forme : ce moment « t » où le temps est suspendu dans la grâce de ce qui advient sans laisser prise au temps, sauf l’éternité.

En effet (…) un postulat erroné veut qu’un homme soit bien défini, c’est à dire inébranlable dans ses idéaux, catégorique dans ses déclarations, assuré dans son idéologie, ferme dans ses goûts, responsable de ses paroles et de ses actes, installé une fois pour toutes dans sa manière d’être. Mais regardez bien comme un tel postulat est chimérique. Notre élément, c’est l’éternelle immaturité[17].

Cette « éternelle immaturité », un présent, un don, une réalité sensible et active du temps imprenable où le net-art est offert aux affects et va se laisser former et transformer à l’infini.
Sans doute le moment est-il venu alors de présenter le copyleft, principe actif de cette immaturité formante que le net-art, quand il est l’art du net, met en pratique.

Le copyleft, principe actif de l’art du net.

Nous voulons maintenant creuser l’élément plastique du net-art. Et ceci en étendant la notion de plasticité non seulement aux arts visuels, mais à tout type d’art qui fait forme et à toute forme quand elle est aussi explosion de la forme[18]. Non pas dans l’intention de détruire la forme, mais dans celle d’en renouveler la puissance plastique grâce à toutes les altérations possibles issues de l’ouverture.
Les droits d’auteurs sont en première ligne car le net-art plastique les droits d’auteurs. Le net-art c’est l’explosion du moteur à création. Non pas, faut-il le préciser encore une fois, sa destruction, mais la remise en forme de sa puissance de transport comme de sa beauté formelle et mécanique.

Explication : le net-art ne peut faire l’économie des droits d’auteurs. L’internet n’est pas, par la vertu du numérique et de la technologie, une zone de non-droit. Dura lex sed lex[19], le droit s’applique, même sur l’internet. Pour qu’une oeuvre soit qualifiée de net-art, il lui faut respecter aussi le droit des auteurs. Mais comment faire, quand le droit d’auteur interdit la copie, la diffusion et la transformation des oeuvres ? Car si nous observons bien l’es-éthique du réseau, comme nous l’avons vu avec les standards ouverts, une oeuvre de net-art devra être librement accessible, copiable, diffusable, transformable et devra interdire, en outre, l’appropriation exclusive.

Liberté d’étudier, de copier, de diffuser, de transformer et interdiction d’appropriation exclusive, ces principes sont également ceux du logiciel libre mis en place avec le projet GNU[20] de la Free Software Foundation[21] en 1984 et formalisés dans une licence juridique, la General Public License[22]. C’est ce qu’on appelle le « copyleft ». Loin d’être une négation ou un déni des droits des auteurs, le copyleft en reformule la pertinence en fonction des pratiques et des matériaux.

Du logiciel libre à l’art libre il n’y a eu qu’un pas. Celui-ci a été franchi à notre initiative lors des rencontres Copyleft Attitude[23] qui ont eu lieu à Paris en 2000. Elles ont donné naissance à la Licence Art Libre[24], directement inspirée par la General Public License. Il s’agissait d’appliquer les principes du copyleft à tout genre de création.

L’intention est d’ouvrir l’accès et d’autoriser l’utilisation des ressources d’une oeuvre par le plus grand nombre. En avoir jouissance pour en multiplier les réjouissances, créer de nouvelles conditions de création pour amplifier les possibilités de création[25].

Là aussi, il s’agit d’un mouvement dialectique qui procède d’une négation de la négation. Le plasticage de l’art opéré par le copyleft, n’est pas sa destruction, mais sa remise en forme. Un retournement de situation quand les matériaux sont des immatériaux, quand la rareté de l’oeuvre d’art est en profusion et quand la forme est formée par des affects qui la reforment à l’infini.

Mieux : le net-art est un art par excellence pour la raison qu’il réalise cette forme qui est le signe même de l’apparition de l’art dans l’histoire : la forme gracieuse.

Négation de la pesanteur, si ce n’est un don du ciel, c’est un art qui ne doit pas paraître en être un, un art dissimulé. Le seul effort qu’il faut faire consiste à le cacher, car montrer qu’il s’agit d’un art serait le meilleur moyen d’étouffer la grâce[26].

Le net-art, une forme gracieuse.

En poursuivant l’intuition que nous avons eue il y a quelques années et qui considère que « l’oeuvre, c’est le réseau »[27], nous pouvons dire que l’internet est lui-même, par nature, une forme gracieuse. Une forme d’art, cela va sans dire.
Cet « état de grâce » propre au net se trouve également dans le logiciel libre et l’art libre car la mise à disposition, par un auteur, de données sur le réseau procède d’une beauté certaine du geste. Cette beauté du geste n’est pas gratuite, le copyleft ne s’oppose pas au commerce, elle est précisément gracieuse. Elle n’est pas non plus gratuite au sens d’arbitraire, elle est justifiée par l’éthique, l’es-éthique. Il s’agit bien d’une forme de pratiques et de productions de l’esprit qui posent la grâce comme condition d’exercice.

Ainsi, la kharis notion de la grâce antique circule entre objet et sujet. Cette idée de beauté (qui n’apparaît que tardivement dans la gratia latine) domine toute la conception grecque de la kharis. Comme faveur, la beauté est ce qui est offert aux regards – ou aux oreilles – des tiers : toute beauté est don généreux. Ce qui est remarquable dans cette notion de kharis, c’est sa capacité à exprimer en même temps une propriété des êtres (leur séduction allant jusqu’au kharisma), l’action de ces charmes sur autrui, l’état de plaisir de qui le perçoit et la gratitude ressentie pour cette faveur. Tel est « l’état de grâce »[28].

Nous affirmons, en suite de Winckelmann[29], inventeur de l’histoire de l’art et qui a su pointer le moment de sa naissance et de sa renaissance, qu’il y a art quand il y a forme gracieuse, beauté du geste et dons. Le moment où l’artiste est doué de dons, ceux qu’il donne en retour sous formes gracieuses à travers des productions librement offertes comme abandon de toute pesanteur[30].
Des données numériques qui sont librement accessibles, copiables, diffusables et transformables selon le copyleft, procèdent de cette liberté qui fait, non seulement la beauté du geste, mais rend l’art possible et existant. Lorsque cette liberté disparaît, l’art disparaît également et la forme gracieuse avec lui.

L’art, qui avait reçu la vie de la liberté elle-même, devait nécessairement, avec la perte de cette liberté, décliner et mourir au lieu même de sa plus belle floraison[31].

Ainsi, le moment politique de la naissance de l’art aura été celui où la grâce aura pu prendre forme librement. La première fois dans la Grèce antique et la deuxième fois, à la Renaissance au XVe et XVIe siècles avec la redécouverte de l’art grec classique et de sa forme gracieuse.

Nous posons qu’une troisième naissance et renaissance de l’art est à l’oeuvre, aujourd’hui, à l’ère de l’internet et du numérique. Cette re-renaissance de l’art se fait avec l’art libre selon les principes du copyleft. Le net-art, tel que nous l’avons défini, en est l’exercice par excellence car il procède d’une forme gracieuse de dons, de données et de libertés.

Antoine Moreau, « La voie négative du Net-Art », mars 2007, un texte écrit pour la revue Terminal n° 101, Printemps 2008.
Copyleft : ce texte est libre, vous pouvez le copier, le diffuser et le modifier selon les termes de la Licence Art Libre.

Bibliographie :

  • BLONDEAU Olivier, LATRIVE Florent, Libres enfants du savoir numérique, anthologie du « Libre » préparée par, L’Éclat, 2000.
  • BOURGEOIS Bernard, Le vocabulaire de Hegel, Ellipses, Paris 2000.
  • BRUAIRE Claude, La dialectique, PUF, Paris, 1985.
  • CLAVERO Bartolomé, La grâce du don, anthropologie catholique de l’économie moderne, Albin Michel, Paris, 1996.
  • COMETTI Jean-Pierre, L’Art sans qualités, farrago, Tours, 1999.
  • COUCHOT Édomond, HILLAIRE Norbert, L’Art numérique, comment la technologie vient au monde de l’art, Flammarion, Paris, 2003.
  • FOURMENTRAUX Jean-Paul, Art et Internet, les nouvelles figures de la création, CNRS Éditions, Paris 2005.
  • GOMBROWICZ Witold, Moi et mon double, Gallimard Quarto, 1996.
  • HÉNAFF Marcel, Le prix de la vérité, le don, l’argent, la philosophie, Éditions du Seuil, Paris, 2002.
  • HIMANEN Pekka, L’Éthique hacker et l’esprit de l’ère de l’information, Exils, 2001.
  • MALABOU Catherine, La plasticité au soir de l’écriture. Dialectique, destruction, déconstruction. Éditions Léo Scheer, 2005
  • MICHAUD Yves, L’art à l’état gazeux, Hachette, Paris, 2004.
  • PERLINE, NOISETTE Thierry, La bataille du logiciel libre, La Découverte, Paris, 2004.
  • POMMIER Édouard, Winckelmann, inventeur de l’histoire de l’art, Gallimard, 2003.

Webographie :

Notes

[1] Une base de données importante de Net-Art sur le site rhizome.org : (page visitée le 05/03/07)

[2] J.P. COMETTI, L’Art sans qualités, farrago, Tours, 1999.

[3] « L’art n’apporte plus aux besoins spirituels cette satisfaction que des époques et des nations du passé y ont cherchée et n’ont trouvé qu’en lui . L’art est et reste pour nous, quant à sa destination la plus haute, quelque chose de révolu. Il a, de ce fait, perdu aussi pour nous sa vérité et sa vie authentique. » HEGEL, Cours d’esthétique, Tome 1, Aubier, Paris, 1995-1997, p. 17 & 18, cité par B. BOURGEOIS, Le vocabulaire de Hegel, Ellipses, Paris 2000, p. 12.

[4] Cité par S. JOUVAL, « Robert Filliou : "Exposition pour le 3e oeil" », Robert Filliou, génie sans talent, catalogue d’exposition, Musée d’art moderne de Lille, 6 décembre 2003 au 28 mars 2004, Éditions Hatje Cantz 2003, p. 8.

[5] Y. MICHAUD, L’art à l’état gazeux, Hachette, Paris, 2004.

[6] Marcel Duchamp, Duchamp Du signe, écrits, Flammarion, 1975, p. 247.

[7] Formule rappelée par Marx dans un lettre polémique adressé à Proudhon. MARX, Misère de la philosophie, cité par Claude BRUAIRE, La dialectique, PUF, Paris, 1985, p. 8.

[8] Nom donné au World Wide Web.

[9] Pour la raison que le net n’est pas une marque, c’est un nom commun et que l’art aujourd’hui n’a plus les qualités de l’Art.

[10] Ensemble de protocoles de communication utilisé par l’internet (page visitée le 10/10/06)

[11] « On entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données interopérable et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en œuvre. » Journal Officiel n° 143 du 22 juin 2004 : loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (référence NOR: ECOX0200175L). Définition trouvé dans : Titre Ier (De la liberté de communication en ligne), Chapitre Ier (La communication au public en ligne), Article 4. Sur le site formats ouverts, (page visitée le 10/10/06)

[12] P. HIMANEN, L’Éthique hacker et l’esprit de l’ère de l’information, Exils, 2001.

[13] C’est la raison pour laquelle nous parlons de « l’esprit du net » qui, comme pour l’art, ne saurait être réduit à sa seule technicité ou matérialité. L’internet, plus qu’une intelligence matérialisée est une spiritualité pratique (c.f. P. HADOT, Exercices spirituels et philosophie antique, Albin Michel, 2002).

[14] « Les règles de la Nétiquette », RFC 1855, traduction Jean-Pierre Kuypers, sur le site UCL/SGSI Infrastructures des réseaux du système d’information (SRI) (page visitée le 13/02/07)

[15] Le consortium qui se porte garant de l’interopérabilité du Web (page visitée le 13/02/07)

[16] Par la nature même du numérique, sa matérialité de fait.

[17] GOMBROWICZ, Moi et mon double, Ferdydurke, introduction à « Philidor Doublé d’enfant », Gallimard Quarto, 1996, p. 338.

[18] # « Rappelons que selon son étymologie – du grec plassein, modeler – le mot « plasticité » a deux sens fondamentaux. Il désigne à la fois la capacité à recevoir la forme (l’argile, la terre glaise par exemple sont dites « plastiques ») et la capacité à donner la forme (comme dans les arts ou la chirurgie plastiques). Mais il se caractérise aussi par sa puissance d’anéantissement de la forme. N’oublions pas que le « plastic », d’où viennent « plastiquage », « plastiquer », est une substance explosive à base de nitroglycérine et de nitrocellulose capable de susciter de violentes détonations. On remarque ainsi que la plasticité se situe entre deux extrêmes, d’un côté la figure sensible qui est prise de forme (la sculpture ou les objets en plastique), de l’autre côté la destruction de toute forme (l’explosion). » C. MALABOU, La plasticité au soir de l’écriture. Dialectique, destruction, déconstruction. Éditions Léo Scheer, 2005, note de bas de page p. 25 et 26.

[19] La loi est dure mais c’est la loi.

[20] GNU is Not UNIX, projet de la Free Software Foundation qui formalise le logiciel libre avec la licence GNU/GPL. (page visitée le 23/02/07).

[21] FSF.org (page visitée le 23/02/07).

[22] Licence libre copyleft pour les logiciels

[23] Avec des artistes regroupés autour de la revue Allotopie (page visitée le 14/02/07)

[24] Rédigée par Mélanie Clément-Fontaine et David Geraud, juristes et Isabelle Vodjdani et Antoine Moreau, artistes.

[25] Extrait du prologue de la Licence Art Libre 1.2.

[26] Éd. POMMIER, Winckelmann, inventeur de l’histoire de l’art, Éditions Gallimard, 2003, p. 59.

[27] Citée dans le numéro spécial Artpress, l’Art et la Toile, « Internet all over ? » novembre 1999, N. HILLAIRE, p. 9 et Éd. COUCHOT, N. HILLAIRE, L’Art numérique, comment la technologie vient au monde de l’art, Flammarion, Paris, 2003, p. 72.

[28] M. HÉNAFF, Le prix de la vérité, le don, l’argent, la philosophie, Éditions du Seuil, Paris, 2002, p.326.

[29] Éd. POMMIER, Winckelmann, inventeur de l’histoire de l’art, Gallimard, 2003.

[30] Nous sommes là également proche du moment mystique décrit par Simone WEIL, La pesanteur et la grâce, Plon, Agora, 1988.

[31] J.J. WINCKELMANN, Histoire de l’art de l’Antiquité, Darmstadt, 1982, cité et traduit par Éd. POMMIER, idem.




Lorsque vous démarrez votre ordinateur vous vous engagez politiquement

« Mais que fais-tu donc derrière ton ordinateur ? » est une question qui me revient assez souvent. Lorsque je dispose d’un peu de temps devant moi il m’arrive de répondre d’applomb : « Je participe à la prochaine révolution ! ».

C’est vrai après tout. Tant qu’à y passer du temps autant que ce soit pour une bonne raison 😉

C’est évidemment une boutade à la limite de la provocation mais elle a le mérite de piquer la curiosité de mon interlocuteur. Et alors de lui évoquer en vrac le logiciel libre, son mouvement, sa culture, ses extensions du domaine comme Wikipédia, Creative Commons, PLoS, etc.

Bref, en gros, tout ce que contient cette nouvelle traduction (by Olivier et Daria from Framalang Institute). C’est un article exotique puisqu’il nous vient d’Inde. Mais il m’est plus familier que bon nombres d’articles de mes propres compatriotes. En imaginant qu’il y ait des V. Sasi Kumar dans tous les pays du monde, il y a de quoi être optimiste…

Crédit photo : Vibrantly Rabari par Meanest Indian (Creative Commons By)

Vibrantly Rabari - Meanest Indian - CC by

Une nouvelle vague de liberté

A new wave of freedom

V. Sasi Kumar – Mai 2008 – Frontline Magazine (India)

Le nouveau mouvement de liberté, dans les logiciels, le savoir, la publication et le commerce va complètement bouleverser notre manière de penser, de faire les choses et d’interagir.

« Toute action qui est dictée par la peur ou par la contrainte de quelque nature que ce soit cesse d’être morale »
Mahatma Gandhi

Politiquement, nous ne jouissons pas de certaines libertés que nous méritons. Une nouvelle vague de mouvements pour la liberté, pour rendre concrètes ces libertés, balaie actuellement le monde, un mouvement qui modifiera notre façon de penser, notre façon de faire les choses et notre manière d’interagir. Il a pris sa source aux États-Unis et vise à libérer les gens des serres des monopoles capitalistes. Ici le rôle de Gandhi est joué par une personne extraordinaire qui porte les cheveux longs et a une longue barbe, un homme qui répond au nom de Richard Mathew Stallman, qui rejette avec énergie toute comparaison à Gandhi ou Nelson Mandela.

Gandhi disait « Tant que nous ne sommes pas complètement libres nous sommes des esclaves ». L’évolution des technologies a permis à l’humanité de jouir d’une plus grande liberté. Cependant, des intérêts particuliers, avec l’aide des législateurs, parviennent maintenant à empêcher la société de jouir de cette liberté. Par exemple, avec l’avènement des ordinateurs et d’Internet, les données, les informations et la connaissance peuvent être transmises instantanément à la condition que des deux côtés il y ait ordinateur raccordé à Internet. Toutefois, certaines de nos lois conçues pour une ère dépassée empêchent les peuples de profiter pleinement de cette technologie.

Le nouveau mouvement de liberté parvient à se frayer un chemin autour de ces lois. Et, de façon intéressante, ce mouvement n’est mené par aucun parti politique ni aucun activiste politique, mais bien par des programmeurs informatiques (ou hackers). Voyons de quelles manières nos libertés sont réduites et par quels moyens nous pouvons les reconquérir même au sein du paradigme actuel.

Lorsque vous démarrez votre ordinateur vous vous engagez politiquement. Cela peut vous paraitre absurde de chercher un aspect politique à une chose aussi triviale. Mais c’est là un fait. A l’aube de l’informatique, ce sont les utilisateurs qui écrivaient leurs propres programmes et se les échangeaient selon leurs besoins. Personne alors ne détenait de droit exclusif sur ces programmes. A l’époque les ordinateurs étaient imposants et chers, ils occupaient souvent une salle entière mais étaient bien moins puissants que les PC d’aujourd’hui, même les plus petits. A mesure que la technologie a évolué les ordinateurs sont devenus plus petits et aussi plus puissants.

C’est vers le début des années 80 que les fabricants d’ordinateurs ont commencé à imposer ce qu’on appelait des accords de dissimulation aux programmeurs qu’ils engageaient pour écrire les logiciels. Ces accords interdisaient aux développeurs de révéler le code source de leurs programmes (NdT : leur secret de fabrication). Et ainsi les logiciels sont devenus un produit que les utilisateurs doivent payer. Évidemment, certains utilisateurs ont continué à écrire des programmes pour leurs propres besoins, et ils continuent encore aujourd’hui, mais les logiciels tout-prêts sont devenus accessibles en échange d’un paiement et les utilisateurs d’ordinateurs se sont mis à les utiliser de plus en plus.

Les logiciels pour tous

C’est en réaction à cette marchandisation du logiciel que Richard Stallman, alors employé du Laboratoire d’Intelligence Artificielle du Massachusetts Institute of Technology (MIT), a décidé de créer un système d’exploitation (ou OS pour operating system) et des programmes qui rendraient aux utilisateurs la liberté. Il croyait que les logiciels sont comme la connaissance (il les compare souvent à des recettes de cuisine) et que comme la connaissance les logiciels ne devraient pas être la propriété d’une personne ou d’un organisme. Ils devraient appartenir à l’humanité toute entière.

Stallman a écrit : « De quoi à donc besoin la société ? Elle a besoin d’informations qui sont réellement disponibles aux citoyens, par exemple des programmes que des gens peuvent lire, réparer, adapter et améliorer, pas seulement utiliser. Mais en général les propriétaires des logiciels ne fournissent qu’une boîte noire qu’on ne peut ni étudier ni modifier. La société a également besoin de liberté. Quand un programme est possédé, les utilisateurs perdent la liberté de contrôler une partie de leur propre vie. » (source)

Stallman a initié un projet nommé GNU pour créer des logiciels libres et il a décidé de façonner son OS libre d’après Unix qui était alors très populaire. Unix était un OS propriétaire qui pouvait gérer plusieurs utilisateurs simultanément, il pouvait interconnecter les ordinateurs et était très sécurisé. A l’époque, de nombreux programmeurs avaient pris l’habitude de baptiser un nouveau programme qui était similaire à un autre pré-existant en créant un acronyme signifiant que ce n’était justement pas ce programme.

Ainsi, par exemple, un nouvel éditeur de texte similaire à l’éditeur existant Emacs se nommait Eine pour Eine Is Not Emacs (NdT : Eine n’est pas Emacs). De même, Stallman baptisa son système d’exploitation GNU pour GNU is Not Unix. Il sera plus tard combiné avec le noyau Linux (la partie centrale d’un OS) pour donner naissance au système d’exploitation GNU/Linux. Il existe maintenant plusieurs noyaux qui peuvent être utilisés avec GNU, comme FreeBSD, Open Solaris etc.

« Pour les logiciels libres ce qui importe est la liberté, pas le coût. C’est une question de liberté, pas de prix. Le mot "libre" dans "logiciel libre" a une signification proche de celle dans liberté de parole, peuple libre ou pays libre et ne devrait être confondu avec une autre signification associée à coût zéro. Il faut que vous voyez "logiciel libre" comme libre de fardeau, pas nécessairement libre de frais. Il faut le voir comme logiciel swatantra (NdT : libre ou indépendant en sanskrit) » précise la Free Software Foundation d’Inde. Les logiciels libres apportent quatre libertés aux utilisateurs :

  1. La liberté de les utiliser sur un nombre illimité d’ordinateurs pour n’importe quelle tâche ;
  2. La liberté de partager le logiciel dans votre cercle familial ou d’amis ;
  3. La liberté d’étudier et de modifier le logiciel ;
  4. La liberté de redistribuer les modifications.

(NdT : toute la confusion entre libre et gratuit provient du double sens de "free" en anglais)

La troisième liberté implique que ce que l’on appelle le code source (le texte compréhensible par l’Homme) du programme devrait être mis à disposition de tout utilisateur souhaitant l’obtenir. Mais on peut se demander ce que peuvent en faire les utilisateurs. Alors que la plupart d’entre eux seraient certainement incapables de l’étudier ou de le comprendre, sans même parler de le modifier, cette liberté permet à tout un chacun de demander à un programmeur de le modifier et permet également aux programmeurs de par le monde au moins d’étudier le programme pour vérifier que rien de ce qu’il contient ne constitue une menace pour les utilisateurs. Concrètement, les sociétés et autres organisations peuvent modifier le programme pour qu’il réponde à leurs besoins.

Stallman a rapidement démissionné du MIT par crainte que le MIT revendique les droits sur son travail. Il était quasiment une entreprise à un seul employé lorsqu’il a démarré le projet GNU en 1984 mais des dizaines de milliers de personnes du monde entier l’on rejoint ensuite. En 1985 il a lancé la Free Software Foundation (FSF). Aujourd’hui, en plus de la FSF à Boston aux Etats-Unis on retrouve des FSF en Europe, en Inde et en Amérique Latine. Et les logiciels libres sont devenus suffisamment puissants, et populaires aussi, pour défier la puissance de nombreuses entreprises de logiciels propriétaires.

Libre et populaire

Par exemple, toutes les écoles du Kerala n’emploient que des logiciels libres et tous les ordinateurs du gouvernement du Kerala sont en cours de migration vers les logiciels libres. Les écoles de la province d’Estrémadure en Espagne en font de même. Mais bien avant eux la ville de Munich avait déjà décidé de faire migrer tous ses ordinateurs vers des logiciels libres. De nombreuses entreprises et organismes gouvernementaux ont déjà effectué la migration (comme ELCOT dans la Tamil Nadu) ou sont en train de le faire (comme le Kerala State Electricity Board par exemple). Bien que le gouvernement du Kerala ait adopté une politique des TIC promouvant explicitement les logiciels libres, le gouvernement de l’Inde n’a pas encore pris une telle décision. Espérons que le gouvernement de l’Inde à son tour proclame la liberté des logiciels.

Les logiciels sont vraiment identiques à la connaissance comme l’a découvert Stallman. La ressemblance peut être établie de manière très détaillée. Plutôt que d’énumérer tous les arguments on peut signaler qu’un vaste ensemble de savoirs est disponible au format numérique et, pour un ordinateur, il n’y a pas beaucoup de différence entre un programme et un savoir numérisé comme un fichier texte, une image ou une vidéo. Dans ce cas il devrait être possible de libérer aussi la connaissance, tout comme le projet GNU a libéré les logiciels.

En mars 2000, Jimmy Wales, un entrepreneur américain de l’Internet, a lancé Nupedia, une encyclopédie en ligne dont le contenu est libre, le précurseur du Wikipédia actuel. Le contenu de l’encyclopédie était sous licence Nupedia Open Content License qui autorisait à n’importe qui de la copier, modifier et distribuer mais qui défendait quiconque d’en faire payer le contenu. Le contenu était rédigé par des volontaires dont les connaissances dans le domaine étaient évaluées par un comité et le contenu était soumis à révision avant publication. Les coûts de fonctionnement de Nupedia étaient couverts par Bomis, une entreprise Internet que détenait Wales.

Mais le succès de Wikipédia apporta un coup d’arrêt à Nupedia en 2003. Une majorité des contributeurs n’étaient pas satisfaits des lourdeurs du contrôle éditorial exercé sur les contributions et Stallman et la FSF étaient en faveur d’une plus grande liberté laissée aux contributeurs. Par conséquent la FSF a lancé une nouvelle encyclopédie appelée GNUPedia en 2001. Mais comme Wales possédait déjà le nom de domaine gnupedia.org elle a été renommée GNE (pour GNE is Not an Encyclopedia) sur la même idée que GNU.

GNE a eu une vie plus courte encore, en partie à cause de son incapacité à décider du poids du contrôle éditorial mais surtout parce que Nupedia a lancé Wikipédia en 2001 qui offrait une liberté totale et dont le contenu était placé sous la GNU Free Documentation Licence. Apparemment ce serait Stallman qui aurait le premier évoqué l’idée d’une encyclopédie en ligne libre en 1999.

Même s’il a lancé GNE, depuis son échec, il supporte Wikipédia. Aujourd’hui Wikipédia est l’encyclopédie la plus populaire avec plus de deux millions d’articles rien que pour la langue anglaise et bien plus encore dans d’autres langues. Parmi ces autres langues on en dénombre huit qui dépassent les 300 000 articles chacune et huit autres encore qui dépassent la barre des 100 000 articles chacune.

On recense 254 langues du monde possédant au moins une page Wikipédia. Les dialectes indiens ne sont pas bien représentés dans Wikipedia. Le premier est le telugu avec 38 000 articles, suivi par le bishnupriya manipuri avec 23 000 articles, le bengali (17 000), l’hindi (16 500), le marathi (16 200) et le tamil (13 000). Aucun autre langage indien ne compte plus de 10 000 articles. Il est acquis maintenant que l’encyclopédie Malayalam, publiée par le gouvernement du Kerala, mettra tous ses articles sur Wikipédia.

Même s’il est vrai que le nombre d’utilisateurs d’Internet ne représente qu’un infime pourcentage de la population, ce pourcentage est amené à croitre et la disponibilité de l’information en langues indiennes sera certainement d’une grande utilité à tous les Indiens, en Inde et à l’étranger.

Wikipédia est actuellement dirigée par une organisation à but non lucratif, la Wikimedia Foundation, grâce aux contributions du public. D’autres projets sont dans les cartons aujourd’hui, comme Wikibooks, Wikinews et Wiktionary. Tous les documents, y compris le texte et les illustrations, sur tous ces sites peuvent être copiés, modifiés et utilisés librement à toute fin sans violer de lois du droit d’auteur. C’est réellement la liberté du savoir.

Un autre projet connexe est WikiMapia. En reprenant une citation de Wikipédia : « WikiMapia est un projet inspiré par Google Maps et par Wikipédia. WikiMapia utilise les vues satellitaires de Google Maps et permet de les annoter avec un système wiki. Les Russes Alexandre Koriakine et Evgeniy Saveliev ont lancé ce projet le 24 mai 2006. Le projet est destiné à « cartographier et décrire la planète Terre » vue par satellite. Il fait partie des 1 000 sites les plus visités et recense plus de 6 millions d’endroits annotés. Alors qu’aucune inscription n’est requise pour éditer WikiMapia, plus de 153 000 utilisateurs partout dans le monde sont actuellement inscrits. »

Le terme "connaissance" est utilisé ici dans une conception large et désigne aussi bien des articles que des livres, des histoires, des images, de la musique, des films, etc. Il faut se rappeler que chaque support possède certaines particularités que les autres n’ont pas. Ainsi par exemple, un article sur l’astronomie indienne contient principalement de la documentation issue de sources variées même si la présentation finale de l’information est celle propre à l’auteur. Mais une histoire (un roman, une nouvelle…) est le travail créatif émergeant complètement de l’imagination de l’auteur.

Ainsi, pour les humains, la connaissance se distingue des logiciels par une différence fondamentale. En effet, contrairement aux logiciels, certaines formes de connaissance ne se prêtent pas aux modifications anonymes. Par exemple, une interview avec une personnalité doit conserver sa forme et son contenu puisque c’est le compte-rendu d’une vraie conversation. Il serait dangereux de laisser quiconque la modifier.

D’un autre côté, la liberté pourrait être accordée, par exemple, de la publier ailleurs sans modification. De même, un artiste ne souhaiterait peut-être pas que n’importe qui puisse modifier sa peinture, même si cela ne poserait pas de problème. Il n’est donc pas suffisant de disposer d’une seule licence pour toutes les formes de savoir contrairement aux logiciels. Mais alors quelle est la solution ?

Creative Commons

La solution a d’abord était proposée par Creative Commons (CC) en décembre 2002. CC a été lancé par Lawrence Lessig, Professeur à la Stanford Law School, avec quelques amis pour répondre précisément à ce problème. « Creative Commons a repris l’idée "offrir des licences de droit d’auteur libres" du Free Software Movement. Mais le problème que nous essayions de résoudre était quelque peu différent » dit Lessig.

En quoi était-il différent ? « Nous ne partions pas d’un monde sans culture propriétaire. Au contraire, la culture propriétaire avait toujours été là, les œuvres étaient protégées par un droit exclusif. (…) Mais globalement, le fardeau imposé par le droit d’auteur aux autres créateurs et sur la culture en général était léger. Et une somme importante de travail créatif pouvait se faire hors des contraintes de la loi. Tout ceci a commencé à changer avec la naissance des technologies numériques et pour une raison que personne n’a vraiment cherché à comprendre. » (source).

Une autre raison a entraîné la formulation de ces licences. Après la Convention de Berne en 1886 il n’était plus nécessaire de déclarer un droit d’auteur. Tout œuvre originale tombe automatiquement sous le régime du droit d’auteur. Et finalement il n’est plus devenu nécessaire de marquer un document comme protégé par le droit d’auteur. Sauf déclaration contraire, tout document qui n’appartient pas au domaine public est protégé par le droit d’auteur.

Rien que de savoir si un document est protégé par les lois du droit d’auteur devient par conséquent difficile. Cela rend la ré-utilisation d’œuvres déjà disponibles très compliquée. De plus, les auteurs désirant offrir certaines libertés aux autres n’ont aucun moyen de le faire. Ils n’avaient le choix qu’entre le droit d’auteur et le domaine public (qui concède tous les droits à tout le monde).

Creative Commons propose plusieurs licences grâce auxquelles le créateur peut offrir certaines libertés aux gens, ou, comme le dit CC, Certains Droits Réservés en opposition au Tous Droits Réservés du régime "classique" du droit d’auteur. CC dispose de quatre licences principales : Attribution (notée by), Noncommercial (nc), No Derivative Work (nd) et Share Alike (sa) (NdT : Paternité, Pas d’Utilisation Commerciale, Pas d’œuvre Dérivée et Partage à l’Identique). Ces licences peuvent être combinées pour produire de nouvelles licences comme by-sa, by-nc-nd etc. qui sont plus utiles que les licences principales.

CC a également élaboré une Licence de Sample qui permet aux autres d’utiliser des portions de votre œuvre dans leur propre œuvre. Vous vous souvenez de la jeune auteure indienne, Kaavya Viswanathan, punie il y a quelques temps pour l’utilisation de passages d’autres livres dans sa nouvelle, même si les lecteurs appréciaient sa nouvelle ?

Un développement intéressant permis par CC a été la création d’un morceau de musique par la collaboration d’artistes qui ne se sont jamais rencontrés. Colin Mutchler, un défenseur de l’utilisation des média et de la technologie pour donner envie aux gens de prendre des mesures en faveur d’une économie durable, a envoyé My Life, une chanson joué à la guitare acoustique, sur Opsound, un répertoire de musique qui impose aux morceaux soumis d’être sous licence Attribution-Share Alike ; Cora Beth, une personne complètement inconnue de Colin, y a ajouté un violon pour créer My Life Changed. Aucun avocat de la Propriété Intellectuelle n’a été consulté, ou maltraité, pour cela. Gilberto Gil, le ministre brésilien de la Culture et musicien lauréat d’un Grammy Award supporte la liberté de la culture et a sorti quelques-unes de ses musiques sous la licence CC Sampling.

Rentable également

Une question qu’il est naturel de se poser est alors : est-ce que le créateur ne va pas perdre ses revenus s’il permet aux gens d’utiliser ses créations librement ? L’expérience montre que ça n’est pas le cas. Par exemple, les groupes de musique affirment que les téléchargements de musique libre en fait les aident à faire plus de concerts et leur source de revenus principale est la scène (source). Une recherche sur Google vous fera découvrir d’autres études de ce genre.

Comme Stallman et d’autres l’ont suggéré, un lien sur la page de téléchargement peut permettre aux utilisateurs d’effectuer un paiement volontairement. Pour une œuvre assez bonne cela peut apporter à son auteur une somme appréciable. De toute façon des copies illégales de la plupart des films ou des musiques sont disponibles gratuitement, particulièrement dans les pays émergents et rien n’est arrivé, ni à l’industrie de la musique, ni à celle du film.

Cependant, à long terme, les industries de l’édition, du disque et du cinéma pourraient avoir à adopter un nouveau paradigme qui pourrait être défini par les nouvelles technologies qui émergeront à coup sûr, même si ces industries se sont toujours montrées très attachés aux anciens paradigmes et qu’elles font tout ce qu’elles peuvent pour ne pas changer. Souvenez-vous des protestations de l’industrie de la musique lorsque l’enregistreur cassette a été inventé. Pourtant jusqu’à maintenant aucun changement drastique n’est en vue.

L’industrie du disque aux États-Unis a réussi à mettre le législateur de son côté pour subvenir à ses propres besoins au travers de la technologie des DRM (NdT : Digital Rights Managements ou Mesures Techniques de Protection) et une loi associée et le DMCA (NdT : Digital Millenium Copyright Act dont la loi DADVSI est la transposition en droit français). Stallman et les partisans du logiciel libre appellent les DRM Digital Restrictions Managements (ou Mesures Techniques de Privation). Les DRM empêchent en fait les gens de copier les œuvres incorporant cette technologie ou encore de jouer l’enregistrement sur un autre lecteur. Par conséquent, le mot Restrictions (Privations) semble plus approprié.

Les fans de musique se sont opposés à cette politique et on peut trouver beaucoup d’articles sur le Web à ce sujet. Ils disent que les DRM les empêchent même d’exercer leur droit à la copie privée. Les opposants ont créé des logiciels qui peuvent outrepasser la technologie DRM. Mais le DMCA (NdT : tout comme la DADVSI) rend illégal la création ou l’utilisation d’une technologie visant à briser les DRM. Heureusement, ces lois ne sont actuellement en vigueur que dans quelques pays. L’industrie du disque fait pression sur l’Inde et d’autres pays pour adopter ces lois. Mais espérons que l’Inde choisisse d’offrir les bénéfices des technologies à son peuple plutôt qu’aux industriels.

Les publications dans des revues scientifiques étaient à l’origine faites pour communiquer les résultats des recherches à d’autres scientifiques. La première revue scientifique au sens moderne est le Philosophical Transactions de la Royal Society of London dont la publication a commencé en 1665. A l’époque, seule l’imprimerie permettait cette communication. La plupart des premiers journaux étaient édités par des sociétés de chercheurs comme la Royal Society. Avec l’augmentation du nombre de revues et de chercheurs, les éditeurs se sont dits qu’une manne leur tendait les bras.

Quelques grandes maisons d’édition ont investi le marché et, bizarrement, le prix des revues s’est aussi mis à augmenter. Finalement, la communauté scientifique a commencé à se révolter contre les revues qui faisaient payer le prix fort. En 2001, deux organisations ont co-publié Declaring Independence.

Rémunérer l’éditeur

L’édition scientifique est à bien des égards différente des autres formes d’édition. Ici les articles sont rédigés par les chercheurs et relus par des chercheurs. Les éditeurs du journal sont souvent eux-mêmes des chercheurs également. Les maisons d’édition ne font qu’imprimer et envoyer le journal aux abonnés. Le salaire des chercheurs provient essentiellement de l’argent public. Leur travail de recherche est également financé par l’argent public. Et pourtant c’est la maison d’édition qui détient les droits sur les articles.

Les chercheurs et le public doivent s’abonner à ces journaux (ils doivent payer l’éditeur) pour avoir accès aux informations obtenues grâce à l’argent public. Et le prix des journaux a commencé à augmenter au point que certaines universités parmi les plus aisées dans les pays industrialisés ont de plus en plus de mal à s’abonner à tous les journaux qui traitent de leurs activités. C’est dans ces conditions que les scientifiques ont commencé leur révolte. On attribue la naissance du mouvement à une pétition de 2001 à l’initiative de Patrick Brown et de Michael Eisen même si des voix isolées les précédaient.

Ainsi, Prof. Donald Knuth, auteur du classique Art of Computer Programming et inventeur de Tex, un langage de traitement de texte pour documents techniques, écrit : « J’adore ma bibliothèque et les autres bibliothèques que je visite fréquemment et ça me met en rage de voir les prix qu’ils imposent aux bibliothèques. J’ai donc écrit une lettre salée à Elsevier en août 2001 pour leur faire part de ma grande inquiétude quant à leur future politique de prix pour le Journal of Algorythms. Elsevier a cependant ignoré ma lettre et ne m’a pas répondu. » (source)

La pétition de Brown et Eisen appelait tous les scientifiques à s’engager à partir de septembre 2001 à ne plus soumettre leurs papiers aux journaux qui ne rendaient pas le texte complet de leurs travaux accessible à tous, librement et sans entraves, que ce soit immédiatement ou après un délai de quelques mois.

La fondation de la Public Library of Science (PLoS) a été la grande étape suivante du mouvement vers la libération des éditions scientifiques. Malgré le soutien d’un éminent prix Nobel, Dr. Harold Varmus, ils ont dû patienter quelques temps avant de devenir complètement opérationnels et de publier le journal PLoS Biology en 2003.

Maintenant ils éditent sept journaux dont le contenu est disponible librement sur Internet. Ils ont adopté un modèle où les auteurs des articles paient pour être publiés. Ils conservent un fond, comme le font d’autres journaux du même type, pour affranchir de tout paiement les auteurs de pays émergents ou les auteurs qui n’ont pas les moyens suffisants.

En Europe, la Budapest Open Access Initiative, qui est à la fois une déclaration d’intention, de stratégie et d’engagement, a été signée par plusieurs scientifiques lors d’une réunion organisée par l’Open Society Institute en décembre 2001. Aujourd’hui des milliers de scientifiques sont signataires de l’initiative. Elle a eu un impact très fort dans le monde entier, en particulier en Europe.

Plusieurs agences de recherche et de financement, comme le Organisation Européenne pour la Recherche Nucléaire (CERN) et le National Institutes of Health (NIH), ont imposé l’accès libre pour toutes les publications issues de recherches qu’ils ont financées.

L’Accès Libre (AL) signifie que toutes les publications sont librement accessibles par les autres scientifiques et par le public. En fait, il offre toute liberté aux utilisateurs et demande simplement que l’auteur soit reconnu et que l’intégrité des documents soit conservée. Bien sûr il ne permet pas la ré-édition des documents, dans leur forme originale ou modifiée, comme les licences CC le font. Mais L’Accès Libre aux publications scientifiques est une avancée très importante dans des pays comme l’Inde.

Le gouvernement d’Inde devrait par conséquent imposer l’Accès Libre pour toutes les publications issues de recherches financées par l’argent public. Cela peut-être réalisé de deux manières : soit l’auteur affiche l’article sur son site Web, sur le site de son institut ou sur un site de centralisation (les revues qui permettent cela sont appelés AL vert) soit il peut publier dans des revues Accès Libre qui affichent leur contenu sur leur propre site Web (appelées AL d’or). Heureusement, une grande partie des journaux indiens sont AL. Mais la plupart des bons articles d’Inde sont publiés dans des journaux étrangers qui ne sont pas nécessairement AL.

La liberté dans le commerce

Nous allons parler ici d’une nouvelle expérience menée en Inde. L’idée est de parvenir à une transparence totale du commerce. Une entreprise technologique nommée WikiOcean a vu le jour à Pune. L’entreprise est unique de part le fait qu’elle expose tout son fonctionnement sur son site Web, même ses transactions financières. Ils appellent ce genre de système un wékosystème, un jeu de mot entre wiki et écosystème. Comme l’explique le site Web : « WikiOcean est une organisation participative, non-propriétaire où les professionnels rejoignent un modèle de partage des bénéfices comme expliqué dans le wékosystème. »

Cette entreprise a été inspirée par la transparence des logiciels libres et, en fait, l’un de ceux que l’on pourrait appeler les catalyseurs (ceux qui régulent la structure et la dynamique de Wékosystème) est le président de la Free Software Foundation of India, Prof. G. Nagarjuna. L’entreprise travaille déjà sur quelques projets. Mais il est encore trop tôt pour juger des chances de survie d’une telle entreprise. Souhaitons que tout se passe pour le mieux.

Une autre idée complètement exotique est de copier le modèle des logiciels libres pour d’autres produits. En d’autres termes rendre tous les besoins librement disponibles pour tous. Bien que ça puisse sembler absurde il ne faudrait pas rejeter cette idée puisque certains efforts à petite échelle ont été lancés et semblent fonctionner.

Cette idée est envisagée par un groupe pas si petit que ça qui s’appelle Oekonux (dérivé de oekonomie, le terme allemand pour économie et Linux). Vous pourrez en apprendre plus sur www.oekonux.org et vous pouvez rejoindre leur liste de diffusion si vous êtes vraiment intéressés.

Comme nous l’avons vu, les nouvelles technologies apportent de nouveaux défis, de nouvelles idées. Et nous serons peut-être amenés à ré-écrire de vieilles lois qui avaient été créées pour des situations complètement différentes, un autre paradigme technologique.

Quand de nouvelles technologies apparaissent il nous faut changer nos lois pour nous adapter à la nouvelle donne afin que la société puisse pleinement bénéficier de la nouvelle technologie ou alors seule une petite portion de la société en récoltera tous les bienfaits. Et au rythme auquel la technologie évolue il ne va pas être facile de suivre toutes ses implications. Nos technocrates et nos législateurs vont devoir suivre le rythme.

Cet article (et sa traduction) est publié sous licence Creative Commons Attribution Share Alike 2.5.




25 (bonnes) raisons de passer à Linux

Adpowers - CC byVous souhaitez convaincre votre hiérarchie, votre direction, voire votre conjoint de migrer vers GNU/Linux ? Rédigé il y a plus de deux ans par le Bellevue Linux Users Group (Seattle), ce petit inventaire vous sera peut-être utile pour fourbir quelques arguments bien sentis[1].

Les 22 trucs cools que l’on peut faire sous Linux mais pas sous Windows ou Mac avaient fait jaser dans les chaumières (comprendre dans les commentaires). En ira-t-il de même cette fois-ci ?

25 raisons de migrer sous Linux

25 Reasons to Convert to Linux

Janvier 2006 – The Linux Information Project
(Traduction Framalang : Don Rico, Daria et Olivier)

Partout dans le monde, des entreprises, des institutions scolaires ou universitaires, des agences gouvernementales et d’autres organisations abandonnent[2] de plus en plus massivement leur système d’exploitation Microsoft Windows et le remplacent par Linux. De la même façon, elles abandonnent des applications propriétaires et commerciales pour des logiciels libres (également connus sous le nom de logiciels open-source). Il existe au moins 25 raisons à ce mouvement, dont nous allons dresser la liste ici.

1. Étant enregistré sous une licence logicielle libre[3], Linux (ainsi que d’autres logiciels libres) peut être obtenu gratuitement. On peut télécharger gratuitement une distribution Linux par Internet et l’on peut l’acquérir sous forme de CD ou de boîte pour une somme modique. On peut installer sa copie du logiciel sur autant de postes qu’on le souhaite et ce sans aucune restriction. Voilà qui constitue une immense différence avec Microsoft Windows, qui coûte au bas mot 100€ par ordinateur.

2. Linux est aussi un logiciel libre dans le sens où quiconque peut le modifier, y compris son code source, comme bon lui semble. Si les versions modifiées ne sont pas redistribuées (par exemple données gratuitement ou commercialisées auprès du grand public), elles peuvent rester secrètes. La différence est là aussi énorme avec Microsoft Windows, qu’il est généralement interdit de modifier. Le code source constitue la version originale d’un programme tel qu’il a été écrit par un programmeur à l’aide d’un langage de programmation, avant d’être compilé de sorte que ses instructions puissent être comprises directement par le processeur d’un ordinateur ; la plupart du temps, il faut accéder au code source pour apporter des modifications à un programme. La possibilité de bidouiller et de modifier en toute liberté le code source, et de le faire sans être tenu de dévoiler ses modifications, a été un élément de choix très important pour de nombreuses organisations d’envergure[4].

3. Un support de qualité pour Linux est disponible gratuitement sur Internet, notamment par le biais de groupes de diffusion ou de forums. Certains considèrent que ce support est au moins aussi performant que celui fourni pour des systèmes propriétaires (c’est-à-dire commerciaux) moyennant finance. On peut aussi obtenir un support payant pour Linux si on le désire. Parmi les types de support dont on peut avoir besoin pour un système d’exploitation, on peut trouver l’aide à la personnalisation, l’assistance pour l’installation de nouveaux programmes, l’installation de mises à jour pour se préserver des nouvelles menaces de sécurité ou corriger les bogues récemment découverts (par exemple des failles). Par chance, ces deux derniers cas de figure sont relativement peu fréquents pour un système Linux.

4. Le risque que le support pour Linux soit interrompu à l’avenir, en raison d’un abandon prévu de son développement ou toute autre raison, est très faible, car son code source sera toujours disponible pour qui le souhaite, y compris ceux qui proposent un support gratuit via Internet et les entreprises qui le fournissent contre paiement. À l’opposé, avec Microsoft Windows et d’autres logiciels propriétaires pour lesquels le code source est la plupart du temps gardé secret, il devient difficile d’obtenir de l’assistance (d’un point de vue à la fois technique et légal) si le développeur décide de ne plus la fournir (par exemple pour forcer les utilisateurs à payer la mise à jour vers une version plus récente).

5. Il n’est pas à craindre que Linux devienne un jour complètement obsolète, de façon planifiée ou non, pour la simple raison que l’architecture UNIX sur laquelle il est basé est mise à l’épreuve et fignolée depuis plus de trente-cinq ans et qu’elle s’est révélée extrêmement performante, robuste et sûre. Son amélioration se poursuit à une cadence accrue, mais les nouvelles versions restent quoi qu’il arrive compatibles avec l’architecture UNIX qui constitue leurs fondations.

6. Les utilisateurs de Linux ne sont jamais poussés vers des mises à jour forcées[5], car les versions antérieures bénéficient toujours d’un support (par exemple, le développement de nouveaux correctifs de sécurité et de pilotes pour le matériel) et parce que les nouvelles versions, si on souhaite les acquérir, sont disponibles gratuitement (comme la plupart des logiciels libres) et offrent par essence une compatibilité élevée avec les précédentes. Les développeurs de logiciels propriétaires, en revanche, sont incités par de fortes motivations financières à pratiquer l’obsolescence planifiée, de façon à pousser les utilisateurs de versions antérieures à dépenser de l’argent pour acheter ou louer les nouvelles versions.

7. Lorsqu’un utilisateur décide de passer à une version plus récente de Linux, il ne devra payer aucun frais de licence et n’aura rien à dépenser en logiciels s’il choisit une distribution (version) gratuite. En outre, les conversions ou modifications d’un programme donné, l’acquisition de nouveau matériel ou autres dépenses induites par la mise à jour sont également minimes, grâce à la compatibilité avec les versions antérieures.

8. Aucun équipement onéreux n’est requis pour passer d’une version de Linux à une autre. Dans une entreprise équipée de centaines ou de milliers d’ordinateurs, il peut être nécessaire d’employer un équipe entière à temps plein pour s’assurer que tous les postes utilisés sont en régularité avec les termes complexes des CLUF (contrat de licence de l’utilisateur final) de Microsoft Windows, Microsoft Office et autres logiciels propriétaires. Qui plus est, pour les utilisateurs de Linux, il ne plane aucune menace d’audit par la BSA (Business Software Alliance)[6], pouvant déboucher sur des amendes lourdes pour des infractions mineures aux licences.

9. Linux offre une sécurité supérieure, à savoir un taux très faible d’infection par virus, chevaux de Troie, vers, espiogiciels et autres programmes malveillants, et ce parce que le système UNIX et tous ses dérivés (et parmi eux Linux) ont été conçus depuis leurs fondations en prenant en compte la sécurité, au lieu d’y ajouter après coup des mesurettes de sécurité. Par exemple, les utilisateurs ne se connectent pas à leur système en tant qu’utilisateur root (c’est-à-dire en tant qu’administrateur), protégeant ainsi les fichiers clés du système même en cas d’intrusion par un programme malveillant. Un puissant pare-feu est également intégré dans les distributions majeures et activé par défaut. Autre facteur important : l’accès libre au code source, qui permet à des milliers de personnes de par le monde d’y rechercher des failles de sécurité et de les combler[7].

10. Linux est très résistant aux crashes système et nécessite rarement un redémarrage. C’est là un atout essentiel pour les grosses organisations, pour lesquelles quelques minutes de panne seulement peuvent se traduire par des pertes financières substantielles. Linux a été intégralement bâti pour être un système d’exploitation extrêmement robuste et stable, bénéficiant de l’expérience acquise en ce domaine en plus de 35 ans de développement des systèmes d’exploitation de base UNIX.

11. Bien que les applications pour Linux ne soient pas aussi nombreuses et variées que celles disponibles pour les systèmes d’exploitation Microsoft Windows, il en existe déjà une vaste palette, et le choix continue de croître rapidement, car de plus en plus de développeurs conçoivent des programmes pour Linux. La plupart des applications Linux sont aussi des logiciels libres et gratuits (y compris la majorité des plus populaires) et nombre d’entre elles offrent des performances égales ou supérieures aux applications équivalentes sous MS Windows. D’ailleurs, les utilisateurs se rendent souvent compte que les applications dont ils sont besoin sont disponibles gratuitement sur Internet et qu’il ne leur est plus nécessaire d’acheter de logiciels propriétaires commerciaux.

12. Il existe un vaste choix de distributions Linux (plusieurs centaines), chacune possédant ses caractéristiques propres, mais d’ordre général toutes compatibles les unes avec les autres, ce qui permet aux utilisateurs de choisir les versions les mieux adaptées à leurs besoins. Cela signifie aussi que si une société proposant une distribution Linux venait à cesser ses activités, il resterait toujours un grand nombre de solutions de remplacement. Qui plus est, cette abondance de distributions favorise une émulation saine entre elles, ce qui contribue à l’amélioration constante de la qualité et des performances de Linux. Si l’on peut se sentir perdu face à une telle abondance, il est cependant difficile de se tromper en choisissant une des distributions les plus populaires, telles que RedHat ou SuSE.

13. Linux offre une grande souplesse de configuration : il est très facile de le personnaliser abondamment, et ce sans avoir à en modifier le code source. Par exemple, rien n’est plus simple que de configurer Linux au cours de l’installation d’une distribution afin de l’optimiser pour une utilisation en tant que poste de travail, sur un ordinateur de bureau, sur un ordinateur portable, un serveur Web, un serveur de base de données ou un routeur. De la même manière, l’apparence et le comportement du bureau, y compris les icônes et les menus, peuvent être configurés presque à l’infini, selon les goûts ou les besoins de l’utilisateur. On peut même lui donner l’apparence de Microsoft Windows. Si cela ne suffisait pas, la possibilité d’accéder librement au code source, de le modifier et de le recompiler, permet une souplesse de configuration quasi illimitée.

14. Linux et d’autres logiciels libres utilisent des formats de fichiers appelés formats ouverts. Parmi eux, il existe des formats pour le traitement de texte, les feuilles de calcul et d’autres types de fichiers conformes aux standards collectifs, lesquels peuvent être utilisés par tout développeur de logiciel pour créer des programmes compatibles, contrairement aux formats fermés généralement pris en charge par les logiciels propriétaires. Cela a l’avantage d’éliminer le problème de la dépendance aux standards propriétaires, laquelle engendre des difficultés et des coûts supplémentaires pour passer à un autre logiciel. Grâce à eux, l’utilisateur a donc la maîtrise complète de ses données, particulièrement dans le cas de figure où le développeur ayant créé le logiciel cesserait son activité ou interromprait le support de ses anciens logiciels.

15. De manière générale, Linux est plus rapide que ses concurrents à configuration matérielle égale, et ce grâce à une optimisation accrue de son code source, notamment en supprimant les lignes de code superflues.

16. Linux offre une grande compatibilté avec les autres systèmes d’exploitation. Par exemple, il peut lire, écrire, copier, effacer et manipuler les données présentes sur les partitions Windows d’un même disque dur (DD), se comporter comme un serveur Windows pour un réseau comprenant des postes Windows, formater des disques devant être utilisés sous Windows et même, si nécessaire, faire fonctionner des programmes Windows directement. À l’inverse, les systèmes d’exploitation Microsoft Windows sont incapables d’accéder aux partitions des DD contenant d’autres OS, ou de formater un disque pour d’autres systèmes d’exploitation, etc.

17. Linux et les logiciels libres respectent de fortes exigences éthiques, en grande partie en conséquence du caractère très ouvert de leur processus de développement et de la disponibilité de leur code source. Linux n’a jamais été condamné pour violation d’une loi anti-trust ni aucune autre infraction et n’a jamais dû payer d’amende pour la reproduction illégale d’une technologie développée par une autre entreprise. Les lois anti-trust découlent de la politique gouvernementale visant à réguler ou à briser les situations monopolistiques de façon à favoriser la libre concurrence et récolter les dividendes qu’une telle concurrence peut être bénéfique à l’économie et à la société dans son ensemble.

18. Linux réduit la nécessité de mettre à niveau ou de remplacer son matériel pour passer à une version plus récente, et ce parce que son code est aussi compact qu’efficace, permettant ainsi un fonctionnement performant sur des ordinateurs anciens trop peu puissants pour les dernières versions de Microsoft Windows.

19. Linux fonctionne sur une grande variété de plateformes (c’est-à-dire de processeurs et de types de systèmes), au lieu d’être limité aux processeurs et aux ordinateurs compatibles Intel. Il s’adapte parfaitement et convient à une utilisation sur une vaste palette d’équipements, allant des super-calculateurs aux robots industriels, du matériel médical électronique aux téléphones cellulaires (Linux peut même fonctionner sur une montre de poignet).

20. Linux est un choix plus judicieux pour une utilisation au sein des institutions scolaires, et ce pour un certain nombre de raisons. En particulier, le fait que les distributions Linux ne recèlent aucun secret (tout le contraire des logiciels propriétaires), ce qui donne aux étudiants la possibilié d’étudier comment fonctionnent vraiment les ordinateurs au lieu de se contenter d’apprendre à s’en servir. De nombreux enseignants et formateurs sont convaincus qu’il est bien plus important pour d’étudier les fondamentaux de l’informatique que de se former à l’utilisation d’applications spécifiques (telles que Microsoft Word ou Microsoft PowerPoint). Pourquoi ? Parce que les fondamentaux des sciences informatiques seront encore valables dans de nombreuses années, alors que les programmes à usage spécifique, particulièrment les logiciels propriétaires non conformes au standards collectifs, sont soumis à des modifications permanentes et que la plupart risquent de devenir obsolètes dans quelques années[8].

21. Pour les agences gouvernementales, Linux et les logiciels libres permettent la transparence des données, car ils les stockent sous des formats conformes aux standards collectifs. Cela s’oppose aux formats fermés propriétaires employés par les logiciels commerciaux. Cette transparence est primordiale pour le bon fonctionnement et la pérénité d’une démocratie efficace. Conserver des données non confidentielles sous des formats conformes aux standards permet à quiconque le souhaite d’y accéder sans devoir acquérir de coûteux logiciels propriétaires. En outre, stocker des données secrètes et confidentielles sous des formats conformes aux standards est généralement considéré comme plus sûr que de les conserver sous des formats propriétaires.

22. Avec Linux et les logiciels libres, l’existence de portes dérobées n’est quasiment pas à craindre, en grande partie parce que leur code source peut être examiné. Une porte dérobée est une méthode frauduleuse employée pour obtenir à distance l’accès à un ordinateur. De nombreux gouvernements et entreprises craignent (souvent à juste titre) que des portes dérobées aient été introduites dans des logiciels propriétaires, permettant ainsi au développeur du logiciel et aux agences d’autres gouvernements de fouiner dans leurs données les plus confidentielles.

23. Utiliser et promouvoir Linux contribue à entretenir une diversité saine et une concurrence accrue dans l’industrie des logiciels. Cette concurrence encourage les avancées technologiques, l’amélioration des performances et la baisse des coûts des logiciels libres comme des logiciels propriétaires. Les sciences économiques et des centaines d’années d’expérience empirique montrent clairement que les monopoles ont peu de raisons d’innover, ont tendance à fabriquer des produits de mauvaise qualité, à pratiquer des prix abusifs et qu’ils tendent à corrompre le système politique.

24. Linux et les logiciels libres, en plus d’avoir rattrapé – et dans certains cas surpassé – leurs équivalents propriétaires, se développent à une cadence plus soutenue[9]. Cette tendance ira croissant à mesure que la demande pour ces logiciels augmentera et que particuliers et organisations s’impliqueront de façon plus active dans leur développement.

25. Linux et les logiciels libres offrent la possibilité aux utilisateurs de contribuer à l’avancée de la technologie logicielle, car le code source est accessible à tous et peut être étudié, amélioré, enrichi et redistribué. C’est une démarche fort répandue et l’exemple le plus connu de contribution par une entreprise est celui d’IBM. En plus d’apporter leur pierre à l’édifice de la communauté du logiciel et de constituer un geste bénéfique en soi, ces contributions peuvent avoir des retombées très positives sur l’image de l’entreprise.

26. Il existe en réalité plus de 25 raisons pour que les entreprises du monde entier se convertissent à Linux et aux logiciels libres. La vingt-sixième pourrait être, par exemple, qu’avec Linux, contrairement aux systèmes d’exploitation Microsoft Windows, il est inutile de défragmenter les DD. La fragmentation, la dispersion des données à des emplacements non contigus sur les disques durs, peut affecter l’efficacité du stockage des données et ralentir le fonctionnement de l’ordinateur. Défragmenter n’a rien de difficile, mais devoir le faire régulièrement peut se révéler pénible, alors qu’il s’agit d’une opération inutile sur un système d’exploitation bien conçu.

Il existe cependant plusieurs cas de figure dans lesquels les entreprises ou d’autres organisations pourraient au contraire profiter d’abandonner leurs systèmes d’exploitation Linux pour passer à Microsoft Windows :

1. Une organisation qui réduirait ses effectifs et possèderait déjà des licences Microsoft Windows valides mais non utilisées devrait pouvoir réduire ses coûts en personnel en remplaçant ses experts Linux par des administrateurs Windows, ces derniers pouvant être engagés pour des salaires bien inférieurs à ceux des administrateurs Linux.

2. Si Microsoft proposait à une organisation une offre incitative à un coût extrêmement réduit, comprenant des licences (et des mises à jour) à long terme et à prix minime, de lui fournir du matériel neuf, des formations et du support gratuits, cette proposition pourrait se révéler des plus alléchantes. Cette proposition pourrait d’ailleurs profiter aux deux parties, grâce à la forte valeur publicitaire que pourrait récolter Microsoft si une entreprise migrait son parc informatique de Linux vers Windows.

Notes

[1] Crédit photo : Adpowers (Creative Commons By)

[2] Pour des liens vers des articles consacrés à de récentes conversions à Linux, voir Linux Success Stories, The Linux Information Project, Décembre 2005.

[3] Linux et la plupart des logiciels libres sont enregistrés sous la licence GNU General Public License (GPL). Cette licence, qui connaît un immense succès, a été spécialement conçue pour offrir autant de liberté que possible aux utilisateurs, tant du point de vue financier que celui de la souplesse d’utilisation. La GPL permet à tous d’accéder librement au code source des logiciels enregistrés sous cette licence dans le but de l’étudier, de l’utiliser, de le modifier, de l’enrichir et de le redistribuer à l’envi, en contrepartie d’un minimum de conditions exigeant qu’une copie du texte de la GPL soit incluse dans le logiciel et que le code source soit toujours accessible afin de permettre la redistribution des version modifiées. Il convient de préciser qu’il existe aussi des versions compilées de Linux payantes, ce qui est également permis par la GPL. Toutefois, ces distributions ne sont pas forcément meilleures que les versions gratuites. Les entreprises et autres organisations ont la possibilité de choisir entre une version gratuite ou payante et, s’ils optent pour la première, un grand choix de distributions s’offre à eux.

[4] C’est là une des raisons majeures pour laquelle Google a choisi Linux, d’après des sources internes.

[5] Les mises à jour forcées se produisent quand le développeur cesse le support d’une version précédente de son logiciel et que les patches de sécurité protégeant le système des virus et autres programmes malveillants les plus récents ne sont plus disponibles et que les pilotes pour le nouveau matériel ne sont plus développés. Par conséquent, de nombreux utilisateurs n’ont d’autre choix que d’acheter ou de louer la version la plus récente du logiciel. Cela peut se révéler très coûteux à cause des frais de licence et des autres prestations à régler au développeur ou au revendeur. S’ajoutent à ces coûts la nécessité fréquente de renouveler son matériel pour faire fonctionner correctement ces nouvelles versions du logiciel au code hypertrophié. En outre, installer le logiciel et résoudre les problèmes induits par cette mise à jour peut prendre beaucoup de temps aux administrateurs système et perturber la bonne marche de l’entreprise.

[6] La BSA est une organisation internationale très controversée créée à l’initiative des plus grands développeurs de logiciels propriétaires. Les CLUF obligatoires qui accompagnent ces logiciels donnent à la BSA le pouvoir de procéder à des audits surprise chez les utilisateurs et à leur imposer des amendes colossales en cas d’infraction aux licences.

[7] C’est le même principe qui est utilisé par le chiffrement asymétrique, qui est la forme de chiffrement de données la plus sûre. Et c’est à l’opposé des pratiques des éditeurs de logiciels propriétaires, qui tentent de garder le secret sur leur code source afin d’en dissimuler les failles de sécurité.

[8] Pour en savoir davantage sur les raisons qui font de Linux le choix idéal pour les institutions scolaires, se reporter à Linux and Education, The Linux Information Project, Mars 2004.

[9] On peut citer de nombreux exemples. Par exemple, Apache est le système de serveur le plus utilisé, qui héberge bien plus de sites Web que ses concurrents propriétaires. De la même façon, tout le monde s’accorde à reconnaître que le navigateur libre Firefox est bien plus performant (en termes de sécurité, d’ergonomie, etc.) que l’Internet Explorer de Microsoft. Internet Explorer a beau être distribué gratuitement, ce n’est pas un logiciel libre, parce que son code source n’est pas ouvert et qu’il est interdit de le modifier.




Dossier OLPC : 6 Sic Transit Gloria Laptopi par Ivan Krstic

Dossier One Laptop Per Child (un portable par enfant)

Sic transit gloria mundi est une locution latine qui signifie « Ainsi passe la gloire du monde » et qui vient rappeler aux hommes qu’aussi puissants soient-ils ils n’en demeurent pas moins mortels…

Sic Transit Gloria Laptopi est un article du blog d’Ivan Krstic[1], hier encore Monsieur Sécurité du projet OLPC, et qui vient rappeler à tous ceux qui s’intéressent au projet quelques vérités qui ne sont pas forcément toutes librement correctes à entendre.

Parce que si l’OLPC est un projet éducatif alors sa technologie libre ne peut constituer une fin en soi…

Copie d'écran - Ivan Krsti? - Sic Transit Gloria Laptopi

Sic Transit Gloria Laptopi

Sic Transit Gloria Laptopi

Ivan Krstic – 13 mai 2008

J’ai été assez mécontent de la qualité des discours de la communauté autour des récentes annonces de passage à Windows comme système d’exploitation. J’ai décidé sur le moment de me retenir de commenter, et n’ai été influencé que par la demi-douzaine de volontaires m’ayant écris personnellement pour de me demander s’il avaient travaillé en vain. Ce n’est pas le cas. Puis je suis parti en voyage quelques jours.

Je ne me suis alors occupé que de mes courriels et flux RSS, et ce que j’ai pu lire a transformé mon mécontentement en colère. Du coup, me voilà finalement parti pour commenter moi aussi la situation, et ce sera le dernier essai que je pense écrire au sujet de l’OLPC. Mais tout d’abord, remettons nous dans le contexte.

Le commencement

Tout au long de sa vie, Nicholas Negroponte à travaillé avec des visionnaires de l’éducation et des technologies tels qu’Alan Kay et Seymour Papert. Au début des années ’80, Nicholas et Seymour lancèrent un programme pilote soutenu pour le gouvernement français qui plaça des machines Apple dans un centre informatique d’une banlieue de Dakar au Sénégal. Ce projet fut un flop spectaculaire pour cause de mauvaise gestion et de conflits de personnalité. En 1983, approximativement un an après le début de l’expérience, le magazine de revue technologique du MIT (NdT : "MIT’s Technology Review") publia cette terrible épitaphe :

Naturellement ça a échoué. Rien n’est aussi indépendant, spécialement une organisation soutenue par un gouvernement socialiste et composée de visionnaires industriels, individualistes forcenés, provenant des quatre coins du globe. De plus, l’altruisme a un problème de crédibilité dans une industrie qui prospère par d’intenses compétitions commerciales.

À la fin de la première année du centre, Papert est parti, tout comme les experts américains Nicholas Negroponte et Bob Lawler. C’est devenu un champs de bataille, marqué par des affrontements de style de direction, de personnalité et de convictions politiques. Le projet ne s’en ai jamais vraiment relevé. Le nouveau gouvernement Français a fait une faveur au centre en le fermant.

Mais Nicholas et Seymour émergèrent tous les deux des cendres du projet pilote à Dakar avec leur foi en les prémisses d’enfants apprenant naturellement avec des ordinateurs intactes. Armés des leçons de l’échec au Sénégal, c’était peut être seulement une question de temps avant qu’ils ne recommencent.

En effet, Seymour essaya seulement deux ans plus tard : le Laboratoire Média (NdT : Media Lab) fut fondé en 1985 et commença immédiatement à supporter le Projet Phare (NdT : Project Headlight), une tentative d’introduction de l’apprentissage constructionniste dans le cursus complet de l’école Hennigan, une école primaire publique à Boston, composée d’étudiants principalement issus de minorités.

Avance rapide d’à peu près deux décennies, aux environs de l’an 2000. L’ancien correspondant étranger du Newsweek devint philanthrope, Bernie Krisher "l’homme unique des Nations Unies", convainquit Nicholas et sa femme Elaine de rejoindre son programme de construction d’école au Cambodge. Nicholas acheta des Panasonic Toughbooks (NdT : ordinateurs portables robustes de la marque Panasonic) d’occasion pour une école, et son fils Dimitri y enseigna quelque temps.

« Il y a sûrement moyen de reproduire ça en plus grand ». C’est l’idée qui s’imposa peu à peu, et le reste de l’histoire est connu : Nicholas courtisa Mary Lou Jepsen alors qu’elle passait un entretien pour un poste dans le corps professoral du Laboratoire, et lui parla de sa folle idée d’une organisation nommée Un Ordinateur portable Par Enfant (NdT : One Laptop Per a Child). Elle vint à bord du CTO (NdT : Chief technical officer, responsable technique). Vers la fin de l’année 2005, l’organisation sorti de l’ombre par un coup d’éclat : Nicholas l’annonça avec Kofi Annan, prix Nobel de la paix et alors secrétaire général des Nations Unies, lors d’un sommet à Tunis.

La partie qui mérite d’être répétée est que le projet éducatif basé sur le constructionnisme de Nicholas au Sénégal fut un désastre complet, à part des commentaires sur les personnalités et égos impliqués, il ne démontra rien. Et le projet de Krisher au Cambodge, celui qui rencontra évidemment un succès suffisant pour motiver Nicholas a démarrer véritablement le projet OLPC, utilisa des pc-portable du commerce, fonctionnant avec Windows, sans aucune personnalisation constructiviste que ce soit du système d’exploitation. (Ils avaient des outils constructivistes, installés sous la forme d’applications normales)

Ce que nous savons

La vérité c’est, lorsqu’il s’agit de passer un programme d’informatique personnelle à une échelle supérieure, que nous sommes complètement dans le noir à propos de ce qui fonctionne véritablement, parce que Eh ! Personne n’a jamais développé un programme d’informatique personnelle à grande échelle avant. Mako Hill écrit :

Nous savons que les bénéficiaires d’ordinateurs portables seront avantagés de pouvoir réparer, améliorer et traduire les logiciels fournis avec leurs ordinateurs dans leur propres langues et contextes. (…) Nous pouvons aider à favoriser un monde où les technologies sont au service de leurs utilisateurs et où l’apprentissage se fait suivant les modalités des étudiants, un monde où tous ceux qui possèdent des ordinateurs portables sont libres car ils contrôlent la technologie qu’ils utilisent pour communiquer, collaborer, créer et apprendre. C’est la raison pour laquelle l’engagement de l’OLPC dans la philosophie constructionniste est si importante à sa mission, et la raison pour laquelle sa mission a besoin de continuer à être menée avec des logiciels libres. C’est pourquoi le projet OLPC doit être sans compromis à propos de la liberté des logiciels.

Ce type d’idéalisme lumineux est séduisant, mais hélas, non soutenu par les faits. Non nous ne savons pas si les bénéficiaires d’ordinateurs portables seront avantagés de pouvoir réparer des bogues dans leurs PC. En effet, je suppose qu’ils vont largement préférer que leur satané logiciel fonctionne et n’ait pas besoin d’être réparé. Alors que nous pensons et même espérons que les principes constructionnistes, comme incarnés dans la culture du logiciel libre, sont utiles à l’éducation, présenter ces espoirs comme des faits encrés dans la réalité est simplement trompeur.

Pour ce que j’en sais, il n’y a pas de réelle étude qui démontre que le constructionnisme fonctionne à grande échelle. Il n’y a pas de projet pilote documenté d’éducation constructionniste à moyenne échelle qui soit un succès convainquant ; Lorsque Nicholas parle de « décennies de travail avec Seymour Papert, Alan Kay et Jean Piaget », il parle de théorie. Il aime à mentionner Dakar, mais n’aime pas trop parler de comment le projet s’est terminé, ou qu’aucun fait à propos de la validité de l’approche n’en soit ressorti. Et, aussi sûrement que l’enfer existe, on ne trouve aucune étude évaluée par des pairs (ou tout autre type, à ma connaissance) montrant que les logiciels libres font mieux que les logiciels propriétaires quand il s’agit d’aider à l’apprentissage, ou que les enfants préfèrent l’ouverture (NdT : du code source) ou qu’ils se préoccupent le moins du monde de liberté des logiciels.

Ayant cela en tête, la missive de Richard Stallman sur le sujet ne fit que m’énerver davantage :

Les logiciels propriétaires laissent les utilisateurs divisés et impotents. Leur fonctionnement est secret, il est donc incompatible avec l’esprit de l’enseignement. Apprendre aux enfants à utiliser un système propriétaire (non-libre) comme Windows ne rend pas le monde meilleur, parce qu’il les met sous le pouvoir du développeur du système – peut-être pour toujours. Ce serait comme initier les enfants à une drogue qui les rendrait dépendants.

Oh, pour l’amour de *$¼?# ! (NdT : la vulgarité employée ne gagnerait pas à être traduite) Tu viens vraiment d’employer une souriante comparaison des systèmes d’exploitation propriétaires avec les drogues dures ? Tu sais, celles qui causent de véritables dommages corporels voire la mort ? Vraiment, Stallman ? Vraiment ?

Si les logiciels propriétaires sont moitié moins efficaces que les logiciels libres pour aider à l’éducation des enfants, alors tu as vraiment raison, ça améliore le monde de faire ces logiciels pour les enfants. Mince, si cela ne limite pas activement l’apprentissage, ça aide à faire un monde meilleur. Le problème est que Stallman ne semble pas se soucier le moins du monde d’éducation (NdT : le langage fleuri employé par l’auteur a ici aussi été adouci) et qu’il ne voit les OLPC que comme un moyen de favoriser son agenda politique. Tout cela est honteux.

Tant qu’on en est à ce sujet

L’un des arguments favoris de la communauté de l’open source et du logiciel libre concernant l’évidente supériorité de ces derniers sur leurs alternatives propriétaires est la capacité supposée de l’utilisateur à prendre le contrôle et modifier un logiciel inadéquat, pour le faire correspondre à leurs souhaits. Comme on pouvait s’y attendre, l’argument à souvent été répété au sujet de l’OLPC.

Je ne peux pas être le seul à voir que le roi est nu.

J’ai commencé à utiliser Linux en 1995, avant que la majorité des internautes actuels n’apprennent l’existence d’un système d’exploitation en dehors de Windows. Il m’a fallu une semaine pour configurer X afin qu’il fonctionne correctement avec ma carte graphique, et j’ai appris d’importantes choses en programmation car j’ai eu ensuite besoin d’ajouter le support d’un disque dur SCSI mal reconnu. (Comme je ne savais pas que la programmation en C et du noyau sont sensés être difficile, je suis resté dessus pendant trois mois avant d’en avoir suffisamment appris pour écrire un patch qui fonctionne.) J’ai été depuis lors principalement un utilisateur d’UNIX, alternant entre Debian, FreeBSD puis ensuite Ubuntu, et j’ai récemment co-écrit un livre à succès à propos de Linux.

Il y a huit mois, alors que je me retrouvais encore en train de me battre avec la fonctionnalité d’hibernation/réveil de mon pc-portable sous Linux, je me suis tellement fâché que je suis allé chez le revendeur agréé Apple le plus proche, acheter un MacBook. Après 12 ans d’utilisation quasi-exclusive de logiciels libres, je suis passé à Mac OS X. Et vous savez quoi, la mauvaise gestion des ressources et les autres fonctionnalités bancales ne sont pas dues à Linux. C’est de la faute des vendeurs inutilement cachotiers qui ne rendent pas publiques les documentations pouvant permettre à Linux de mieux gérer le matériel. Mais, le jour où les vendeurs de matériel et les développeurs de logiciels libres se retrouveront main dans la main pour spontanément travailler d’arrache-pied en une gigantesque et festive communion (NdT : one giant orgiastic Kumbaya) n’étant pas encore venu, c’est le monde dans lequel nous vivons. Donc pendant ce temps, je suis passé à OS X et j’ai trouvé que c’était une expérience informatique faramineusement plus agréable. J’ai toujours mon shell UNIX libre, mon langage de programmation libre, mon système de ports libre, mon éditeur de texte libre, et j’utilise un bon paquet de logiciels libres dans une machine virtuelle Linux. La majorité, voire la quasi-totalité des utilisateurs d’ordinateurs ne sont pas programmeurs. Et parmi les programmeurs, une majorité, voire la quasi-totalité d’entre eux ne s’aventurent pas au pays des roulements internes du noyau. Faisant partie de ceux qui peuvent effectivement bidouiller à gré leur noyau, je trouve que cette capacité ne me manque pas en fait. Ça y est, je l’ai dit. Pendez moi pour trahison.

Ma théorie est que les techniciens, en particulier quand ils sont jeunes, ont un plaisir particulier à fourrer leur nez un peu partout dans leur logiciel. (NdT : ici aussi une chaste expression française protège le lectorat de l’impudeur de l’auteur) Exactement comme les confectionneurs de boîtiers d’ordinateur fantaisistes et/ou personnalisés, ces gars trouvent honorifique le fait de passer un nombre incalculable d’heures à compiler et configurer leurs logiciels jusqu’à l’oubli. Eh, j’en était là moi aussi. Et plus je me fais vieux, plus j’attends des choses qu’elles fonctionnent « clé en main ». Ubuntu progresse dans ce domaine pour les utilisateurs novices. Mais certains utilisateurs exigeants semblent penser qu’OS X est inégalé en la matière.

J’avais l’habitude de penser que quelque chose clochait chez moi quand je pensais ça. Puis je me suis mis à regarder les en-têtes des mails sur les listes de diffusions auxquelles je suis abonné, curieux de voir ce que les autres utilisaient parmi les gars que je respecte. Et c’était comme si la majorité des experts lumineux de la communauté de la sécurité informatique, une des communautés les plus sévèrement techniques sur la planète, utilisait OS X.

Et, au cas où vous penseriez que je sois payé par Apple, je mentionnerai Mitch Bradley. Avez-vous lu l’histoire de Mel, le programmeur « réel » ? C’est Mitch, en 2008. Super-hacker de microgiciel (NdT : Firmware), auteur du standard IEEE de microgiciel ouvert, auteur du microgiciel que Sun vendit sur ses machines pendant bien deux décennies, et plus généralement une des rares personnes avec qui j’ai jamais eu le plaisir de travailler et dont les compétences dépassaient si extraordinairement les miennes que ça me donnait l’impression de ne pas savoir par où commencer pour le rattraper. L’ordinateur portable principal de Mitch fonctionne avec Windows.

Tour de passe-passe

Mais vraiment, je me perds en digression. Le fait est que l’OLPC était supposé aider l’éducation, pas les logiciels libres. Et la partie la plus énervante de l’annonce à propos de Windows n’est pas qu’elle révéla que les préoccupations d’un certain nombre de participants au projet n’ont rien à voir avec l’éducation, mais le fait que les erreurs et tours de passe-passe de Nicholas furent mise à jour.

La manœuvre qui consiste à dire « nous sommes en train d’inspecter Sugar, il fonctionnera sous Windows » est un simple non-sens. Nicholas sait assez bien que Sugar ne deviendra pas magiquement meilleur par la simple vertu de fonctionner sous Windows au lieu de Linux. En vérité, Nicholas veut livrer des XP complets, il me l’avait dit. Ce qui n’empêchait pas de poursuivre dans un coin le financement de Sugar, pour éviter un désastre dans les relations publiques du projet, et faire savoir mollement et pour la forme sa « disponibilité », comme une option, aux pays acheteurs.

En fait, j’ai arrêté quand Nicholas m’a dit, et pas qu’à moi, que l’apprentissage n’avait jamais fait partie de la mission. Que la mission était, dans son esprit, d’obtenir le plus d’ordinateurs portables possibles ; que de dire quoi que se soit à propos de l’apprentissage serait présomptueux, et que donc il ne voulait pas que le projet OLPC ait une équipe de développement logiciel, une équipe pour le matériel ou une équipe de déploiement qui aille plus avant.

Ouais, je sais pas vraiment ce qui reste du coup.

Il y a trois problèmes clés dans les projets d’informatique personnelle : choisir un dispositif technique qui convient, l’apporter aux enfants et l’utiliser pour créer une expérience pérenne d’apprentissage et d’éducation. Ils sont listés par ordre de difficulté exponentielle croissante.

L’industrie n’a pas voulu aborder le premier car il n’y avait que peu de profit en jeu. Le projet OLPC a réussi à le leur faire faire de la manière la plus efficace possible : en les menaçant de leur voler leur nourriture. Mais l’industrie des fabricants d’ordinateurs portables ne veut toujours pas aborder le déploiement, car c’est vraiment, vraiment sacrément compliqué, ce n’est pas dans un rayon de 200 kilomètres autour de leur compétences de base, et généralement, ça a un retour sur investissement commercial qui fait pleurer le bébé Cthulhu. (NdT : voir Wikipédia à propos de Cthulhu)

Le premier module de déploiement au Pérou était composé de 40 mille pc-portables, à déployer dans 570 écoles à travers jungles, montagnes, plaines et avec une totale variation dans la disponibilité de l’électricité et une uniforme absence d’infrastructure réseau. Un certain nombre d’écoles cibles sont dans des endroits qui nécessitent plusieurs modes de transports pour les atteindre, et sont tellement retirées qu’elles ne sont même pas desservies par le service postal. La livraison des ordinateurs portables allait être accomplie par des vendeurs non sûrs qui allaient être en position de voler les machines en masse. Il n’y a pas de façon simple de collecter des preuves de ce qui a effectivement été livré, où et à qui. Ce n’est pas évident d’établir une procédure pour s’occuper des unités défectueuses, ou de celles qui étaient mortes à l’arrivée. Comparé à cette problématique, le travail technique que je fais c’est des vacances.

À part l’incroyable Carla Gomez-Monroy, qui travailla à mettre en place les projets pilotes, il n’y avait personne d’autre embauché à travailler au déploiement lorsque j’étais au sein du projet OLPC, avec un total de 360 000 pc-portables en cours de dissémination en Uruguay et au Pérou. J’ai été parachuté la dedans, en tant qu’unique membre à m’occuper de l’Uruguay, et envoyé au Pérou à la dernière minute. Et j’ai plutôt un bon sens pratique, mais qu’est-ce que j’y connais moi en déploiement ? C’est à cette époque que Walter fut rétrogradé et théoriquement fait « directeur du déploiement », un poste où il dirigeait la coûteuse équipe qu’il formait à lui tout seul. Puis il démissionna, et voyez-vous ça : à ce moment là, la compagnie avait un demi million d’ordinateurs portables disséminés dans la nature, avec personne pour ne serait-ce que prétendre être officiellement en charge du déploiement. « J’ai démissionné » me dit Walter au téléphone après être parti, « parce que je ne pouvais pas continuer de travailler sur un mensonge. ».

Mais on ne peut pas dire que le projet OLPC fut pris au dépourvu, ou oublia en quelque sorte que ça allait être un problème. J’ai écrit dans un mémo interne en décembre :

Nous avons en cours de nombreux déploiements en parallèle, de différentes échelles. En Uruguay avec huit mille machines, G1G1 avec potentiellement un quart de million, et avec au moins le Pérou et la Mongolie en prévision dans le mois qui vient. Nous n’avons pas de réelle infrastructure pour supporter ces déploiements, notre processus de développement n’alloue aucune marge pour s’occuper de problème critiques de déploiement qui pourrait (vont inévitablement) arriver, et nous n’avons aucun processus pour gérer les crises qui s’ensuivront. Je voudrais pouvoir dire que c’est la plus grande partie de nos problèmes, mais j’ai mentionné ceux-là en premier simplement parce que je prévois que ce sont ces déploiements qui imposeront le fardeau le plus lourd sur cette organisation dans les mois qui viennent, un fardeau que nous ne sommes présentement entièrement pas préparés à assumer.

(…)

Nous n’avons toujours pas un seul employé concentré sur le déploiement, aidant à le planifier, travaillant avec nos pays cibles pour apprendre ce qui fonctionne et ce qui ne fonctionne pas. De toute évidence notre « plan de déploiement » est d’envoyer selon nos disponibilités un champion super-hacker dans chaque pays, de façon à ce qu’il règle tous les problèmes qui apparaissent une fois sur place. Si ce n’est pas notre plan, alors nous n’avons pas de plan du tout.

Que le projet OLPC n’ait jamais été sérieux à propos de réussir son déploiement, et qu’il semble ne même plus s’intéresser à au moins essayer, est criminel. Laissé sans solution, cela fera du projet un raté historique de la technologie de l’information sans précédent par son ampleur.

Et pour le dernier problème clé, transformer des pc-portables en objet d’apprentissage est un saut logique non trivial, qui demeure inadéquatement expliqué. Non, nous ne savons pas si ça va marcher, spécialement sans professeurs. Et c’est ok — une manière de savoir si ça fonctionne peut très bien être en s’y essayant. Parfois il faut courir avant de pouvoir marcher, ouais ? Mais la plupart d’entre nous qui rejoignirent le projet OLPC étaient convaincus que la philosophie éducative derrière le projet est ce qui en faisait un projet différent des tentatives similaires du passé. Un apprentissage qui soit ouvert, collaboratif, partagé et exploratoire, nous pensions que c’était ça qui pouvait faire fonctionner le projet OLPC. Car certains avaient participé à des projets d’éducation avec des ordinateurs portables ordinaires par le passé, et comme le New York Times le nota en couverture il n’y a pas si longtemps, ils échouèrent lamentablement.

Le nouveau OLPC de Nicholas abandonne ces fantastiques objectifs d’éducation, et oriente le projet vers une organisation sans but lucratif de 50 personnes produisant des ordinateurs portables, en compétition avec Lenovo, Dell, Apple, Asus, HP et Intel sur leur propre terrain, et en utilisant la stratégie que nous savons vouée à l’échec. Mais eh ! Je suppose qu’ils vendront plus d’ordinateurs portables ainsi.

La théorie bancale de Windows

J’ai déjà essayé d’établir qu’il n’existe aucune preuve tangible quant à la supériorité des logiciels libres concernant l’éducation, lorsqu’ils sont comparés à un système d’exploitation propriétaire. Ce point appelle à quelques précisions. Bernie Innocenti, encore récemment CTO de la jeune section Europe de l’OLPC, a écrit il y a quelques jours :

Je ne m’opposerai pas personnellement à un port de Sugar pour Windows. Je ne perdrai jamais mon temps à ça, ni n’encouragerai quiconque à perdre du temps dessus, mais c’est un logiciel libre et donc n’importe qui est libre de le porter vers tout ce qu’il veut.

Stallman a également récemment qualifié de « pas bonne chose à faire » le port de Sugar vers Windows. En fait, un tel port n’est qu’une perte de temps si le logiciel libre n’est pas un moyen ici, mais une finalité. Sur une sollicitation de Nicholas, j’ai écrit un mémo interne à propos de la stratégie logicielle au début de mars. Il fut co-signé par Marco Pesenti Gritti, l’inimitable leader de l’équipe Sugar. Je n’ai pas la liberté de reproduire l’intégralité du document, mais je vais en citer les parties les plus importantes qui tiennent en un minimum de lignes :

… Nous (avons fortement argumenté que nous devrions) découpler l’interface graphique de Sugar du reste des technologies Sugar que nous avons développées comme le partage, la collaboration, le stockage de données et ainsi de suite. Nous devrions peut être alors faire fonctionner ces services dans des environnement Linux normaux, et redéfinir le concept d’activité de Sugar comme étant simplement des applications Linux classiques capables d’utiliser les services Sugar. L’interface graphique de Sugar pourrait elle même, optionnellement et à une date ultérieure, être fournie comme un lanceur graphique, peut être développé pour la communauté.

L’erreur principale de l’approche actuelle de Sugar est qu’elle associe des idées extraordinairement puissantes à propos d’apprentissage, qui devraient être partagées, collaboratives, de pair à pair et ouvertes, avec la notion que ces idées doivent être présentée dans un nouveau paradigme graphique. Cette association est intenable.

Choisir de ré-inventer le paradigme de l’environnement graphique signifie que nous utilisons nos ressources extrêmement limitées à lutter contre des interfaces graphiques, et non à développer de meilleurs outils pour l’éducation. (…) Il est très important de reconnaître que des changements de paradigme graphique ne sont essentiels ni à notre principale mission, ni aux principales idées de Sugar.

Nous gagnerions énormément à détacher les technologies qui supportent directement le mode d’apprentissage qui nous intéresse de l’interface graphique de Sugar. Il devient notamment beaucoup plus facile de répandre ces idées et technologies au travers des plate-formes car nos composants d’interface graphique sont les parties les plus dures à porter. Si les technologies inhérentes à Sugar étaient facilement accessibles à tous les principaux systèmes d’exploitation, nous pourrions favoriser la créativité et travailler à l’élargissement de la communauté pour construire des outils logiciels. Ces outils pourraient ensuite être utilisés globalement par tous les élèves et sur n’importe que ordinateur, XO ou autre. Ça aurait dû être notre constant objectif. Beaucoup des technologies que nous avons construites seraient alors accueillies à bras ouverts dans les système Linux modernes, et un grand nombre de développeurs viendraient nous aider si nous leurs en donnions la possibilité. Au contraire de la situation actuelle, un tel modèle devrait être la direction à prendre : le projet OLPC dirigeant bénévolement des développements eux-mêmes principalement réalisés par la communauté.

Finalement, au regard de la question politiquement sensible de l’engagement de l’OLPC par rapport à l’open source, nous pensons qu’il y a une réponse simple : la politique du projet OLPC devrait être de ne développer que des logiciels libres, utilisant des standards ouverts et des formats ouverts. Nous ne pensons pas qu’un engagement plus grand soit nécessaire. Notre préférence pour la liberté des logiciels ne devrait résulter que de la conviction qu’elle offre un meilleur environnement éducatif que les alternatives propriétaires. À ce titre posséder un ensemble de technologies open source multi plates-formes pour construire des applications d’apprentissage collaboratif fait véritablement sens. Mais fondamentalement, nécessiter une interface graphique particulière ou même un certain système d’exploitation semble entièrement superflu ; nous devrions nous satisfaire de n’importe quel environnement où nos technologies de base peuvent être utilisées comme des briques de base pour délivrer l’expérience éducative qui nous importe tant.

Finalement, il importe peu à notre mission éducative de savoir sur quel noyau fonctionne Sugar. Si Sugar lui même demeure libre, ce qui n’a jamais été remis en question, toutes les fonctionnalités concernées, comme la touche visualisation du code source restent opérationnelles, qu’elles soit sous Windows ou sous un autre OS. Le projet OLPC ne devrait jamais aller dans une direction qui limite volontairement l’audience de ses logiciels éducatifs. Windows aujourd’hui est le système d’exploitation le plus diffusé. Un Sugar compatible-Windows pourrait potentiellement apporter sa riche vision de l’apprentissage à des dizaines voire des centaines de millions d’enfants de par le monde dont le parents ont un ordinateur équipé de Windows, que ce soit des ordinateurs fixes ou portables. Suggérer que cette façon de procéder soit mauvaise car philosophiquement impure est carrément démoniaque.

Et eh, peut être qu’une version Windows de Sugar intéressera suffisamment les enfants au fonctionnement des ordinateurs (et des programmes) pour vouloir vraiment passer à Linux. Trolltech, la compagnie derrière le toolkit graphique Qt fut récemment achetée par Nokia et annonça qu’elle allait ajouter une plate-forme de support pour les versions mobiles de Windows, essuyant alors les accusations de trahison de la communauté du logiciel libre. Mais le responsable technique de Trolltech, Benoit Schillings, ne voit pas les choses ainsi :

Certaines critiques concernent le fait que le support de Windows mobile par Trolltech pourrait limiter la croissance des technologies Linux mobiles et embarquées, mais Schillings voit les choses différemment. En permettant aux développeurs d’application de créer un seul code de base qui puisse être porté sur différentes plateformes de manière transparente, il dit que Trolltech rend la transition à Linux plus simple pour les compagnies qui utilisent actuellement Windows mobile, ce qui signifie pour lui plus d’adoptions du système d’exploitation libre à long terme.

L’homme parle sagement.

Maintenant, faites particulièrement attention : autant je suis clairement enthousiaste à l’idée de porter Sugar pour n’importe quel système d’exploitation, autant je suis absolument opposé à ce que Windows devienne l’unique système d’exploitation que le projet OLPC offre pour ses XOs. Les deux sujets sont complètement orthogonaux, et la tentative de Nicholas de confondre les deux en qualifiant la communauté du logiciel libre de « fondamentaliste » (et regarder la communauté écumer de rage au lieu d’épingler sa logique) est simplement une autre erreur. Ce n’est pas qu’il faille ne pas se sentir légitimement offensé. C’est seulement qu’il a pris l’habitude d’appeler terroristes ses employés.

Le projet OLPC devrait être philosophiquement pur à propos de ses propres machines. Être un organisme à but non lucratif qui attire la bonne volonté d’un grand nombre de volontaires communautaires de par son succès et dont la mission principale est un objectif de progrès social, cela implique une grande responsabilité. Ça ne devrait pas devenir un moyen de créer une incitation économique pour un vendeur particulier. Il ne faudrait pas croire le non-sens qui veut que Windows soit une obligation pour le monde du travail après l’école. Windows est demandé parce que suffisamment d’enfant ont grandit avec, et non l’inverse. Si le projet OLPC faisait grandir un milliard de personne avec Linux, Linux ne serait qu’un dandy pour le monde du travail. Et le projet OLPC ne devrait pas choisir un unique système d’exploitation qui paralyse le matériel des ordinateurs du projet : les versions courantes de Windows ne peuvent ni utiliser intelligemment la gestion de l’énergie des XO, ni son maillage complet ou ses capacités avancées d’affichage.

Plus important encore, le système d’exploitation fourni avec l’OLPC devrait incarner la culture de l’éducation à laquelle le projet adhère. La culture d’enquête ouverte, de divers travaux coopératifs, de la liberté d’utiliser et déboguer, ça c’est important. Le projet OLPC a la responsabilité de diffuser la culture de la liberté et les idées que sa mission éducative soutient ; ceci ne peut être fait en offrant uniquement un système d’exploitation propriétaire pour ses ordinateurs portables.

Dit différemment, le projet OLPC ne peut pas clamer qu’il est préoccupé par l’éducation et dans le même temps entrainer les enfants à être des drones d’informatique de bureau, contraints par l’invisible rhétorique des drones de bureau à déployer des ordinateurs contenant des logiciels de drones de bureau. Nicholas avait l’habitude de dire qu’imaginer que les XOs puissent être utilisés pour enseigner à des enfants de six ans comment se servir de Word et Excel le faisait grincer des dents. Apparemment, ce n’est plus le cas. Qu’en est-il aujourd’hui ? L’indécision doit prendre fin. Comme on dit chez nous : relance ou casse-toi (NdT : shit or get off the pot)

Comment aller plus loin

Voici un extrait d’un de mes derniers mails à Nicholas, envoyé peu de temps avant ma démission :

Je continue de penser qu’ils est fort dommage que tu ne tires pas avantage de la position actuelle de l’OLPC. Maintenant qu’il a réussi à faire travailler l’industrie sur des ordinateurs portables à bas prix, le projet OLPC pourrait devenir le point de rassemblement de la défense du constructionnisme, publiant du contenu éducatif, fournissant des logiciels d’apprentissage, et gardant trace des déploiements mondiaux et des leçons à en tirer. Quand un pays choisit cette option, le projet OLPC pourrait être l’endroit où s’arrêter en travaillant véritablement avec ce pays pour aider à sa réalisation, sans s’occuper du fabriquant qui aura été choisi, capitalisant ainsi sur les plans de déploiement, l’expérience et la base de logiciels et contenus facilement disponibles. Dit autrement, le projet OLPC pourrait être le service global IBM des programmes d’informatique personnelle. C’est, je le maintiens, la bonne voie à suivre pour avancer.

Je suis en train d’essayer de convaincre Walter de ne pas démarrer une Fondation Sugar, mais une Fondation de l’Éducation Libre (NdT : Open Learning Foundation). Pour ceux qui s’intéressent encore à l’éducation dans ce panier de crabes, la mission pourrait être de lancer cette organisation, puisque le projet OLPC ne veut pas l’être. Avoir une compagnie indépendante de tout matériel et concentrée entièrement sur l’écosystème éducatif, depuis le déploiement jusqu’au contenu de Sugar, ce n’est pas seulement ce que je pense être prioritaire pour vraiment porter les efforts d’informatique personnelle à un autre niveau, mais c’est également une approche qui a une bonne chance de faire en sorte que cette organisation fasse des choses à peu près auto-financées.

Donc voilà pour l’éducation ouverte, le logiciel libre, la force des convictions personnelles, et pour avoir suffisamment de foutu humilité pour se souvenir que le but est d’apporter l’éducation à un milliard d’enfants de par le monde. Le milliard attend que nous mettions nos idiotes querelles de côté, que nous finissions nos interminables complaintes, pour y aller enfin.

Allons-y maintenant.

Notes

[1] Merci à Simon Descarpentries pour la traduction.




22 trucs cools que l’on peut faire sous Linux mais pas sous Windows ou Mac

Sur son blog, Matthew Helmke[1] a listé une vingtaine de choses sympas qui peuvent selon lui être réalisées si votre ordinateur est sous GNU/Linux mais pas si vous êtes sous Windows ou Mac.

Une manière de rechercher les avantages et les caractéristiques de Linux. Une manière aussi de rendre curieux voire de convaincre ceux qui n’y sont pas. Une manière enfin de poser la même question à ceux sous Linux qui passeront par ici et qui voudront bien compléter ou critiquer ce billet via les commentaires pour alimenter le débat 😉

Copie d'écran - Matthew Helmke

Quels est le truc le plus sympa qu’on peut faire avec Linux mais pas avec Windows ou un Mac ?

What is the coolest thing you can do using Linux that you can’t do with Windows or on a Mac?

Matthew Helmke – 2 février 2008

C’est une question qu’on m’a posée récemment. Comme je n’ai pas qu’une seule réponse, j’ai dressé une liste des trucs auxquels j’ai pensé et je l’ai mailée à mes amis… puis je me suis dit que je pourrais la publier ici et m’en servir de référence pour plus tard. Vous êtes libres de faire des ajouts à cette liste !

1. Mettre à jour légalement et sans avoir à payer.

2. Obtenir les dernières versions du système d’exploitation qui fonctionnent plus rapidement sans toucher au matériel.

3. Installer et exécuter facilement différentes interfaces graphiques si je n’aime pas la configuration par défaut.

4. Installer une vingtaine de programmes par une simple commande.

5. Avoir un système qui met à jour automatiquement les programmes déjà installés.

6. Installer la même copie de mon OS (Ubuntu) sur plusieurs machines sans me soucier des restrictions de licences ou de clés d’activation.

7. Distribuer des copies de mon système d’exploitation et des programmes qui tournent dessus sans violer aucune loi, gouvernementale, éthique ou morale, parce que tout a été prévu dans ce sens.

8. Avoir le contrôle total du matériel installé sur ma machine et savoir qu’il n’y a pas de porte dérobée dans mes logiciels, installés là par des éditeurs peu scrupuleux ou par le gouvernement.

9. Fonctionner sans utiliser d’anti-virus, de protection anti-adware ou spyware, ne pas avoir à redémarrer ma machine pendant des mois tout en recevant toujours les derniers correctifs de sécurité.

10. Fonctionner sans avoir à défragmenter mon disque dur, jamais !

11. Essayer des logiciels, décider qu’ils ne me plaisent pas, les désinstaller et savoir qu’ils ne laissent pas derrière eux des traces dans la base de registre, s’y accumuler et ralentir ma machine.

12. Pouvoir faire une énorme erreur qui nécessite la réinstallation complète de mon système et être capable de le faire en moins d’une heure, parce que j’ai mis toutes mes données sur une partiton séparée du système d’exploitation et des programmes.

13. Pouvoir démarrer mon système avec de supers effets, aussi sympa que ceux de Vista, sur une machine qui a 3 ans… en moins de 40 secondes, temps d’identification compris (nom d’utilisateur + mot de passe).

14. Etre capable de configurer tout ce que je veux, légalement, y compris mes programmes fétiches. Je peux même contacter les développeurs du logiciel concerné pour leur poser des questions, leur donner des idées et être impliqué dans la construction ou le développement de la version en cours si j’en ai envie.

15. Avoir plus de 4 fenêtres de traitements de texte ouvertes, écouter de la musique, jouer avec les effets graphiques du bureau, être en contact avec une large communauté sympathique et avoir Firefox, ma messagerie instantanée et mon client de courrier électronique ouverts en même temps sans que le système se mette à tourner si lentement qu’il en deviendrait inutilisable.

16. Utiliser la commande dpkg –get-selections > pkg.list pour obtenir la liste exhaustive et détaillée de tous les logiciels que j’ai installés, faire une sauvegarde de mes répertoires /etc et /home sur une autre partition et ainsi être capable de restaurer mon système à tout moment, facilement.

17. Faire tourner plusieurs bureaux en même temps, voire autoriser plusieurs utilisateurs à se connecter et à utiliser la machine en même temps.

18. Redimensionner une partition du disque dur sans avoir à la détruire et perdre les données qu’elle contient.

19. Pouvoir utiliser le même matériel pendant plus de 5 ans avant qu’il n’ait réellement besoin d’être remplacé… J’ai toujours du matériel qui a presque 10 ans, qui tourne sous Linux et qui est toujours utile.

20. Pouvoir surfer sur internet pendant que l’OS s’installe !

21. Utiliser à peu près n’importe quel matériel en sachant que le pilote est déjà présent dans le système d’exploitation… éliminant ainsi la nécessité de rechercher le site du fabriquant pour trouver ce pilote.

22. Obtenir le code source de pratiquement n’importe quoi, y compris celle du noyau du système d’exploitation ou celle de la plupart de mes applications. Je pourrais encore en rajouter, mais je pense que c’est déjà pas mal !

Notes

[1] Traduction GaeliX puis relecture Olivier et enfin validation Don Rico.




Dossier OLPC : 1 Présentation du projet One Laptop Per Child

Dossier One Laptop Per Child (un portable par enfant)

Nos récents articles sur l’OLPC nous ont donné envie d’une nouvelle traduction / introduction en direction d’un public plus large qui, au delà de la polémique, présente bien selon nous le projet et ses enjeux.

Merci à Yonnel pour tout le travail de traduction.

Copie d'écran - Free Software Magazine

La liberté pour tous avec le projet One Laptop Per Child

Impossible thing #6: Freedom for all with the One Laptop Per Child project

Terry Hancock – Avril 2008 – FreeSoftware Magazine

Plus les années passent et plus on s’inquiète de l’émergence d’une « fracture numérique » entre les riches et les pauvres. L’idée, c’est que ceux qui n’atteignent pas un certain seuil de revenu ne pourront pas se permettre d’investir dans des ordinateurs et une connexion internet qui rendent possible une éducation et un développement avancés. Ils seront pris au piège de leurs contingences. Avec les systèmes d’exploitation propriétaires et payants, qui imposent une sorte de plancher sur le prix des systèmes, cela pourrait bien être le cas. Mais GNU/Linux, le matériel en constante amélioration et une implication de tous pour réduire les coûts plutôt que d’améliorer le matériel, ont amené une nouvelle vague d’ordinateurs à très bas prix, à commencer par le XO d’OLPC. Ces ordinateurs à base de logiciels libres seront le premier contact à l’informatique pour des millions de nouveaux utilisateurs, et ceci annonce un avenir plus libre.

One Laptop Per Child, un portable par enfant

Kofi Annan, ancien Secrétaire Général des Nations Unies, fut à l’origine de l’idée il y a quelques années : un projet pour changer les méthodes d’apprentissage des enfants partout dans le monde. Nicholas Negroponte, professeur au MIT, a décidé de s’occuper du problème, et avec le temps, après un long examen des options possibles, une solution d’apprentissage constructiviste a été choisie : fournir aux enfants un outil pour « apprendre à apprendre » (selon les termes de l’expert de l’éducation Seymour Papert). Le type d’ordinateur sélectionné est un « portable », même si le terme doit être compris dans un sens plutôt large, car l’OLPC XO 1, étant conçu pour une mission totalement différente de celle du portable typique de l’homme d’affaires en voyage, ne ressemble à aucun design antérieur.[1]

OLPC - 1

Un des principaux critères pour le design est que le XO doit être très très peu coûteux. L’objectif était d’arriver à 100$ US. Les premiers exemplaires devraient plutôt s’approcher de 200$, même si on espère que cela baissera suivant les prix des composants et la stabilisation du design. Le projet s’est engagé à baisser les coûts plutôt que d’améliorer les performances, puisque tout l’intérêt du portable OLPC est de créer un produit que les ministères de l’éducation des pays du Tiers-Monde auront les moyens d’acquérir pour les enfants de leur pays.

« Absolument tous les composants logiciels de la machine seront sous licence libre – même jusqu’au BIOS, qui sera LinuxBIOS, écrit en langage Forth. »

Vous ne pouvez vraiment pas faire un ordinateur comme celui-ci avec des logiciels propriétaires pour plusieurs raisons. D’abord, évidemment, vous ne pouvez pas vous permettre d’acheter les licences pour 100 millions de copies de Windows – ce qui coûterait plus que le matériel ! Deuxièmement, même si des rabais importants étaient accordés pour le rendre abordable, ce choix de système serait une énorme contrainte pour le design, à cause du manque de flexibilité des logiciels basés uniquement sur des binaires. Troisièmement, puisque tout l’intérêt est d’aider les gamins dans leur apprentissage-exploration, il est contre-productif de cacher les mécanismes – l’open source pour le système d’exploitation est vraiment un élément de l’expérience d’apprentissage.

Ce ne devrait donc pas être une surprise de voir le portable OLPC tourner sous Linux. En fait, absolument tous les composants logiciels de la machine seront sous licence libre – même jusqu’au BIOS, qui sera LinuxBIOS, écrit en langage Forth. A cause de la complexité liée à la présence du code source pour tous les logiciels sur des ordinateurs si minuscules, avec de telles contraintes de stockage, l’équipe a également décidé d’écrire une énorme partie du système en Python, un langage de programmation interprété qui simplifie grandement cette exigence. En Python, la source est le programme fonctionnel, donc il n’y a en fait qu’une seule chose à distribuer ; la source est particulièrement facile à lire, même pour des élèves de secondaire ; de plus, aucun compilateur ou système pour le build n’est requis pour qu’ils utilisent ou modifient le logiciel sur l’ordinateur. Les changements se voient immédiatement, dans l’environnement d’exécution. [2]

OLPC - 2

En fait, les portables OLPC sont conçus pour faciliter autant que possible ce genre d’exploration. Le développement de logiciels est une des nombreuses « activités » qu’un enfant est invité à explorer dans Sugar, l’interface utilisateur de la machine. Chaque programme est conçu pour permettre à l’enfant d’appuyer sur une simple touche « View source » pour voir le code Python qui se cache derrière l’application (vous avez peut-être remarqué que la plupart des navigateurs web disposent d’une telle fonctionnalité, ce qui rend le HTML hautement accessible, même aux « non-programmeurs » partout dans le monde).

« Le développement de logiciels est une des nombreuses activités qu’un enfant est invité à explorer dans l’interface utilisateur de la machine Sugar. »

Les conséquences de cette décision donnent le vertige et font et rêver. Autour du monde, peut-être avant 2010 ou 2012, il pourrait y avoir jusqu’à cent millions d’enfants, de six à dix ans, qui utiliseraient un environnement de programmation Python complet et facile d’accès, ainsi qu’un système d’exploitation rempli de programmes amusants à bidouiller. Il est difficile d’imaginer un enfant qui ne serait pas attiré. [3]

OLPC - 3

Juste pour dire, imaginez qu’en fait seul un enfant sur mille soit réellement impliqué, et atteigne le point où l’on puisse légitimement l’appeler un « développeur open source ». Cela ferait cent mille personnes. Rappel : Debian GNU/Linux, dont nous avons déjà vu que la valeur peut être évaluée à dix milliards de dollars ou plus, a été produit par bien moins de développeurs.

Toujours est-il que le projet OLPC lui-même a été cité dans la presse pour des raisons moins positives. Il y eut des accusations de mauvaise gestion, et des conflits de personnalité sont apparus. Il y eut une brouille avec Intel, et une réorganisation de certains aspects de la gestion du projet est actuellement étudiée. Certains craignent que les grandioses objectifs ne soient pas atteints. Mais sur le long terme ce ne sont pas des considérations très importantes, parce que même si OLPC en lui-même échoue, le concept de la mission est déjà validé, et c’est la mission qui importe. Si ce n’est pas XO, alors une autre machine à très bas coût sera déployée de par le monde pour occuper la même niche. Certains concurrents ont déjà fait leur apparition sur ce marché.

Un marché totalement nouveau pour les ordinateurs

Assez de gens dans les pays développés ont été impressionnés par le design du XO, pour que les grands fabricants et concepteurs s’y intéressent. Clairement, il y a une demande pour un ordinateur entre 200 et 400 dollars qui fasse ce que le XO fait. Et comme les chaînes de production et de distribution pour OLPC sont en quelque sorte handicapées par les spécificités de sa mission, les développeurs commerciaux apparaissent pour occuper l’espace vide de ce marché.

Une nouvelle gamme de portables à bas coût, basés sur de la mémoire flash, des processeurs faibles, un design extrêmement rustique, et des systèmes d’exploitation GNU/Linux sont en cours de conception et de fabrication pour répondre à la demande. [4]

OLPC - 4

Par chance, ces ordinateurs auront au moins le même impact dans les pays riches que le XO en aura dans les pays pauvres : des millions et des millions de personnes seront exposées à une expérience immédiate, grâce à GNU/Linux et aux logiciels libres. De tels utilisateurs ne demanderont pas « pourquoi devrais-je passer au logiciel libre ? », mais « pourquoi est-ce que je voudrais un jour passer à quoi que ce soit d’autre ? ». La motivation du garde-ce-que-tu-connais est puissante, et cet avantage s’appliquera alors au logiciel libre.

« Des millions et des millions de personnes seront exposées à une expérience immédiate, grâce à GNU/Linux et aux logiciels libres. »

Pourtant, le plus intéressant est que, avec une telle exposition supplémentaire (et tellement de publics différents), le potentiel pour de nouvelles implications, de nouvelles idées, et de nouveaux développements de logiciels augmente également. Et bien sûr, chaque morceau grignoté entraîne dix fois plus de gens, ce qui signifie qu’il y a aussi un plus vaste bassin de ressources pour la croissance des infrastructures (plus souvent dans le cas de systèmes déployés dans des pays riches, évidemment).

Les pionniers et la nouvelle vague

Ce qui en découlera, bien sûr, est que la « culture libre » actuelle n’est vraiment que le « projet pilote ». Le vrai phénomène social est encore à venir. Et si les développeurs de logiciels libres, les hackers de matériel ouvert, et les créateurs de culture libre peuvent faire bouger le monde autant que nous l’avons déjà vu, alors il est clair que cette nouvelle vague d’un toute autre ampleur réinventera tout simplement le monde.

Notes

[1] Figure 1 : Les ordinateurs One Laptop Per Child « XO » sortant de la chaîne d’assemblage, pour leur première utilisation. Dans le sens des aiguilles d’une montre, depuis le coin en bas à gauche : les tout premiers portables qui sortent de la chaîne d’assemblage ; des enseignants lors d’un séminaire OLPC ; des enseignants à Oulan-Bator, en Mongolie ; une représentante du ministère de l’éducation mongol, lors de la cérémonie de remise des premiers exemplaires (Images : OLPC Project / CC-By 2.5).

[2] Figure 2 : les portables OLPC sont déjà déployés dans beaucoup d’endroits du monde technologiquement sous-équipés (les données de participation sont basées sur la fin de l’année 2007, depuis des informations présentes sur le site http://www.laptop.org).

[3] Figure 3 : Des enfants à la découverte de la technologie. L’OLPC, à cause de sa conception à base de logiciels libres, offre des possibilités sans précédent pour ses nouveaux utilisateurs partout dans le monde (Images : OLPC Project / CC-By 2.5).

[4] Figure 4 : Bien que OLPC vise les pays en développement, il oriente le marché et des concurrents commerciaux viennent rapidement occuper le vide dans le marché (Crédits: OLPC Project / CC-By-2.5 (XO), S2RD2@Flickr/CC-By-2.0 (Classmate), Red@Wikipedia/CC-By-3.0 (Eee), Sinomanic et ONE sont des photos provenant de communiqués de presse des entreprises respectives).




Un logiciel du « domaine public » est-il un logiciel libre ?

Utilisé par Firefox, Google Gears ou Adobe, le moteur de base de données SQLite rencontre un grand succès actuellement notamment pour ses capacités à travailler hors connexion.

Or il se trouve que SQLite est dans le « domaine public ». Alors question : un logiciel du « domaine public » peut-il être considéré comme un « logiciel libre » ?

Une traduction Olivier / relecture Daria pour Framalang.

No Copyright

Le domaine public est-il open source ?

Is public domain software open-source?

Stephen Shankland – 28 février 2008 – News.com

Alors que j’écrivais un article cette semaine sur le parrainage du projet SQLite par Adobe je me suis retrouvé face à un problème complexe : les logiciels publiés dans le domaine public sont-ils également des logiciels libres ?

Mon éditeur déteste les introductions sous forme d’interrogations mais je crois bien que cette fois c’est justifié car même les experts n’arrivent pas à se mettre d’accord.

Pour rappel : si un logiciel ou tout autre œuvre de l’esprit est dans le domaine public, cela signifie qu’aucun droit d’auteur ne s’applique. Les conditions pour coller à la définition officielle de l’Open Source sont décrites par l’Open Source Initiative. Deux programmeurs, Eric Raymond et Bruce Perens, ont fondé l’OSI il y a 10 ans pour formaliser et codifier le concept de l’open source qui dérive du mouvement des logiciels libres initié par Richard Stallman dans les années 80. L’OSI compte 68 licences compatibles.

Richard Hipp, qui a créé le projet de base de données SQLite en 2000 et qui l’a placé dans le domaine public, pense qu’il peut également être considéré comme un logiciel open-source.

« J’ai tenu beaucoup de discussions à ce sujet avec des avocats d’affaire des entreprises qui utilisent beaucoup SQLite. L’idée qui s’en dégage est que le domaine public est valide et est un sous-ensemble de l‘open-source, excepté en France et en Allemagne où le concept de domaine public n’est pas reconnu » m’a-t-il dit dans une discussion par e-mail commencée avec l’histoire sur Adobe.

Mais ne sautons pas aux conclusions. Voyons l’opinion de Mark Radcliffe, avocat spécialisé en propriété intellectuelle qui est le conseiller général de l’Open Source Initiative.

Lorsque j’ai demandé à Radcliffe si le domaine public est open-source, sa réponse a été claire : « Non. Les logiciels qui appartiennent vraiment au domaine public ne sont plus protégés par le droit d’auteur et par conséquent on ne peut plus leur appliquer les conditions nécessaires pour qu’ils soient conformes à n’importe quelle licence open source. »

Louis Rosen est du même avis, il est avocat au cabinet Rosenlaw and Einschlag qui s’occupait précédemment de l’aspect légal pour l’OSI et qui y est toujours impliqué. Il m’a indiqué un document qu’il a écrit, vieux mais toujours d’actualité, sur les raisons pour lesquelles le domaine public n’est pas une licence.

« Le domaine public ne sera jamais une licence. Sa vraie signification est Pas de licence requise » affirme Rosen. « Les logiciels qui sont offerts au public ou au domaine public sont plutôt sûrs. Ce qui m’inquiète plus ce sont les gens ou les entreprises qui libèrent leurs logiciels de manière si naïve sans comprendre que les licences ou des closes légales sont bien plus efficaces et rentables. »

Même si le domaine public n’est pas une licence faisant partie de la liste officielle des licences open-source de l’OSI, Perens dit qu’il n’en est pas loin : « Les logiciels qui ont été formellement dédiés au domaine public par une déclaration écrite collent aux conditions de la définition Open Source seulement si le code source est disponible. Etonnamment on peut trouver des programmes sous forme binaire appartenant au domaine public dans certains coins reculés du Net. »

Et Raymond ajoute : « Les logiciels dans le domaine public se caractérisent par… Les utilisateurs sont assurés d’avoir tous les droits de distribution et de réutilisation que la définition de l’Open Source cherche à assurer parce qu’il n’y a pas de propriétaire pour appliquer de restrictions.»

Entre la théorie et la pratique pourtant, le projet SQLite semble plus open-source qu’autre chose. Le code source du projet est disponible sans restriction et les programmeurs qui contribuent au code doivent déclarer explicitement que leur contribution est placée dans le domaine public à jamais, ce qui semble coller au point de vue de Perens.




Dossier OLPC : 4 Le souhait de Benjamin Mako Hill

Dossier One Laptop Per Child (un portable par enfant)

Après l’intervention de Stallman et la précision de Negroponte, Nous poursuivons aujourd’hui notre petit dossier sur l’OLPC qui se trouve clairement aujourd’hui à la croisée des chemins.

Il faut dire que, sauf erreur de ma part, les grands médias francophones ne semblent pas du tout s’y intéresser (et c’est bien décevant). Les seuls qui abordent le sujet sont les sites web spécialisés en informatique alors que c’est avant tout d’éducation qu’il s’agit. Ceci n’a pas échappé à Benjamin Mako Hill[1] dont je partage totalement le point de vue[2].

Une traduction que nous devons à Simon Descarpentries pour une relecture by myself.

OLPC - Barnaby - CC-By

Libération des ordinateurs portables

Laptop Liberation

Benjamin Mako Hill – mardi 29 avril 2008

Au cours de la semaine dernière, Nicholas Negroponte donna cette malheureuse entrevue décriant « l’intégrisme du logiciel libre » (ndt, open source fundamentalism), et indiquant la possibilité d’une relation plus chaleureuse avec Microsoft. Comme on pouvait s’y attendre, cela a suscité un flux ininterrompu de commentaires sur OLPC News et sur les listes de diffusion du projet OLPC.

Quelques jours avant que la déclaration de Negroponte n’atteigne le presse, j’ai donné une conférence nommée Libération des ordinateurs portables au Penguicon où j’ai pu expliquer pourquoi je pensais que l’utilisation d’un système d’exploitation libre et l’adoption des principes du logiciel libre par le projet OLPC étaient essentiels pour le succès de l’initiative et de ces propres objectifs de réforme de l’éducation. Et cela fait un certain temps que je dit des choses similaires.

Mon propos peut se réduire à quelque chose, d’assez approprié, que Nicholas Negroponte aimait à dire quand le projet s’appelait encore le Portable à 100$ : un pc-portable extrêmement peu cher n’est pas une question de « si », mais de « quand » et « comment ». Cette technologie définira les modalités par lesquels les étudiants communiqueront, collaboreront, créeront et apprendront. Ces modalités sont dictées par ceux qui ont la capacité de changer les logiciels — ceux qui ont accès aux ordinateurs, aux sources nécessaires pour faire les changements et à la liberté de partager et de collaborer.

Le constructionnisme (la philosophie éducative de l’OLPC) consiste à mettre de puissants outils, et le contrôle sur ses puissants outils, dans les mains des étudiants. Il s’agit de l’apprentissage par l’exploration et la création, il s’agit également de façonner son propre environnement d’apprentissage. Les principes constructionnistes portent en eux des similarités non négligeables avec ceux du logiciel libre. En effet, l’engagement du projet OLPC auprès des logiciels libres ne s’est pas produit par accident. Le projet OLPC argumenta de manière convaincante qu’un système libre était essentiel à la création d’un environnement d’apprentissage qui puisse être utilisé, bidouillé et ré-inventé par ses jeunes utilisateurs. À travers ces processus, l’XO devient une force pour l’apprentissage de l’informatique, et un environnement via lequel les enfants et leur communautés peuvent utiliser la technologie suivant leurs choix, dans des conditions appropriées qu’ils auront eux-mêmes décidé.

Nous savons que les bénéficiaires d’ordinateurs portables seront avantagés de pouvoir réparer, améliorer et traduire les logiciels fournis avec leurs ordinateurs dans leur propres langues et contextes. Mais le plus important, c’est ce qui sera fait de ces ordinateurs, et que le projet OLPC n’a pas encore imaginé. L’OLPC est un puissant outil éducatif, mais le pouvoir ultime n’est que dans les mains de ceux qui peuvent librement utiliser, modifier et collaborer à la définition des modalités de leur environnement d’apprentissage. Par son engagement pour la liberté du logiciel, le projet OLPC fit le choix de ne pas être arrogant, en s’imaginant savoir comment ses bénéficiaires utiliseront leurs ordinateurs. Un environnement flexible, conçu pour l’apprentissage constructionniste, et une plate-forme de développement libre protègent de cette arrogance.

Le constructionnisme et le logiciel libre, implémentés et enseignés en classe, offrent un très fort potentiel d’exploration, de création et d’apprentissage. Si quelque chose te déranges, change-le. Si quelque chose ne fonctionne pas bien, répare-le. Le logiciel libre et le constructionnisme placent les élèves en situation d’appropriation de leur environnement d’apprentissage, de la manière la plus importante et la plus explicite possible. Ils créent une culture de l’autonomisation. La création, la collaboration et l’engagement critique deviennent la norme.

Le projet OLPC n’a pas à choisir si la technologie éducative arrive à maturité. Si nous travaillons dur pour ça, alors nous pourrons peut être influencer le « comment » et le « qui ». Les éditeurs de logiciels propriétaires tel que Microsoft veulent que le « qui » soit eux. Avec les logiciels libres, les utilisateurs peuvent être au pouvoir. L’enjeux n’est autre que l’autonomie. Nous pouvons aider à favoriser un monde où les technologies sont au service de leurs utilisateurs et où l’apprentissage se fait suivant les modalités des étudiants, un monde où tous ceux qui possèdent des ordinateurs portables sont libres car ils contrôlent la technologie qu’ils utilisent pour communiquer, collaborer, créer et apprendre.

Ceci est, pour moi, la promesse de l’OLPC et sa mission. C’est la raison pour laquelle je me suis engagé et que je supporte le projet depuis quasiment son premier jour. C’est la raison pour laquelle j’ai laissé Canonical et Ubuntu pour revenir à l’école au MIT, et être plus proche du projet indépendant qui naissait alors. C’est la raison pour laquelle l’engagement de l’OLPC dans la philosophie constructionniste est si importante à sa mission, et la raison pour laquelle sa mission a besoin de continuer à être menée avec des logiciels libres. C’est pourquoi le projet OLPC doit être sans compromis à propos de la liberté des logiciels.

En tant que conseiller et parfois contractant du projet OLPC, ce dernier n’est pas en devoir de m’écouter. Mais j’espère, pour notre bien à tous, qu’ils le feront.

Notes

[1] Pour mémoire nous avions traduit un autre article de Mako Hill : Pourquoi faire un don à Wikipédia ? (et soutenir la culture libre et ses utopies).

[2] Photographie : détail de Mexican Children with OLPC XOs par Barnaby sous licence Creative Commons By.