Proposition de traduction de la licence « Creative Commons Zero 1.0 »

GnuckX - CC0 En juillet dernier, Framasoft animait le plus long atelier de l’histoire des Rencontres Mondiales du Logiciel Libre : un traducthon courant pendant toutes les rencontres.

En effet, fidèles au poste dans la chaleur cuisante d’une salle de classe au dernier étage de l’ENSEIRB, des bénévoles de Framalang, Benjamin Jean de VeniVidiLibre.org, Alexis Kauffman et moi-même accueillions les courageux visiteurs ayant trouvé leur route jusqu’au traducthon 2.0, pour la plupart venus avec la ferme intention de nous aider à traduire le livre libre : « Imagine there is no Copyright ».

Et c’est ainsi qu’en à peine 5 jours, malgré la chaleur, les difficultés de réseau et une coupure de courant [1], l’ouvrage fut intégralement traduit, par plusieurs dizaines de bénévoles.

L’idée de traduire ce livre était venue à Alexis après l’avoir lu en version papier italienne, couverte par une licence CC-by-nd (Creative Commons attribution, sans dérivation). L’attribution nous permis de remonter à une version anglaise, couverte par une CC-by-nc-nd (ajoutant une clause de réutilisation non commerciale seulement), ce qui pouvait sembler paradoxal vu qu’Alexis l’avait acheté son livre… Toutefois, une mention supplémentaire s’ajoute, sur le site officiel, à la licence de la version originale :

No article in this book may be reproduced in any form by any electronic or mechanical means without permission in writing from the author.

Qui peut se traduire par :

Aucun article de ce livre ne peut être reproduit par quelque moyen électronique ou mécanique que ce soit, sans la permission écrite de l’auteur.

La suite du puzzle allait donc se résoudre en contactant l’auteur, ce qui est, d’une manière générale, la chose à faire en cas de doutes sur une licence [2].

Contacté, l’auteur nous répondit qu’il souhaitait que son œuvre soit au plus près possible du domaine public (ce qui est cohérent avec le titre de l’ouvrage). Benjamin Jean proposa donc la licence « Creative Commons Zero », ce qui convint très bien à l’auteur.

La licence CC0 a en effet été créée pour uniformiser mondialement la notion de domaine public, ou permettre de s’en approcher au plus près dans les juridictions, comme la France, où il n’est pas possible d’y placer soit même son œuvre.

Toutefois, à sa création la CC0 n’était pas applicable en France pour des raisons juridiques levées depuis, mais elle le demeurait pour l’instant pour une seconde raison, l’absence de version française. Il nous fallait donc remédier à ce petit inconvénient avant de pouvoir sortir notre prochain Framabook, et c’est ainsi que l’équipe de traduction de choc qui se cache derrière cette page, se mit à l’œuvre.

Nous sommes donc fier aujourd’hui de vous présenter la traduction, par Framalang et VVL, de la CC0 [3] ! Cette traduction est une contribution que nous avons bien entendu adressée à Creative Commons afin d’étoffer un peu le paysage des licences françaises touchant de domaine public, s’ajoutant ainsi à la récente licence « Information Publique Librement Réutilisable » utilisable uniquement par les organismes du secteur public dans le cadre de leurs démarches « OpenData » [4].

Creative Commons Zéro 1.0 – Domaine Public [5]

CC0 1.0 Universal – Public Domain Dedication

CreativeCommons.org – 17 décembre 2007
Traduction Framalang : Julien R., Barbidule, Goofy, Martin G., Siltaar, mben

CREATIVE COMMONS N’EST PAS UN CABINET D’AVOCATS ET NE FOURNIT PAS DE SERVICES DE CONSEIL JURIDIQUE. LA PUBLICATION DE CE DOCUMENT NE CRÉE AUCUNE RELATION JURIDIQUE ENTRE LES PARTIES ET CREATIVE COMMONS. CREATIVE COMMONS MET À DISPOSITION CETTE LICENCE EN l’ÉTAT, À SEULE FIN D’INFORMATION. CREATIVE COMMONS NE FOURNIT AUCUNE GARANTIE CONCERNANT L’UTILISATION DE CE DOCUMENT OU DES INFORMATIONS OU TRAVAUX FOURNIS CI-APRÈS, ET DÉCLINE TOUTE RESPONSABILITÉ POUR LES DOMMAGES RÉSULTANT DE L’UTILISATION DE CE DOCUMENT OU DES INFORMATIONS OU TRAVAUX FOURNIS CI-APRÈS.

Déclaration d’Intention

Les lois de la plupart des législations des états du monde accordent automatiquement des Droits d’Auteur et Droits Voisins (définis ci-dessous) au créateur et au(x) titulaire(s) de droits ultérieur(s) (ci-après, le « titulaire ») d’une œuvre originale protégeable par le droit de la propriété littéraire et artistique et/ou une base de données (ci-après, une « Œuvre »).

Certains titulaires souhaitent renoncer de façon définitive à ces droits sur une Œuvre dans le but de contribuer à un pot commun de travaux créatifs, culturels et scientifiques (les « Biens Communs ») que le public, de façon certaine et sans craindre d’actions ultérieures pour contrefaçon, a la possibilité d’utiliser comme base de travail, de modifier, d’incorporer dans d’autres travaux, de réutiliser et de redistribuer aussi librement que possible sous quelque forme que ce soit et à quelque fin que ce soit, y compris, et sans réserves, à des fins commerciales. Ces titulaires peuvent contribuer aux Biens Communs dans le but de promouvoir les idéaux de la culture libre et la production de travaux créatifs, culturels et scientifiques, ou pour acquérir une renommée ou une plus grande diffusion de leur Œuvre, notamment grâce à l’utilisation qui en sera faite par d’autres.

Pour ces raisons et/ou d’autres, et sans attendre aucune rémunération ou compensation supplémentaire, la personne associant la CC0 à une Œuvre (le « Déclarant »), dans la mesure où il ou elle est titulaire des Droits d’Auteur et des Droits Voisins de l’Œuvre, fait volontairement le choix d’appliquer la CC0 à l’Œuvre et de distribuer publiquement l’Œuvre sous les termes de cette licence, en toute connaissance de l’étendue de ses Droits d’Auteur et Droits Voisins sur l’Œuvre, ainsi que de la portée et des effets juridiques de la CC0 sur ces droits.

1. Droit d’Auteur et Droits Voisins

Une Œuvre mise à disposition sous la CC0 peut être protégée par les droits d’auteur et les droits voisins ou connexes (le « Droit d’Auteur et les Droits Voisins »). Le Droit d’Auteur et les Droits Voisins comportent, notamment, les droits suivants :

  1. Le droit de reproduire, adapter, distribuer, interpréter, diffuser, communiquer, et traduire une Œuvre ;
  2. Les droits moraux conservés par le ou les auteur(s) ou interprète(s) originaux ;
  3. Les droits relatifs à la diffusion et à la vie privée rattachés à l’image ou au portrait d’une personne représentée dans une Œuvre ;
  4. Les droits protégeant contre la concurrence déloyale à l’égard de l’Œuvre, sujets aux limitations prévues dans le paragraphe 4(a) ci-dessous ;
  5. Les droits protégeant l’extraction, la dissémination, l’utilisation et la réutilisation des données contenues dans une Œuvre ;
  6. Les droits relatifs aux bases de données (tels que ceux découlant de la Directive 96/9/CE du Parlement Européen et du Conseil du 11 mars 1996 concernant la protection juridique des bases de données, et de toute transposition au niveau national, y compris de toute version amendée ou révisée de cette directive) ;
  7. Tous autres droits similaires, équivalents ou correspondants partout dans le monde, basés sur des lois ou traités applicables, et toutes les transpositions nationale de ceux-ci.
2. Renonciation

Dans toute la mesure permise par la loi, mais sans l’enfreindre, le Déclarant annonce par la présente abandonner, céder et renoncer ouvertement, complètement, définitivement et irrévocablement, à tous ses Droits d’Auteur et Droits Voisins sur l’Œuvre ainsi qu’aux prétentions et intérêts à agir associés , qu’ils soient à cet instant connus ou inconnus (y compris les prétentions et intérêts à agir associés nés ou à naître), (i) partout dans le monde, (ii) pour la durée maximale prévue par les lois ou traités applicables (y compris les prolongations futures de cette durée), (iii) sur n’importe quel support actuel ou futur et quel que soit le nombre de copies, et (iv) pour toutes fins, y compris, et sans réserves, les fins commerciales, publicitaires ou promotionnelles (la « Renonciation »). Le Déclarant procède à la Renonciation au bénéfice de chacun des membres du plus large public et au détriment des héritiers et successeurs du Déclarant, avec la ferme volonté que cette Renonciation ne puisse faire l’objet d’aucune révocation, récision, résiliation, annulation, conclusion, ou de toute autre action en justice ou injonction susceptible d’interrompre la jouissance paisible de cette Œuvre par le public telle que prévue par la Déclaration d’Intention du Déclarant.

3. Licence Publique Supplétive

Dans le cas où une partie quelconque de la Renonciation et pour quelque raison que ce soit est jugée juridiquement nulle ou sans effet en vertu de la loi applicable, la Renonciation doit être préservée de la manière permettant la prise en compte la plus large de la Déclaration d’Intention du Déclarant. De plus, dans la mesure où la Renonciation est ainsi jugée, le Déclarant concède par la présente à chaque personne concernée une licence pour l’exercice des Droits d’Auteur et Droits Voisins du Déclarant sur l’Œuvre, gratuite, non transférable, non sous-licenciable, non exclusive, irrévocable et inconditionnelle (i) partout dans le monde, (ii) pour la durée maximale prévue par les lois ou traités applicables (y compris les prolongations futures de cette durée), (iii) sur n’importe quel support actuel ou futur et quel que soit le nombre de copies, et (iv) pour toutes fins, y compris, et sans réserves, les fins commerciales, publicitaires ou promotionnelles (la « Licence »). La licence sera réputée effective à la date à laquelle le Déclarant a appliqué CC0 à l’Œuvre. Dans le cas où une partie quelconque de la Licence, et pour quelque raison que ce soit, est jugée juridiquement nulle ou sans effet en vertu de la loi applicable, une telle invalidité partielle ou ineffectivité n’invalidera pas le reste de la Licence, et dans un tel cas le Déclarant déclare par la présente qu’il ou elle (i) n’exercera aucun de ses Droits d’Auteur ou Droits Voisins subsistant sur l’Œuvre et (ii) ne fera valoir aucune prétention ni intérêt à agir associés relatifs à l’Œuvre, ce qui serait opposé à la Déclaration d’Intention du Déclarant.

4. Limitations et exonérations de responsabilité
  1. Aucun droit sur une marque déposée ou un brevet détenu par le Déclarant n’est abandonné, cédé, licencié ou affecté d’une quelconque manière par le présent document;
  2. Le Déclarant propose la mise à disposition de l’Œuvre en l’état, sans déclaration ou garantie d’aucune sorte, expresse, implicite, légale ou autre, y compris les garanties concernant la commercialité, ou la conformité, les vices cachés et les vices apparents, dans toute la mesure permise par la loi applicable;
  3. Le Déclarant décline toute responsabilité dans la compensation des droits d’autres personnes qui peuvent s’appliquer à l’Œuvre ou à toute utilisation de celle-ci, y compris, et notamment, mais pas exclusivement, les Droits d’Auteur et Droits Voisins de toute personne sur l’Œuvre. En outre, le Déclarant décline toute responsabilité quant à l’obtention des consentements, autorisations et autres droits requis quelle que soit l’utilisation de l’Œuvre;
  4. Le Déclarant comprend et reconnaît que Creative Commons n’est pas partie prenante de ce document et n’a aucune responsabilité ni obligation à l’égard de la CC0 ou de l’utilisation de l’Œuvre.

Notes

[1] Notre travail étant réparti sur plusieurs documents EtherPad, cet incident généralement atroce dans une salle informatique se révéla joyeusement anecdotique.

[2] Petit aparté à ce propos, Framasoft organise, lors de la prochaine Ubuntu Party parisienne qui aura lieu du 5 au 7 novembre prochain, un atelier de libération d’œuvres non logicielles, qui consistera justement à contacter les auteurs d’œuvres numériques, publiées sur Internet sans licences précises et dont le Copyright par défaut bloque une idée de réutilisation… L’atelier est prévu pour le samedi 6 novembre à partir de 11h30.

[3] Oui, il fallait suivre pour les acronymes 😛

[4] L’annonce de RegardsCitoyens.org saluant la création de cette licence. Une analyse plus poussée sur le blog de Veni Vidi Libri.

[5] Crédit photo : GnuckX (Creative Commons Zero 1.0)




Avec Uniflow, Canon invente la photocopieuse qui espionne, refuse et dénonce

Timshell - CC-by-nd En l’absence de l’habituel maître des lieux
Les lutins du Framablog font bien de leur mieux
Écumant le web, en quête de sujets sérieux
Ils espérent que ces billets vous rendront joyeux
À défaut de nous aider à ouvrir les yeux
Sur des technologies qui derrière un vœu pieu
Menacent nos libertés et nos échanges précieux

« On arrête pas le progrès » aimait à répéter mon grand père, mais aujourd’hui, je me demande ce qu’il aurait pensé des dernières inventions de Canon…

En effet, si l’esprit du hacker est de bidouiller une technologie pour en trouver de nouveaux usages, les grandes firmes s’ingénient elles bien souvent à limiter les possibilités de leurs produits, pour créer une illusion de contrôle.

Dans notre cas, Canon a créé des photocopieuses qui inspectent au plus près les documents qu’on leur donne à reproduire, et s’y refusent si ces derniers contiennent l’un des mots de la liste noire située sur le serveur central des installations Uniflow.

Tout d’abord, ces photocopieuses illustrent exactement la menace qui plane sur la neutralité d’Internet. Imaginez qu’il ne soit plus possible de se parler qu’à l’aide de textes envoyés d’une photocopieuse à une autre et vous aurez un bon aperçu de comment fonctionne Internet. En effet, chaque message y circule, par petits bonds, d’un ordinateur à un autre entre votre machine et celle à laquelle vous tentez d’accéder de l’autre côté du réseau. Chaque machine rencontrée photocopie simplement les messages qu’elle reçoit vers la sortie qui les rapprochera de leur destination. Pour l’instant, les routeurs de l’Internet transportent les messages de manière aussi neutre qu’une simple photocopieuse, sans le moindre soupçon d’analyse de contenu. Mais Canon vient donc de briser la neutralité des photocopieuses, en créant un système de « deep photocopy inspection » bien sûr associés à un système centralisé de censure.

Ensuite, comme le remarquait Benoit Sibaud sur Identi.ca, nous nous trouvons là devant un cas concret d’informatique déloyale, telle que définie par l’April, où des utilisateurs se trouvent confrontés à des systèmes soit-disant « de confiance », et qui sous prétexte de sécurité ne remplissent tout simplement plus la tâche pour laquelle ils sont conçu si les conditions arbitraires d’une entité tierce de contrôle ne sont pas réunies.

Je parlais d’une illusion du contrôle, car comme toujours le moyen mis en œuvre pour « sécuriser l’usage » est aisément contournable, les documents n’étant (pour l’instant) analysés qu’à l’aide d’un logiciel OCR, incapable donc de percevoir les notes manuscrites, ou les mots (volontairement) mal orthographiés.

Alors à quoi bon mettre en place des systèmes aux performances finalement ridicules au regard du niveau stratégique de l’objectif ? Et quel peut être l’objectif d’imprimantes allergiques à certains mots ?

Tout d’abord, déployer un système à l’efficacité embryonnaire c’est toujours faire un premier pas, ça finance la génération suivante et ça piège les non avertis… [1] Ensuite dans le cas présent, on peut pallier les manques du système en contraignant le reste de l’environnement, et si on trouve une application admise par les contrôleurs et les contrôlés ça pourrait même rendre service.

Mais pourquoi empêcher d’imprimer ? Pour pallier, d’une certaine manière, au « trou analogique ». Le trou analogique c’est le nom donné à un phénomène simple : aussi sophistiqué que puisse être le système de protection d’un fichier (chiffrement, DRM), pour qu’il soit lu il faut bien à un moment le rendre présentable pour un humain. Et à partir de là, il est toujours possible de renumériser les données… Un MP3, même plombé par un DRM, quand il finit par être lu, rien ne m’empêche de l’enregistrer avec un dictaphone, si j’ai peur de ne pas m’en souvenir tout seul. Dans notre cas, l’intérêt est donc de combler en partie le trou analogique, en évitant que des copies papiers de documents identifiés comme « secrets » ne soient créées.

Toutefois, ça peut vite devenir comique, si une entreprise empêche l’impression de documents contenant le nom de ses clients par exemple, espérons qu’ils ne traitent pas avec Apple, Orange ou même Canon, sinon ils vont vite finir par ne plus pouvoir imprimer grand chose.

Néanmoins, après les imprimantes qui mentent sur leur niveau d’encre et les imprimantes qui laissent des micro-traces pour s’identifier sur toutes leurs copies, Canon invente aujourd’hui les imprimantes qui choisissent ce qu’elles impriment… [2]

Canon promet une sécurisation à base de mots-clés pour ses scanners et imprimantes

Canon promises keyword-based document scanning and printing security

Alan Lu – 12 octobre 2010 – ITPro.co.uk
Traduction Framalang : Siltaar, Julien R., KooToX, Daria

Canon a fait une démonstration d’Uniflow 5, la dernière version de son système de gestion de documents, capable d’empêcher les utilisateurs d’imprimer ou de copier des documents contenant certains mots, grâce à un système de sécurité intelligent basé sur des mots-clés.

Uniflow est un système de gestion de documents qui permet, depuis longtemps, de contrôler imprimantes, scanners et photocopieurs de manière centralisée. Cela permet de conserver le compte des impressions de chaque utilisateur à des fins de facturation. C’est indispensable dans les professions qui facturent les clients à l’heure ou à la quantité de travail, comme les avocats et les architectes. Le système requiert à la fois un serveur Uniflow sur votre réseau et des périphériques d’imagerie Canon, compatibles Uniflow.

La dernière version d’Uniflow possède un système de sécurité intelligent, basé sur des mots-clés. Une fois configuré par un administrateur, le système peut empêcher un utilisateur d’imprimer, scanner, copier ou faxer un document contenant un des mots-clés prohibés, tel que le nom d’un client ou le nom de code d’un projet.

Le serveur enverra alors par courriel à l’administrateur une copie PDF du document en question, au cas où un utilisateur s’y essaie. Le système peut aussi optionnellement informer l’utilisateur par courriel que sa tentative a été bloquée, mais sans identifier le mot-clé responsable, maintenant ainsi la sécurité du système.

La détection des mot-clés d’Uniflow 5 se base sur un système de reconnaissance optique de caractères (OCR), dont la licence est détenue par la firme belge Iris. Cette technologie est plus communément utilisé pour retranscrire des documents scannés en textes éditable sur ordinateur. Canon Angleterre a confirmé qu’un utilisateur éclairé et déterminé ayant repéré un des mots-clés peut contourner le système en remplaçant une lettre par une autre ou un chiffre ressemblant comme avec « z00 » au lieu de « zoo ».

Néanmoins, l’intérêt de cette fonctionnalité est immédiatement perceptible pour les secteurs traitant des documents sensibles, que se soit pour des raisons légales, concurrentielles ou commerciales. Les représentants de Canon n’ont pu avancer de date quant à la commercialisation des produits Uniflow 5.

Notes

[1] Toute ressemblance avec une loi visant à contrôler les usages sur Internet serait fortuite.

[2] Crédit photo : Timshell (Creative Commons Attribution NoDerivs).




Développer en public

Steve Jurvetson - CC by Voici, révélé sur son blog par Bradley M. Kuhn (cadre dirigeant à la FSF impliqué dans le projet GNU), l’un des meilleurs ingrédients pour la réussite d’un projet de logiciel libre : rendre son développement public, dès la conception. C’est du moins l’enseignement qu’il retire d’un échange qu’il a eu avec Loïc Dachary, pionnier du logiciel libre, fondateur de la FSF France, d’EUCD.info ou encore de la plateforme d’hébergement de projets libres Gna! [1].

Or, si l’idée peut sembler simple, sa réalisation est loin d’être anecdotique et porte à de nombreux débats, comme le synthétise ici Bradley. Mais surtout, ce qui se dessine au travers de cette réflexion, c’est un élément fondamental de la définition de ce qu’est un projet libre, un projet ouvert, un projet pérenne : c’est un projet dont on partage les idées et la conception, en plus des sources. Bradley Kuhn oppose, en filigrane, à cette vision, celle de grands projets (qui se clament bien souvent eux-même « OpenSource ») dont en effet seul le code est publié. Des projets opposant une résistance aux contributions extérieures, et qui peuvent alors presque paradoxalement sembler hermétiques, fermés…

Plusieurs exemples viennent aisément en tête car c’est entre autres l’un des principaux reproches fait à Chromium, la version « OpenSource » du navigateur Google Chrome. Mais LibreOffice, le récent fork d’OpenOffice, illustre parfaitement la conclusion de Bradley, quand la communauté d’un projet de logiciel libre finit par n’avoir d’autre choix que de partir sur un embranchement définitif des fichiers sources pour en ouvrir au public le développement, et plus le code seulement.

Où sont les octets ? [2]

Where Are The Bytes?

Bradley M. Kuhn – 11 juin 2010 – EBB.org
(Traduction Framalang : Barbidule, Loquemunaine, Goofy)

Il y a quelques années, j’avais envisagé de me lancer dans un projet de logiciel libre. Il n’a pas vu le jour, mais j’ai appris au passage des choses bonnes à savoir. Quand j’ai pensé à démarrer ce projet, j’ai fait comme à mon habitude : j’ai demandé à quelqu’un qui en savait plus que moi. J’ai donc téléphoné à Loïc Dachary, qui a initié de nombreux projets de logiciels libres, pour lui demander conseil.

Avant même que je puisse ne serait-ce qu’évoquer mon idée, Loïc m’a demandé : « Tu as une URL » ? J’étais abasourdi. Ben, je n’ai pas encore commencé, répondis-je. Bien sûr que si, reprit-il, puisque tu m’en parles c’est que tu as commencé. Le plus important, c’est que tu me dises où sont les octets.

Loïc m’expliqua ensuite que la plupart des projets échouent. Le plus difficile dans un projet de logiciel libre est de le pousser à un stade suffisamment avancé pour qu’il puisse survivre même si ses créateurs initiaux le quittent. Donc, selon la théorie de Loïc, la tâche la plus urgente à accomplir au démarrage d’un projet, c’est de générer ces octets, dans l’espoir qu’ils se fraieront un chemin jusqu’à une équipe de développeurs qui contribueront à maintenir le projet actif.

Mais qu’est-ce qu’il entend par « octets » au juste ? Il veut tout simplement dire que vous devez exposer vos réflexions, votre code, vos projets, vos idées, presque tout en fait sur une adresse publique où tout le monde pourra les voir. Montrez vos octets, montrez-les à chaque fois que vous en créez si peu que ce soit. C’est la seule chance de survie de votre projet de logiciel libre.

Le premier objectif d’un projet de logiciel libre est de rassembler des développeurs. Aucun projet ne peut avoir de succès à long terme sans une base diversifiée de développeurs. Le problème c’est que le travail initial de développement et le planning du projet finissent trop souvent enfermés dans la tête d’un petit noyau de développeurs. C’est dans la nature humaine : comment puis-je passer mon temps à expliquer à chacun ce que je suis en train de faire ? Si je le fais, quand trouverai-je le temps de faire vraiment avancer les choses ? Ceux qui dirigent les projets de logiciels libres savent résister à ce désir naturel et font ce qui peut sembler contre-intuitif : ils exposent leurs octets publiquement, même si cela les ralentit un peu.

Ce processus est d’autant plus nécessaire à l’ère des réseaux. Si quelqu’un veut créer un programme qui remplisse sa mission, son premier outil est le moteur de recherche : il s’agit de savoir si quelqu’un d’autre a déjà fait le boulot. L’avenir de votre projet dépend entièrement du fait que chaque recherche de ce type aide des développeurs à découvrir vos octets.

Début 2001 j’ai demandé à Larry Wall quel était le projet le plus difficile parmi tous ceux sur lesquels il a travaillé. Sa réponse fut immédiate : "quand j’ai développé la première version de Perl5," m’a dit Larry, "j’avais l’impression que je devais coder tout seul et le faire tourner par mes propres moyens". Bien sûr, Larry est un gars tellement doué qu’il peut se permettre de créer à lui tout seul un programme que tout le monde voudra utiliser. Bien que je ne lui aie pas demandé ce qu’il ferait aujourd’hui dans une situation pareille, je devine – particulièrement quand on voit comment le développement de Perl6 est devenu public – qu’il utiliserait plutôt les nouveaux outils en ligne, tels que DVCS, pour montrer plus vite et plus souvent ses octets, et chercher à impliquer plus tôt davantage de développeurs[3].

Il est vrai que la priorité de la plupart des développeurs est de tout cacher. "On publiera quand ce sera prêt", ou bien – pire encore – "le noyau dur de l’équipe travaille bien ensemble ; rendre le projet public maintenant ne ferait que nous ralentir". En vérité, c’est un mélange dangereux de peur et de narcissisme, exactement la même pulsion que celle qui pousse les développeurs de logiciels non-libres à les conserver propriétaires.

Les développeurs de logiciels libres ont la possibilité de dépasser la réalité fondamentale de tout développement logiciel : le code est mal fichu, et n’est généralement pas terminé. Malgré tout, il est essentiel que la communauté puisse voir ce qu’il se passe à chaque étape, dès le noyau initial du code et au-delà. Quand un projet est perçu comme actif, cela attire les développeurs et donne au projet une chance de succès.

Quand j’étais à la fac, une des équipes d’une classe de génie logiciel s’est complètement plantée. C’est arrivé alors même qu’un des membres de l’équipe avait passé près de la moitié du semestre à coder par lui-même, nuit et jour, sans se soucier des autres membres de l’équipe. Durant l’évaluation finale, le professeur lui fit remarquer : « un développeur de logiciel, ce n’est pas un pilote de chasse ». L’étudiant, ne voyant pas le rapport, plaisanta : « Ouais, je sais, au moins le pilote de chasse, il a un copilote ». En vérité, il ne suffira pas d’une personne ou deux, ou même d’une petite équipe, pour faire aboutir un projet de logiciel libre. Le projet ne marchera que s’il est soutenu par une communauté importante qui évitera tout point individuel de défaillance.

Il n’en reste pas moins que la plupart des projets de logiciels libres sont voués à l’échec. Cependant, il n’y a aucune honte à balancer quelques octets, pour inciter les gens à y jeter un oeil, quitte à laisser tomber si la mayonnaise ne prend pas. Toute la recherche scientifique fonctionne ainsi, et il n’y a pas de raison pour que l’informatique fasse exception. Garder un projet privé, c’est garantir son échec ; le seul intérêt, c’est que vous pouvez dissimuler le fait que vous avez essayé. Comme le disait mon directeur de thèse lorsque je me faisais du souci quant à la réussite de ma recherche : un résultat négatif peut être aussi intéressant qu’un résultat positif. Ce qui est important, c’est d’être sûr que tous les résultats seront publiés et que le public pourra les examiner.

Quand j’ai commencé à parler de cette idée il y a quelques semaines, certains m’ont répondu que les premiers programmes GNU, les logiciels fondateurs de notre communauté ont d’abord été développé en privé. C’est vrai, mais le fait que les développeurs du projet GNU aient procédé de cette façon ne veut pas dire que c’est la bonne. Nous disposons désormais des outils pour faire facilement du développement en public, et nous devrions le faire. De mon point de vue, aujourd’hui nous ne sommes pas vraiment dans l’esprit du logiciel libre tant que le projet, y compris les discussions sur sa conception, les plans et les prototypes, ne sont pas développés publiquement. Le code (quelque soit sa licence) qui n’est que balancé à intervalles plus ou moins réguliers mérite d’être repris par une communauté qui rende son développement public.


Mise à jour (2010-06-12) : J’ai complètement oublié de parler de « The Risks of Distributed Version Control » par Ben Collins-Sussman, qui date de cinq ans maintenant mais qui est toujours d’actualité. Ben fait un constat similaire au mien, et remarque que certaines utilisations de DVCS peuvent avoir les effets que j’encourage les développeurs à éviter. Je pense que DVCS est comme n’importe quel autre outil : il peut être mal utilisé. Il faut éviter de s’en servir comme Ben le signale, et DVCS, lorsqu’il est utilisé correctement, aide dans le processus de développement public de logiciel.

Notes

[1] Fonctionnant tout comme GNU Savannah grâce au logiciel Savane dont il est le principal développeur.

[2] Crédit photo : Steve Jurvetson (Creative Commons By). Cette photo, intitulée « mémoires primitives » est un gros plan sur une barrette de mémoire vive du milieu du siècle dernier. On y voit un quadrillage de « fins » fils de laiton, tricoté à la main avec de petits anneaux de ferrite à chaque intersection, le tout noyé dans de la colle. L’ensemble, qui pouvais occuper le volume d’un magazine papier, était capable de conserver plusieurs centaines de … bits de mémoire. Le circuit tricoté ici représente ainsi 38 octets de mémoire vive, et il est assez vertigineux de constater que 50 ans plus tard, on stocke environ 25 millions de fois plus d’information dans le volume de chaque anneau de ferrite.

[3] Notez que rendre son code public au milieu des années 1990 était plus difficile (d’un point de vue technologique) que maintenant. Ceux qui n’ont pas connu les archives shar ne s’en rendent pas compte. 🙂




L’échec des DRM illustré par les « Livres numériques » de Fnac.com

Cher Framablog,
En raison de l’absence du maître de céans,
Les lutins qui veillent à ton bon fonctionnement,
Ont œuvré pour publier le billet suivant,
Par votre serviteur, introduit longuement.

Témoignage d’un lecteur loin d’être débutant,
Il retrace un épique parcours du combattant,
Pour un livre « gratuit » en téléchargement,
Que sur son site web, la Fnac, propose au chaland.[1]

xverges - CC by Récemment[2] sur rue89.com, on pouvait lire : « Nothomb, Despentes : la rentrée littéraire se numérise un peu ». Et pour un fan de technologie comme je suis, ce titre résonnait plutôt comme « la rentrée littéraire se modernise un peu ». En effet, des livres numériques il en existait déjà au siècle dernier…

Côté libre, il faut avouer qu’on est plutôt bien servi. Citons par exemple cette excellente trilogie de Florent (Warly) Villard « le Patriarche » débutée en 2002, à l’occasion de son « pourcentage de temps réservé aux projets libres personnels » chez MandrakeSoft à l’époque. Citons encore la collection Framabook et ses 7 ouvrages[3], citons aussi la forge littéraire en-ligne InLibroVeritas.net et ses 13500 œuvres sous licence libre[4], ou encore le projet Gutenberg et ses 33 000 œuvres élevées au domaine public, Wikisource.org et ses 90 000 œuvres réparties sur plus de 10 langues et pour finir le portail Gallica de la BnF donnant accès à plus d’1,2 millions d’œuvres numérisées[5]… Ces livres, on peut les télécharger en un clic depuis son navigateur, les transférer dans son téléphone portable[6] en un glissé-déposé, et les lire tranquillement dans le métro, même là où ça ne capte pas[7].

Dans ces conditions, que demander de plus que de faire sa rentrée littéraire sur un écran d’ordinateur ? Pourtant, ces conditions, elles ne sont pas évidentes à rassembler. Évacuons tout de suite la question du matériel. Alors que la plupart des téléphones de dernière génération sont dotés d’un navigateur web, tous ne sont pas utilisables comme de simple clé USB, et y transférer des fichiers peut s’avérer impossible pour certains ! Je n’insisterai pas non plus sur les autres équipements proposés spécifiquement pour cet usage, et qui se révèlent le plus souvent considérablement limités. Après tout, n’importe quel ordinateur devrait pouvoir faire l’affaire.

Mais concernant l’œuvre elle même, il faut qu’elle soit libre, ou librement téléchargeable, ou au moins librement « lisible » pour que ça marche. Et pour le coup, on s’attaque à une pelote de laine particulièrement épineuse à dérouler. Avant qu’on les propose sous forme numérique, pour lire les livres d’Amélie Nothomb il fallait en acheter une copie papier, un objet physique qui coûte à produire, transporter, stocker et présenter dans des rayons. Il fallait donc payer pour obtenir un feuilleté de cellulose, qui s’use, se perd, se brûle… et se prête aussi. Et de cette somme d’argent, après avoir largement rémunéré les intermédiaires, une petite portion était finalement reversée à l’auteur. Et ça, la rémunération de l’auteur, c’est le petit détail qui manque au tableau dépeint quelques paragraphes plus haut. Si je lis « Le Prince » de Nicolas Machiavel, mort en 1527 à Florence, l’ouvrage s’est élevé au domaine public depuis fort longtemps maintenant, et la question ne se pose pas. L’auteur n’aurait plus l’usage d’une rémunération aujourd’hui. Par contre, après avoir lu « Le Patriarche » de Florent Villard, j’ai tellement aimé le bouquin que j’ai spontanément envoyé un chèque à l’auteur, pour l’encourager à écrire la suite[8]. Mais dans le cas d’Amélie malheureusement, sa maison d’édition n’a pas voulu parier sur la philanthropie des futurs lecteurs.

Les autres maisons d’éditions non plus d’ailleurs, et cette question de la rémunération des auteurs, elle se pose en France et partout dans le monde depuis des années, depuis l’arrivée du numérique. Il y a eu des hauts et débats (selon la formule consacrée) pour y répondre, mais il y a malheureusement aussi eu des bas, comme les lois DADVSI et HADOPI 1 et 2…

Les lois HADOPI, on peut les évacuer rapidement : pas une ligne de leur texte ne porte sur la rémunération des auteurs, contrairement à ce qui a pu être clamé. Avec cette initiative législative, les représentant des ayants droit et de la distribution tentèrent juste une fois de plus de plier l’économie numérique de l’abondance aux lois qui régissent l’économie des biens physiques, basée sur le contrôle matériel de l’accès aux œuvres. Au lieu de s’adapter à un marché qui évolue, les moines copistes de DVD[9] tentent encore et toujours de retenir le progrès des technologies de diffusion pour rester rentiers.

Manu_le_manu - CC by nc sa

La loi DADVSI était elle encore plus simple à comprendre. Elle avait déjà pour objectif, 4 ans plus tôt, d’essayer d’imposer une forme de contrôle à la distribution d’œuvres sur Internet, via l’utilisation de verrous numériques aussi nommés DRM. Un procédé saugrenu, consistant à couper les ailes de l’innovation, en tentant de limiter les possibilités des ordinateurs et l’usage de certains fichiers, de telle sorte qu’on ait à considérer ces fichiers comme autant d’objets unitaires et non comme une simple suite d’octets duplicables plusieurs millions de fois par secondes, d’un bout à l’autre de la planète[10], ce qu’ils sont pourtant. En permettant à chaque distributeur de restreindre le nombre de copies possibles pour un fichier, on nous promettait le décollage des offres légales de contenus numériques. Ce fut un échec assez cuisant, rien n’a décollé et encore moins côté bouquin. C’est pourtant pas faute d’avoir expliqué, déjà à l’époque, que mettre des bâtons dans les roues de ses clients n’est pas un plan d’affaires viable.[11]

Ce fut un échec mémorable, chaque distributeur ayant adopté son propre système de « complication d’usage », tenu secret et dont l’étude était punie d’emprisonnement[12], et donc bien évidement incompatible avec ceux des autres distributeurs. Des systèmes à la fois contournables en s’en donnant la peine, et compliqués à mettre en œuvre dans le cadre d’une « consommation » courante… Microsoft à même réussi la prouesse de commercialiser à l’époque des lecteurs incompatibles avec son propre système de verrous numériques[13].

Du côté « pas libre » donc, la situation des livres numériques a souffert d’une orientation stratégique contraire à l’intérêt général, d’une mise en œuvre partielle et désorganisée et globalement d’une incompréhension des technologies numériques. Des caractéristiques qui ne sont pas sans rappeler le fiasco des porte-monnaie Monéo, lancés en 1999. Vous vous souvenez sûrement de ce nouveau moyen de paiement qui devait permettre aux banques de gérer votre monnaie en plus de votre épargne (au lieu de la laisser dormir dans un fourre tout près de la porte d’entrée), et qui fut conçu de manière à coûter moins cher aux banques qu’une carte de crédit classique. Il n’était donc pas sécurisé (pas de code à taper), mais surtout, il rendait l’argent de votre compte en banque « physique », dans la carte. Si elle tombait dans une flaque d’eau, vous perdiez le montant de son rechargement. Sans parler du fait que la carte se mettait dès lors à intéresser des voleurs potentiels, attirés par les 100€ que son porte monnaie intégré (de gré ou de force) pouvait contenir. Évidemment, ce système n’a pas, non plus, rencontré le succès escompté par ses créateurs.

Et pourtant, ces deux fantômes du début de la décennie, DRM et Monéo, reviennent hanter notre univers dématérialisé ces jours-ci. Le premier dans les offres de livres numériques de cette rentrée littéraire, le second imposé dans les restaurants universitaires. Et il ne serait pas étonnant de voir bientôt à la Fnac des bornes de distribution de livres numériques infestés de DRM, et imposant (comme dans les restaurants universitaires) les paiements par Monéo.

Aujourd’hui, alors que des systèmes alternatifs et innovant se mettent en place pour permettre la rémunération des auteurs dans une économie numérique, nous avons testé pour vous l’enfer dans lequel s’entêtent les entreprises « majeures » de la distribution de culture.

Livre numérique sur Fnac.com : le parcours du vieux con battant

D’après l’expérience de Fredchat – 13 septembre 2010

J’ai testé pour vous (avec un succès modéré) le service « Livres numériques » de la Fnac.

Cherchant sur le site de cet important distributeur français un livre de Maupassant, je suis tombé sur une annonce pour un « ebook » en téléchargement gratuit. L’offre a l’air honnête et puis c’est le livre que je cherchais, alors je me dis :

« Essayons voir ce service épatant que tout le monde marketing nous pousse à consommer : le livre électronique. »

Aussi simple que télécharger un fichier ?

Je me lance donc dans l’aventure et il faut, pour commencer, valider une commande sur le site Fnac.com, pour débloquer le téléchargement d’un fichier gratuit. Ça commence donc bien, il faut avoir un compte à la Fnac. Bon, ce n’est plus vraiment gratuit, mais c’est presque de bonne guerre.

Une fois passé ce premier écueil, et une fois la commande validée, le site me donne un lien vers une page de téléchargement. À ce point-là, moi qui aime faire les choses simplement quand c’est possible, je découvre avec désarroi que ce n’est pas le livre qu’on me propose de télécharger sur cette page. Point de fichier PDF, ePub ou d’un quelqu’autre format standard et reconnaissable (voire normalisé), comme les petites icônes vantaient dans les rayons du site. Au lieu de cela, on me propose un tout petit fichier, affublé de l’extension exotique .amsc et qui se révèle ne contenir que quelques lignes de XML. Ce fichier ne contient en fait pas grand chose de plus que l’URL d’un autre fichier à télécharger, un PDF cette fois. J’ai alors l’impression d’avancer vers le but, même si je m’embête rarement autant, dans la vie, pour télécharger un simple fichier, gratuit qui plus est. Seulement voilà, on ne peut pas le télécharger directement ce PDF ! Ils sont très forts à la Fnac, leur fichier gratuit m’a déjà coûté plus de vingt minutes… et je suis toujours bredouille.

Je me renseigne plus avant sur la procédure à suivre, et au cours de cette petite séance de lecture j’apprend qu’il faut obligatoirement passer par un logiciel Adobe, lui-même tout aussi gratuit mais uniquement disponible sous Microsoft Windows et Mac OS X… Linuxiens passez votre chemin.

Mais ce n’est pas tout…

Le logiciel Adobe en question interprète le XML, détecte les informations qui vont bien et, alors que le suspens est à son comble et que l’on croit toucher au but, surprise, le texte qui apparaît enfin n’est pas celui du livre. À la place, on tombe sur un charabia composé d’explications toutes aussi surprenantes que liberticides, avec un bouton « Accepter » en bas de l’écran. Pour un téléchargement gratuit, je me retrouve donc à vendre une deuxième fois mon âme au diable.

En substance, on m’explique que pour avoir accès au livre il me faut en autoriser la lecture sur l’ordinateur en cours d’utilisation, et pour cela, je dois obligatoirement avoir un identifiant Adobe. Cet identifiant, on l’ obtient en s’inscrivant à un « club » géré par l’éditeur du logiciel et qui requiert pour son inscription toute une bordée d’informations personnelles que l’on ne m’a jamais demandées pour acheter un livre… (qui devait être gratuit, excusez-moi d’insister).

Cela fait maintenant près de 40 minutes que je m’acharne sur ma commande Fnac.com d’un livre gratuit et à ce stade, je me surprends moi-même d’avoir trouvé à franchir tous les obstacles. Mais ça y est, je le vois le livre et il commence à en avoir de la valeur à mes yeux ce fichier PDF vu le temps que j’y ai consacré. Toutefois, téléchargeable et lisible uniquement via un logiciel propriétaire Adobe, ce n’est plus vraiment un fichier PDF…

D’ailleurs, alors que je m’apprête à copier ledit fichier vers un périphérique plus adéquat à sa lecture, une petite voix me prévient que je ne peux en autoriser la lecture, via le logiciel propriétaire, que sur un maximum de 6 périphériques, et qu’il faut donc que je m’assure de vouloir vraiment le copier quelque part et entamer le décompte. Je ne suis plus à ça près.

Conclusion

Résultat des courses, je suis fiché chez deux grandes entreprises (avec les dérives d’exploitation de mes données personnelles que cela permet), je ne peux pas lire le livre sous Linux. J’ai perdu mon après-midi et je ne peux pas partager le fichier gratuit, d’une œuvre libre de droits, avec mes amis pour leur épargner l’improbable et complexe procédure de téléchargement que j’ai subie. C’est sûr, avec Fnac.com on comprend vraiment la différence entre gratuit, et libre.

Toutefois, si vous êtes séduit, vous pourrez bientôt acheter le Petit Prince dans cet alléchant format, pour la modique somme de 18€…

Épilogue

Finalement, je crois que je vais rester un vieux con et garder mes livres papier. Au moins, dans ce format je peux les lire où je veux (dans un fauteuil, dans mon lit, sur les toilettes, au bord d’une piscine, etc.), quand je veux, que je sois en-ligne ou pas, et les prêter à mes amis.

Sinon, quand je serai remis de cette mésaventure, j’irai jeter un œil sur Wikisource ou sur le projet Gutenberg, il paraît qu’on y trouve des livres numériques libres, téléchargeables en un clic et dans des formats ouverts et normalisés…

Notes

[1] Crédit photo : xverges (Creative Commons By)

[2] Introduction rédigée le 23 septembre 2010.

[3] Attention, ce qui suit dévoile des moments clés de l’intrigue : bientôt 10 😉

[4] Libres à divers degrés suivant les variations permises par les licences Creative Commons, rendant l’œuvre modifiable ou non et commercialisable ou non.

[5] Pour la plupart du domaine public, librement lisibles, mais pas librement réutilisables. Il faut en effet s’acquitter d’une licence auprès de la Bibliothèque nationale de France pour pouvoir faire un usage commercial des fichiers obtenus depuis le portail. Ça fait quand même une sacrée bibliothèque… Merci à Christophe de l’avoir rappelé dans les commentaires.

[6] Par exemple sous la forme de pages webs, débitées en tranches de 450ko, sinon le téléphone en question sature sa mémoire vive s’il s’agit d’un N95…

[7] Ou encore, en réponse anticipée à un bout de la conclusion du texte présenté, partout où un chargeur solaire parviendra à maintenir l’engin allumé…

[8] Pour la petite histoire, j’ai même envoyés deux chèques, un après la lecture du 1er tome, et un autre à la fin de la 1ère trilogie (c’est prévu pour être une longue histoire). Or, l’auteur se sentant coupable de délaisser son ouvrage n’a encaissé que le 1er chèque, et c’était il y a plus d’un an maintenant. Toutefois, de récentes mises à jour sur le site du livre laissent espérer que la suite pourrait venir sous peu.

[9] Pour reprendre l’expression de Nicolas Dupont-Aignan.

[10] Oui, je sais qu’une sphère n’a pas à proprement parler de bouts, mais elle n’a pas non plus de côtés, et … revenons à nos moutons.

[11] Crédit photo : Manu_le_manu (Creative Commons By NC SA)

[12] Peine disproportionnée que les juges n’appliquèrent pas, et qui fut limitée par le Conseil d’État deux ans plus tard, interrogé par l’April sur le sujet

[13] Comme l’analysaient Formats-Ouverts.org, PCINpact.com, Clubic.com, Numerama.com




Marketing et ergonomie, la touche finale d’Ubuntu qui fait avancer le logiciel libre

Trancept - CC by-nc-saUbuntu. Ce simple mot peut à la fois rassembler des milliers de personnes en un week-end et dans le même temps susciter moqueries, trolls, et critiques.

Il n’empêche que cette distribution GNU/Linux, que l’on ne présente plus, a gagné en à peine six ans d’existence une remarquable popularité auprès des nouveaux utilisateurs de systèmes d’exploitation libres. Ils y découvrent une indubitable simplicité d’utilisation et une communauté d’utilisateurs dévoués, accueillants et prêts à consacrer aux nouveau venus le temps nécessaire à leur apprentissage, un temps passé à reconquérir leurs libertés perdues dans les systèmes propriétaires.

Mais tout n’est pas rose avec Ubuntu. Certains voient en effet cette distribution en couleur poil-de-chameau. Pour ses détracteurs, Ubuntu ne mérite pas toute l’attention qu’on lui accorde et fait de l’ombre aux autres projets. De plus, ce système, emballé dans du papier cadeau aux couleurs chaudes se contenterait de singer jusque dans leurs défauts les systèmes propriétaires dont les icônes, la maniabilité à la souris et les effets graphiques séduisent les utilisateurs peu soucieux de technicité. Défauts parmi lesquels, la fin du pilotage intégral du système en ligne de commande pourtant si chère aux administrateurs système, ou encore une approche marketing qui diluerait les valeurs du logiciel libre.

Six ans, c’est presque l’âge de raison, cette période où l’on n’est plus petit, mais pas encore tout à fait grand. C’est peut-être cet âge-là qu’a atteint le projet de Mark Shuttleworth[1] révélé (une fois de plus) au travers du dernier billet de son fondateur et mécène comme une distribution « clicodrome », accompagnée d’un marketing professionnel et soigné, et destinée à séduire le plus large public possible… Dans ce long billet, spontanément traduit en l’espace de deux heures par une dizaine de contributeurs répondant à l’appel d’Olivier Fraysse (Ubuntu-fr) sur Twitter[2], Mark Shuttelworth revient sur les motivations qui l’animent au quotidien, et que les milliers de contributeurs faisant la réussite assez inédite d’Ubuntu semblent bien partager.

Introduction rédigée collaborativement par Olive, Poupoul2, JoKot3, Goofy et Siltaar.

Réflexions sur Ubuntu, Canonical et la route vers l’adoption des logiciels libres

Reflections on Ubuntu, Canonical and the march to free software adoption

Mark Shuttleworth – 14 septembre 2010
(Traduction Framalang : @olivierfraysse, @Gordontesos, @ldemay alias Louis Demay, @okhin, @Siltaar, @tshirtman, @winael, @pierretravers, @ricomoro et @framasoft)

Poussé en partie par les critiques concernant la contribution de Canonical au code du noyau Linux ou à l’infrastructure profonde de GNOME, j’ai cherché à savoir si j’avais la conscience tranquille : est-ce que je fais bien mon travail ? Ma manière de le faire convient-elle ? Il est important pour moi de savoir que ce que je fais est utile aux autres et contribue à un monde meilleur. Et dans mon cas, il s’agit d’une redistribution en proportion de la bonne fortune que j’ai pu connaître.

Deux messages que j’ai reçus le mois dernier définissent sans doute ce que je pense apporter à la communauté. Le premier, c’est un mot de remerciement arrivé de Nouvelle-Zélande, quelqu’un constatant qu’Ubuntu 10.04 change vraiment la donne dans son foyer. Pour lui, c’est une sorte de petit miracle de générosité si cet environnement complet, intégré et fonctionnel existe et est maintenu par des milliers de personnes. Quant au deuxième, c’est un contrat d’assistance avec une entreprise pour les dizaines de milliers de poste de travail fonctionnant sous Ubuntu 10.04 qu’elle utilise. Ces deux messages illustrent les piliers jumeaux du projet Ubuntu et de Canonical : apporter au monde entier l’extraordinaire générosité de la communauté du logiciel libre, comme un cadeau, gratuit, léger et cohérent, et le faire de manière pérenne.

Dans le premier cas, celui de Nouvelle-Zélande, quelqu’un apprend à ses enfants comment utiliser un ordinateur dès leur plus jeune âge, se rend compte de tout ce qu’apporte Ubuntu par rapport à Windows, et à quel point il est plus simple d’aborder l’informatique avec Ubuntu lorsqu’on s’adresse à des enfants. Pour cette famille, le fait qu’Ubuntu leur apporte l’univers du logiciel libre en un paquet harmonieux et soigné est extraordinaire, c’est une grande avancée, et ils en sont très reconnaissants.

C’est une histoire que j’espère voir se répéter des millions de fois. Et c’est une histoire qui donne bonne réputation et grande satisfaction, pas qu’à moi, pas qu’à ceux qui consacrent leur passion et leur énergie à Ubuntu, mais aussi à tous ceux qui contribuent au logiciel libre de manière générale. Ubuntu ne mérite pas à elle seule tous les honneurs, elle fait partie d’un écosystème large et complexe, mais sans elle, cette distribution de logiciels libres n’aurait pas la même portée ni la même force. Nous savons tous que le corps du logiciel libre a besoin de nombreux organes, de nombreuses cellules, chacun ayant ses propres priorités et intérêts. Le corps ne peut exister qu’avec chacun d’entre eux. Nous sommes une petite composante d’un vaste ensemble, et c’est un privilège pour nous d’assumer nos responsabilités en tant que distribution. Nous devons donner un point de départ à ceux qui débuteront leur voyage dans le monde du logiciel libre avec Ubuntu, et nous nous efforçons de nous assurer que toutes ces pièces s’accordent bien ensemble.

Ubuntu, et les possibilités qu’elle crée, n’aurait pu naître sans l’extraordinaire communauté Linux, qui elle-même n’existerait pas sans la communauté GNU, et n’aurait pas pris autant d’importance sans les efforts d’entreprises comme IBM et Red Hat. Et ç’aurait été une toute autre histoire sans les gens de Mozilla, ou Netscape avant eux, GNOME et KDE, et Google, ainsi que tout ceux qui contribuent de façons différentes à cet empilement, rendent le tout meilleur. Des dizaines de milliers de personnes qui ne sont pas directement associées à Ubuntu contribuent à rendre cette histoire bien réelle. Beaucoup d’entre eux y travaillent depuis plus d’une décennie… un succès soudain exige un gros travail en amont, et Ubuntu n’est sur le marché que depuis six ans. Ubuntu ne peut donc pas être crédité seul de la satisfaction qu’elle apporte à ses utilisateurs.

Néanmoins, le projet Ubuntu apporte quelque chose d’unique et d’inestimable au logiciel libre : un dévouement total aux utilisateurs et à l’ergonomie, à l’idée que le logiciel libre devrait être « pour tout le monde », d’un point de vue économique et d’un point de vue facilité d’utilisation, et à la volonté de traquer les problèmes qui y nuisent. Je perçois ce dévouement comme un don à ceux qui ont contribué à l’une de ces briques. Si nous pouvons multiplier par dix l’adoption du logiciel libre, nous aurons multiplié la valeur de votre générosité par dix, décuplé l’importance de toutes les heures passées à résoudre un problème ou à créer quelque chose de formidable. Je suis très fier de consacrer autant de temps et d’énergie à Ubuntu. Oui, je pourrais faire beaucoup d’autres choses, mais rien d’après moi qui aurait un tel impact sur le monde.

Je conçois que tout le monde ne perçoive pas les choses de cette façon. Multiplier l’audience de son travail par dix sans apporter de contribution au projet pourrait passer pour du parasitage, ou seulement décupler l’afflux de rapports de bogues. On pourrait avancer que peu importe notre générosité envers les utilisateurs finaux, si les développeurs en amont ne prennent que le code en considération, alors tout apport en dehors du code ne sera pas comptabilisé. Je ne sais pas bien comment y remédier – je n’ai pas créé Ubuntu comme un moyen d’écrire beaucoup de code, car ça ne me paraissait pas être ce dont le monde avait besoin. Le logiciel libre avait besoin d’un moyen pour aller de l’avant, d’amener le code déjà existant à un haut niveau de qualité et de fiabilité. La plupart des éléments du bureau étaient déjà en place – et le code affluait – il n’était simplement pas livré d’une manière qui lui permettrait d’être adopté ailleurs que sur les serveurs, par un public plus large.

Le second e-mail, dont je ne peux citer d’extraits, était en substance un contrat de services confié à Canonical pour aider une entreprise à migrer plus de 20 000 machines de bureau de Windows à Ubuntu. Nous avons récemment signé plusieurs accords d’échelle similaire, et le ryhtme augmente à mesure que la confiance en Ubuntu grandit. Alors que GNU/Linux est depuis longtemps reconnu comme un système de bureau intéressant pour les développeurs motivés et inspirés, il y a un écart entre cette utilisation et le besoin des grosses entreprises. À ma connaissance, aucune autre entreprise ne se consacre entièrement à la production d’un système de bureau libre, et je suis fier que Canonical joue ce rôle. Il me peinerait que tous les efforts de la communauté du logiciel libre ne puissent servir à ces utilisateurs. Il n’y a rien de propriétaire ou de secret dans les postes de travail dont Canonical assure le support dans ces grandes entreprises. Ce qui m’émerveille le plus, c’est que dans les cas de la famille de Nouvelle-Zélande et de cette entreprise, il est question du même code. Voilà à mon sens la véritable promesse du logiciel libre : lorsque je participais moi-même à des projets open-source, j’ai toujours été ravi que mon travail subvienne à mes besoins, mais qu’il soit également utile au plus grand nombre.

Ubuntu n’est qu’une petite partie de cet immense écosystème, mais je suis fier que nous ayons intensifié nos efforts pour relever ces défis. Canonical adopte une approche différente des autres entreprises qui travaillent dans l’univers Linux, non pas comme critique implicite des autres, mais simplement parce que c’est l’ensemble des valeurs que nous défendons. C’est une force pour le logiciel libre qu’un tel nombre d’entreprises différentes poursuivent autant d’objectifs importants.

Au cours des dernières semaines, on a suggéré que l’action de Canonical est égoïste et non dédiée au bénéfice d’une communauté plus large. C’est une critique blessante car la plupart d’entre nous ressentons justement le contraire : notre motivation, c’est tout faire pour servir la cause du logiciel libre, au bénéfice à la fois des utilisateurs finaux et de la communauté qui le produit, et nous sommes convaincus qu’élaborer Ubuntu et travailler pour Canonical sont les meilleures façons d’atteindre ce but. Ces critiques ont provoqué de nombreuses discussions et réflexions chez chacun de nous et chez Canonical. Ce billet s’inscrit dans cette réflexion : j’y témoigne de ce que je ressens lorsque je contribue, et pourquoi je suis fier du travail que j’accomplis chaque jour. Que faisons-nous pour le logiciel libre ? Et que fais-je moi-même ?

Pour commencer, nous le fournissons. Nous réduisons la friction et l’inertie qui empêchent les utilisateurs d’essayer les logiciels libres et de décider eux-mêmes s’ils les aiment suffisamment pour s’y plonger. Aujourd’hui, des centaines de développeurs de logiciels libres, traducteurs, concepteurs, porte-parole, ont l’occasion de prendre part au mouvement, parce qu’il est facile pour eux de faire le premier pas. Et ce n’est pas un travail aisé. Songez aux années d’efforts que nécessite la conception d’un simple installeur pour Linux comme http://www.techdrivein.com/2010/08/…, qui est l’aboutissement d’énormes quantités de travail par plusieurs groupes, mais qui sans Canonical et Ubuntu n’aurait jamais vu le jour.

Des milliers de personnes se contentent de concevoir des logiciels libres pour elles-mêmes, et ce n’est pas un crime. Mais la volonté d’en faire quelque chose que d’autres pourront explorer, utiliser et apprécier doit également être plébiscitée. Et c’est une valeur qui est fortement mise en avant dans la communauté Ubuntu : si vous lisez http://planet.ubuntu.com, vous verrez que l’on se réjouit grandement de compter des *utilisateurs de logiciels libres*. En tant que communauté, c’est pour nous une immense satisfaction de voir que des gens les *utilisent* pour résoudre leurs problèmes quotidiens. C’est plus satisfaisant pour nous que des récits sur l’amélioration de sa rapidité ou l’ajout d’une fonctionnalité. Certes, nous jouons sur les deux tableaux, mais notre communauté mesure davantage l’impact sur le monde que l’impact sur le code. Tous ses membres sont généreux de leur temps et de leur expertise, et il s’agit là de leur récompense. Je suis fier du fait qu’Ubuntu attire des personnes généreuses dans leurs contributions : à leurs yeux, ces contributions prennent de la valeur si elles sont retravaillées par d’autres, et qu’elles n’y perdent pas. C’est pourquoi nous nous réjouissons de l’existence de Kubuntu, Xubuntu, PuppyLinux et Linux Mint. Ces distributions ne marchent pas sur nos plate-bandes, elles se tiennent sur nos épaules, tout comme nous nous tenons sur les épaules de géants. Et c’est une bonne chose. Notre travail a plus de sens et plus de valeur parce que leur travail atteint des utilisateurs que le nôtre seul ne peut pas atteindre.

Quoi d’autre ?

Nous réparons ses défauts, aussi. Prenons par exemple le projet PaperCut, né parce que l’on s’est rendu compte que cette technologie formidable et les efforts que l’on consacre à réaliser un projet aussi complexe que le noyau Linux se trouvent diminués si l’utilisateur moyen n’obtient pas le résultat escompté alors que tout devrait fonctionner sans accroc. Des centaines de Papercuts ont été réparés, dans de nombreuses applications, ce qui ne bénéficie pas qu’à Ubuntu mais aussi à toutes les autres distributions qui intègrent ces applications. Ça n’a rien de simple : songez aux milliers de suggestions à trier, à la coordination des réparations et à leur partage. Grâce aux efforts sans répit d’une équipe nombreuse, nous changeons la donne. Épargner une heure par semaine à des millions d’utilisateurs représente un trésor d’énergie économisée, que l’utilisateur peut alors consacrer à une utilisation plus efficace du logiciel libre. L’équipe Canonical Design est à l’origine du projet Papercuts, mais les plus méritants sont les personnes comme Vish et Sense, qui sont venus gonfler nos rangs. Chaque patch a son importance, sur le poste de travail http://ubuntuserver.wordpress.com/2… et sur le serveur.

À un niveau plus personnel, un élément clé auquel je consacre de l’énergie est la direction, la gouvernance et la structure de la communauté. Aux débuts d’Ubuntu, j’ai passé beaucoup de temps à observer les différentes communautés qui existaient à l’époque, et comment on y gérait les inévitables tensions et divergences qui apparaissent lorsque beaucoup de fortes personnalités collaborent. Nous avons conçu l’idée d’un code de conduite qui assurerait que nos passions pour ces technologies ou ce travail ne prennent pas le dessus sur notre objectif principal : amener des gens de divers horizons à collaborer sur une plateforme commune. Je suis ravi que l’idée se soit étendue à d’autres projets : nous ne voulons pas garder jalousement ces idées, designs ou concepts, ce serait l’inverse de notre objectif premier.

Nous avons mis en place une structure simple : un forum technique et un conseil communautaire. Cette organisation est désormais courante dans beaucoup d’autres projets. Alors qu’Ubuntu se développe, la gouvernance évolue également : des équipes s’occupent de diriger des groupes tels que Kubuntu, les forums et les canaux IRC, fournissent conseils et orientation aux équipes des LoCo[3], aux modérateurs, aux opérateurs et aux développeurs, qui à leur tour s’efforcent d’atteindre la perfection technique et l’aisance sociale au sein d’une immense communauté mondiale. C’est fantastique. Ceux qui viennent participer à Ubuntu sont en général autant motivés par le désir d’appartenir à une merveilleuse communauté que par celui de résoudre un problème spécifique ou d’alléger la charge de travail d’un groupe.

Avec le temps, certains s’aperçoivent qu’ils ont le don d’aider les autres à être plus productifs : résoudre les conflits d’opinion, assurer l’organisation d’un groupe pour permettre de réaliser ce qu’un individu seul n’aurait pu accomplir. La structure de gouvernance d’Ubuntu leur crée l’opportunité de montrer leur valeur : ils forment le pivot et la structure qui permettent à cette communauté de s’adapter, de rester productive et agréable.

Défendre les valeurs d’un projet comme Ubuntu nécessite une vigilance constante. Lorsqu’on débute et que l’on affiche une ligne directrice précise, on n’attire en général que ceux qui sont sur la même longueur d’ondes que nous. Lorsque le projet gagne en envergure et en visibilité, il attire TOUT LE MONDE, car les gens veulent être là où ça bouge. Ainsi, les valeurs auxquelles on tient peuvent vite finir noyées dans la masse. C’est pourquoi je m’implique autant dans le travail du Conseil Communautaire d’Ubuntu et des équipes communautaires de Canonical. Les deux font preuve d’une grande perspicacité et ne rechignent pas à la tâche, ce qui fait de cette partie de mon travail un vrai plaisir.

Le Conseil Communautaire d’Ubuntu prend très au sérieux sa responsabilité en tant que dépositaire des valeurs des projets communautaires. Le CC est en grande partie composé de personnes qui ne sont pas affiliées à Canonical, mais qui croient que le projet Ubuntu est important pour le logiciel libre dans son ensemble. Jono Bacon, Daniel Holbach, et Jorge Castro, par exemple, sont des professionnels qui savent comment rendre une communauté productive et en faire un lieu de travail agréable.

Quelque chose d’aussi gros que la communauté Ubuntu ne peut être porté à mon seul crédit, ni à aucun autre, mais je suis fier du rôle que j’ai joué, et motivé pour continuer tant que ce sera nécessaire. Depuis quelques années, je me consacre davantage à mettre en avant le rôle du design dans le logiciel libre. Je suis convaincu que l’Open Source produit la meilleure qualité de logiciels qui soit, mais nous devons nous pencher sur l’expérience que nous souhaitons créer pour nos utilisateurs, que ce soit sur le bureau, les netbooks ou les serveurs. Je me suis donc beaucoup employé à encourager diverses communautés – celle d’Ubuntu et d’autres qui travaillent en amont – à réserver un bon accueil à ceux qui portent sur le logiciel libre un regard d’utilisateur final et non celui d’un codeur chevronné. C’est un changement de fond dans les valeurs de l’Open Source, et je ne pourrai l’accomplir seul, mais je suis tout de même fier d’être un défenseur de cette approche, et heureux qu’elle soit de plus en plus partagée.

Des designers travaillaient dans le logiciel libre avant que nous ne donnions cette impulsion. J’espère que l’insistance de Canonical sur l’importance du design leur facilite la tâche, que la communauté au sens large est plus sensible à leurs efforts et plus réceptive à leurs idées. En tout cas, si vous accordez *vraiment* de l’importance au design des logiciels libres, l’équipe de designers de Canonical est faite pour vous !

Je travaille moi aussi sur le design, et j’ai surtout participé à la conception détaillée de Unity, l’interface d’Ubuntu Netbook Edition 10.10. C’est une évolution de l’ancienne interface UNR, qui a surtout pour fonction de montrer que le poste de travail Linux n’a pas à rester bloqué dans les années 90. Nous allons tenter d’élaborer de nouvelles façons efficaces d’utiliser les ordinateurs.

J’ai été ravi de constater la vitesse à laquelle des centaines de projets ont adopté les fonctionnalités de Unity. Leur but est de rendre Linux plus facile d’utilisation et plus élégant. Ce rythme d’adoption permet de mesurer combien nous réduisons la difficulté pour les nouveaux utilisateurs qui découvrent une meilleure façon d’utiliser leur PC.

Si nous nous contentions du design sans nous occuper de la mise en application, on pourrait nous accuser d’attendre que les autres fassent le travail à notre place, alors je suis également fier de diriger une équipe géniale qui se charge de l’implémentation de certains de ces composants clés. Des éléments comme dbusmenu ont prouvé leur utilité pour apporter de la consistance à l’interface des applications GNOME et KDE fonctionnant sous Unity, et j’espère vraiment qu’elles seront adoptées par d’autres projets qui ont besoin de ces mêmes fonctions.

J’aimerais féliciter l’équipe d’ingénieurs pour le soin qu’ils apportent à la qualité et la testabilité, et pour leur désir de fournir aux développeurs des API propres et des documentations complètes permettant leur utilisation optimale. Si vous utilisez le jeu complet d’indicateurs dans Ubuntu 10.10, vous savez à quel point ce travail discret et continu permet d’obtenir un tableau de bord harmonieux et efficace. Nous allons livrer la première release de Utouch, qui continuera d’évoluer afin que GNOME et KDE puissent intégrer facilement les interfaces de mouvements multi-touch.

En plus de donner de mon temps, je soutiens aussi divers projets en les finançant. Injecter de l’argent dans un logiciel libre nécessite de se poser une question cruciale : cette somme serait-elle mieux employée ailleurs ? Il existe beaucoup de façons d’aider les gens : avec 100 000 $, on peut scolariser, vêtir ou nourrir beaucoup de monde. Il me faut donc être sûr que cet argent apporte des bénéfices réels et quantifiables sur la vie des gens. Les messages de remerciement que je reçois chaque semaine pour Ubuntu me confortent dans cette idée. Plus important encore, je constate moi-même l’effet de catalyseur qu’a Ubuntu sur l’ensemble de l’écosystème Open Source – les nouveaux développeurs qui le rejoignent, les nouvelles plateformes qui apparaissent, les créations de nouvelles entreprises et l’arrivée de nouveaux participants – et j’en conclus que le financement que je fournis a un impact significatif.

Quand Ubuntu a été conçu, l’écosystème Linux était dans un sens complètement formé. Nous avions un noyau, GNOME et KDE, Xorg, la Lib C, GCC et tous les autres outils bien connus. Bien sûr, il y avait des failles, des bugs et des feuilles de route pour les combler. Mais il manquait quelque chose, parfois définit comme « marketing », parfois défini comme « orienté utilisateur final ». Je me souviens avoir pensé « c’est ce que je peux apporter ». Donc Ubuntu et Canonical n’ont clairement PAS investi d’efforts dans ce qui fonctionnait déjà, mais dans de nouvelles idées et de nouveaux outils. J’y vois une contribution stimulante à l’écosystème Open Source en général, et je sais que beaucoup partagent cet avis. Ceux qui reprochent à Canonical de ne pas faire ci ou ça ont peut-être raison, mais ces critiques ne tiennent pas compte de tout ce que nous apportons et qui ne figurait pas sur la feuille de route avant notre arrivé. Bien sûr, il y a peu de travaux que nous accomplissons à nous seuls, et peu d’avancées que d’autres ne pourraient réaliser s’ils s’en faisaient un objectif, mais je crois que la passion de la communauté Ubuntu et l’enthousiasme de ses utilisateurs reflètent la nouveauté et l’originalité de ce projet. Ce doit être une source de satisfaction, de fierté et de motivation pour continuer dans cette voie.

Aucun projet particulier ne compte plus que le logiciel libre dans son ensemble. Il est plus important que le noyau Linux, plus important que GNU, plus important que GNOME et KDE, plus qu’Ubuntu, Fedora et Debian. Chacun de ces projets joue un rôle, mais c’est le tout qu’ils forment qui est vraiment en train de changer le monde. À cause des querelles concernant la contribution de chacun au logiciel libre, nous risquons de passer à côté de l’essentiel. Un peu comme une maladie auto-immune, quand le corps commence à s’attaquer lui-même. Par définition, quelqu’un qui se donne du mal pour diffuser le logiciel libre auprès d’un public plus large est dans le même camp que moi, contrairement aux 99% du reste du monde, si je veux penser en termes de camps. J’admire et respecte tout ceux qui consacrent leur énergie à faire avancer la cause du logiciel libre, même si parfois nos avis divergent en ce qui concerne les détails et la manière de procéder.

Notes

[1] Crédit photo : Trancept (Creative Commons By-Nc-Sa)

[2] Suivi d’un minutieux travail de relecture par Framalang : Don Rico et Siltaar

[3] NdFramalang : Local Community Communautés Locales




Firefox 4, Google Chrome et l’évolution du Web par Chris Blizzard de Mozilla

Keven Law - CC by-saQue les fans de la première heure se rassurent : la version 4 du célèbre navigateur au panda roux – dont la sortie devrait intervenir d’ici la fin de l’année – promet de recoller au peloton !

Au temps pour ceux qui avaient vendu sa peau un peu trop rapidement : le panda[1] nouveau met l’accent sur les performances, à commencer par un nouveau moteur JavaScript qui, une fois optimisé, pourrait même lui permettre de prendre la tête de la course si l’on en croit Chris Blizzard (Director of Web Platform chez Mozilla[2]), dont nous vous proposons ici la traduction de l’interview qu’il a donnée récemment au site derStandard.at (une fois n’est pas coutume, cette traduction a été complétée de références à l’actualité récente avec l’aide de Paul Rouget, Technology Evangelist chez Mozilla).

S’il est difficile de ne pas céder à la mode du benchmarking, on peut toutefois s’interroger sur ce que l’on attend réellement d’un navigateur.

Revenons un instant en arrière : l’irruption de Firefox a permis de réveiller le Web en le libérant de l’hégémonie d’Internet Explorer qui, après avoir éradiqué à peu près toute concurrence sur le marché des navigateurs, n’a plus connu de développement pendant six ans (soit le temps qui sépare la version 6 de la version 7 du navigateur de Microsoft, qui avait même dissout l’équipe de développement dans cet intervalle). Firefox a réussi à propulser le Web vers de nouveaux horizons balisés de standards ouverts propices à l’innovation. Tant et si bien que de redoutables concurrents sont apparus comme Safari d’Apple et surtout Chrome de Google (voir à ce billet du Framablog) et que Microsoft est en train de mettre les bouchées doubles avec son IE 9 pour rattraper son retard.

Faut-il en conclure que Firefox, ayant accompli sa mission, est devenu inutile ?

Il faut en effet reconnaître que le Web ne s’est jamais aussi bien porté qu’aujourd’hui : les concepteurs de navigateurs se battent dorénavant tous pour implémenter les dernières versions des standards ouverts qui sont la base du Web (HTML5, CSS3) quand ils n’en sont tout simplement pas à l’origine. Et pour cela, nous pouvons tous remercier la fondation Mozilla à l’origine de Firefox.

Pourtant, le Web ne se limite pas à des applications riches et jolies devant s’exécuter le plus rapidement possible.

Les grands acteurs du Web, Mozilla mis à part, tirent leurs revenus de l’exploitation de vos données personnelles. La protection de la vie privée devient aujourd’hui un enjeu majeur pour l’utilisateur (qui doit encore en prendre conscience). Mozilla s’apprête à proposer des solutions novatrices dans ce domaine[3]. Qui d’autre que Mozilla, fondation à but non lucratif, a intérêt à rendre aux utilisateurs le contrôle de leurs données personnelles ? Personne. Et ce n’est pas parce que Apple ou Google (et peut-être un jour Facebook) sort un navigateur performant – fût-il libre (Chromium est la version libre de Google Chrome) – que l’utilisateur jouira des mêmes libertés que l’utilisateur de Firefox, navigateur libre développé par une fondation à but non lucratif.

Firefox 4 : Une génération d’avance en termes de vitesse

Firefox 4: One generation ahead of everyone else speedwise

Andreas Proschofsky – 19 août 2010 – derStandard.at
(Traduction Framalang : Don Rico, Siltaar, Goofy et Antistress)

Chris Blizzard de Mozilla nous parle de la concurrence de Google Chrome, de l’évolution du Web comme plateforme et des attentes que suscite le format WebM.

Ces dernières années Firefox a joué le rôle enviable de l’étoile montante dans le monde des navigateurs. Aujourd’hui, non seulement Google Chrome semble lui avoir volé la vedette mais il vient même lui tailler des croupières. Au cours du dernier GUADEC, Andreas Proschofsky a eu l’occasion de côtoyer Chris Blizzard, « Directeur de plateforme Web » chez Mozilla, et il a réalisé l’interview que vous allez lire, évoquant l’état actuel du marché des navigateurs, les progrès du Web comme plateforme et les améliorations qui arrivent avec Firefox 4+.

derStandard.at : Quand nous avons discuté l’année dernière, vous avez noté que, malgré la notoriété grandissante de Google Chrome, la plupart des développeurs présents dans les conférences techniques – comme le GUADEC – utilisent encore Firefox. Si je jette un coup d’œil autour de moi cette année, les choses semblent avoir considérablement changé : bon nombre de ces utilisateurs avant-gardistes semblent être passés à Chrome / Chromium. Est-ce que vous avez un problème sur ce créneau d’utilisateurs spécifique – mais influent ?

Chris Blizzard : En fait je pense que beaucoup de gens utilisent les deux maintenant, mais c’est vrai que c’est intéressant à voir. De mon point de vue de développeur Web je pense toujours que les outils de Firefox sont de loin supérieurs à ceux des autres.

Il est intéressant de noter que nous n’avons pas vu de changements significatifs dans les statistiques utilisateurs, même si Chrome marque des points importants sur ce segment. Il faut préciser que tous ces chiffres que l’on rapporte sont en réalité des statistiques d’usage et non du nombre d’utilisateurs, si bien que cette avant-garde – qui est grosse utilisatrice du Web – influence les statistiques plus que d’autres, ce qui peut faire croire que Chrome est utilisé par davantage de gens qu’en réalité. Nous avons connu le même effet dans les premiers temps de Firefox, à l’époque nous n’en avions pas conscience faute d’outils adéquats pour le mesurer.

Nous avons aussi effectué quelques recherches et découvert qu’un tas de gens semblent choisir leur navigateur suivant des fonctionnalités particulières. Par exemple beaucoup d’utilisateurs préfèrent retrouver leurs sites récemment visités dès l’ouverture de leur navigateur, donc ils utilisent Chrome. S’ils préfèrent démarrer avec une page vierge, ils utilisent plutôt Firefox. Je pense donc que ce que l’on commence à voir, c’est des gens différents qui veulent faire des choses différentes, et qui vont choisir leur navigateur selon leurs préférences. Et nous n’en sommes qu’au début.

Nous savons que nous ne pourrons pas satisfaire les désirs de tous et ce n’est d’ailleurs pas le but de notre organisation. Nous voulons faire en sorte que le Web devienne une plateforme et nous avons plutôt bien réussi sur ce point.

Google se lance maintenant dans un cycle de développement visant à offrir une nouvelle mise à jour stable toutes les six semaines, pour essayer de proposer des innovations plus rapidement aux utilisateurs. Mozilla, de son côté, publie au mieux une nouvelle version par an : cela n’est-il pas handicapant d’un point de vue marketing ?

Cela dépend du rythme que vous voulez adopter. Les gens de Chrome ont une approche un petit peu différente de la nôtre. Il va être intéressant de voir si d’autres utilisateurs que les avant-gardistes seront d’accord pour voir leur navigateur changer tous les mois et demi. Nous préférons prendre davantage de temps pour préparer les gens à des changements d’interface plus importants.

Pour autant nous ne modifions pas toujours le numéro de version pour les gros changements. Citons par exemple l’isolation des plugins que nous avons récemment ajoutée à la série 3.6.x, qui résulte d’un énorme travail et qui a grandement amélioré l’expérience des utilisateurs de Firefox.

À vrai dire, je suis quelque peu sceptique à l’idée d’un cycle de six semaines. Comment peut-on vraiment innover en un laps de temps si court ? Accélérer la cadence est néanmoins dans nos projets, il faut juste que nous trouvions celle qui nous convient.

Un des avantages d’un cycle de publication rapide, c’est que Google peut diffuser très vite des fonctionnalités comme le futur web-store de Chrome. Aimeriez-vous aussi proposer une plateforme de téléchargement d’applications Web chez Mozilla ?

En ce qui me concerne, je pense qu’un app-store pour le Web est une idée intéressante, car en gros cela rend les applications Web plus accessibles et fournit un modèle de monétisation. Mais pour bien faire, il faut tenir compte de nombreux autres paramètres, et c’est là-dessus que nous allons d’abord nous concentrer.

Quels éléments manque-t-il encore pour concevoir un bon web-store ?

Les performances Javascript sont très importantes, mais nous touchons au but, car nous sommes en passe d’obtenir les mêmes performances que les applications exécutées nativement. Vient ensuite le webGL pour les applications en 3D, et nous devons aussi régler la question du stockage de données hors-connexion qui est loin d’être abouti pour le moment. Il faut aussi accorder une grande importance à la sécurité, question sur laquelle nous sommes justement en train de travailler. Par exemple, grâce à la fonctionnalité ForceHTTPS, un site Web pourra dire à un navigateur de ne communiquer avec lui que par données chiffrées, ce qui préviendra certains types d’attaques. Nous nous penchons aussi sur la politique de sécurité des contenus, ce qui sera très utile pour lutter contre une catégorie entière d’attaques type cross-site scripting (NdT : citons par exemple la fonctionnalité X-FRAME récemment introduite contre le clickjacking).

Dans les tests de performances Javascript récents, Firefox semble avoir dégringolé dans le bas du classement, et se place même derrière Internet Explorer 9. N’arrivez-vous plus à suivre ?

Firefox 4 apportera de nombreuses améliorations dans ce domaine-là aussi, mais elles ne sont pas encore intégrées à nos versions de développement. Nous avons constaté que, lorsque notre Tracing-Engine (NdT : moteur basé sur la technologie du tracé) est utilisé, nous sommes plus rapides que tous les autres. Nous ne sommes à la traîne que dans les cas où cette technologie ne peut être exploitée. Nous travaillons donc à améliorer les performances de base de notre moteur JavaScript, qui, combinées à l’optimisation JIT Tracing , nous donneront une génération d’avance sur tout le monde (NdT : Jägermonkey, le résultat de ce travail, vient d’être intégré à la version de développement de Firefox 4).

La vérité c’est que la marge d’amélioration est encore énorme. La génération actuelle des moteurs Javascript a atteint un palier : en pourcentage, les différences que nous constatons entre les différents navigateurs sont infimes. En outre, les tests de performance ne sont plus d’une grande utilité, car, pour la plupart, ces chiffres ne sont plus influencés par les performances Javascript réelles. Voici un exemple des conséquences négatives des tests de performance : nous avons dû fournir des efforts particuliers sur l’optimisation du calcul de décalage horaire car cela influe négativement certains tests de performance, mais ça n’améliore pas réellement les performances Javascript. Sunspider est affecté par ces problèmes et V8 contient aussi du code bancal, il est donc difficile de trouver de bons tests de performance (NdT : Mozilla vient de lancer Kraken, un test censé mesurer les performances JavaScript en situation réelle).

Firefox 4 va utiliser l’accélération matérielle grâce à Direct2D et à DirectWrite sous Windows. Des fonctionnalités similaires sont-elles prévues pour Linux et Mac OS X ?

Dans la limite des outils qui sont disponibles, oui. Nous essayons de procurer aux utilisateurs la meilleure expérience possible sur chaque plateforme. Pour Windows Vista et 7 nous constatons d’immenses améliorations lorsque le navigateur doit réaliser des tâches graphiques intensives. Sur OS X, par exemple, nous prenons en charge l’OpenGL pour la composition d’images, et nous faisons de même sous Linux. Mais en général les API dont nous disposons sous Windows sont meilleures et plus riches que sur les autres plateformes. Sous Linux, Cairo et Pixman étaient censées être rapides, mais hélas l’infrastructure sur lesquelles elles reposent n’a jamais vraiment atteint la vélocité désirée. Sur OS X, Firefox est assez rapide, mais pour l’instant Direct2D confère l’avantage à la version Windows (NdT : plus d’informations sur cet article de Paul Rouget).

L’isolation des plugins devait n’être que la première étape d’un Firefox multi-processus, avec un processus séparé pour chaque onglet. C’est un des gros morceaux du cahier des charges de Firefox 4. C’est toujours prévu ?

Bien sûr, mais pas pour Firefox 4. Ce sera sans doute disponible pour la version mobile avant la version desktop. C’est intéressant de constater que c’est plus facile sur cette plateforme.

Il y a peu, vous avez endossé le rôle de « Directeur de plateforme Web » chez Mozilla. En quoi cela affecte-il vos responsabilités quotidiennes ?

Auparavant, je me chargeais essentiellement de diriger les groupes d’évangélisation et de communication, mais j’ai fini par travailler de plus en plus sur les questions de plateforme Web – réfléchir à l’avenir du Web, discuter régulièrement avec les autres concepteurs de navigateurs. Tout cela a pris une telle importance que j’ai décidé de m’y consacrer à plein temps.

Par exemple, je viens de participer à une réunion de l’IETF, où nous avons eu des discussions très riches sur le http, les websockets, et aussi sur les codecs. Ils sont en train de mettre au point un codec audio de nouvelle génération pour les communications en temps réel et s’appuient sur l’IETF pour les spécifications. En gros, c’est une combinaison de techniques existantes, et l’accent est mis sur une latence très basse, un domaine où le Vorbis ou le MP3 sont mauvais. Ce travail s’effectue en collaboration avec Skype.

Une des grosses annonces de ces derniers mois concernait la création du WebM comme nouveau format vidéo ouvert basé sur le VP8 et Vorbis. Pensez-vous que ses chances de réussites soient meilleures que celles de Theora ?

Oui, pour des raisons de qualité. Quelques explications : il est bon de savoir que lorsqu’on utilise le H.264, on doit en gros choisir un des trois profils que propose ce codec. En général, les sites vidéos doivent offrir la version basique car c’est la seule prise en compte par l’iPhone, notamment dans ses anciennes versions qui sont utilisées par des dizaines de millions de personnes. Donc, si l’on compare les formats vidéo, il faut comparer le VP8 au H.264 « basique », et ce n’est pas qu’une manœuvre réthorique, c’est la réalité pour tous les services. J’ai discuté avec les gens de YouTube, par exemple : ils ont essayé d’utiliser un autre profil du H.264, mais ils ont dû revenir au « basique » à cause du manque de prise en charge. Sur cette base, la question de la qualité n’a plus lieu d’être, et le VP8 est tout à fait compétitif.

Si l’on parle de l’implémentation de la balise vidéo HTML5, il faut aussi prendre en compte l’évolution du marché. Si l’on envisage un monde où la vidéo HTML5 est répandue dans la majorité des navigateurs – par-là je pense à une proportion de 80%, ce qui devrait être le cas d’ici deux ans –, il faut compter avec les tendances et les changements dans les parts de marché des systèmes d’exploitation. On se rend alors compte qu’on se retrouve avec un marché segmenté. Ceux qui voudront diffuser de la vidéo devront prendre en charge à la fois H.264 et WebM. Sur le long terme, je suis certain que les codecs libres sont en meilleure posture, surtout si l’on prend en considération les tendances à venir comme les communications en temps réel ou les plateformes mobiles, où WebM est très performant – ou va l’être grâce à des partenariats avec des constructeurs de matériel.


Firefox 4 va permettre de construire des extensions « poids plume » sous forme de Jetpacks. Quand vont-ils remplacer la génération actuelle d’extensions ?

Les Jetpacks ne sont pas conçus pour remplacer les extensions XUL. Firefox est une plateforme que l’on peut étoffer à l’envi grâce à une large palette d’interfaces. On peut aussi modifier beaucoup de choses dans les paramètres mêmes de Firefox, ce qu’aucun autre navigateur ne permet. Comme projet, c’est extraordinaire : une grand part de nos innovations sont arrivées par les extensions avant d’intégrer directement le navigateur.

Pour nous, les Jetpacks sont grosso modo un équivalent des extensions pour Chrome, qui offrent beaucoup moins de possibilités que nos extensions XUL classiques. Ils seront néanmoins beaucoup plus faciles à réaliser. Nous allons fournir un éditeur en ligne qui facilitera leur développement. Ces Jetpacks seront aussi plus faciles à tester, et l’on pourra les installer sans avoir à redémarrer le navigateur. Ce qui est d’ailleurs déjà possible avec certaines extensions XUL dans Firefox 4, à condition que cela soit signalé et que l’extensions soit codée avec soin.

Notes

[1] Crédit photo : Keven Law (Creative Commons By-Sa)

[2] Chris Blizzard a déjà fait l’objet d’une traduction sur le Framablog : De l’honnêteté intellectuelle et du HTML5.

[3] Lire à ce propos Comment Firefox peut améliorer le respect de la vie privée en ligne, privacy-related changes coming to CSS :visited et Account Manager coming to Firefox.




Quand le hacker se découvre parasite !

Genista - CC by-saPour peu qu’on ne le confonde pas avec le cracker et qu’il ne perde pas en route sa pureté originelle, la figure du hacker a bonne presse actuellement.

Tellement bonne presse que certains n’hésitent pas à en faire une sorte de nouvel héros des temps modernes.

Sauf si l’on rejette en bloc cette modernité.

Attention les yeux, l’article que nous vous proposons reproduit ci-dessous est une très virulente critique d’un livre souvent cité en référence sur ce blog: L’Éthique hacker de Pekka Himanen. Mais précisons d’emblée qu’il n’est pas nécessaire de l’avoir lu pour suivre le propos.

Il émane des courants anti-industriels qui se caractérisent par une critique radicale de toutes les technologies issues des révolutions industrielles de ces deux derniers siècles[1].

Dans ce cadre-là, le problème n’est pas de défendre les libertés menacées d’Internet, le problème c’est Internet lui-même. La posture du hacker est alors au mieux inutile et au pire complice voire idiot utile du système.

Ici notre hacker tombe bruyamment de son piédestal et ne s’en relève pas.

Il va de soi que nous ne partageons pas le point de vue de l’auteur. Mais il nous semble cependant intéressant d’offrir de temps en temps un espace à nos contradicteurs. Ne serait-ce que pour ne pas s’enfermer dans une sorte de discours « librement correct » redondant et ronronnant.

Les hackers et l’esprit du parasitisme

URL d’origine du document

Los Amigos de Ludd – août 2009 – Pièces et Main d’Oeuvre

Nous incluons dans cette livraison un commentaire de l’ouvrage L’Éthique hacker et l’esprit de l’ère de l’information, appelé à devenir la profession de foi d’une nouvelle génération de technoconvaincus partageant la certitude que les décennies à venir leur appartiennent. Son auteur, Pekka Himanen, est le nouvel hérétique de cette éthique du travail coopératif et passionné, à mille lieues des éthiques protestantes et catholiques fondées sur le travail esclave et la mortification rétribués dans l’Au-delà.

Notre époque, qui plus que tout autre récompense l’irresponsabilité, favorise l’apparition de doctrines ahurissantes concoctées dans les laboratoires insonorisés des universités et des entreprises d’un monde qui s’écroule de toutes parts. Des volumes considérables de matière grise sont mobilisés pour nous montrer les voies d’accès à la vie radieuse que nous sommes tous invités à embrasser si nous ne voulons pas rater le coche de l’émancipatrice modernité. C’est ainsi qu’il y a quelques années déjà, nous avions eu vent de l’existence de ces hackers qui aujourd’hui brandissent l’étendard de leur nouvelle éthique.

Disons d’emblée que le pastiche du ci-devant Himanen n’aurait pas attiré notre attention une seule seconde, n’était le relatif intérêt qu’il a suscité chez ceux qui appartiennent à ce que nous pourrions nommer pieusement les « milieux radicaux ». Ce qui fait problème ce n’est pas que le livre d’Himanen soit une compilation de banalités et d’envolées lyriques, mais qu’il ait été possible de rêver, ne serait-ce qu’un seul instant, que ce livre puisse être mis en perspective avec la pensée critique. D’où vient ce malentendu ?

Nous ne nous engagerons pas ici, une fois de plus, dans une critique de la société technicisée, une réalité qui, au bout du compte, fournit le seul argument tangible plaidant en faveur du fait que les thèses des hackers ont pu s’imposer dans certains milieux avec autant de force. Néanmoins, nous n’allons pas nous priver de mettre en évidence quelques-unes des incongruités qui nous ont sauté aux yeux à la lecture du livre d’Himanen.

Ce que Pekka Himanen a nommé de manière ambitieuse « éthique hacker » – le seul fait de pousser l’ambition jusqu’à s’auto-décerner une éthique est en soi quelque chose d’assez suspect –, n’est rien d’autre que la sauce idéologique grâce à laquelle les hackers souhaitent donner un certain prestige à leur vie de néocréateurs, de néosavants voire de néoleaders spirituels. Si jamais ces gens-là réussissent à créer un véritable mouvement de masse, et à y tenir leur place, ils seront parvenus une fois de plus à démontrer l’inusable élasticité du système actuel, où l’ambition technique collective n’entre pas nécessairement en conflit avec l’ambition économique privée, les deux s’accordant bien pour diffuser la propagande en faveur du progrès et de ses réseaux technologiques aux quatre coins de la planète. C’est un fait avéré que, dans les années 1980, 1990, se sont développées des technologies qui ont débordé du cadre traditionnel de leur appropriation capitaliste. Dans la société totale des réseaux planétaires, les technologies de l’information passent par-dessus le contrôle des entreprises privées, et l’impératif technique s’est à ce point emparé de la société qu’il requiert à présent la collaboration de tous et de chacun : pour être en mesure de maintenir le contrôle sur tout ce qui se sait, il faut bien que chacun soit informé un minimum de tout ce qui a trait à l’exercice du contrôle. C’est ainsi que la « société en réseau » est devenue un sujet d’orgueil démocratique pour les nouvelles masses, satisfaites de leur collaboration à l’informatisation des peuples et des nations. Littéralement, tout le monde participe, tout le monde y arrive, personne ne reste à la traîne. Les envahis sont les envahisseurs.

La société en réseau est l’exemple le plus évident de la façon dont la société occidentale parachève l’extension planétaire de son mode de vie. D’un côté, la guerre économique et la violence du marché, de l’autre, la propagande d’un monde interconnecté dont tout le monde peut faire usage au même titre. Et, au beau milieu, une mythologie futuriste fondée sur le jeu et le délire collectif qui font entrer en scène les Ulysse de la nouvelle odyssée informatique, ces hackers qui se présentent comme l’élite aventurière des générations futures.

Quand Himanen critique les éthiques chrétiennes et protestantes du travail, il pose les premières pierres de son analyse fragmentaire. Son intention est de présenter le travail du hacker comme une activité fondée sur la créativité et le jeu passionné (bien supérieure aux activés productives de survie ou aux liens sociaux typiques du travail). D’après lui, l’activité du hacker est un jeu, au sens noble du terme. Pour Himanen, le hacker s’est affranchi de tout ce qui relève de la survie, un chapitre vulgaire de sa vie qu’il doit traverser le plus rapidement possible. Ce présupposé admis, il va de soi que tout ce qui adviendra par la suite sera totalement gratuit, puisque, en somme, l’éthique hacker se doit de considérer comme naturellement constitué le monde matériel qui l’entoure. La vie du hacker commence à ce moment précis : il existe une société à l’état brut qui, pour des raisons qui restent mystérieuses, garantit la survie et le fonctionnement des échanges économiques, simples bagatelles auxquelles le hacker, essentiellement absorbé par les échanges symboliques et scientifiques, n’a aucune de ses précieuses minutes à consacrer.

Par ailleurs, le hacker mène son activité librement et inconditionnellement. Sorte de mélange entre le bohémien du XIXe siècle et le penseur oisif de l’Athènes classique, il a besoin de liberté d’action et de temps libre pour s’organiser à son aise.

Himanen écrit :

Un autre élément important dans la façon particulière des hackers d’aborder le travail est leur relation au temps. Linux, Internet et l’ordinateur personnel n’ont pas été conçus pendant les heures de bureau. Quand Torvalds a écrit ses premières versions de Linux, il travaillait tard dans la nuit et se levait en début d’après-midi pour poursuivre sa tâche. Parfois, il abandonnait son code pour jouer avec son ordinateur ou pour faire complètement autre chose. Ce rapport libre au temps est depuis toujours un élément caractéristique des hackers qui apprécient un rythme de vie à leur mesure (p. 37).

Une déclaration spécialement irritante, qui fait irrésistiblement penser à ce que disent les étudiants boursiers récemment débarqués sur les campus lorsqu’ils se targuent de prendre du bon temps tout en se gaussant de la vie bêtement routinière du monde des employés. De telles attitudes sont le propre d’individus chéris de la société, jouissant du privilège de rayonner dans tous les sens et considérant leurs concitoyens comme des bêtes curieuses condamnées à faire des allers et retours dans leur cage. Mais il y a plus. En digne représentant qu’il est de notre époque artificielle, Himanen va jusqu’à négliger les limites du monde naturel où, jusqu’à nouvel ordre, l’activité humaine doit s’inscrire, ne serait-ce que parce qu’elle reste tributaire d’une contrainte énergétique et pratique incontournable : la lumière du jour. Par où l’on voit que le travail des hackers est à ce point séparé du monde de la production, dont ils ne laissent pourtant pas de dépendre pour le moindre de leur geste, qu’ils ont oublié jusqu’à l’existence d’une nature avec ses rythmes à respecter, parce que c’est sur eux que se fonde l’activité des sociétés humaines. Ces vérités de toujours, croulant sous le fardeau de décennies de technicisation, finiront bien par éclater un jour, quand bien même il sera alors trop tard.

Par-delà sa défense et son illustration du mode de vie hacker en tant que style personnel caractérisé par le rejet des éthiques chrétiennes et protestantes, Himanen présente, dirons-nous, trois autres piliers du hackerisme : un modèle de connaissance, un modèle de communication et un modèle de société responsable.

En ce qui concerne le premier, Himanen voit d’un bon oeil la « société en réseau » ou « académie en réseau » en forme de gigantesque communauté scientifique accouchant de nouveaux paradigmes de la connaissance dans une ambiance coopérative et antihiérarchique, l’élève n’étant plus un simple récepteur des savoirs mais un sujet actif impliqué dans leur création. Au passage, Himanen commet l’erreur grossière d’attribuer à la technologie une qualité qui lui est absolument étrangère, celle d’avoir des effets bénéfiques sur la diffusion et le développement des connaissances, alors que l’inverse est notoire : l’augmentation des moyens technologiques s’est en réalité traduite par une chute abyssale du niveau des connaissances, mais aussi par un recul dans leur appropriation réelle et par l’apparition dans la société de pans entiers de gens devenus incapables d’acquérir par eux-mêmes un savoir autonome. La confiance placée dans le progrès technique a été une des causes d’effritement majeure de la confiance en soi et de l’autonomie intellectuelle, et la pensée de ceux qui pensent encore a perdu en vivacité et en capacité de se remettre en question (l’opuscule d’Himanen en est une preuve). On peut toujours parler, effectivement, de développement fantastique du savoir scientifique, de cohésion sans précédent entre les différentes sphères de la connaissance, mais aucun de ceux qui tiennent ce discours ne parlera de ce qu’il y a derrière – ou devant, c’est selon – toutes ces merveilles : l’appui du pouvoir industriel et financier et le profit qu’il en tire. Et tandis que la science se corrompt en se mettant au service de l’exploitation généralisée, tandis que les thèses universitaires, les articles et les communications scientifiques s’entassent dans les banques de données, il devient impossible de trouver au sein de cette masse gigantesque de savoirs et d’opinions la moindre parcelle d’indépendance intellectuelle. Cela, Himanen semble l’ignorer.

Selon lui :

II va sans dire que l’académie était très influente bien avant les hackers du monde informatique. Par exemple, depuis le XIXe siècle chaque technologie industrielle (électricité, téléphone, télévision, etc.) aurait été impensable sans le soutien des théories scientifiques (p. 8l)

Un exemple parfait des tours de passe-passe intellectuels dont notre époque regorge ! Comment ne pas voir que ce qu’Himanen appelle « théorie scientifique » ne s’était pas encore, à cette époque comme c’est le cas aujourd’hui, tout entière mise à la remorque des applications technologiques et industrielles qui lui imposaient leur rythme et leurs demandes ?

Himanen ajoute :

La dernière révolution industrielle a déjà marqué une transition vers une société qui dépend beaucoup des résultats scientifiques. Les hackers rappellent qu’à l’ère de l’information, c’est le modèle académique ouvert qui permet la création de ces résultats plus que les travaux scientifiques individuels.

Cela signifie tout simplement, que loin de se traduire par une montée en puissance du savoir indépendant, cette université ouverte a au contraire apporté dans son sillage la servitude aujourd’hui omniprésente sur tous les campus, dans tous les laboratoires, les bureaux, les colloques et revues scientifiques de la planète. L’« Académie en réseau » d’Himanen est une tour de Babel où tout le monde est tenu de parler la même langue, où tout le monde est d’accord avec tout le monde et où personne ne peut conquérir un espace qui lui soit propre – ce que nombre de chercheurs lucides seraient prêts à reconnaître si leurs voix trouvaient des occasions de se faire entendre au milieu du vacarme des autoroutes de l’information.

Dès l’instant où nous posons la question de la valeur d’usage pour la société du savoir produit sur le réseau, nous devons saisir à la racine le modèle du savoir hacker comme construction collective, et nous demander quelle place il peut bien occuper dans une société qui s’active en vue de son émancipation. Il ne suffit pas, loin de là, de libérer l’information si on ne livre pas simultanément à un examen radical le contenu et les fins de cette information ; l’utopie hacker pourrait bien être en train de faire miroiter un monde merveilleux d’échanges immatériels sur fond d’une société ravagée par l’exploitation et les catastrophes environnementales (ce qui est le cas).

Les arguments auxquels recourt Himanen pour défendre l’usage émancipateur et collectif du réseau touchent des sommets dans l’art de la tergiversation quand il aborde la question du modèle de communication dans une société ouverte. C’est là qu’Himanen ébauche en quelques lignes le synopsis du totalitarisme technologique du monde libre dans son irrésistible marche vers le progrès. Sa pensée peut être ainsi résumée :

  1. La société en réseau est une forme techniquement évoluée de la société ouverte et libérale née il y a plus de deux siècles. C’est dire que la société en réseau intègre les valeurs de défense des droits de l’individu et de ses libertés civiles, pour leur fournir des moyens toujours plus perfectionnés grâce auxquels elles puissent se répandre et se développer.
  2. La preuve la plus récente de l’accroissement des possibilités techniques du processus de civilisation est le rôle joué par les technologies de l’information lors du conflit yougoslave de 1999.

Voici ce qu’Himanen écrit à ce sujet :

Pendant les attaques aériennes de l’Otan destinées à mettre fin aux massacres (c’est nous qui soulignons), les médias traditionnels étaient pratiquement aux mains du gouvernement (p. 109).

À travers l’organisme Witness, qui dénonçait la violence et les agressions, la technologie a servi de relais pour révéler le massacre au grand jour et désobstruer les canaux de la vérité.

Vers la fin du conflit, l’organisation Witness a formé quatre Kosovars pour qu’ils collectent sur support numérique les preuves visuelles de violation des droits de l’homme. Le matériel était ensuite transmis hors du pays via Internet grâce à un ordinateur portable et un téléphone satellite. Ces éléments ont été remis au Tribunal pénal international (p. 99).

Derrière ces paroles on perçoit la silhouette des héros médaillés de la fin de l’histoire. Dans le monde libre où les hackers prennent leurs aises, la vérité est un facteur qui dépend de l’intervention sur les canaux d’information. Et la vérité suffit à elle seule à démasquer le mal. Pour Himanen, la technologie est le seul moyen objectif d’obtenir la transparence pour une société qui ne tolère plus les tyrans cruels du style Milosevic.

Mais pour pouvoir accepter tout cela, il faut au préalable avoir accepté comme bonnes toutes les valeurs de la société de marché planétaire, de ses stratégies de conquête et d’évacuation de zones habitées. Il faut avoir abandonné toute velléité de résistance aux mensonges des groupes tout-puissants qui gèrent la paix, l’ordre et la pauvreté en suivant les caprices de l’économie politique moderne. Il faut avoir déchargé les masses en Occident de toutes leurs responsabilités et compter sur leur acceptation passive d’un mode de vie destructeur. Croire dans ces conditions que la technologie peut être mise au service d’une fin bénéfique signifie qu’on prend pour argent comptant la farce humanitaire qui sert de vitrine aux systèmes en charge de la servitude contemporaine, et les mensonges de leurs leaders élus.

Au fond, cela n’a rien de surprenant venant de la doctrine hacker. Chaque fois qu’il met l’accent sur la confidentialité, sur l’information et la vie privée, Himanen nous donne une preuve de ses origines bourgeoises. Tout cela, ce sont des valeurs qui appartiennent à la société libérale, qui toutes virent le jour pour former le socle de l’économie d’entreprise en cours de formation.

La défense de la vie privée, qui obsède Himanen, est le cheval de bataille des hackers, qui sont cependant très attentifs à maintenir la séparation artificielle d’origine bourgeoise entre la sphère publique et la sphère privée. Les fanatiques de la démocratie formelle sont tout prêts à brandir l’anathème du goulag à la seconde même où la discussion s’aventure sur ce terrain. Comme on le sait, la construction de l’enceinte privée a été la pierre de touche de l’idéologie forgée par la bourgeoisie pour légitimer le nouveau pillage fondé sur l’individualisme et la concurrence effrénée. Ce qui était en jeu, c’était la fameuse liberté négative, socle du droit libéral, autrement dit la liberté de ne pas être dérangé dans ses propres affaires. Jamais maffia ne trouva meilleur moyen de protéger ses affaires, à un moment où elle s’était ostensiblement rendue maîtresse de la quasi-totalité des richesses. Les phraséologies parlementaire, journalistique, légaliste, civique, etc., ont servi aux couches socioprofessionnelles compromises avec cette maffia à rendre crédible la farce d’une société unie. La leçon n’a pas été perdue pour Himanen, qui, en bon progressiste qu’il est, transpose cette phraséologie à la défense des droits individuels et au droit à une information véridique.

Si la doctrine hacker et son combat contre l’ingérence de l’État et des entreprises dans la sphère privée ont pu être assimilés aux pratiques de contre-information si prisées des milieux gauchistes, c’est justement parce que ces derniers en sont graduellement venus à adopter une position purement réactive face au monde de l’information monopolisé par les grandes agences et les grands groupes d’intérêts. La leçon à tirer de tout cela est qu’il faut tenir ferme sur la critique unitaire de ce que produit le monde de la marchandise, seule manière d’éviter la fétichisation galopante des droits formels qui encadrent l’assignation permanente de l’individu dans le monde marchand[2].

Le discours d’Himanen sur la technologie et la guerre ne va pas sans l’acceptation d’un monde chosifié par les techniques et par l’économie politique. Dès l’instant où il sépare le monde de la production à la fois de ses conséquences sur les modes de vie et de l’idéologie technique qui réclame toujours plus de moyens pour renforcer son autarcie, il est normal qu’il fasse preuve de partialité dans son analyse des moyens techniques : voyant en eux des instruments qui peuvent servir à faire tomber les tyrans, il méconnaît qu’ils sont en fait la forme achevée sous laquelle chaque tyrannie économique d’aujourd’hui a besoin de se montrer – en construisant de toutes pièces la vie dépendante de la marchandise hypostasiée.

Pour finir, l’utopie technolibérale d’Himanen verse fatalement dans l’humanitarisme assistanciel. C’est ce que lui-même nomme sans vergogne « la préoccupation responsable ». Se référant à quelques hackers assez connus, il montre qu’ils sont tous au top niveau de l’engagement social :

Par exemple, Mitch Kapor soutient un programme global de protection de l’environnement et de la santé destiné à régler les problèmes sanitaires engendrés par les activités des entreprises. Sandy Lerner, qui a quitté Cisco Systems en compagnie de Léo Bosach avec 170 millions de dollars en actions, a utilisé cet argent pour créer une fondation consacrée à la lutte contre les mauvais traitements infligés aux animaux (p. 132).

Une philanthropie informatique qui mérite sûrement d’être vantée ! Les idées d’Himanen sur la communauté et la solidarité font bien voir quel bonimenteur il est :

Par exemple, je peux annoncer sur le Net les moments de la semaine où je peux donner un coup de main à une personne âgée pour ses tâches domestiques ; je peux annoncer que je mets ma maison à disposition des enfants pour qu’ils puissent venir y jouer après l’école ; je peux dire que je serais enchanté de promener un des chiens du voisinage le week-end. L’efficacité de ce modèle pourrait sans doute être renforcée en lui ajoutant la condition que la personne aidée s’engage à son tour à aider quelqu’un d’autre. Internet peut être utilisé comme un moyen d’organiser des ressources locales. Graduellement, d’autres apporteront leur contribution à la production de grandes idées sociales, et cela en engendrera de plus grandes encore. Il y aurait un effet d’autoalimentation, comme cela se passe avec le modèle hacker au niveau informatique (p. 87).

Ce « modèle social » est l’ébauche parfaite d’une société totalitaire peuplée de voisins aimables et de tondeuses à gazon, tous connectés à Internet pour s’échanger perpétuellement de menus services, pendant que les mégamachines militaires de leurs États, manipulées par les grands groupes industriels, se chargent du pillage de la planète et de ses habitants.

On entend souvent dire que les hackers ont introduit une nouvelle forme de communauté, où les savoirs et les outils sont partagés dans un esprit de coopération entièrement désintéressé.

De notre point de vue, les hackers sont les enfants d’un monde totalement réifié par la technologie et la marchandise, d’un monde qui a fermé toutes les issues aux manières traditionnelles de produire ses moyens de survie. Ce qu’on appelle le web est de ce point de vue la plus fabuleuse des mégamachines jamais rêvée, dans la mesure exacte où il se présente comme une structure intellectuelle superposée au vieux et difficile monde de la production matérielle – déjà si lointain aux yeux des générations actuelles. En outre, le réseau se nourrit de la contribution intelligente de millions d’individus à son perfectionnement, à la différence des anciennes mégamachines dont la conception était le domaine réservé des élites. Le réseau est le point d’aboutissement de deux cents ans de modernisation : c’est le phantasme hyperindustriel des catégories socioprofessionnelles totalement séparées de leurs moyens de production, urbanisées, consommatrices et se consacrant à la gestion de la culture aujourd’hui nécessaire au maintien de la domination. La sphère tout entière de l’économie de production et d’élimination des déchets est masquée par cette fantastique mégamachine qui semble flotter dans le vide et qui a toutes les apparences d’une excroissance intellectuelle et passionnelle à l’état pur.

La critique fugace qu’Himanen fait de la survie rend à elle seule manifeste le peu de consistance du mode de vie proposé par les hackers : l’esprit ludique, altruiste et de coopération est une guigne dont ne se fichent pourtant pas les minorités privilégiées de « l’ère de l’accès ». Au milieu de tout cela… Qui ou quoi assure le fonctionnement du système ?

La croissance de l’idéologie informationaliste va de pair avec le développement à toutva de la société capitaliste industrielle, dont la base matérielle est assurée par la production technicisée de marchandises, par la destruction des économies locales et par une intensification de la prolétarisation de populations entières et de leur environnement. Au bout du compte, l’idéologie informationaliste est le propre d’une caste privilégiée qui veut croire que les limites de la production pour la survie ont été surmontées, et tous les problèmes qu’elle posait avec, sans voir que le prix à payer a été un retour de la planète entière en deçà des limites de la survie. Une chose est sûre : le programme économique libéral, adossé au développement des marchés soutenus par les valeurs informatiques et par leur commercialisation, ne rencontrera pas d’obstacles insurmontables du côté des techniciens de la veine d’Himanen, qui rêvent d’un réseau humanitaire de services et de bonnes oeuvres.

Le combat mené de nos jours au sein du réseau informatique pour maintenir une « coopération volontaire » est emblématique de la résignation du plus grand nombre face à une société entièrement soumise aux ordres de la technologie capitaliste. Voilà pourquoi les entreprises n’ont plus qu’à laisser faire cette coopération collective spontanée et à en tirer tout le profit qu’elles peuvent, soit, comme elles le font déjà, en la capitalisant en partie, soit tout simplement en la laissant se développer, certaines qu’elles sont que chaque création technique finit tôt ou tard par contribuer à la croissance des besoins techniques du système. À l’intérieur du réseau, le seul progrès est l’accroissement de la dépendance envers la société en réseau, que seul un faible d’esprit pourrait identifier avec la totalité sociale et ses besoins.

Le cas du gourou du logiciel libre, Richard Stallman, en dit long sur le cercle vicieux dans lequel s’est enfermée l’économie en réseau (net economy), qui revendique pour le réseau une liberté antimonopolistique et anti-accapareurs au nom d’un monde où seule la marchandise a voix au chapitre, et où jamais la maintenance des supports techniques du système n’est remise en question[3]. Le libre accès aux codes sources, la possibilité d’utiliser et de modifier les programmes sans avoir à se soucier des droits d’auteur, la défense d’une conception libre et collective des logiciels, les échanges désintéressés de savoirs et d’outils, toutes ces émouvantes revendications reflètent le drame collectif d’une génération coincée entre son intelligence pragmatique et ses illusions technologiques, les seules qu’elle a reçues en guise de transmission effective.

L’obsession qu’ont les hackers de supprimer les droits d’auteurs et de propriété sur les programmes, les livres, les oeuvres d’art, etc. est typique de l’obsession productiviste de tous ceux qui sont disposés à cohabiter pour toujours avec l’inflation des informations médiatiques et des savoirs séparés. Les hackers ont peut-être trouvé très subversif d’attaquer la notion d’auteur, mais ils auraient mieux fait de s’interroger en priorité sur le sens et la valeur d’usage des créations d’auteurs, et sur leurs finalités sociales. On ne nous fera pas croire que les logiciels sont de simples intermédiaires entre l’intelligence collective et ses réalisations pratiques. Le software est devenu en lui-même un médium, qui se reproduit à l’infini sans que personne ne se pose plus la question de la nature et de la finalité du médium technique qu’il implique[4].

Étant donné qu’elle n’a cure ni des besoins sociaux et de leur nature exacte, ni de la question de la division du travail et du caractère totalitaire de la technologie en régime capitaliste[5], l’« éthique hacker » ne peut être qu’une éthique du nouvel esprit parasitaire qui s’accroche au monde pour profiter au maximum de l’instant présent, gaspiller toujours plus d’énergie, et bousiller un nombre toujours plus grand de populations et leurs territoires. Par sa méconnaissance totale, au niveau pratique et quotidien, des rudiments de la survie collective, le hacker se transforme en une sorte d’indolent hyperactif. Par leur méconnaissance des problèmes techniques et du pillage de tout ce qui fait vivre la planète, les hackers se révèlent à nous pour ce qu’ils sont : des fanatiques de l’artificialisation dont le projet n’ajoute qu’un maillon de plus à la chaîne des irresponsabilités qui pèse sur la société humaine de tout son poids destructeur.

Pour toutes ces raisons, l’assimilation fréquemment faite entre, d’une part, les luttes contre les droits d’auteur dans le monde du software, et, d’autre part, les luttes contre les brevets sur les semences et sur les organismes vivants en général, ne peut que résulter d’une confusion volontairement entretenue. Les premières cherchent à se mettre à l’abri sous le voile de dignité des secondes[6]. Dans le premier cas, nous avons affaire à une exigence qui se félicite de l’irréversibilité d’un monde technicisé avec lequel il convient même de collaborer, y compris de façon altruiste et désintéressée, tant que la survie dorée de ces collaborateurs – les hackers – peut être assurée par l’existence des structures techniques antisociales et par la circulation sans encombre des marchandises. Dans le second cas, nous avons affaire à un combat contre la technicisation forcée, les privilèges, le monde de la marchandise, la collaboration avec le pouvoir, et qui prône un retour à des schémas traditionnels d’exploitation de la nature dans un cadre collectif. Dans le premier cas, nous avons affaire à la communauté en réseau jaillie du terreau à jamais incritiqué de l’« abondance empoisonnée » de la société du capital ; dans le second cas, au projet d’une communauté dont tous les membres partagent la responsabilité d’une production à échelle humaine et qui se refuse à tirer des chèques en blanc sur l’avenir d’une technique dont les effets s’annoncent si dévastateurs que personne ne pourra en assumer le coût. Dans le premier cas, nous avons des gens hyperadaptés aux formes modernes de séparation ; dans le second des gens qui défendent avec obstination les ultimes vestiges d’un monde faisant place à des formes autonomes de production. Seule une passion immodérée pour la confusion peut conduire à mettre sur un même plan deux combats aussi radicalement opposés dans leurs motivations fondamentales[7].

Aucune éthique du travail libéré grâce aux machines ne peut déboucher sur un combat en faveur d’une activité humaine libérée des chaînes de la dévastation capitaliste. En croissant et en se multipliant allègrement dans l’atmosphère conditionnée de la société technicisée, les hackers ne peuvent que contribuer à la destruction de tout ce qui reste de réalité extérieure à cette société.

Extrait de : « Les amis de Ludd. Bulletin d’information anti-industriel », tome 2 (titre original : « Los amigos de Ludd. Boletín de información anti-industrial »), numéros cinq et six), publié en 2009 aux éditions La Lenteur (Paris), p. 61-76.

Notes

[1] Crédit photo : Genista (Creative Commons By-Sa)

[2] Milosz écrit très justement : « Ce que l’homme de l’Est dénomme “formalisme inerte de la bourgeoisie” est par ailleurs l’assurance pour un père de famille de retourner chez lui le soir pour dîner et de ne pas partir en voyage dans une région plus propice à accueillir les ours polaires que les êtres humains. » Mais l’objet de la critique est désormais le pouvoir totalitaire d’une modernisation qui est l’héritière aussi bien du socialisme scientifique que du capitalisme démocratique.

[3] Pour en apprendre davantage sur le point de vue réactionnaire de Stallman, on peut lire son détestable article « Qui surveille les surveillants ? » publié au début de l’année 2002 par le tabloïd aujourd’hui disparu Désobéissance globale.

[4] Voilà ce que peut donner une interview de Stallman à propos du Logiciel libre : « - Ce système ne risque-t-il pas selon vous de favoriser une croissance exponentielle des programmes informatiques ? C’est vrai ! C’est un effet collatéral d’importance négligeable comparée aux effets de la promotion de la liberté. »

[5] Le fait que les hackers et les gauchistes soient deux populations qui se recoupent en partie en dit long sur l’incapacité de ces derniers à analyser de manière rigoureuse la technologie.

[6] Cf. l’article de Stallman, « Biopirates ou biocorsaires ? » Archipiélago n°55, où il formule de nouveau cet amalgame pernicieux.

[7] Bien évidemment, il existe au sein des luttes contre les OGM et autres délices de l’industrie moderne des tendances qui profitent de l’occasion pour réaffirmer leur credo citoyenniste et réformiste, et mènent ces luttes à l’impasse à coups de petits calculs arrivistes. Mais cela n’entame pas les présupposés fondamentaux partagés par d’autres tendances, même s’ils sont affirmés de manière partielle.




Appel à projet : L’Hadopi à l’école ? Oui mais en ECJS !

Skippyjon - CC byCela fait partie des mauvaises surprises de son adoption : « La loi Hadopi favorise la diffusion et la protection de la création sur internet et demande à l’éducation nationale de renforcer l’information et la prévention auprès des jeunes qui lui sont confiés », peut-on lire sur le très officiel site Educnet du ministère.

Puis juste en dessous : « Ainsi les élèves reçoivent une information sur les dangers du téléchargement et de la mise à disposition illicites d’œuvres ou d’objets protégés par un droit d’auteur »[1].

Et voici donc l’enseignant que je suis contraint devant ses élèves à se transformer en porte-parole d’une loi qu’il critique dans ses grandes largeurs. Dès lors comment faire lorsque l’on est très loin de considérer que « l’Hadopi favorise la diffusion de la création sur Internet » ? Renier quelques uns de ses principes ou désobéir à son employeur qu’est l’État, tel est le cruel dilemme !

Il y a pourtant une issue, et c’est ce même site Educnet qui nous montre la voie : « L’ensemble de ces démarches d’information doit s’inscrire dans une stratégie globale de l’établissement, de l’école, qui favorise le dialogue avec les élèves, leur appropriation des droits et devoirs des internautes citoyens et responsables qu’ils sont en puissance : rédaction d’une charte des usages d’internet, informations et débats pendant les heures de vie de classe ou d’ECJS, sensibilisation à l’occasion de l’utilisation d’un outil spécifique. »

Informations et débats pendant les heures d’ECJS, voilà l’option retenue par ce billet, en appelant enseignants (en charge ou non de l’ECJS cette année), élèves, parents d’élèves et acteurs de la « bataille » Hadopi de bonne volonté à se joindre au projet, d’autant qu’il est fortement suggéré d’inviter des intervenants extérieurs à entrer dans les classes pour participer.

Parce que, comme nous allons nous en rendre compte ci-après, on peut, en toute légalité et dans le même mouvement, respecter le vœu du législateur et interpeller les élèves sur la genèse, la rédaction et l’application de cette loi.

L’ECJS Késako ?

L’Éducation civique, juridique et sociale, ou ECJS, est un enseignement relativement méconnu parmi la pléthore de matières que compte le lycée. Peut-être parce qu’elle propose un certain nombre d’originalités.

Tout d’abord c’est une discipline jeune puisque créé en 2001. Ensuite, elle ne dispose pas de professeur attitré et est dispensée par n’importe quel autre professeur de l’établissement scolaire (traditionnellement ce sont plutôt les enseignants d’histoire ou de sciences économiques qui s’y collent, mais rien n’empêche un professeur de mathématiques de se porter candidat). Mais c’est surtout une discipline qui, à de rares exceptions près, n’ajoute pas de nouvelles connaissances puisqu’il s’agit avant tout de les réinvestir pour y faire « l’apprentissage de la citoyenneté » dans le cadre du dispositif pédagogique novateur qu’est le « débat argumenté ».

Toutes séries confondues, l’horaire alloué est d’une demi-heure par semaine pour les trois niveaux que sont la Seconde, la Première et la Terminale, que l’on transforme généralement en deux heures une fois par mois ou une heure deux fois par mois. L’ECJS n’est pas incluse dans l’examen final du baccalauréat.

Mais il est génial ce programme d’ECJS !

En gardant l’Hadopi dans un coin de notre tête, prenons le temps de parcourir ensemble le programme officiel d’ECJS. Car comme vous allez vous en rendre compte, c’est une lecture riche d’enseignements.

Je m’excuse par avance de la longueur des extraits ci-dessous. Il s’agit de mieux appréhender ce qui fait la spécificité et la noble ambition de l’ECJS (que de nombreux parents d’élèves ignorent totalement). Il s’agit également de comprendre en quoi un débat argumenté autour de l’Hadopi y aurait toute sa place, en permettant aussi bien d’expliquer cette loi que de la critiquer. Il s’agit enfin de commencer à percevoir qu’au delà d’Hadopi c’est par la porte de l’ECJS que pourrait un jour entrer cette grande absente de l’école qu’est la « culture libre ».

En voici une sélection des Principes généraux.

Concourir à la formation de citoyens est une des missions fondamentales du système éducatif. Au sein du dispositif de rénovation des lycées, la création d’un enseignement d’éducation civique, juridique et sociale (ECJS) constitue une des principales innovations. Le nombre d’heures qui lui est globalement accordé étant modeste, c’est dans ses objectifs et par ses méthodes que cette innovation doit être significative.

Que signifie « éduquer à la citoyenneté » dans un système scolaire ? Deux réponses sont possibles. L’une consiste à faire de la citoyenneté un objet d’étude disciplinaire, au même titre que les mathématiques, la physique, la littérature etc. ; la citoyenneté s’apprendrait à l’école avant de s’exercer dans la vie du citoyen. L’autre réponse part de l’idée que l’on ne naît pas citoyen mais qu’on le devient, qu’il ne s’agit pas d’un état, mais d’une conquête permanente ; le citoyen est celui qui est capable d’intervenir dans la cité : cela suppose formation d’une opinion raisonnée, aptitude à l’exprimer, acceptation du débat public. La citoyenneté est alors la capacité construite à intervenir, ou même simplement à oser intervenir dans la cité. Cette dernière réponse peut être mise en oeuvre au lycée aujourd’hui.

Lorsqu’une pratique éducative consiste à transmettre un savoir sous forme d’une succession d’évidences sanctionnées par les autres, l’élève apprend en outre autre chose que ces contenus : il apprend que le savoir est détenu par des autorités, il a la tentation de ne le recevoir que passivement, il commence par admettre qu’il peut être délégué à « ceux qui savent ». Appliquée à l’ECJS, une telle pratique formerait des citoyens passifs, percevant le savoir comme déconnecté de ses enjeux sociaux, économiques et politiques. Certes, on ne crée pas le savoir, on le reçoit ; il est énoncé et validé par quelqu’un qui fait autorité. Mais le savoir n’est pas seulement quelque chose de transmis ; on doit aussi se l’approprier. L’élève pourra exercer sa citoyenneté grâce au savoir, mais un savoir reconstruit par lui, dans une recherche à la fois personnelle et collective.

L’éducation civique, juridique et sociale doit être abordée comme un apprentissage, c’est à dire l’acquisition de savoirs et de pratiques. Grâce à ce processus doit s’épanouir, à terme, un citoyen adulte, libre, autonome, exerçant sa raison critique dans une cité à laquelle il participe activement. Ainsi se constitue une véritable morale civique ; celle-ci contient d’abord une dimension civile fondée sur le respect de l’autre permettant le « savoir-vivre ensemble » indispensable à toute vie sociale, mais elle suppose aussi une nécessaire dimension citoyenne faite d’intérêt pour les questions collectives et de dévouement pour la chose publique.

Le seul savoir nouveau auquel il faut initier les élèves, grâce à l’ECJS, concerne le droit, trop ignoré de l’enseignement scolaire français. Il s’agit de faire découvrir le sens du droit, en tant que garant des libertés, et non d’enseigner le droit dans ses techniques.

C’est cette dernière citation qui m’a servi de base pour mon article Plaidoyer pour étudier le droit à l’école. Or justement, avec l’Hadopi en ECJS, on améliore illico la situation.

La suite donne quelques détails sur la pratique pédagogique du débat argumenté.

Mobilisant un ensemble de connaissances disponibles, l’ECJS doit satisfaire la demande exprimée par les lycéens lors de la consultation de 1998 sur les savoirs, de pouvoir s’exprimer et débattre à propos de questions de société. Le débat argumenté apparaît donc comme le support pédagogique naturel de ce projet, même s’il ne faut pas s’interdire de recourir à des modalités pédagogiques complémentaires.

Faire le choix du débat argumenté n’est ni concession démagogique faite aux élèves ni soumission à une mode ; c’est choisir une méthode fructueuse. Le débat argumenté permet la mobilisation, et donc l’appropriation de connaissances à tirer de différents domaines disciplinaires (…) Il fait apparaître l’exigence et donc la pratique de l’argumentation. Non seulement il s’agit d’un exercice encore trop peu présent dans notre enseignement, mais au-delà de sa technique, il doit mettre en évidence toute la différence entre arguments et préjugés, le fondement rationnel des arguments devant faire ressortir la fragilité des préjugés. Il doit donc reposer sur des fondements scientifiquement construits, et ne jamais être improvisé mais être soigneusement préparé. Cela implique qu’il repose sur des dossiers élaborés au préalable par les élèves conseillés par leurs professeurs, ce qui induit recherche, rédaction, exposés ou prises de parole contradictoires de la part d’élèves mis en situation de responsabilité et, ensuite, rédaction de comptes rendus ou de relevés de conclusions.

Le débat doit reposer sur le respect d’autrui et donc n’autoriser aucune forme de dictature intellectuelle ou de parti pris idéologique.

Le dossier documentaire sur lequel se fonde le débat est le témoin de la progression de cette démarche. Il peut prendre des formes variables : présentation de textes fondateurs ou de textes de loi, sélection d’articles de presse, collecte de témoignages, recherche ou élaboration de documents photographiques, sonores ou vidéo. C’est ici que l’ECJS peut utiliser toutes les modalités interactives de la recherche documentaire actuelle.

L’objectif de ce billet est de suggérer aux enseignants en charge de l’ECJS de faire d’Hadopi l’un de leurs sujets de débats argumentés. Nous pourrions par exemple regrouper les volontaires dans une liste de discussion dédiée qui serait un espace d’échanges autour du projet. Et de commencer alors à envisager ensemble une liste de ressources à intégrer dans le dossier documentaire, aidant ainsi les élèves à faire un premier tri.

Dans le cadre de la liberté des choix pédagogiques, les élèves doivent acquérir des méthodes à travers lesquelles ils seront initiés à l’étude des règles juridiques et des institutions. On peut ainsi, à propos de situations concrètes, enseignées ou vécues, et sans préjuger de l’usage d’autres pratiques, identifier trois moments remarquables.

– Le premier moment étudie les circonstances et les conditions de l’invention de la règle ou de l’institution. On a trop tendance à oublier l’origine et l’histoire des règles (…) L’histoire est donc ici très particulièrement mobilisée ; étudier les conditions de naissance d’une règle, en montrant qu’elle est une production historique et non un a priori absolu, contribue à humaniser la règle de droit : ce n’est plus un dogme mais une règle de vie.

– Le deuxième moment privilégie l’étude des usages de la règle par les acteurs sociaux concernés. La règle n’est pas nécessairement utilisée comme ses inventeurs l’avaient imaginé : la pratique d’une règle peut s’éloigner des principes qui ont guidé sa fondation. Il faut donc conduire l’élève à se demander pourquoi les acteurs sont amenés à utiliser une règle dans un sens plutôt que dans un autre.

– Le troisième moment s’attache aux discours produits sur les règles. Chaque époque produit des discours qui tentent de justifier rationnellement les règles existantes. D’une époque à une autre, d’un lieu à un autre, ces discours peuvent différer jusqu’à être contradictoires.

Je ne sais pas ce que vous en penserez mais ces trois moments s’accordent parfaitement bien avec la jeune histoire (non achevée) de la loi Hadopi 😉

Quant au passage suivant, c’est une invitation lancée à tous :

De très nombreux professeurs, par leur savoir, leur culture, leur implication dans la vie du lycée, ont vocation à contribuer à cet enseignement. La participation d’intervenants extérieurs, témoins dans un champ social étudié, est évidemment souhaitable.

Vient ensuite le détail du programme pour chaque niveau du lycée. L’intitulé de celui de Seconde est : De la vie en société à la citoyenneté.


L’actualité locale, nationale et internationale fournit de nombreux matériaux qui permettent aux enseignants de construire un débat sérieux sur un sujet civique, politique, juridique ou social mettant en évidence une dimension de la citoyenneté. Le choix d’un événement ou d’une combinaison d’événements dans l’actualité doit répondre à deux soucis : d’une part être susceptible d’intéresser les élèves, d’autre part permettre d’éclairer une des dimensions de la citoyenneté.

L’Hadopi, pardi ! Avec cette étrange particularité que certains élèves par leurs pratiques numériques vont se sentir directement visés par la loi !

La première tâche face à un événement consiste à confronter les sources d’information pour, en les croisant, attester de la réalité de ce qui va être étudié. L’événement brut n’existe pas en lui-même, il n’existe qu’à travers le médium qui le fait connaître et il est différemment reçu selon les représentations dominantes du moment. Prendre de la distance par rapport aux faits communiqués est donc essentiel à l’éducation du citoyen.

La vie quotidienne dans la cité fournit des occasions de réflexion sur la nécessaire civilité des rapports humains en tant que première condition de l’exercice de la citoyenneté. On peut le montrer à partir de l’étude de manifestations d’incivilité ; on peut aussi utiliser différents faits de la vie sociale. La citoyenneté ne se réduit pas à la simple civilité. Elle implique la participation à une communauté politique.

L’intitulé du programme de Première est : Institutions et pratiques de la citoyenneté.

Il entre parfaitement en résonance avec le sujet qui est le nôtre quand on pense aux actions de protestations issues d’Internet et à des associations telles que La Quadrature du Net.

Dans notre régime politique, celui de la démocratie représentative, la participation politique prend essentiellement la forme de l’élection de représentants du peuple, mais aussi d’autres formes : participation au débat public, actions collectives… Le principe de la représentation apparaît comme le fondement de la légitimité dans toute société moderne et peut être ainsi un moyen d’aborder les grands problèmes politiques contemporains.

Ainsi, le fait politique peut être abordé à travers l’idée de représentation. Dans tous les domaines qu’elle structure – Assemblée Nationale, partis, syndicats, associations, lycées… – la représentation crée une mise à distance entre représentants et représentés tout en les mettant en relation. Ces deux mouvements produisent, selon les époques et à des rythmes variables, des tensions continues, inévitables dans les sociétés démocratiques : tensions entre les différentes institutions, entre ces institutions et le monde vécu par les citoyens.

Ces tensions, source de conflits inévitables, sont constitutives du sens moderne du politique. On pourra les analyser en montrant que les sociétés démocratiques s’efforcent de les gérer par des pratiques politiques qui sont conformes aux principes du droit et excluent le recours à la violence.

En ce sens, la représentation politique désigne le processus par lequel des gouvernants sont légitimés par l’élection pour parler au nom du peuple et habilités à décider en son nom. L’interrogation sur les formes de la représentation politique et les problèmes qu’elle rencontre peut servir de point de départ à la réflexion. Celle-ci mérite enfin d’être enrichie par l’analyse d’un ensemble de concepts : pouvoir, domination, autorité, violence, et leur mise en relation à travers des faits précis. Il est en effet recommandé d’étudier ce thème en partant d’un exemple.

Le citoyen se définit par l’exercice de la souveraineté politique dans la Cité à laquelle il appartient. L’exercice de la citoyenneté ne saurait donc se réduire ni à la possession de droits fondamentaux, ni à l’exercice du droit électoral : il implique la prise en compte de toutes les formes de la participation politique. La démocratie se définit comme le gouvernement du peuple, par le peuple et pour le peuple ; cela exclut le pouvoir d’une autorité qui ne tirerait pas sa légitimité du peuple mais d’une source extérieure ou réputée supérieure. La démocratie implique donc la participation active des citoyens.

Celle-ci concerne autant la participation au débat public censé éclairer les décisions collectives que la prise de ces décisions elle-même. Elle peut donc prendre différentes formes. Le thème précédent met en évidence l’importance dans une démocratie de la participation au processus de désignation de représentants élus. Celui-ci insiste sur les autres dimensions : la participation à l’espace du débat public où se forme l’opinion publique, ce qui implique l’analyse critique des moyens de communication de masse et de leurs effets (y compris de l’Internet, des forums et du courrier électronique), la participation aux associations civiles, sociales et politiques, notamment à l’échelon local, la participation à des groupes défendant des intérêts, par exemple les syndicats et la participation à des actions collectives, locales ou nationales, sur des objectifs sociaux ou civiques.

Il ne s’agit pas bien sûr d’étudier toutes les formes de participation politique et d’actions collectives mais d’en choisir une manifestation qui puisse à la fois faire sens et susciter l’intérêt des élèves.

Si l’État républicain garantit les libertés individuelles et les droits du citoyen, les devoirs du citoyen sont la contrepartie et la condition de ces droits. Toutefois, l’État semble exercer une pression dont le citoyen prétend parfois s’affranchir (fraudes, désobéissance à la loi, incivisme, dégradation des biens publics, destruction de la propriété collective). Il importe donc de montrer en quoi le respect de la loi et de ses devoirs par le citoyen n’est pas un conditionnement à l’obéissance ; c’est, tout au contraire, son choix libre et raisonné d’institutions sans lesquelles les libertés, les droits et la sécurité ne pourraient exister.

L’intitulé du programme de Terminale est : La citoyenneté à l’épreuve des transformations du monde contemporain.

C’est à mon avis ici qu’un débat sur l’Hadopi trouverait le plus naturellement sa place. On aurait presque l’impression qu’il a été rédigé en pensant à cette loi 😉

En classe terminale, il s’agit de montrer que les exigences de droit, de justice, de liberté et d’égalité qui caractérisent l’État et les sociétés démocratiques sont confrontées à de nouveaux défis qui mettent à l’épreuve la citoyenneté, notamment les évolutions de la science et de la technique, les exigences renouvelées de justice et d’égalité, la construction de l’Union européenne et la mondialisation économique, culturelle, juridique et politique. Ces évolutions obligent les hommes à toujours repenser leurs droits et leurs libertés, ce qui suscite des débats dans l’espace public. La tension entre les intérêts particuliers et l’intérêt général, des expressions nouvelles de violence et d’atteinte aux libertés, exigent des réponses juridiques sans cesse adaptées. Le débat démocratique amène à interroger les normes et les valeurs sur lesquelles repose le droit et à les confronter à des conceptions différentes de l’éthique et à l’idée de droits de l’Homme.

Les progrès des sciences et des techniques dans tous les champs de l’activité humaine, la production, la consommation, la médecine… bouleversent les formes de l’existence, les rapports des hommes entre eux, la perception de l’espace et du temps, le corps humain lui-même. Ils suscitent des interrogations et des exigences nouvelles en matière de droits, de justice, de liberté, de responsabilité, de sécurité, par exemple dans les domaines de la bioéthique, de la prévention des risques naturels ou techniques, de la mondialisation des réseaux de communication, de la santé, de la qualité de la vie, de l’environnement, de l’avenir de la planète… Ils modifient aussi les conditions d’exercice de la citoyenneté.

Faut-il fixer des limites aux progrès des sciences et des techniques et en fonction de quels principes ? Comment État et citoyen peuvent-ils contrôler démocratiquement ces transformations ? Comment garantir l’indépendance des décisions démocratiques dans des domaines qui requièrent des savoirs spécialisés ? Quel rôle les experts doivent-ils jouer ? Existe-t-il un risque de technocratie ? Peut-on garantir un égal accès de tous les citoyens aux bénéfices des sciences et des techniques ? Face à ces complexités et à ces défis, comment permettre l’exercice de la citoyenneté ?

Que de questions intéressantes en perspective ! Comme évoqué ci-après, on pourra également élargir le débat à la situation dans les autres pays européens (en analysant par exemple le succès du Parti Pirate suédois).


La citoyenneté s’est construite historiquement dans le cadre national. Le projet européen, depuis un demi siècle, a conduit à la construction d’institutions qui sont aujourd’hui à l’origine de nombreuses décisions de notre vie collective. Une grande partie du droit national, dans les pays de l’Union européenne, est désormais de source européenne. D’un point de vue juridique, il n’existe pas aujourd’hui de citoyenneté européenne indépendante de la citoyenneté nationale ; d’un point de vue politique, tout ce qui donne une réalité concrète au principe de citoyenneté reste, pour l’instant et pour l’essentiel, national. L’Union européenne crée un niveau d’institutions supérieur et complémentaire aux institutions nationales. Elle amène à repenser les questions de la souveraineté, de l’égalité, de la liberté, de la sécurité, par exemple dans le domaine de l’économie, de l’harmonisation des législations, de l’ouverture des frontières et de la circulation des personnes et des biens, de la construction de forces armées plurinationales.

Le terme de mondialisation désigne un processus pluriséculaire complexe fait de mutations géographiques, économiques, culturelles, juridiques et politiques. Il s’accompagne d’une prise de conscience à l’échelle du monde de la perturbation des équilibres physiques de la planète et de l’homogénéisation relative du monde vivant. L’ensemble de ces mutations, par exemple le délitement apparent de la notion de frontière nationale, la concentration de pouvoirs au sein d’entreprises transnationales, le rôle accru des institutions internationales, les transferts de souveraineté des États-nations, la vitesse des transformations techniques et des communications, engendre de nouveaux défis qui mettent la citoyenneté à l’épreuve.

Ouf, merci d’avoir tenu jusque là ! J’espère vous avoir convaincu que ce fort pertinent programme d’ECJS est tout ce qu’il y a de plus « Hadopi compatible » et que le caractère controversée de cette loi (qui pour une fois met tout le monde d’accord) se prête magnifiquement à la méthode du débat argumenté.

Ainsi donc l’ECJS nous « couvre » et ne nous condamne pas à relayer benoîtement la « propagande » Hadopi !

Entendons-nous bien, il ne s’agit surtout pas de remplacer une propagande par une autre mais d’offrir aux élèves les conditions d’un réel débat (ceci étant dit, rien n’empêche de proposer aux élèves, dans le corpus documentaire, des ressources sur la « culture libre », en leur faisant comprendre pourquoi elle peut être considérée comme une « alternative à l’Hadopi »).

Chaque classe étant différente et l’enseignant étant avant tout présent pour animer et assurer les bonnes conditions du débat, on ne peut en rien présager de ce qu’il adviendra et des conclusions qu’en tireront nos lycéens. Mais l’essentiel sera bien là : au travers de l’exemple Hadopi ils auront fait ensemble un apprentissage de la citoyenneté, et réciproquement !

Se joindre au projet

Le projet consiste donc à faire d’Hadopi l’un des thèmes des débats argumentés de l’ECJS au lycée.

Comment procédér ?

J’ai bien quelques idées (confuses) à priori mais l’essentiel est de se regrouper et de voir cela ensemble. Parce qu’il est bien plus amusant de faire les choses collectivement, et puis c’est une habitude des lieux. Il serait bien sympathique de se constituer ainsi un petit réseau de personnes partageant la volonté de sensibiliser les élèves non seulement sur l’Hadopi mais sur les libertés numériques en général (qui le temps passant finiront presque par se confondre avec les libertés tout court). Surtout qu’on pourrait très bien envisager d’organiser plus tard d’autres débats connexes à Hadopi comme la neutralité du réseau, la vie privée, le Libre Accès, les biens communs, etc.

Pour ce qui me concerne, je n’ai pas d’ECJS cette année mais je suis tout à fait disposé et disponible pour participer et intervenir dans les classes si les professeurs d’ECJS de mon établissement m’y invitent (avec ma double-casquette prof et Framasoft). Et comme nous en sommes encore au tout début d’année, je compte leur suggérer dès maintenant de faire d’Hadopi l’un de leurs débats argumentés en offrant mes services (tout étant conscient que je suis novice dans la pratique du « débat argumenté » qui me semble beaucoup plus facile à dire qu’à faire).

Ainsi donc le projet s’adresse avant tout aux enseignants en charge de l’ECJS cette année mais aussi à tous les autres professeurs intéressés qui voudraient s’associer avec les premiers. Il s’adresse également à tous les parents de lycéens qui souhaiteraient voir le professeur d’ECJS de leurs enfants aborder ce sujet (ce qui peut commencer par leur indiquer le lien vers cet article du Framablog).

Il s’adresse enfin à tous les intervenants extérieurs potentiels (personne physiques mais aussi personnes morales, je pense aux associations ou à tout autre structure qui pourrait devenir partenaire ou partie prenante du projet). Imaginez-vous faire venir conjointement Jérémie Zimmermann et Franck Riester devant un parterre de lycéens passionnés, ça aurait de la gueule ! Nous pourrions du reste tenter de médiatiser les venues des personnalités les plus emblématiques d’Hadopi (surtout si l’on décide tous de faire ce cours à peu près au même moment). Nous montrerions ainsi à la population que non seulement l’école se soucie d’informer comme il se doit sur Hadopi mais que certains vont plus loin en profitant de l’ECJS pour que les élèves mettent la loi sur le grill 😉

J’invite donc les personnes intéressées à se manifester dans les commentaires et/ou à m’envoyer un message via le formulaire de contact du site. Je créerai un groupe Facebook dédié une liste de discussion dédiée et nous travaillerons alors ensemble à la réalisation de ce projet.

J’invite également les quelques rares enseignants qui ont déjà essayé de parler d’Hadopi en ECJS (je sais qu’il y en a) à venir nous apporter leur témoignages.

J’invite enfin tous les lecteurs du Framablog à relayer l’information, parce que non seulement notre attaché de presse est encore en vacances mais en plus nous ne possédons pas d’attaché de presse.

Nous l’avons déjà constaté, rares sont les temps scolaires où les élèves sont confrontés aux thèmes qui nous sont chers. Puisse ce modeste projet contribuer à modifier un peu la donne.

Notes

[1] Crédit photo : Skippyjon (Creative Commons By)