Tout ça pour ça ? Création Libre dans un Internet Libre de Roberto Di Cosmo

Shiv Shankar Menon Palat - CC by« Le moment est venu de siffler la fin de la recréation: ne vous laissez plus culpabiliser par le discours ambiant qui veut vous faire porter des habits de pirates, alors que vous êtes le public sans qui les artistes ne seraient rien; lisez ce qui suit, téléchargez le Manifesto, emparez-vous de ses idées, partagez-les avec vos amis, vos députés, vos artistes préférés; parlez-en avec vos associations, vos employés, vos employeurs; demandez que la Licence Globale soit rémise à l’ordre du jour, et que l’industrie culturelle arrête une fois pour toutes de s’attaquer à nos libertés de citoyens de l’ère numérique. »

Cette pugnace introduction est signée Roberto Di Cosmo qui vient de mettre en ligne un document d’une cinquantaine de pages au titre prometteur : Manifesto pour une Création Artistique Libre dans un Internet Libre.

Nous en avons recopié ci-dessous le préambule et il va sans dire que nous vous invitons à le lire et à le diffuser, car la question mérite toujours et plus que jamais d’être débattue[1].

Pour rappel Roberto Di Cosmo est chercheur informaticien, membre de l’AFUL et auteur de plusieurs ourages dont Le hold-up planétaire ré-édité chez InLibroVeritas.

Mise à jour : Attention, nous sommes allés un peu vite en besogne, l’auteur nous signale qu’il ne s’agit que d’un version préliminaire publiée pour commentaires, ne pas copier ailleurs pour l’instant.

Tout ça pour ça

URL d’origine du document

Roberto Di Cosmo – 25 janvier 2011
Extrait de Manifesto pour une Création Artistique Libre dans un Internet Libre
Licence Creative Commons By-Nc-Nd

Depuis les vacances de Noël, on ne compte plus les articles dans la presse, écrite et en ligne, qui parlent du téléchargement non autorisé de musique et de la crise du marché du disque. En les lisant, on a comme une sensation de déjà vu : cela fait quand même des années qu’on assiste à la même mise en scène médiatique autour du Marché International du Disque et de l’Edition Musicale qui se tient à Cannes tous les mois de janvier. Cela se termine toujours, sans surprise, sur la même conclusion : il faut sévir contre les méchants internautes adeptes du téléchargement illégal pour revitaliser la création française.

Il faut dire que, pour sévir, ils ont un peu tout essayé.

D’abord les procès individuels au cas par cas, approche vite abandonnée parce-que chère, peu généralisable, et soumise à l’appréciation du juge, pas toujours prêt à faire l’impasse sur notre droit à la copie privée.

Ensuite les DRM (Digital Rights Management), instruments de protections numériques contre la copie, qui ont fait l’objet d’une farouche bataille juridique en 2005, gagnée avec la loi DADVSI par l’industrie du disque, qui les a pourtant abandonnés tout de suite après, face aux déconvenues qu’ils causaient aux consommateurs qui n’arrivaient plus à transférer leur musique entre deux baladeurs différents.

Enfin, depuis peu, voici la riposte graduée et l’HADOPI, la Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet, une entité créée par la loi dite Création et Internet, et dont l’effet le plus visible pour l’instant est le reversement des centaines de milliers de courriers électroniques dans les boites à lettres d’internautes accusés, à tort ou à raison, d’avoir permis que des téléchargements illégaux s’opèrent à travers leur connexion Internet.

L’idée géniale de ce dernier jouet d’une industrie d’intermédiaires qui a toujours du mal à se mettre à Internet, c’est de couper massivement les abonnements Internet qui ont été identifiés comme ayant servi à télécharger de la musique sans autorisation. Pour être efficace, ce dispositif doit couper beaucoup, mais alors, vraiment beaucoup d’abonnements, donc, pas question de passer devant des juges : on émet des avertissements en masse, puis des lettres recommandées, toujours en masse, puis on passe nos connexions aux ciseaux.

Bien évidemment, toujours au nom de l’efficacité, on ne se soucie pas trop de vérifier le bien fondé des accusations de téléchargement illégal, qui sont produites automatiquements et peuvent être erronées, ni d’identifier qui a été à l’origine du téléchargement, qui pourraît être aussi le fait d’un des multiples virus qui infestent la plupart des ordinateurs de nos concitoyens, ou une tierce personne qui s’est branché sur le reseau Wifi de l’abonné.

Cette violation des droits élémentaires des citoyens à l’ère d’Internet, perpetrée dans un pays qui pour beaucoup était le symbole des « droits de l’homme », nous a valu le triste honneur d’être mis dans les même panier que les régimes totalitaires, dans un bel article de Tim Berners Lee, paru sur Scientific American en Novembre 2010[2].

L’argument juridique utilisé pour justifier cet horreur est fort amusant : formellement on ne punit pas l’abonné pour avoir téléchargé, mais pour « défaut de sécurisation de son accès Internet » ; on en est presque à la double peine : l’abonné moyen qui lutte déjà avec les services après vente des fournisseurs d’accès, qui passe pas mal de temps à faire tourner des antivirus chers dans l’espoir de se débarasser de tous les intrus qui se logent dans son ordinateur, et qui n’a aucune idée de ce que ça peut vouloir dire « sécuriser son réseau », va maintenant être puni s’il est victime d’un piratage informatique.

Cette situation hubuesque a déjà créé un joli marché pour des pseudosolutions pour se protéger de l’Hadopi : les internautes vont depenser plusieurs euros par mois soit pour des logiciels qui réduisent les fonctionnalités de leurs ordinateurs dans l’espoir d’empêcher le téléchargement, comme le « logiciel de sécurisation » proposé par Orange à deux euros par mois en Juin 2010, qui ne garantit en rien contre Hadopi, soit en s’abonnant à de sites centralisés de partage de fichiers qui fleurissent sur la toile, et contre lesquels Hadopi est inopérant. Tout cet argent qui sortira des poches des internautes n’apportera le moindre centime ni aux artistes ni à l’industrie culturelle, qui est en train de rééditer ici, mais en pire, l’idiotie des DRM: compliquer la vie du public, en lui faisant perdre de l’argent et du temps, alors qu’une fraction de cet argent perdu, recoltée sous forme de licence globale, suffirait à redonner le sourire à bien d’artistes, sans besoin de s’attaquer à cet accès Internet qui est devenu un besoin fondamental de tous les citoyens.

On parle de dizaines de milliers d’avertissements par jour, qui pour espérer être efficaces, vont devoir produire au moins des milliers de coupures d’Internet par jour, en semant la pagaille dans un grand nombre de foyers qui ont déjà pas mal d’autres problèmes à régler aujourd’hui ; en désorganisant nos fournisseurs d’accès Internet, qui vont perdre du temps d’abord à couper les accès, puis à répondre aux appels des clients furieux au service après-vente ; et en mettant un frein à l’économie Internet qui grandit à une vitesse spectaculaire et dépasse aujourd’hui en France les 25 milliards d’euros.

Tout ça pour espérer redonner du souffle à un marché de gros de la musique qui pèse, selon les chiffres du SNEP présentées à Cannes il y a quelques jours, 554,4 millions d’euros, et qui a commercialisé en 2010 moins de 1000 albums.

Tout ça, on nous explique, pour défendre la création artistique et protéger les artistes, compositeurs et autres créateurs… Ces artistes, compositeurs et créateurs ne touchent pourtant qu’une toute petite fraction de ces 554,4millions d’euros, et gagneraient beaucoup plus si, plutôt que les obliger à recueillir les miettes d’un système dépassé, on nous permettait de les rémunérer directement, ce qu’Internet rend possible, comme nous allons expliquer dans la suite.

Tout ça pour ça ?

Lire la suite en téléchargeant le Manifesto en ligne.

Notes

[1] Crédit photo : Shiv Shankar Menon Palat (Creative Commons By)

[2] Il écrit : « Les gouvernements totalitaires ne sont pas les seuls à violer les droits d’accès au réseau de leurs citoyens. En France, une loi de 2009, nommée Hadopi, a permis à une nouvelle l’agence du même nom de déconnecter un foyer d’Internet pendant un an si quelqu’un dans le foyer a été désigné par une société (privée représentant des ayant droit) comme ayant copié illégalement de la musique ou de la vidéo. »




Produire du logiciel libre, le livre culte enfin en français chez Framabook !

Produire du logiciel libre - Framabook - CouvertureFramasoft est fier et heureux d’annoncer officiellement la sortie d’un nouveau volume à sa collection de livres libres Framabook. Il s’agit de la traduction d’un livre considéré comme une référence chez les développeurs anglophones : Producing Open Source Software, de Karl Fogel.

C’est une évidence, maintes fois constatées : il ne suffit pas de coller une licence libre au code source de son application pour en faire un logiciel libre à succès. Nombreux sont les paramètres à prendre en compte pour se donner les moyens de véritablement réussir votre projet. Cela ne coule pas de source, si j’ose dire, et c’est pourquoi un tel ouvrage peut rendre de grands services.

Ayant payé de sa personne, Karl Fogel n’hésite pas à affirmer lui-même que 95% des projets échouent. Et de rédiger alors ce livre pour contribuer à faire en sortie que le pourcentage restant remonte !

Dans la foulée du framabook sur Unix et sur le langage C, nous faisons un effort didactique tout particulier pour accompagner tous ceux qui souhaiteraient se lancer dans la création de logiciels libres ou rejoindre un projet existant. Nous pensons à ceux qui ne maîtrisent pas forcément d’emblée l’anglais.

Nous pensons également aux jeunes débutants. Parce que, comme cela a déjà été souligné, l’informatique est l’une des grandes absentes de l’enseignement secondaire français. Alors, fille ou garçon, l’étudiant motivé se retrouve bien souvent livré à lui-même et c’est à lui de se débrouiller pour extraire le bon grain de l’ivraie du Grand Internet. Nous espérons lui être utile en lui apportant notamment ici gain de temps et efficacité.

Voici comment le livre est présenté dans le communiqué de presse joint à ce billet :

« Teinté d’humour et de réflexions subtiles, ce livre prodigue de précieux conseils à ceux qui souhaitent commencer ou poursuivre un projet de développement en logiciel libre. Pour cela, Karl Fogel propose une description claire et détaillée des bonnes pratiques de développement. Il initie non seulement le lecteur à la méthode de travail collaboratif mais démontre aussi l’importance des relations humaines dans la réussite d’un projet, comme l’art d’équilibrer actions individuelles et intérêt commun. Identifiés à travers sa longue expérience en gestion de projet open source, différents aspects sont abordés : structurer l’ensemble de la communauté de développeurs, maintenir un système de gestion de versions, gérer les rapports de bugs et leurs corrections, bien communiquer à l’intérieur comme à l’extérieur du projet, choisir une licence adaptée au logiciel… »

Grâce à son expérience du développement open source, Karl Fogel nous livre ici bien davantage qu’une simple marche à suivre pour qu’un projet voit le jour et ait une chance d’aboutir. Il s’agit en effet de détailler les éléments stratégiques les plus importants comme la bonne pratique du courrier électronique et le choix du gestionnaire de versions, mais aussi la manière de rendre cohérents et harmonieux les rapports humains tout en ménageant les susceptibilités… En somme, dans le développement Open Source peut-être plus qu’ailleurs, et parce qu’il s’agit de trouver un bon équilibre entre coopération et collaboration, les qualités humaines sont aussi décisives que les compétences techniques. »

La traduction de cet ouvrage a obéi aux mêmes principes que ceux exposés par Karl Fogel. Elle fut le résultat de la convergence entre les travaux initiés par Bertrand Florat et Étienne Savard et ceux de Framasoft coordonnés par Christophe Masutti. Comme d’habitude, ce livre a été finalisé dans La Poule ou l’Œuf et peut se commander en version papier chez InLibroVeritas pour la modique somme de 15 euros.

Comme d’habitude aussi ce livre est sous licence libre (Creative Commons By) et est intégralement consultable en ligne ou téléchargeable dans sa version numérique sur le site Framabook. Parce qu’ici comme ailleurs, et peut-être même plus qu’ailleurs, il nous apparaît fondamental de pouvoir en assurer sa plus large diffusion et participer ainsi à susciter des vocations.

Nous comptons sur vous pour signaler l’information 😉

Framasoft ne serait rien sans les développeurs de logiciels libres. Ce projet est en quelque sorte une manière pour nous de les remercier.




Framasoft annonce deux nouveaux titres dans la collection Framabook

« Le C en 20 heures » - couverture par Alexandre Mory - Creative Commons By SaAprès la traditionnelle mise à jour d’automne du best-seller de la collection Framabook, Christophe Masutti, notre coordinateur de collection, s’est fendu ce matin d’un fier communiqué de presse, dont je vous dévoile ici le contenu en avant-première.

En effet, après de longs mois de labeur au sein de l’association, avec les auteurs, les bénévoles et relecteurs, l’équipe technique de mise en page et l’éditeur, Christophe n’annonce pas un, mais bien deux nouveaux Framabooks, s’ajoutant à la mise à jour complète du « Simple comme Ubuntu ».

Sortir ces deux ouvrages nous a occupé un peu plus que d’habitude, notamment parce qu’il a fallu adapter notre chaîne éditoriale (la formidable application web libre “La Poule ou l’Oeuf”) car la mise en page d’un des ouvrages s’est révélée particulièrement riche et complexe à mettre en œuvre. Mais comme le rappelle avec philosophie l’éditeur Mathieu Pasquini :

Un livre s’écrit à la vitesse à laquelle poussent les arbres dont leurs pages sont faites…

Toutefois, le site Framabook a été mis à jour cette nuit pour accueillir les nouveaux ouvrages, et ces derniers sont aussi disponibles à l’achat chez InLibroVeritas.

Le 7e Framabook sera donc un manuel de formation à la programmation, proposant une méthode intense et originale pour apprendre « Le C en 20 heures ». Sous licence Creative Commons By Sa, il fut rédigé conjointement par Eric Berthomier et Daniel Schang que vous pourrez découvrir plus avant dans la reproduction du communiqué de presse qui suit. « Unix. Pour aller plus loin avec la ligne de commande » - couverture par Alexandre Mory - Creative Commons By Sa

Le 8e Framabook fut quant à lui rédigé par Vincent Lozano et s’intitule « UNIX. Pour aller plus loin avec la ligne de commande ». Comme le précédent livre de Vincent dans la collection Framabook, il est placé sous licence Art Libre.

Avec ces deux nouveaux Framabooks, Framasoft continue résolument sa collection d’œuvres libres, permettant à tout un chacun de soutenir ses talents d’autodidacte en informatique, pour que le monde demain regorge des bidouilleurs inventifs que l’éducation nationale peine à former avec son B2i©.

Et ce n’est pas fini. Comme annoncé avec notre campagne de don “1000 10 1”, l’équipe Framabook est toujours à pied d’œuvre sur d’autres ouvrages qui viendront rapidement compléter la collection. On retrouve ainsi parmi les plus avancés le « Producing Open Source Software » de Karl Fogel, traduit par Framalang, ainsi qu’ « Imagine there is no Copyright » traduit cet été lors d’un Traducthon mémorable aux RMLL et qui attend juste son tour pour être mis en page.

Annonçons encore un mystérieux ouvrage préparé en secret par l’ami MBen et un livre sur l’utilisation du gestionnaire de versions SVN, dont la traduction est elle aussi bien avancée.

Enfin, le comité éditorial de la collection fait actuellement le tri dans les nombreuses propositions d’ouvrages reçues par Framasoft. Tout ne cadre pas toujours avec la convention de la collection, mais déjà deux projets s’annoncent comme particulièrement prometteurs…

Pour l’heure, place au concret, avec une présentation plus détaillée des nouveaux Framabooks, issue du communiqué de presse officiel du coordinateur de la collection.

Framabook n°7 : Le C en 20 heures

« Le C en 20 heures » - couverture par Alexandre Mory - Creative Commons By Sa

Le langage C est un langage de programmation dont l’histoire nous ramène à l’époque de la création d’Unix, durant la première moitié des années 1970. Conçu pour permettre à un même programme de fonctionner sur plusieurs types de machines, ce langage à fois simple et efficace séduisait par la rapidité d’exécution des programmes qu’il permettait de générer, et par sa relative simplicité d’adaptation pour un nouveau type de matériel. Depuis lors, la majorité des systèmes d’exploitation des machines créés ultérieurement utilisèrent ce langage fiable, à la fois proche du matériel et des mathématiques. Il n’est donc pas étonnant de retrouver aujourd’hui ce langage partout, des super-calculateurs aux téléphones portables. Le Logiciel Libre lui doit aussi beaucoup. Quel héritage ! Et quelle longévité. Dans ces conditions, comment apprendre aujourd’hui et en 20 heures seulement, un langage porteur de presque quarante ans d’améliorations (dont le C++) et de développements spectaculaires (dont GNU/Linux) ? C’est la question à laquelle Le C en 20 heures répond, et par la pratique.

Eric Berthomier et Daniel Schang nous font ainsi partager au fil des pages le fruit de leurs expériences pédagogiques et professionnelles en accomplissant un effort de vulgarisation trop rarement rencontré dans la littérature du monde de la programmation. Destiné aux grands débutants, l’ouvrage n’est pas un manuel comme les autres. Son intérêt est d’être parcouru de A à Z en suivant l’adage : « j’apprends le code en écrivant le code ».

Ainsi, Le C en 20 heures n’est pas un ouvrage destiné à prendre la poussière sur une étagère en attendant que l’on s’y réfère un dimanche matin pluvieux. Il a été écrit pour être lu d’un bout à l’autre, dans l’ordre et pendant 20 à 30 heures d’apprentissage (en tout !) où l’on vous suggèrera, par des exercices et des exemples, de programmer tel jeu ou de tester tel calcul en mettant votre imagination au défi. En ce sens, l’ouvrage est orienté vers la pratique de la programmation et l’enseigne sans doute à la manière dont les auteurs l’ont apprise : devant un ordinateur, à essayer de programmer quelque chose.

Les auteurs

Ingénieur en Informatique, Eric Berthomier a débuté par le développement d’applications systèmes en C / C++ / Assembleur. Investi dans le Libre, il réalise alors des missions de développement, d’administration système et réseau et de formation. Depuis 2005, il travaille pour un ministère où GNU/Linux et la sécurité sont ses compagnons de tous les jours. Le C (et l’Assembleur) sont pour lui indispensables à la compréhension d’un système d’exploitation.

Docteur en informatique, Daniel Schang est enseignant-chercheur au sein du Groupe Eseo où il a acquis une longue et riche expérience de l’enseignement des langages informatiques. À l’écoute de ses élèves, c’est pour eux qu’il a pris contact avec Eric Berthomier afin de réécrire ce livre qui, sous sa forme embryonnaire, était un support de cours.

Framabook n°8 : Unix. Pour aller plus loin avec la ligne de commande

« Unix. Pour aller plus loin avec la ligne de commande » - couverture par Alexandre Mory - Creative Commons By Sa

Tout ce que vous avez toujours voulu savoir sur Unix sans jamais oser le demander

Nous sommes désormais des habitués de la formule de Vincent Lozano qui, après son excellent ouvrage sur l’usage de LaTeX, récidive ici avec un manuel sur le système Unix (et – donc – GNU/Linux).

Lors de la création d’Unix, au début des années 70, un de ses concepteurs établit trois règles pour concevoir les composants de la « boîte à outils » qui permit à Unix de s’étendre :

  • Écrivez des programmes qui font une chose et le font bien.
  • Écrivez des programmes qui peuvent communiquer entre eux.
  • Écrivez des programmes qui traitent des flux de texte car c’est l’interface universelle.

Aujourd’hui, Vincent Lozano vous propose à la fois de découvrir ces outils situés « sous le capot » de votre distribution Unix (GNU/Linux en est une) mais aussi de concevoir les vôtres.

Si vous appréciez votre système Unix et que vous pressentez qu’il existe des outils qui rendent votre système programmable, cet ouvrage est pour vous ! Le langage de commande d’Unix vous offre en effet la possibilité de piloter votre système d’exploitation – et donc votre ordinateur – par le biais de scripts. Pour planifier des tâches aussi précises que vous le souhaitez, vous aurez donc le loisir de passer des ordres, à la fois de manière souple et puissante, à votre système informatique.

Dans cet ouvrage vous découvrirez les liens qui unissent l’histoire d’Unix et le mouvement pour les logiciels libres. Vous vous plongerez dans les utilitaires classiques de votre système et apprendrez à les assembler. Vous serez donc à même d’ajouter de nouvelles pièces à la boîte à outils. L’auteur vous guidera également pour que vous parveniez à créer vos propres programmes écrits dans le langage du système d’exploitation : le langage de commande.

L’auteur

Vincent Lozano est maître de conférences en informatique à l’école nationale d’ingénieurs de Saint-Étienne (Énise). Il y utilise GNU/Linux pour l’enseignement des systèmes d’exploitation, de la programmation et des bases de données. Il s’occupe également de l’informatisation du système d’information de l’Énise qui s’appuie sur des systèmes Unix.




« Simple comme Ubuntu » dans sa version 10.10 (.10) Maverick Meerkat

« Simple comme Ubuntu » - couverture par Alexandre Mory - Creative Commons By SaAvec un dépôt légal daté du 10 octobre 2010, soit le 10/10/10, ce qui peut signifier 42 en binaire, cette 9e mouture du « Simple comme Ubuntu » s’approche un peu plus de la réponse à « La grande question sur la vie, l’univers et le reste » telle que définie par Douglas Adams dans Le guide de voyageur galactique.

Toutefois rassurez-vous, si Didier Roche l’auteur de ce Framabook est un geek invétéré et un hacker hors-pair, son livre n’en reste pas moins le Guide du débutant sous Ubuntu, qui veut savoir où cliquer pour faire ce dont il a besoin et comprendre ce qui se passe quand il clique quelque part.

Comme à chaque sortie d’une version d’Ubuntu, tous les 6 mois depuis 5 ans, le « Simple comme Ubuntu » a été revu en détail et en profondeur pour correspondre rigoureusement à la version d’Ubuntu livrée avec le livre lors d’une commande chez InLibroVeritas. Pour cette 9e édition, cela correspond entre autre à la ré-écriture complète du chapitre 2 « Procédure d’installation », ou encore à un accompagnement de la meilleure intégration dans Ubuntu 10.10 des services de microblogage aux outils de communication en voix sur IP et messagerie instantanée embarqués dans la distribution.

Enfin, ce « Simple comme Ubuntu » est la deuxième édition imprimée intégralement en couleur, ce qui est du plus bel effet sur les nouvelles captures d’écrans de cette nouvelle version, notamment celles des jeux vidéo 🙂 Voyez par vous-même avec ces deux extraits des 54 pages du chapitre 9 consacré aux jeux :

« Simple comme Ubuntu » - Didier Roche - page 234 - Creative Commons By Sa

« Simple comme Ubuntu » - Didier Roche - page 236 - Creative Commons By Sa

Voici donc « Simple comme Ubuntu 10.10 » :

« Simple comme Ubuntu » - couverture par Alexandre Mory - Creative Commons By Sa

Et pour finir sans déroger aux traditions, voici le changelog proposé par l’auteur [1] :

  • remplacement de toutes les références de l’ancienne à la nouvelle version, ainsi que le nombre d’inscrits sur le forum ubuntu-fr. Comme d’hab 🙂
  • plus de powerpc, ajout de ARM;
  • support de langue incomplet -> c’est maintenant une boîte de dialogue qui apparaît;
  • précision sur les définitions de pppoe et du câble ethernet;
  • f-spot est remplacé par shotwell;
  • Les “sources de logiciel” se lance maintenant depuis la logithèque Ubuntu et plus depuis de le menu;
  • grand remaniement et réécriture du chapitre 2 : mise à jour de la procédure d’installation, complètement changée pour cette version;
  • précision au chapitre 5 maintenant que le mp3 peut être installé dès l’installation de Ubuntu;
  • mise à jour des informations pour bien insister sur le fait qu’une partition /home n’est absolument pas supplémentaire;
  • chapitre 3: réécriture de la description du menu supérieure (suppression de yelp, explication de l’indicator son et indicateur de message, mis à jour du me menu);
  • Nombreux changements dans le menu Préférences:
    • Chiffrement et trousseaux s’appellle maintenant Mots de passe et clés de;
    • Clavier -> changement léger de l’interface;
    • Ajout de Comptes de messagerie et VoIP et de comptes de microblogage;
    • Ajout de Input Method Switcher et Keyboard Input Methods;
    • Micro-blogage -> Microblogage;
    • Suppression de Partage de fichiers personnels;
    • Ajout de OpenJDK Java 6 Policy Tool;
    • Ajout de Paramètres de messagerie.
  • ajout de détails sur indicateur son, indicateur message et retravail de la description de la partie supérieure;
  • Firefox est maintenant mis à jour à chaque version, même sur des versions stables;
  • Le mode spatial n’est plus le mode par défaut de GNOME depuis 2.30;
  • Extension foxmarks -> Xmarks (+ note bientôt appelé à disparaître);
  • Suppression de Glipper, ajout de Parcellite;
  • Description de la procédure pour ouvrir le lecteur de CD mécaniquement;
  • Le nom des paquets de childsplay a changé;
  • mise à jour des images, photos, etc. ainsi que des typos/”fôtes” corrigées! Merci à la communauté 🙂

Notes

[1] Et que vous pouvez retrouver dans les sources LaTeX de l’ouvrage.




Sortie du « Simple comme Ubuntu 10.04 LTS » – Interview des relecteurs

Simple comme Ubuntu 10.04 LTS - Didier Roche - Cover : Alexandre MoryC’est désormais une tradition : à nouvelle version d’Ubuntu, nouvelle version du framabook « Simple comme Ubuntu » – ou SCU pour les intimes – de Didier Roche, qui est peut-être l’ouvrage le plus vendu (à plusieurs milliers d’exemplaires) et diffusé (à plusieurs centaines de milliers d’exemplaires) de l’édition francophone sous licence libre.

Vous pourrez constater ci-contre que la couverture du livre chez InLibroVeritas s’est mise au diapason de la nouvelle charte graphique de ce millésime 10.04 LTS Lucid Lynx d’Ubuntu.

Le contenu a été bien entendu également mis à jour (cf le changelog complet en bas de page), mais c’est du côté de l’impression, et donc du vrai livre papier chez InLibroVeritas, que se situe l’amélioration la plus spectaculaire : les illustration sont désormais toutes en couleur. Adieu le terne noir et blanc, bonjour les copies d’écran qui claquent !

Dernière originalité. Plutôt qu’une désormais classique interview de son auteur pour annoncer l’évènement, nous avons préféré donner la parole à quelques uns des indispensables relecteurs et relectrices du livre.

Pour, une fois n’est pas coutume, mettre un peu en lumière ces travailleurs de l’ombre. Pour rappeler également que ce projet possède lui aussi une dimension collective et collaborative.

L’occasion pour moi de les remercier chaleureusement et… de m’excuser publiquement pour la grande faiblesse intellectuelle de mes questions 😉

10 questions à 6 membres de l’équipe de relecture du SCU

Question de mieux vous connaître : Bonjour à tous, pourriez-vous vous présenter en une phrase ?

rmy : Rémy (alias rmy), militant du TdCT, prof de ballon, data tracker.

hopimet : Médecin et passionné d’informatique.

Bruno : Bruno, breton, et maintenant assistant parlementaire européen.

Garburst : Barbara, bidouilleuse informatique, unixienne depuis 1989, linuxienne depuis 1996, ubuntutiste depuis 2007.

le n@nyl@nd : Le n@nyl@nd, c’est mon petit univers.

kinouchou : Kinouchou, ange utilisateur d’Ubuntu.

Question d’histoire : Comment êtes-vous tombés dans la marmite de la relecture du SCU ?

rmy : J’ai commencé à crayonner une version que j’avais achetée pour ma femme à Nantes l’an dernier. Je n’ai pas envoyé mes remarques en me disant qu’une nouvelle version allait sortir. Quand kinouchou a relayé sur le forum l’appel aux taupes de l’ombre, je me suis dit : « tiens on va pouvoir balancer grave », et puis à force d’aider des plus ou moins débutants sur le forum, quoi de plus logique que d’aider celui écrit pour eux. Contrairement à ce qu’on pourrait penser, ce n’est absolument pas par respect pour l’auteur, pour son bouquin, ni même par sympathie, non…

hopimet : C’est ma première relecture. Après proposition de kinouchou du tdct.

Bruno : La lecture d’abord… J’ai découvert SCU au cours de l’été 2006 alors que ce n’était qu’un PDF qui ne devait en aucun cas dépasser les70 pages ! Pour la relecture, et bien Did avait déclaré que si on y trouvait des fautes c’est pas lui qu’il fallait taper mais SaintRaph (le correcteur de la 1ère heure)… Alors moi quand on me prend par les sentiments…

Garburst : Suite à un appel à relecteurs sur le site Framasoft fin 2007, j’ai commencé par quelques chapitres des Framabooks alors en relecture — sur SPIP, OOo et Latex — et depuis je relis le SCU tous les 6 mois. De l’acharnement, comme le dit Didier. Ou Didier le dit. Ou Dit le Didier. Ledit Didier… 😉

le n@nyl@nd : On ne peut pas dire que j’y suis tombé. En fait, j’ai participé au renouvellement des captures d’écrans et lorsque l’appel à la relecture a été lancé, je n’était pas vraiment disponible. Je n’ai fait que parcourir le livre pour voir les belles images que nous avions fournit à Didier. C’est comme ça que je me suis rendu compte d’une erreur de légende de l’une d’entre elles et je l’ai signalée. Voilà pourquoi je suis surpris mais somme toute flatté que Didier m’ait cité comme relecteur.

kinouchou : Je ne suis pas Obélix moi !

Question sérieuse : Quelles sont d’après vous les qualités d’un bon relecteur / d’une bonne relecture ?

rmy : À question sérieuse réponse sérieuzeuse : Il faut savoir lire à l’envers, par transparence, écouter le chant du papier quand on tourne les pages, lire le flat-braille, chanter le LaTeX sous la douche et compter jusqu’à 11 (chapitres). Être capable de faire tout ça les yeux fermés est un plus certain pour la candidature des relecteurs de la prochaine version.

hopimet : Respecter le sens de l’auteur mais garder un avis critique. Être attentif à la forme.

Bruno : Être insomniaque ! Sisi, vu les délais que nous impose Did, avoir du temps la nuit est indispensable !

Garburst : Il faut être tatillon sur l’orthographe et la typographie. Suivre l’auteur en restant dans la peau du lecteur qui découvre le bouquin.

le n@nyl@nd : Comme je l’ai répondu à la question précédente, je n’ai pas vraiment fait une relecture. Je ne peux donc pas répondre à cette question.

kinouchou : Savoir lire.

Question encore plus sérieuse : Qu’est-ce qui d’après vous différencie la relecture d’un ouvrage spécialisé comme le SCU d’une relecture plus classique ?

rmy : Pour relire un classique il faut savoir lire la musique en plus.

hopimet : Voir si une description technique qui semble évidente aux connaisseurs est accessible aux novices.

Bruno : Pour le savoir va falloir que j’essaie une relecture plus classique 🙂

Garburst : Je ne m’endors pas en le relisant…

le n@nyl@nd : Mais combien de fois va-t-il falloir vous dire que n’ai pas vraiment fait une relecture ?

kinouchou : Il faut comprendre les blagues de l’auteur.

Question d’exploitation : Vous faites cela bénévolement ! Mais ce n’est pas possible, on vous arnaque ! Une réaction ?

rmy : Ha bon ? Bah tant pis, maintenant c’est fait. Et puis notre grandeur d’âme étant sans borne nous recommencerions sans fin avec le plaisir de savoir que nous participerions encore et encore à l’accomplissement de la connaissance – au-delà même de la reconnaissance.

hopimet : Non, je fais ça pour la gloire.

Bruno : Ballmer l’avait bien dit que les libristes c’était tous des escrocs !

Garburst : Normal, Linux est un système d’exploitation ! À défaut de savoir bien coder, je lis très vite j’aime ça ! C’est ma petite pierre à l’édifice.

le n@nyl@nd : Votre information est erronée. Vérifiez vos sources ! Didier m’a grassement payé pour mon travail ? il va peut-être falloir que je demande à mon banquier si le chèque est bien encaissé ? et je peux maintenant vivre de mes rentes.

kinouchou : En fait la plupart des autres exploités l’ont été à cause de moi donc je ne suis pas seulement exploitée mais exploitatrice.

Question piège : Est-ce que Didier est un bon auteur ?

rmy : Oui, il préfère les – aux (), ce qui est plus français. Il devrait être introduit à l’Académie Française rien que pour ce fait.

hopimet : Sans aucun doute.

Bruno : Non !!! Car il ne tient aucun compte des remarques constructives que des correcteurs éclairés (évidemment) lui apportent !!! Cela fait des années que je lui dis de virer l’image 6.4 des plus ringardes, et rien elle est toujours là ! 😀

Garburst : Oui. et surtout très courageux de s’y remettre tous les 6 mois.

le n@nyl@nd : Évidemment qu’il est à la bonne hauteur : ce n’est pas pour rien qu’il est un « maître de l’univers » !

kinouchou : Il est obligé d’exploiter des gens pour lire son livre c’est dire combien c’est un bon auteur !

Question qu’on n’a pas le droit de répondre non : Êtes-vous sous Ubuntu ?

rmy : Oui, et alors ?

hopimet : Oui (et Debian Lenny).

Bruno : Ben j’aurais bien essayé Gentoo, mais Did n’a pas encore sorti le bouquin…

Garburst : Bien sûr ! 4 PC sous Lucid Lynx à la maison, et 2 enfants jusqu’ubuntistes.

le n@nyl@nd : Non, je préfère avoir le dessus.

kinouchou : C’est moi qui exploite Ubuntu pas le contraire, donc je ne peux pas être « sous » Ubuntu.

Question con (enfin, plus encore que les autres) : Pourquoi le lynx est-il lucide ?

rmy : Parce que la vache à lait, petit scarabée.

hopimet : Parce qu’il voit ce que l’utilisateur recherche.

Bruno : Parce qu’il sait qu’il devra bientôt laisser la place…

Garburst : Parce qu’il est clair et limpide.

le n@nyl@nd : Parce que c’est un félin et, comme tous les félidés, il a la vue perçante ; surtout la nuit.

kinouchou : C’est plus vendeur que lynx laborieux.

Question d’esthétique : Le nouveau look d’Ubuntu, ça sucks ou ça roxe ?

rmy : Y a-t-il une métaphore à caractère pornographique dans cette question ?

hopimet : C’est beau.

Bruno : Je l’aimais bien le marron moi, avec une pensée particulière pour le héron psychédélique, et l’Ibex trace de café… Ça c’était original !

Garburst : Chais pas, c’est la première chose que je change…

le n@nyl@nd : Oh, vous savez, les goûts et les couleurs…

kinouchou : C’est juste mes couleurs donc Ubuntu c’était mon idée 🙂

Question d’avenir : Jusqu’où ira le logiciel libre ?

rmy : Le logiciel libre est déjà utilisé par des gens qui ne le sont pas. Un jour il sera majoritairement utilisé sur le poste de travail des gens qui fabriquent du logiciel non libre.

hopimet : Jusqu’au bout.

Bruno : Jusqu’où on le fera aller !

Garburst : Loin, là-bas.

le n@nyl@nd : Jusqu’au cap de bonne espérance ?

kinouchou : Vers l’infini et au-delà !

Question subsidiaire (pour départager le vainqueur) : Qui de Google, Apple ou Microsoft est le plus grand méchant et pourquoi ?

rmy : Pas de haine brother.

hopimet : Apple qui censure le contenu de l’iPhone. La censure saymal.

Bruno : C’est le client qui se laisse emprisonner qui est le vrai méchant !

Garburst : Le loup, bien sûr !

le n@nyl@nd : Ils ne sont pas méchants. Ils n’ont simplement pas pris la bonne voie.

kinouchou : Ils ne le sont pas tous ?

Simple comme Ubuntu 10.04 LTS - Didier Roche - Cover : Alexandre Mory

Changelog du SCU 10.04 LTS de Didier Roche

  • Remplacement de toutes les références de l’ancienne à la nouvelle version, ainsi que le nombre d’inscrits sur le forum ubuntu-fr, comme d’hab 🙂
  • Remise à jour de la procédure d’installation
  • Remplacement des notifications par les indicateurs
  • Remplacement de la barre FUSA par le session indicateur
  • Mise à jour de la partie mise à jour nécessitant un redémarrage
  • Pitivi est maintenant installé par défaut, il a gagné sa description au chapitre 8 🙂
  • Gimp n’est plus installé par défaut
  • Suppression de la modification de grub (plus valable dans grub2), non nécessaire maintenant
  • Paufinage de termes et présentation au chapitre 2
  • Changement des étapes d’installations
  • Changement de la prise en charge des langues
  • Précisions concernant les runlevels et introduction d’une note sur upstart
  • Mise à jour de la partie sur les distributions en ajoutant les netbooks
  • Mise à jour de la fiche de l’auteur 🙂
  • Mise à jour de nautilus qui ne contient plus de bouton pour basculer le comportement de l’affichage de l’url
  • Affichage s’appelle maintenant écran
  • Nouvelle entrée micro-blogage
  • Nouvelle entrée partage de fichiers
  • Explication d’ubuntu one, accès, son rôle
  • Ajout de simpescan (installé par défaut), avec encore des explications sur xsane
  • Mis à jour de plups de 200 images, notamment grâce à la communauté ubuntu-fr. Merci à eux !
  • Suppression de Créateur de CD/DVD
  • Ajout de enventelibre.org
  • Remis à jour complet des liens et de certains modes d’installation des jeux du chapitre 9, tout frais, tout beau, tout neuf
  • Remplacement de UNR par UNE et suppression de Mobile Edition
  • Suppression de ctrl + alt + backspace
  • Quelques précisions sur l’installation
  • Driver nouveau par défaut
  • 4 bureaux par défaut
  • Des tonnes de reformulation, corrections, etc.
  • Merci aux relectures à nouveau



L’avenir d’Internet selon Laurent Chemla

Roby Ferrari - CC by-saÉcrivain, informaticien et cofondateur du registrar français Gandi, Laurent Chemla est l’une des rares personnes en France capables de véritablement « penser l’Internet », et ce depuis ses origines ou presque.

Je me souviens ainsi avoir particulièrement apprécié son livre Confessions d’un voleur : Internet, la liberté confisquée et la vision pertinente qu’il donnait alors du réseau. Et son article, plus de dix ans déjà, Internet : Le yoyo, le téléporteur, la carmagnole et le mammouth demeure pour moi une solide référence.

C’est pourquoi je félicite InLibroVeritas d’avoir eu la bonne idée de le solliciter pour conclure l’excellent livre chorale La bataille Hadopi. Et pour se rappeler que ce livre, tout comme l’Agenda 2010 Wikimedia d’ailleurs, est plus que jamais disponible à la vente (et au bénéfice de La Quadrature du Net), nous avons choisi d’en reproduire donc ci-dessous ce deuxième extrait, après La neutralité du réseau de Benjamin Bayart.

L’article est, par sa longueur (et non sa pertinence), à la limite du format blog, puisqu’il dépasse allègrement, pensez-donc, la centaine de messages Twitter à lui tout seul ! Mais, que vous le parcouriez ici ou ailleurs, il vaut la peine de s’extirper quelques minutes du flux pour faire le point et tenter d’anticiper ensemble un avenir qui s’annonce mouvementé pour les uns et passionnant pour les autres[1].

Analyse, Synthèse, Prospective

URL d’origine du document

Laurent Chemla – Octobre 2009 – La Bataille Hadopi (InLibroVeritas)
Licence Creative Commons By-Sa et Licence Art Libre

Je l’avoue, j’ai vu le film « District 9 » un mois avant sa sortie en France, en version Hadopisée.

Certes, les extra-terrestres étaient sous-titrés en russe, mais la bande-son était bien en français. Et il s’agissait d’un « cam », c’est à dire d’une capture faite dans une salle de cinéma dans des conditions plus ou moins bonnes et un cadrage quelquefois défaillant.

Est-ce que je le regrette ? Pas davantage que quand je regardais sur ma petite télévision noir et blanc d’étudiant des films que je n’avais pas pu aller voir sur un grand écran en couleurs. Dans les deux cas, l’œuvre est dénaturée, redécoupée, adaptée à un usage qui n’est pas celui que l’auteur avait prévu.

J’ai économisé le prix de la place : pour un film que je n’ai pas aimé et que je n’aurais pas été voir en salle, je ne vois pas très bien où est le problème. Il me semble d’ailleurs que le statu quo ante, même s’il était passé dans les mœurs, n’était peut-être pas si normal que ça : quand j’achète un produit qui s’avère défectueux, ou qui ne convient pas à l’usage que le vendeur m’avait promis (ici : me divertir), je suis en règle générale remboursé… Payer pour voir, je veux bien le faire au poker – c’est un jeu – mais pas pour mes loisirs : quand je paie ma place de cinéma, je ne vois pas au nom de quel droit je devrais avoir une chance de perdre.

Pourtant, c’est illégal. Aujourd’hui.

Les lois changent. Elles naissent, vivent, et meurent. Elles suivent l’évolution des pratiques sociales et des connaissances scientifiques. L’esclavage a existé pendant des millénaires, et le statut de l’esclave a fait l’objet de bien des lois, mais personne, aujourd’hui, n’oserait s’attribuer la propriété d’un autre être humain. Le droit d’auteur n’existe comparativement que depuis peu, mais les tenants de l’ordre établi semblent vouloir absolument qu’il n’évolue que dans le sens où l’auteur aurait toujours plus de droits sur son œuvre et la société toujours moins. Est-ce bien raisonnable ?

À première vue ça semble une évidence : l’auteur est le propriétaire de ce qu’il crée. Mais si on creuse un peu ?

Sans tous ceux qui l’ont précédée et inspirée, une œuvre pourrait-elle exister ? Et sans la société qui l’entoure, ses modes, ses espérances et ses souffrances, l’auteur pourrait-il puiser dans sa seule expérience ce qui fera que son émotion sera partagée par le plus grand nombre ? Bien sûr que non, et c’est la raison pour laquelle les premières lois encadrant le droit d’auteur, à commencer par le statut d’Anne en 1710, étaient des lois d’équilibre entre les intérêts de l’auteur et ceux de la société.

Depuis, loi après loi, siècle après siècle, cet équilibre a largement été rompu au profit non seulement des auteurs mais aussi de tous leurs représentants, au point peut-être de nuire – bien plus que le piratage – à la diffusion de la culture. Que penser par exemple de la durée de protection des œuvres après la mort de l’auteur : passée de 5 ans à l’époque de Mirabeau, 50 ans au 19ème siècle et dans la convention de Berne, puis 70 ans en Europe aujourd’hui, ces durées excessives créent des rentes de situation pour des éditeurs qui ont, du coup, bien d’avantage intérêt à rééditer des ouvrages déjà rentabilisés que de risquer la publication d’œuvres nouvelles. Elle est loin l’époque du Front Populaire où Jean Zay prévoyait – avant d’être assassiné par la milice de Vichy – de limiter de nouveau à 10 ans cette durée avant laquelle un livre pouvait être diffusé par n’importe qui.

Il semble pourtant qu’un tel rééquilibrage soit non seulement devenu nécessaire, mais surtout résolument inévitable.

Et pour commencer : si les privilèges excessifs des auteurs n’étaient pas si criants, il est probable que je me sentirais bien plus coupable lorsque je bafoue leurs droits. Car la loi ne fait pas tout, et l’éthique, ici, pourrait jouer un bien plus grand rôle si seulement le public ne se sentait pas lui-même bafoué. Devenu par la volonté des producteurs un simple consommateur d’une œuvre transformée en produit de supermarché, comment s’étonner s’il ne respecte pas davantage une chanson qu’une pomme tombée d’un étalage ? Et quand a-t’on vu un chanteur ou un acteur remercier lors d’une remise de prix – au-delà de sa famille et de ses amis – la société qui a rendu sa création possible ?

Les droits de paternité de la société sur les œuvres qu’elle produit sont niés, refusés, abrogés au point que l’on oublie jusqu’à leur existence. Mais ils se rappellent d’eux-mêmes au bon souvenir de chacun par le biais de la morale. Car qui se sent aujourd’hui coupable de pirater une chanson dont l’auteur a vendu des millions d’exemplaires et qui fera la fortune de ses enfants et de ses petits-enfants après lui, quelle que soit la quantité de copies illicites qui seront diffusées ? Qui se sent coupable de regarder sans payer un blockbuster qui a déjà plus que largement été un succès outre-atlantique ?

On aura beau agiter l’épouvantail ridicule de la fin de toute création (il suffit de s’être connecté un jour à Internet pour constater de soi-même l’inanité de cet argument, la création est partout et n’a jamais été aussi vivante) : le public, lui, sent bien qu’il ne commet là rien de répréhensible, et aucune loi ne peut aller contre un tel sentiment de justice.

Il faudra donc, si le monde de la culture ne veut pas se couper définitivement de sa base populaire et voir ainsi disparaître le lien qui fait qu’on a envie de rémunérer celui qui nous montre une image de ce que nous sommes, que quelque chose change. Et justement, quelque chose a changé.

Par sa seule existence, Internet a plusieurs effets incontournables : la disparition des intermédiaires, la disparition des frontières, un modèle déflationniste et une nature décentralisée qui le rend non régulable.

D’abord, il tend à faire disparaître les intermédiaires. Ce qui aura surtout des effets dans le monde de la musique et de l’édition. Pourquoi en effet s’encombrer d’un éditeur ou d’une maison de disque quand on peut distribuer soi-même son livre, ou son album, à la terre entière ? Et se faire connaître sur YouTube en filmant un clip suffisamment décalé pour créer du buzz ; et en multipliant ses contacts sur FaceBook et ses followers sur Twitter, et en publiant des billets bien cinglants sur son blog de manière à préparer la sortie de son livre sur InLibroVeritas ?

Bien sûr, ces pratiques ne concernent pas encore la grande majorité des œuvres. Mais la tendance est là pourtant. Sans vouloir être exhaustif, on peut citer des artistes comme Yelle, les Artic Monkeys, Lilly Allen, Lorie et encore beaucoup d’autres qui sont arrivés dans le show business sans passer par les voies habituelles. Et ça ne fait que commencer bien sûr.

Et que dire de la diminution drastique des ventes de musique physique : ironiquement ce sont les majors qui ont initié le mouvement. En préférant la grande distribution aux réseaux de petits disquaires (ils étaient près de 3000 dans les années 70, il n’en restait que moins de 300 à l’aube du 21ème siècle), l’industrie musicale a choisi de pouvoir mieux contrôler les offres de têtes de gondole sans avoir à passer par la critique d’un vendeur passionné. Seulement voilà : Internet se développe, et la logique de concentration de l’offre disparaît du jour au lendemain. à l’espace physique limité dans les bacs des hypermarchés et des FNAC répond la mise à disposition de tous les trésors de nos discothèques, depuis longtemps sortis des stocks et introuvables légalement. Ces albums, qui auraient pu continuer à être vendus par des petites échoppes spécialisées, ont disparu partout, sauf sur Internet. Et Internet fait, bien sûr, de la concurrence à ces chaînes de distribution contrôlées, menant à une réaction toute logique de la grande distribution : ce qui ne se vend plus n’est plus mis en rayon. Le disque se vendant moins, la surface qu’il occupait dans les supermarchés diminue, créant de nouveau un appel d’air pour la distribution en ligne. C’est un cercle vertueux qui lui aussi ne fait que commencer.

On peut sans grand risque parier que, dans un futur proche, l’offre physique aura ainsi presque totalement disparu. Mais elle ne disparaîtra pas seule.

Car qui dit disparition des intermédiaires dit aussi et très logiquement baisse des coûts. Là où il fallait presser des milliers de disques pour être présent dans tous les points de vente physiques en nombre suffisant, il n’y aura plus que de petits pressages, destinés aux passionnés qui ne se satisferont pas de la dématérialisation totale de l’œuvre numérique. Un stock réduit, donc, qui entraînera avec lui quelques industriels spécialisés dans le packaging des CD. Et puisque les majors n’auront plus à leur service une chaîne de distribution captive, il leur deviendra bien difficile de diriger le client vers le dernier chanteur sorti du néant pour vendre de la soupe industrielle préformatée. Alors, que va-t’il se passer ?

D’abord, il faudra bien que soit répercutée sur le prix public la disparition des intermédiaires et des stocks. Le client n’est pas idiot, et si on persiste à vouloir lui vendre de simples fichiers de musique compressée au prix où on lui vendait dans le passé un objet physique de qualité supérieure et disponible immédiatement là où il avait l’habitude de faire ses courses, il n’aura pas de scrupule à aller voir du côté de l’offre pirate. Faire payer autant pour un service et une qualité moindres, c’est à l’évidence un non-sens commercial qui ne pourra que se retourner contre ses tenants.

Ensuite, il faudra bien que les majors acceptent de s’adapter à la réalité plutôt que de vouloir plier celle-ci à des modèles dépassés. Quand dans le passé un artiste devait accepter des contrats léonins pour avoir une chance de convaincre une maison de disque de le « signer », il est probable que dans le futur le rapport de force soit inversé.

L’auteur, surtout celui qui aura pu commencer à se faire un nom sans l’aide de personne, sera dès lors courtisé par des éditeurs qui auront grand intérêt à écumer le web pour ne pas rater la future star. Et il faudra lui offrir autre chose qu’un simple réseau de distribution pour le convaincre : si elle ne lui offre pas des services bien réels, un musicien talentueux n’aura aucune raison de traiter avec une major. Il faudra que celle-ci lui accorde non seulement de bien meilleures conditions, tant matérielles que techniques, mais aussi qu’elle assure sa promotion autrement qu’en lui promettant la tête d’une gondole qui aura coulé depuis longtemps.

C’est ainsi que, probablement, on verra les petits labels indépendants prendre de plus en plus d’importance. Ironiquement, ce sont ceux qui souffrent le plus de la situation actuelle – ils sont bien plus précaires que ces intermédiaires inutiles qui se plaignent de voir fondre leurs bénéfices – auront leur revanche. Une infrastructure moins lourde et plus à même de naviguer dans les réseaux sociaux et les nouveaux médias à la mode, une spécialisation qui leur permettra de cibler un public moins large, mais plus fidèle, et qui leur sera reconnaissant de faire le tri entre le bon grain et l’ivraie, des packagings innovants pour ceux qui souhaitent posséder un objet physique et une qualité d’enregistrement supérieure pour ceux qui se satisferont de musique dématérialisée, tels seront les atouts de nouveaux intermédiaires à valeur ajoutée.

Encore plus important pour l’avenir : la disparition des frontières de l’information.

On mesure encore mal toutes les implications d’une telle révolution. Encore aujourd’hui, il n’est pas rare par exemple de trouver le même disque, le même DVD, pour un tarif 2 ou 3 fois moins élevé sur la version grand-bretonne d’Amazon que sur son équivalent français (le dernier disque du duo « Basement Jaxx, « Scars », sorti le mois dernier, coûte 11 euros sur amazon.co.uk contre 17 euros sur amazon.fr). La preuve est ainsi faite que l’internaute moyen n’est pas encore très au fait du fait qu’il est libre de comparer les prix bien au-delà de ses propres frontières nationales, puisque les marchands n’hésitent pour le moment pas à établir des tarifs en fonction des marchés nationaux.

Mais les choses changeront vite et j’en veux pour preuve l’émergence de services tels que « myus.com », qui permettent aux plus malins de déjouer les tentatives des marchands d’interdire l’achat à qui ne dispose pas d’une adresse postale sur leur territoire. Il semble bien que – même pour les biens matériels – la notion de territoire n’en ait plus pour très longtemps.

Et dans les nombreux effets qu’une telle disparition va causer, il y aura la révolution de ce qu’on appelle la « chronologie des médias », qui va toucher de plein fouet l’industrie cinématographique.

Mise en place dans les années 1980 pour protéger les exploitants de salles de cinéma de la concurrence de la télévision et des supports enregistrés, cette « chronologie » établit une durée minimale entre la sortie d’un film en salle et sa diffusion sous forme d’abord de DVD ensuite télévisuelle.

Dans un monde de frontières intangibles, il fallait pour voir un film avant sa sortie en France se déplacer physiquement dans un pays où il était déjà diffusé (et de préférence en comprendre la langue). Dans le monde où Internet abolit toute notion de frontière physique pour les contenus culturels, il ne passe pas 24 heures avant qu’un petit malin n’enregistre discrètement sur sa caméra vidéo ce qui passe sur le grand écran qu’il regarde. Et pas plus d’une semaine avant que des équipes de toutes nationalités ne sous-titrent le film ainsi mis à la disposition de tous sur les réseaux P2P.

Et c’est ainsi que je peux regarder « District 9 » un mois avant sa sortie en France.

Alors, bien sûr, on pourrait mieux surveiller toutes les salles obscures de tous les pays en y mettant quelques forces de l’ordre chargées d’interdire l’enregistrement du film, on pourrait ensuite faire fermer tous les sites web qui diffusent des liens vers la copie pirate, on pourrait enfin interdire la traduction et punir les gens qui auront téléchargé le film.

On pourrait faire tout ça, mais force est de dire que ce serait très difficile, pour ne pas dire impossible. Alors qu’il serait si simple d’abolir, purement et simplement, toute cette notion de « chronologie des médias ».

C’est entendu : le producteur d’un film ou d’une série américaine aurait dès lors bien du mal à vendre son produit aux télévisions étrangères pour une diffusion décalée dans le temps. Mais ce type de commerce avait un sens lorsqu’il n’existait pas de moyens de diffusion planétaire : aujourd’hui qu’est-ce qui empêcherait – sinon les usages établis – la chaîne Fox de diffuser via son site web des versions de bonne qualité, et sous-titrées dans toutes les langues, de sa série « Dr House » ? Des accords commerciaux, d’accord, mais nul n’oblige cette chaîne à passer de tels accords dans le futur pour ses prochaines séries.

On verrait alors des coupures de publicité – pourquoi pas spécifiques à telle ou telle langue – dans les fichiers librement diffusés par leurs auteurs, sur des serveurs à fort débit. Rien de bien différent de ce qui se passe sur leur télévision nationale, donc. Quant aux diffuseurs des autres pays, il leur restera la possibilité de diffuser des versions doublées plutôt que sous-titrées, ou mieux encore ils feront le choix de créer eux-mêmes des séries d’une qualité suffisante pour attirer un public devenu mondial. C’est la conséquence logique d’une disparition des frontières, et tout mouvement pour contrer cette pente naturelle finira tôt ou tard par se heurter au réel. La chaîne CBS semble l’avoir compris la première, elle qui a récemment annoncé qu’elle n’avait pas l’intention de demander le retrait des séries diffusées sans autorisation sur YouTube : selon elle, la diffusion pirate n’a causé aucun préjudice à l’audience.

Quant aux films de cinéma, qui font de plus en plus souvent l’objet de sorties mondiales, il deviendra de plus en plus difficile de retarder de plusieurs années leur diffusion sur d’autres médias : il existera toujours une attente pour voir sur petit écran des films même pendant qu’ils seront diffusés en salles obscures. L’évolution la plus probable est peut-être à chercher du côté du film de Yann Arthus Bertrand : « Home » a en effet été diffusé dans le même temps à la télévision et sur grand écran, et cela dans tous les pays à la fois. Ce qui ne l’a pas empêché d’être un succès en salle, et d’être pendant plusieurs semaines en tête des ventes de DVD à la FNAC alors même qu’il était parallèlement disponible gratuitement sur Internet. De quoi réfléchir à un futur de la diffusion cinématographique moins sclérosé ?

On entend souvent, comme justification pour la loi Hadopi, qu’il faut absolument empêcher le piratage pour qu’une offre légale puisse se développer. Selon les tenants de cet argument, il serait impossible d’offrir une offre payante s’il existe en face une offre gratuite.

Ca semble logique, mais est-ce pour autant recevable ? Cet état de fait n’est nullement limité aux industries culturelles. Partout, depuis l’avènement du Web, les offres payantes sont concurrencées par des alternatives gratuites. L’information, en premier lieu, en sait quelque chose : toujours à la recherche d’un modèle économique qui tienne un peu la route, les sites d’information payants doivent tous faire face à la diversité et à la gratuité des sources. Et que dire de l’industrie du logiciel commercial, qui doit faire face à la concurrence de plus en plus importante du logiciel libre ? Faudrait-il aussi interdire Linux pour que Windows puisse rester payant ? Et quid des sites de petites annonces, de comparaison des prix et de la qualité des produits… La liste serait aussi longue que celle des activités commerciales au-delà des seuls biens matériels.

Il est bien rare qu’il n’existe aucune contrepartie gratuite, créée par des passionnés, ou financée par d’autres moyens, d’autres modèles économiques, à un site payant. Pour autant, nul n’oserait affirmer qu’à cause de cette concurrence aucun site payant ne peut exister : là encore le réel viendrait démentir lourdement l’argument. Mais il est certain que cet état de fait pousse l’offre commerciale vers la plus grande valeur ajoutée possible – pour se démarquer des offres gratuites moins étoffées – et vers des tarifs toujours plus bas : c’est l’effet déflationniste d’Internet.

Alors, bien sûr, on rétorquera que Linux n’est pas une copie de Windows et qu’à ce titre il n’enfreint pas les lois sur la propriété intellectuelle. Outre qu’une telle affirmation devrait être fortement nuancée (on vient par exemple d’apprendre que certains brevets de Microsoft avaient été rachetés par les grands groupes qui soutiennent Linux pour éviter de futurs procès), la question n’est pas tant la contrefaçon en elle-même que dans le mensonge sous-tendant l’argument de l’impossibilité d’une offre dite « légale » en face de l’offre dite « pirate ».

En 2003 – 6 ans déjà – Philippe Chantepie, alors chargé de mission au ministère de la Culture, affirmait « Il ne s’agit pas d’interdire le P2P, mais d’imaginer une offre alternative cohérente ». On mesure là non seulement l’immense recul de la réflexion politique depuis que le problème se pose, mais surtout le retard pris par l’industrie du disque dans la mise en place d’une telle offre.

Car si l’on reprend les différents modèles des services payants d’Internet, il n’est pas difficile de voir comment une offre légale cohérente pourrait prendre toute sa place sans pour autant légiférer dans l’urgence pour interdire toute alternative comme condition d’une telle offre.

D’abord, le maximum de valeur ajoutée, ensuite un tarif cohérent avec l’existence d’une offre gratuite. Or, que manque-t’il à l’offre « pirate » ? Pas mal de choses en réalité.

À l’évidence, sinon une centralisation de l’offre contraire aux usages d’Internet, au moins la mise en place d’un index centralisé permettant de savoir où acheter la version numérisée du disque que l’on cherche : que ce soit sur le site de l’artiste ou chez un revendeur, il sera nécessaire de faciliter l’achat en laissant à Google le soin de se charger – forcément moins bien – de l’offre concurrente.

Ensuite il faut bien entendu qu’à chaque titre de l’album soient attachées les paroles (s’il y a lieu), mais aussi l’index du titre dans l’album, la date de publication, le genre musical… Et qu’à chaque album soient attachés l’image de la jaquette ainsi que tous les textes et photos présents dans le boitier du CD physique. Bref, tout ce qui fera la différence entre une offre professionnelle et la numérisation faite au bon gré des amateurs qui ne prendront jamais le temps d’être aussi complets que des professionnels.

Il faudra aussi passer aux oubliettes le format MP3 : quelle que soit la qualité de numérisation choisie, ce format implique une perte de qualité par rapport à l’original numérique. Or si la compression des fichiers ainsi obtenue avait une raison d’être il y a quelques années, l’énorme augmentation de la taille de stockage des disques durs ainsi que de la bande passante des accès modernes ne nécessite plus depuis longtemps qu’on se contente d’une qualité moindre. Il faudra donc que les industriels se mettent d’accord sur un format « sans perte » qui sera adopté n’en doutons pas très rapidement par les fabricants de lecteurs portables.

Enfin, bien entendu, il faudra revoir à la baisse le prix d’un album numérique. Outre le fait qu’il coûte moins cher à produire que le disque physique – fait qui à lui seul devrait impliquer un tarif largement moindre – il faudra aussi que ce prix prenne en compte la disparition des intermédiaires que l’on a déjà vue, et qu’en soit donc déduite la part qui leur revenait.

Ainsi, si l’industrie musicale cessait de croire qu’elle pourra forcer le monde à faire marche arrière, on voit aisément la forme que devrait avoir la fameuse « offre légale » pour concurrencer avec succès tout ce que le monde de la flibusterie pourra lui opposer : l’exhaustivité de l’offre, des albums numériques aussi complets que leur équivalent physique, d’une qualité numérique irréprochable et à un prix « défiant toute concurrence ». Là sera le salut du modèle payant, et certainement pas dans la lutte illusoire pour faire disparaître toute concurrence.

Gageons qu’un jour viendra bientôt où nos majors cesseront de dépenser leur fortune en lobbying pour enfin se mettre au travail et nous présenter une alternative payante digne de ce nom. Il est plus que temps. Car, pendant qu’elles combattent des moulins à vent, l’offre pirate de qualité s’étoffe et – surtout – les artistes, auteurs, interprètes qu’elles avaient laissés de côté ont bel et bien commencé à s’organiser pour diffuser leurs albums sur les plates-formes de musique libre (dogmazic, jamendo, magnatune…) et pour mettre en place des systèmes de rémunération innovants (SARD).

Pourtant, quoi qu’elles fassent, l’essor de la culture libre semble largement irréversible aujourd’hui, comme l’était celui du logiciel libre il y a 10 ans.

Si les informaticiens ont compris les premiers que le partage de l’information était nécessaire à la création de logiciels toujours plus innovants, ce n’est peut-être pas un hasard. Le droit d’auteur dans le domaine du logiciel est récent, et avant les années 1970 il n’était même pas certain qu’il s’y applique. D’autant plus que les fabricants d’ordinateurs, en concurrence les uns avec les autres, se devaient d’offrir à leurs clients une base logicielle la plus large possible, et à cet effet n’hésitaient pas à diffuser très largement les outils permettant de développer ces logiciels (y compris le code source de ceux qu’ils avaient eux-même développés). Aujourd’hui encore, il n’est guère surprenant de voir des fabricants comme IBM soutenir le logiciel libre : la main-mise d’un unique vendeur de logiciel – Microsoft – sur le marché qui le fait vivre est un risque industriel qu’une grande entreprise ne peut pas se permettre. Il se doit donc de faire en sorte que la concurrence s’exerce au maximum pour ne pas dépendre d’une offre unique.

L’art libre, au-delà des aspects philosophiques qui président à sa nécessaire existence, n’est lui-même pas étranger à ces notions économiques. Entre des majors toutes-puissantes et des indépendants peu connus qui ont du mal à exister dans un marché en pleine crise, les artistes ont peu de choix s’ils n’ont pas eu la chance d’être remarqués par les unes ou les autres. Ainsi, l’image du musicien qui se déplaçait avec sa maquette pour tenter d’obtenir quelque passage à la radio est désormais remplacée par celle du génie qui, par son seul talent, va émerger de la masse anonyme qui diffuse ses œuvres sur Internet.

L’histoire n’est évidemment pas si simple, et il ne suffit pas d’être excellent pour être remarqué. Il faut aussi savoir se servir de cet outil, en connaître les moteurs, comprendre comment faire du « buzz » ou disposer du temps nécessaire pour se créer peu à peu une audience, bref : être un bon commerçant de sa propre image. Là où dans le passé l’artiste se reposait sur ses producteurs pour être mis en avant, il doit désormais apprendre à faire ce travail préalable seul, à peine aidé par les plates-formes de diffusion de culture libre. Sans même parler de vendre assez pour vivre, l’urgence sur Internet est de savoir se faire connaître. Et dans cette optique, il sera mal vu de demander à ses futurs clients de payer d’abord. La culture « libre » a de beaux jours devant elle, de la même manière qu’à mon époque il fallait, pour se faire un nom dans le milieu de la programmation, faire des « démos » largement diffusées pour prouver son talent.

À cet égard, la nouvelle génération née avec un clavier d’ordinateur entre les mains aura à court terme un avantage décisif sur ses parents, et il est probable que de plus en plus de nos idoles soient issues de cette culture du libre. Rompues aux réseaux sociaux, disposant depuis toujours d’une base « d’amis » et de « suiveurs », habituées à partager leur quotidien, nos nouvelles stars n’auront pas à apprendre ces notions pour atteindre une renommée que les anciens espéraient à peine. Élevés dans la logique de partage d’Internet, nos enfants n’hésiteront pas à diffuser librement leurs œuvres tant qu’ils n’auront pas atteint la notoriété nécessaire pour vivre de leur passion. Et même alors, ils sauront sans doute éviter les pièges d’une logique entièrement commerciale tant qu’ils seront eux-mêmes concurrencés par leurs pairs et l’offre gratuite qui persistera.

Loin de risquer la sclérose annoncée par les hérauts du tout-marchand, la culture va connaître, grâce à Internet, une nouvelle Renaissance.

Reste que pour qu’il soit le moteur annoncé de l’évolution du droit d’auteur, ainsi que d’une offre culturelle plus large, moins chère et de meilleure qualité, il faudra qu’Internet ne soit pas bâillonné par des lois rétrogrades visant à empêcher son essor.

Il ne passe guère de jour sans que tel ou tel homme politique ne nous assène qu’il faut – à tout prix – réguler ce « far-west » où seule la loi du plus fort s’appliquerait.

Bien sûr, cette caricature tient beaucoup au fait que la plupart d’entre eux n’apprécient guère de se voir porter la contradiction par de simples citoyens sur la place publique, habitués qu’ils étaient à disposer seuls de l’attention des médias anciens. Mais pour certains cela va plus loin, et la volonté de contrôler tout l’espace médiatique est telle qu’ils n’hésiteront pas à tenter de museler un espace de liberté qu’ils considèrent comme un vrai danger.

Ils ont raison.

Non pas qu’Internet soit un espace de non-droit : cette idée ridicule a toujours été battue en brèche tant les divers procès qui ont accompagné son évolution ont montré que le droit s’y appliquait avec toute sa rigueur. Quant aux fantasmes du pirate néo-nazi pédophile, nos élites sont plus promptes à les dénoncer dans le cyberespace (où la très grande majorité d’entre nous ne les a jamais croisé) que dans les rangs de leurs amis politiques ou médiatiques… La démagogie a du mal à exister dans un lieu où la contradiction est accessible à tout un chacun et où rien ne s’oublie.

Non : le vrai danger, pour eux, est dans la démonstration quotidienne de leur aveuglement. Plus ils crient que la gratuité n’existe pas et que le marché est tout-puissant, plus leurs concitoyens constatent l’inverse dans ce vaste réseau de partage des connaissances et des opinions. Plus ils affirment que la liberté de parole est dangereuse pour la démocratie, plus le succès des blogs politiques augmente. Plus ils expliquent qu’ils ne maîtrisent pas ces nouveaux outils – relégués à d’obscurs assistants parlementaires, plus le nombre de familles connectées croît.

Alors ils légifèrent. Depuis 1995 et la première émission de télévision traitant du phénomène Internet, on ne compte plus les lois qui ont tenté de « réguler » (lire « contrôler ») ce nouveau média. Le premier, François Fillon avait tenté en 1997 déjà de créer un « Conseil Supérieur de l’Internet » qui devait avoir la haute main sur tout ce qui était publié sur le Web. Déjà, il fut censuré par le Conseil Constitutionnel. Vinrent ensuite diverses tentatives, de droite comme de gauche, toutes avortées. La Commission Beaussant (qui cherchait à imposer aux hébergeurs, par contrat, l’obligation de respecter les décisions d’un comité Théodule chargé de censurer les sites irrévérencieux) dont le rapport fut mis au panier. L’amendement Bloche, tellement remanié par nos deux assemblées qu’il n’en est presque rien resté après son passage devant les mêmes sages. La LCEN de 2004, si stricte dans la forme qu’elle en est presque inapplicable. Et la DADVSI de 2006, qui impose le respect de mesures de protection anti-piratage abandonnées depuis par quasiment tous les industriels…

Une longue suite d’échecs patents qui – forcément – ridiculisent par avance les tentatives futures.

Car il n’est pas facile de faire des lois (forcément nationales) pour encadrer Internet (fondamentalement international). Le réseau est mouvant, il change quotidiennement et ses usages sont loin d’être établis. Il mute bien plus vite que nos législateurs ne sont capables de le prévoir. Hadopi n’était pas encore adoptée que ses contre-mesures étaient déjà en place. Et la future LOPPSI, dernière resucée de ces tentatives de créer une police privée chargée de la censure du réseau, se heurtera sans doute et malgré le volontarisme affiché de notre Président aux mêmes écueils que ses prédécesseurs : l’article 11 de notre Constitution est difficilement contournable, et Internet n’a jamais été prévu pour être centralisé de manière à permettre quelque contrôle que ce soit.

Cependant, ces essais ont bel et bien un effet. Mais sans doute pas celui que nos gouvernants espèrent…

Il y a à ce jour 28 millions d’abonnés à Internet en France. Plus d’un foyer sur deux est connecté. Très bientôt, la majorité de nos concitoyens auront goûté à la liberté d’expression que permet (enfin) cet outil. Qui peut dire aujourd’hui ce que signifie le fait que 28 millions de personnes aient désormais, dans ce pays, accès à la parole publique ?

Que deviendront les mondes associatifs et politiques quand ils verront arriver le flux de millions de gens désormais habitués à prendre la parole ? Que sera cet avenir où tout citoyen pourra non seulement débattre publiquement de ses opinions, mais aussi apprendre à les confronter à d’autres, mais encore réussir à se convaincre que sa parole est toute aussi importante que n’importe quelle autre. Que sera un monde dans lequel les enfants n’auront plus à demander la parole pour l’obtenir, au gré des parents et des maîtres, puis des médias et des politiciens ?

En s’attaquant à la liberté d’expression sur Internet, comme ils le font en critiquant, légiférant et Hadopisant, ils ne font pas que se heurter à une technologie définitivement non régulable. Ils lèvent aussi, contre eux, toute une génération de futurs acteurs qui seront devenus conscients de leur pouvoir et de leurs actes, et qui auront été formés comme jamais au fonctionnement de nos institutions, comme le sont tous les gamins qui ont suivi les débats et les méandres du feuilleton d’Hadopi.

Ils élèvent, de fait, tous ceux qui les enterreront par des compétences acquises à la dure – et autre part que sur les bancs bien sages de Science-Po et de l’ENA. Car que dire sinon la désolation que provoque l’écoute de ces politiciens professionnels, visiblement dépassés par un dossier qu’ils ne maîtrisent pas, qui avouent leur méconnaissance totale de cet outil pourtant utilisé par la majorité de leurs électeurs, et qui tremblent de peur devant cette évolution qu’ils n’ont ni voulue ni prévue ?

Comment croyez-vous que va réagir l’étudiant né dans le monde numérique quand il écoute un député annonçant des arguments débiles (« dans 20 ans plus personne n’achètera de CD », quel visionnaire !), mauvais orateur, répétant à l’envi des antiennes largement démontrées comme étant de purs mensonges ? Que croirez-vous qu’il se dira, sinon qu’un député grassement payé à ne presque rien faire ne mérite pas son poste ?

Car c’est vers ça qu’on se dirige, si vous m’en croyez. La révolution ne viendra pas des urnes, ou pas seulement, mais bien surtout de la réaction non aux idées mais à l’indigence des débats publics quand on les compare à la richesse des débats numériques.

Combien de bloggeurs d’aujourd’hui seront nos penseurs de demain ? Et quel talent, si l’on les compare à nos tristes habitués des plateaux télé. Quel verbe que celui d’un simple utilisateur de Twitter, habitué à faire passer son opinion en seulement 140 caractères, quand on le compare aux discours mal rédigés par des attachés parlementaires bien pâlots.


Et que croyez-vous que pensent tous ces utilisateurs d’Internet, lorsqu’ils s’envoient des adresses de billets tous plus intelligents les uns que les autres, quand ils constatent la bêtise flagrante de ceux qui sont sensés les représenter mais ne représentent finalement que les intérêts des grands industriels pourvoyeurs de financements politiques et de futures reconversions dans des postes de parachutistes dorés ?

Certes, il faudra du temps. On ne passe pas du jour au lendemain de MSN à la politique. Mais ce temps-là sera passé en lutte, et ces luttes accoucheront d’hommes d’État, je veux le croire, plutôt que d’hommes politiques. Elle seront menées contre la réaction à une évolution nécessaire et inéluctable de nos sociétés, et parce qu’elle se heurteront à cette réaction, elles ne feront guère de réactionnaires. Et les premiers mouvements comme les différents « partis pirates » d’Europe ne sont que les prémices d’un futur qui balaiera je l’espère la caste des parlementaires, idiots inutiles de la République.

C’est vrai : nul ne peut dire ce qu’il adviendra. Mais je peux sans trop de risque, après avoir observé l’évolution d’Internet depuis plus de 17 ans maintenant – déjà – prédire que le futur ne sera pas rose pour ces politiciens qui n’ont jamais connu de réelle concurrence et qui vont devoir s’y résigner.

Notes

[1] Crédit photo : Roby Ferrari (Creative Commons By-Sa)




Agenda 2010 Wikimédia ou comment rendre original un cadeau banal

Agenda 2010 WikimédiaC’est bientôt la Noël et ses rituels spirituels et consuméristes. Et comme chaque année, la question existentielle suivante : Mais que vais-je donc bien pouvoir offrir à Tata Jeanine ?

Et que se passe-t-il si vous êtes à court d’idées, de temps et d’imagination ? Vous allez immanquablement penser à… un agenda (il ne reste plus que cette option puisque Tata Jeanine n’aime pas le chocolat).

Or cela tombe bien puisque c’est exactement le cadeau que nous allons nous aussi vous suggérer ! Sauf que cet agenda-là possède selon nous un petit supplément d’âme puisqu’il est proposé par Wikimédia France en partenariat avec l’éditeur InLibroVeritas (sous double licence libre Creative Commons By-Sa et Art Libre).

Donc, chère Tata, tu auras l’impression qu’une fois de plus je ne me suis pas foulé, mais détrompe-toi car tu tiendras entre les mains bien plus qu’un simple calendrier illustré et légendé, aussi beau soit-il (ce qui est d’ailleurs le cas). Tu tiendras entre les mains une infime mais lumineuse parcelle de ce libre accès à la connaissance souhaité et rendu possible par les projets Wikimedia (l’occasion du reste de nous rendre compte ensemble que Wikimedia ne se résume pas à l’encyclopédie Wikipédia).

L’agenda 2010 Wikimédia se présente au format A4 sous un format hebdomadaire (une page par semaine avec notation de rendez-vous sur la page de droite, une photo dûment sélectionnée sur la page de gauche). Vous pouvez le consulter en ligne et bien entendu l’acheter chez InLibroVeritas au prix de 25€.

Vous trouverez ci-dessous copie de la préface rédigée par Adrienne Alix, la présidente de l’association Wikimédia France qui, dernier argument, touchera l’intégralité des bénéfices de la vente.

PS : On peut voir l’intégralité des photos de l’agenda (et même un peu plus) sur cette page de l’espace personnel d’Adrienne sur Wikimedia Commons[1].

Agenda 2010 Wikimédia

Préface

« Wikipédia » : pour vous ce mot évoque internet, culture, diffusion du savoir. Saviez-vous qu’à côté de Wikipédia se développent des projets liés, complémentaires et dynamiques ?

Ce que Wikipédia est à la connaissance encyclopédique, Wikimedia Commons l’est aux contenus multimédias, Wikisource aux textes anciens, Wikiquote aux citations : des projets de diffusion libre et massive de connaissances.

Tous ces projets, et d’autres encore, font partie du mouvement Wikimédia. Ils sont hébergés par la Wikimedia Foundation, une association à but non lucratif. Ils fonctionnent, comme Wikipédia, sur un mode collaboratif : chaque internaute est invité à apporter selon ses capacités sa pierre à la diffusion du savoir.

Aujourd’hui, l’association Wikimédia France, association pour le libre partage de la connaissance, a voulu mettre en valeur le fabuleux contenu de ces projets. Et comment mieux valoriser ces projets qu’en montrant leurs contenus ? C’est la raison d’être de cet agenda.

Nous voulons vous montrer, grâce à un bel objet qui vous accompagnera toute l’année, la richesse culturelle des projets Wikimédia.

En illustrant cet agenda avec des photos tirées de Wikimedia Commons, vous découvrirez que cette médiathèque libre, contenant plus de 5 millions de fichiers rassemble des photos de monuments, d’animaux, de splendeurs de la nature ; mais aussi des cartes, des gravures, des tableaux. Sans compter les documents diffusés sous licences libres par de grandes institutions : NASA, Archives fédérales allemandes, qui ont choisi de libérer leurs contenus.

Les photos que nous avons choisies pour cet agenda ont pour objectif de montrer la richesse de Wikimedia Commons et de vous inciter à la fois à vous servir de cette base incroyablement riche pour vos besoins personnels ou professionnels (exposés, présentations, livres, journalisme etc.) ; mais aussi à contribuer à son enrichissement : vous aussi, vous pouvez choisir de placer vos photos sous licence libre et de les offrir à la diffusion sur Wikimedia Commons.

Pour accompagner ces belles photos, nous avons choisi quelques mots. Parfois un extrait d’article de Wikipédia, qui vous incitera à aller en savoir plus sur l’encyclopédie ; ou un extrait de texte tiré d’un livre de Wikisource, la bibliothèque numérique de textes libres de droits ; voire une citation extraite de Wikiquote, projet dédié à la collecte de citations.

Par l’achat de cet agenda, vous soutiendrez concrêtement et financièrement ces projets pour qu’ils continuent à vivre et à nourrir notre vie culturelle. Les projets Wikimédia ne vivent que par les dons de ceux qui les soutiennent. Merci de tout cœur.

Nous vous souhaitons de passer une belle année 2010 avec les projets Wikimédia. Notre ambition est de vous faire découvrir leurs richesses, et pourquoi pas de vous inciter à y participer.

Adrienne Charmet-Alix
Présidente de Wikimédia France – association pour le libre partage de la connaissance

Vous trouverez à la fin de l’agenda une présentation plus complète des projets ainsi que les adresses internet des sites et des contenus utilisés pour la réalisation de cet agenda.

Commander l’agenda 2010 Wikimédia

Agenda 2010 Wikimédia

Notes

[1] Crédit photos : Paulrudd (Creative Commons By-Sa) et Irving Underhill agenda ariège (Domaine public)




La neutralité du réseau – Benjamin Bayart – Extrait du livre La bataille Hadopi

La bataille Hadopi - InLibroVeritas - CC by-sa et Art Libre« La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle. »

Ainsi s’achève ce très intéressant article de Benjamin Bayart pioché dans le non moins intéressant livre choral d’InLibroVeritas La bataille Hadopi (et ses 40 auteurs).

Benjamin Bayart, c’est le président de French Data Network (FDN). C’est aussi l’homme de la désormais célèbre expression du « Minitel 2.0 » et de la citation suivante qui prend le même chemin : « l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire ».

Mais c’est surtout un « expert des libertés numériques » (dixit Nicolas Dupont-Aignan) et certainement l’un des meilleurs d’entre nous lorsqu’il s’agit d’exposer et d’expliquer ce sujet à la fois simple (à comprendre) et complexe (à défendre) qu’est la Neutralité du Net.

C’est pourquoi cet article synthèse, au style plaisant malgré la rugosité du propos, nous semble important à lire et à faire lire.

PS : Vous trouvez l’article trop long pour un blog ? C’est peut-être parce qu’Internet vous a rendu idiot ! Mais nous avons une solution : commander le livre, dont les bénéfices iront intégralement à La Quadrature du Net, et qui vous fera découvrir par la même occasion 39 autres articles du même acabit.

La neutralité du réseau

URL d’origine du document

Benjamin Bayart – Octobre 2009 – La Bataille Hadopi (InLibroVeritas)
Licence Creative Commons By-Sa et Licence Art Libre

La bataille d’Hadopi, telle que nous l’avons connue à l’Assemblée Nationale et dans les médias a eu plusieurs vertus. La première, longuement expliquée déjà, est d’avoir amené à la politique toute une population, appelée « les Internautes » pour faire simple, qui ne s’en préoccupait pas vraiment avant.

La seconde vertu de la bataille d’Hadopi, c’est d’avoir permis de bien mettre en avant ce qui est, au fond, l’enjeu central de tous ces sujets, à savoir non pas la rémunération des artistes, auteurs et troubadours, mais la neutralité du réseau et ses enjeux.

En effet, quand le Conseil Constitutionnel a eu à connaître de ce texte, finalement bébêtte, qui menaçait de couper d’Internet les enfants qui téléchargent comme nos parents nous privaient de télé, il le censura. Et pas sur de l’argutie légère ou sur un point de détail, non, sur du fondamental, sur du lourd, du très lourd : présomption d’innocence et liberté d’expression. Deux des piliers des Droits de l’Homme depuis 1789.

Comment cette loi supposée traiter un problème assez léger a pu se cogner dans des problèmes aussi lourds ?

Internet – liberté fondamentale

Pour expliquer ça, il faut revenir un peu en arrière, et essayer de comprendre ce qu’est Internet, et son influence sur la marche du monde. Internet est, en beaucoup de points, comparable à l’imprimerie. D’abord par sa nature, c’est un moyen de diffusion de la connaissance, et d’accès à celle-ci. Ensuite, par ses conséquences. L’invention de l’imprimerie, et son lent développement, à partir de 1445, ne peut pas être séparée des évolutions majeures de l’époque. Pas de renaissance et de démarche scientifique sans moyen moderne de diffusion des connaissances. On ne peut pas séparer la renaissance du renouveau philosophique, et en particulier de la philosophie des Lumières, donc des révolutions démocratiques. De même que tout le progrès scientifique et technique du dix- neuvième siècle est impensable sans les avancées fondamentales de la renaissance et la naissance de la démarche scientifique.

Ce n’est pas l’imprimerie qui a fait ça. On peut toujours lancer des petits caractères en plomb sur les soldats, ça ne renverse pas les gouvernements. Mais l’imprimerie était une étape nécessaire, pour permettre ces évolutions et ces changements, il fallait un moyen moderne et rapide de diffuser et de conserver le savoir pour qu’il puisse s’accroître.

De la même manière, Internet change très en profondeur la façon dont se diffuse, et donc la façon dont se crée, le savoir. Une bonne façon de résumer ça est de dire que l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire.

On a déjà dit cent fois qu’Internet met à la disposition de tous, et sans coût notable, modulo quelques barrières pénibles, la totalité du savoir de l’humanité, c’est facile à comprendre. On a moins souvent dit, parce que c’est moins clair pour un esprit formé au siècle dernier, qu’Internet permet à chacun de construire le savoir de l’humanité, c’est-à-dire d’écrire.

Bien entendu, chacun sait qu’Internet n’est pas qu’un lieu d’échanges savants entre érudits. Forcément. L’imprimerie ne sert-elle qu’à imprimer des ouvrages savants ? Pour un livre « intelligent », combient sont imprimés de prospectus, de tracts, de catalogues, de correspondances sans intérêts (factures, relevés, avis, et autre paperasses) ? Et bien Internet suit la même pente. Fondamentalement, il a été créé pour diffuser et produire de la connaissance scientifique à grande échelle et rapidement, mais il était évident depuis le premier jour qu’il servirait aussi à diffuser et produire tout le reste de ce qu’on peut vouloir diffuser ou produire comme information.

Cependant, bien que l’imprimerie soit en majorité utilisée à des fins futiles, il ne vient à l’idée de personne de remettre en cause la liberté de la presse. Il y a là une logique, l’outil technique a apporté une avancée pour la société, et c’est pour défendre l’avancée qu’on défend l’outil. D’une manière similaire, Internet crée une percée importante, un changement profond, même si une partie colossale du trafic sur le réseau correspond à autre chose.

Un argument souvent opposé à cette vision du réseau est d’expliquer que les discussions y sont trop souvent d’un faible niveau, qualifiées de discussions de café du commerce. Là encore, c’est une analyse à courte vue. D’abord parce que la forme d’expression permise par le café du commerce ne permet pas de construire de vrais argumentaires : on est dans l’oral, dans le périssable, et dans le débat privé, donc sans argumentation extérieure possible. Ce qu’Internet crée comme débat est structurellement différent. Les débats sur la place publique, le plus souvent par écrit, permettent aux points de vues de se confronter, de s’invalider, ou au contraire de se renforcer, de s’étayer. De tout cela, il ressort une espèce de discussion du café du commerce dont on consignerait les arguments par écrit, pour les étudier, les rendre publics, bref, pour en faire une vraie réflexion. Au final, c’est plus proche des débats publics, qu’on connaît depuis longtemps, mais qui ne sont plus réservés à de petits groupes.

De tout celà, une idée forte est à retenir : Internet est l’avancée technique qui a permis, enfin, l’exercice réel de la liberté d’expression. La presse, on s’en rend compte avec le recul, ne fournissant au fond que la liberté d’accéder à l’information. Et c’est bien sur cette base-là que la Conseil Constitutionnel a censuré l’Hadopi, c’est bien en se référant à l’article 11 de la Déclaration Universelles des Droits de l’Homme et du Citoyen de 1789, à savoir :

Art. 11 : La libre communication des pensées et des opinions est un des droits les plus précieux de l’homme ; tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté dans les cas déterminés par la loi.

On a donc, validé par le Conseil Constitutionnel, cette première étape de marquée : Internet est essentiel à l’exercice de la liberté d’expression, qui est une liberté fondamentale.

Hadopi – Besoin d’un juge

C’est le premier point, immense, gagné dans la bataille d’Hadopi. Maintenant, ce n’est plus une renvendication, ce n’est plus un point de vue de visionnaire maniaque du réseau ou de futurologue échevelé, c’est une décision, forte, d’une autorité qu’on ne peut pas soupçonner de travailler avec légèreté, ou de se laisser emporter par sa technophilie. Or, de ce point fondamental qui vient d’être édicté par le Conseil, il découle des conséquences inattendues et fortes, pour ceux qui pensaient priver les gens d’Internet comme on prive un enfant de télévision ou de dessert.

En effet, priver un citoyen d’une liberté fondamentale, ce n’est pas une décision qui se prend à la légère. Il y a des cas, prévus, connus, codifiés, mais ce sont des sanctions lourdes, pour des délits ou des crimes graves. L’exemple le plus connu, et pratiquement le seul, est l’emprisonnement ou l’assignation à résidence[1]. Une telle mesure de privation de liberté ne peut être décidée que par un juge, et dans le cadre d’une procédure contraignante. Ce qu’on apprend donc, toujours en lisant la même décision du Conseil, couper l’accès Internet d’un citoyen, c’est aussi sérieux que de l’envoyer en prison, et ne peut donc pas se faire dans n’importe quelles conditions. On est maintenant bien loin de la petite loi simpliste, pensée trop vite par des gens qui ne comprennent plus le monde qui les entoure.

De là, bien entendu, les autres conséquences qu’en tire le Conseil dans sa décision, à savoir que la présomption d’innocence est de mise, qu’il faudra des preuves de la matérialité des faits pour condamner, que le juge sera requis, que le mouchard filtrant obligatoire pour pouvoir se disculper n’est pas valable dans ce contexte, bref, tout l’édifice Hadopi s’effondre.

Neutralité du réseau

Un point n’est pas abordé par le Conseil Constitutionnel dans sa décision, et pourtant il est important pour comprendre là où on va, c’est celui de la nécessité de la neutralité du réseau.

Pour aborder ce sujet-là, il faudrait faire un peu de technique, expliquer avec quelques termes barbares des notions affreuses, comme l’analyse de traffic, l’analyse protocolaire, l’analyse de contenu, l’analyse de comportement, et le tout dans un beau jargon anglais. Pour éviter cela, on va se contenter d’une définition intuitive et pratique : on dit que le réseau est neutre si on sait qu’on peut lui faire confiance pour ne pas altérer le message. C’est le cas par exemple du réseau utilisé pour les discussions orales : quand on parle, de vive voix, en face à face, on sait que l’air qui nous sépare ne modifie pas les propos, que ce qui est dit est vraiment dit. Qu’il vienne se glisser dans la discussion un interprète, et alors, forcément, la question de confiance se pose.

L’intermédiaire, dans cet échange, n’est acceptable que si les deux interlocuteurs lui font une confiance entière et absolue. à tel point que, lorsqu’on n’a pas confiance en l’interprète, chacun vient avec le sien. On dit alors que le réseau est neutre quand il joue le rôle d’un interprète idéal, réussissant à transporter le message sans l’altérer en rien, sans le déformer.

Une autre façon de le dire, c’est de considérer ce qu’est Internet. D’où que je sois sur le réseau, je vois Internet. Si l’Internet que je vois depuis un point A n’est pas le même que l’Internet que je vois depuis un point B, alors, quelque part, quelque chose n’est pas neutre. Par exemple, quand un site est filtré dans un pays, c’est une atteinte à la neutralité du réseau : depuis ce pays-là, le site ne marche pas, et curieusement depuis partout ailleurs il marche bien. Par exemple, quand un site est enrichi : je peux mettre en place, sur le réseau de mon entreprise, un mécanisme qui fait qu’à chaque fois que j’accède à tel site de mon fournisseur habituel, il soit affiché des informations annexes (dernière fois qu’on a commandé tel produit, quantité disponible en stock, etc). Quelqu’un qui viendra se connecter à ce réseau verra un site qui n’est pas le même que celui qu’il voit quand il se connecte depuis chez lui : mon réseau n’est plus neutre, il fausse la communication, il ajoute des informations qui n’existent pas.

La neutralité des réseaux est importante. En fait, autant que le réseau lui même. C’est presque sa définition. Internet n’est que l’accord d’interconnexion, techniquement neutre, entre les réseaux de plus de 40.000 opérateurs sur la planète. Supprimez cette neutralité, et ce n’est plus Internet.

Il ne faut pas se méprendre, ça ne veut pas dire qu’il ne faut pas, jamais, enrichir ou filtrer, simplement, que ce n’est pas le réseau qui doit le faire, et que si un réseau fait ça, ce n’est plus Internet.

Pour reprendre les exemples précédents, le service, fort utile, imaginé sur ce réseau d’entreprise, n’est pas en soi une mauvaise chose. Simplement, ce réseau d’entreprise n’est plus Internet. C’est un réseau d’entreprise, un outil interne, comme le logiciel de comptabilité ou l’outil pour faire les devis.

Il y a donc deux éléments fondamentaux pour définir la neutralité du réseau : le premier est que jamais le réseau lui-même ne doit altérer en rien le contenu, le second est que les altérations sont nécessairement pilotées en périphérie du réseau. Par exemple quand je filtre les mails publicitaires (les spams), c’est moi qui ai la maîtrise de ces filtres, je peux les activer ou les désactiver, selon mon bon vouloir. Et ce point-là est fondamental, c’est moi qui trie le courrier intéressant du courrier inutile, pas le facteur.

Pilier des libertés

La neutralité du réseau n’est pas, en elle-même, une liberté fondamentale. Mais c’est un élément important, parce que sur cette neutralité sont adossées des libertés.

Par exemple la liberté d’expression évoquée par le Conseil Constitutionnel, n’a pas de sens sur un réseau qui ment : comment savoir si le texte que je suis en train d’écrire sera bien reçu, non modifié, par mes lecteurs ? Comment savoir s’il sera modifié, et si oui par qui ? Moi, je vois bien ce texte tel que je l’ai posté. Tant qu’Internet est neutre, et que donc tout le monde voit le même Internet, alors tout le monde voit mon texte tel que je l’ai publié. Sitôt que le réseau n’est plus neutre, je n’ai aucun moyen de savoir ce que voit mon voisin. Donc, sur un réseau non-neutre, je ne peux pas exprimer librement ma pensée, et donc l’exercice pratique et réel de cette liberté est remis en cause.

Par exemple la liberté d’accès à l’information. En effet, tant que le réseau est neutre, chacun peut être confiant dans ce qu’il lit sur le réseau. Non pas que toutes les informations y soient justes (ce serait utopique comme croyance), mais simplement de savoir que l’information qu’on reçoit est bien celle qui a été émise. Si le réseau n’est plus neutre, comment savoir si le texte est bien le fruit de la pensée de son auteur, ou s’il a été ‘‘ caviardé ’’ au passage par les habiles ciseaux de la censure moderne ? Si je ne peux plus avoir confiance dans le réseau de transport, alors je ne peux plus avoir confiance dans l’information qui est dessus. La liberté d’accès à l’information est amputée.

Par exemple, la libre concurrence, qui est une liberté moindre en général (la liberté de choisir son fournisseur, par exemple), peut devenir fort sérieuse sitôt qu’on parle d’accès à l’information (choisir un quotidien par exemple, ce n’est pas tout à fait comme choisir une marque de lessive). En effet, les atteintes à la neutralité du réseau sont souvent le fait d’opérateurs en place, ou de fournisseurs de services bien implantés, utilisant une position de force pour évincer d’éventuels concurrents. Ce mode de fonctionnement n’est pas le modèle habituel d’Internet. En effet, sur un réseau neutre, n’importe quel abonné à Internet peut, de chez lui, proposer n’importe quel service, et peut donc, sans permis, sans moyens financiers particuliers, sans moyens techniques particuliers, innover et mettre en œuvre des idées nouvelles. Sur un réseau non-neutre, ce n’est plus possible. Les modèles économiques qui découlent de ce choix d’un réseau neutre ou non ont, entre autre conséquence, pour effet d’empêcher l’innovation en la réservant aux acteurs en place.

Si la neutralité du réseau n’est pas une liberté en elle-même, elle est nécessaire à pouvoir garantir d’autres libertés, tout comme la séparation et l’équilibre des pouvoirs n’est pas une liberté en elle-même, mais une condition nécessaire.

Modèle économique

L’argument le plus souvent employé par les opposants à la neutralité des réseaux est celui de la congestion. Internet serait trop plein, et, étant rempli, il faudrait rationnaliser l’usage de la bande passante devenue rare. La technique habituelle de rationalisation des ressources rares étant l’économie, on transporterait de manière plus prioritaire les données des plus offrants, et donc on pénaliserait les autres.

Cet argument a pour principale caractéristique d’être faux. Sauf dans sa causalité, en effet le réseau est très régulièrement saturé. Et ce de manière normale et naturelle. En moins de dix ans, la France est passée, par exemple, de zéro à plus de dix-huit millions d’accès permanents à haut débit, générant des usages, et donc de la charge pour le réseau. Dans cette croissance très rapide, bien entendu, il y a des phases de saturation, qui sont résorbées en investissant sur la capacité du réseau.

Il y a deux façons de traiter une saturation du réseau, l’une qui est d’investir sur la capacité du réseau, cet investissement devant être refait très régulièrement, aussi longtemps que les usages continueront de croître à un rythme soutenu, l’autre étant d’investir, très régulièrement aussi, dans des équipements permettant de sélectionner le trafic à faire passer en priorité. Ces deux modèles correspondent à des niveaux d’investissements similaires, simplement pas sur les mêmes technologies.

Porter atteinte à la neutralité du réseau est donc bien, effectivement, un moyen de résoudre une saturation du réseau, tout comme on peut résoudre une pénurie de logements en augmentant les prix des loyers, ou en construisant des logements. Simplement, ce moyen est dangereux, qui porte atteinte, comme on l’a vu, aux libertés. Laisser à des opérateurs privés, à des financiers, le choix de porter atteinte aux libertés individuelles n’est pas une option valable.

Difficultés techniques

Filtrer Internet, puisque c’est bien de cela qu’on parle, pose de grosses difficultés techniques :

  • Que ce soit du filtrage pur (faire disparaître tel contenu), et on se retrouve alors avec des moyens qui fleurissent pour contourner le filtre. Par exemple, tel texte est interdit, il circulera le lendemain sous forme d’une image, ou d’un enregistrement audio.
  • Que ce soit de la priorisation de trafic, et là aussi les moyens de contournement fleuriront. Le trafic web est plus rapide que le trafic de partage de musique chez mon opérateur ? Dans les jours qui suivent, l’application de téléchargement ressemblera à s’y méprendre à du trafic web, pour devenir elle aussi favorisée.

Ce n’est pas nouveau, c’est le principe de l’arme et de l’armure. Plus l’arme est puissante, plus l’armure est solide. Et, en matière de réseau et de numérique en général, la puissance des moyens de contournement des filtres se trouve sur les ordinateurs en périphérie du réseau (basiquement, sur mon bureau). Or il y a beaucoup plus de puissance sur les ordinateurs individuels des utilisateurs que sur la totalité de tous les systèmes de traitement du réseau lui-même. Pour faire un parallèle hasardeux : que les automobilistes décident de ne plus s’arrêter au péage, et, forcément, les barrières de péage seront explosées. Il y a trop de voitures pour les contenir autrement qu’avec la bonne volonté des conducteurs.

Difficulté politique

Par ailleurs, le filtrage décidé par un état, en général sous couvert de nobles objectifs, comme par exemple de museler les terroristes, ou de protéger les enfants, etc. pose une vraie difficulté politique.

Chaque état aura sa propre politique de filtrage, selon ses propres critères, correspondant à sa notion de l’intérêt général. Par exemple, l’Iran et les USA n’ont pas la même vision de ce qu’est un dangereux terroriste mettant en danger la nation. Or le trafic, sur Internet, passe d’un opérateur à l’autre, sans faire vraiment attention aux pays. Si chaque pays a sa propre politique de filtrage, alors le filtrage résultant, pour l’internaute, est la somme des effets de ces politiques sur le chemin suivi par sa communication.

Pour aboutir à un résultat cohérent, il faut donc une cohérence des filtrages. Sans quoi, quand je veux accéder à une information interdite dans le pays A, je m’arrange pour que ma connexion passe plutôt par un pays B qui a d’autres vues, chose qui est techniquement assez simple, et en train de se démocratiser. D’ailleurs, pourquoi ces techniques sont en train de se démocratiser ? Elles ont été mises au point en général pour des usages pointus, par exemple d’accéder aux données clefs de l’entreprise, pour le cadre dirigeant, depuis chez lui, sans risque pour la sécurité de l’entreprise. Elles ont été raffinées pour contourner les filtrages les plus voyants, par exemple pour accéder à de l’information y compris quand on est en Chine. Et elles sont en train de se démocratiser… à cause de la bataille d’Hadopi et des batailles voisines qui ont lieu dans toute l’Europe.

Le premier grand combat

Au final, tout ça nous dit quoi ? Qu’Internet est important, que ce n’est pas un jouet, mais un pilier de la société de demain. Et qu’on ne peut pas en faire n’importe quoi. En particulier, on ne peut pas se permettre de l’abîmer, de le polluer, de le filtrer.

La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle.

Notes

[1] Qui portent, bien entendu, atteinte à la liberté d’aller et venir, qui est elle aussi une liberté fondamentale.