20 ans de plus pour le Copyright musical en Europe : C’est là qu’est le véritable Vol !

Alan Stanton - CC by-saL’Europe prolonge de 20 ans les droits des interprètes et producteurs de musique pouvait-on lire dans Le Monde il y a un mois.

Pourquoi 20 ans au fait ? Et nous a-t-on jamais demandé notre avis ? D’ailleurs pourquoi 20 ans de plus et pas de 20 ans de moins ?

C’est ce que se demande, non sans une certaine (acide) ironie, l’un de ceux que nous traduisions le plus à Framalang : notre ami Glyn Moody[1].

Le copyright c’est le vol

Copyright Theft

Glyn Moody – 13 septembre 2011 – Blog personnel
(Traduction Framalang : Nilux, ZeHiro, Duthils et Penguin)

L’idée de « vol de copyright » est très répandue et l’idée que les gens « volent » du contenu numérique aux créateurs, sont des figures de style récurrentes chez les maximalistes du droit d’auteur. Tout ceci n’est bien sûr que des âneries. La loi stipule clairement qu’il ne s’agit que d’infraction au droit d’auteur, et la logique nous prouve que la copie numérique n’est pas du vol, puisqu’elle ne prive de rien, mais multiplie.

On peut effectivement se poser la question de savoir si la duplication non autorisée engendre une perte de revenus, mais la réponse n’est pas aussi simple que ce que l’on voudrait nous faire croire. Un large éventail d’études démontre que ce partage stimulerait les ventes, agissant comme une sorte de marketing officieux – et gratuit.

C’est pourquoi j’ai longtemps préconisé des recherches indépendantes sur ce sujet – après tout, si les industries liées au droit d’auteur sont si sûres que le partage de fichiers engendre des pertes de revenus, qu’auraient-elles à craindre d’études objectives à ce sujet ? Pourtant, elles semblent réticentes ne serait-ce qu’à envisager cette idée.

Mais quels que soient vos avis sur ce problème en particulier, il y a de grandes chances que ce qui suit ne fasse que l’aggraver :

Le Conseil Européen a adopté aujourd’hui, à la majorité qualifiée, une directive qui fait passer de cinquante à soixante-dix ans la durée de protection des droits des artistes interprètes ou exécutants et des producteurs d’enregistrements musicaux dans l’UE.

Sur le plan pratique, cela signifie qu’il y a très peu de chances que je – ou n’importe lequel de mes contemporains qui soit plus mélomane que moi – puisse un jour utiliser la musique d’aujourd’hui pour créer de nouvelles œuvres. Tout comme avec les autres médias, la musique enregistrée aujourd’hui vivra pendant près d’une centaine d’années dans une bulle aseptisée dans laquelle personne ne sera autorisé à entrer.

Tout ceci est théorique et très éloigné de nous ; il n’est peut-être pas évident de voir où est le problème. Examinons donc de plus près ce qu’il s’est passé en imaginant un étrange monde parallèle, remarquablement identique au nôtre, dans lequel ceci se serait produit:

Le Conseil Européen a aujourd’hui adopté à la majorité qualifiée une directive réduisant la durée de protection des droits des des artistes interprètes ou exécutants et des producteurs d’enregistrements musicaux dans l’UE de 50 à 30 ans.

Comme vous pouvez le constater, ce monde est presque strictement identique au nôtre, à la légère différence que la durée de validité du droit d’auteur pour les enregistrements musicaux a été raccourcie de 20 ans au lieu d’être allongée. Légère différence, penseriez-vous – après tout, 20 ans de plus ou moins, qu’est-ce que cela change ? Si on peut rallonger cette durée, on peut aussi la raccourcir, non ?

Mais dans ce monde parallèle, imaginez les hurlements de douleur et de colère qui émaneraient de l’industrie musicale face à cette réappropriation outrageuse et injustifiée de ce qui leur revient de droit. Les musiciens descendraient manifester dans la rue, et les compagnies vivant sur leur dos activeraient comme jamais leurs groupes de pression pour inverser cette terrible décision.

Heureusement pour eux, il ne s’agit que d’un monde parallèle. Mais grâce à la symétrie du droit d’auteur – c’est-à-dire le fait qu’il soit une aubaine aussi bien pour les créateurs que pour leur public, les premiers obtenant un monopole temporaire en échange d’un passage dans le domaine public une fois ce monopole expiré – c’est vous, moi et chaque membre de ce nébuleux public – qui sommes dépossédés. À la seule différence que personne n’est descendu dans la rue pour protester.

Quand les musiciens ont enregistré leurs chansons, l’accord était qu’ils recevraient des droits d’auteurs pendant 50 ans (ou moins, selon l’époque à laquelle ils les ont enregistrées). En contrepartie de ces 50 ans, ils acceptaient que le domaine public s’en voie enrichi pour que nous, le public, puissions faire ce que bon nous semble de cette musique.

Ce pacte, accepté librement par les deux parties, vient tout juste d’être brisé. Les enregistrements n’entreront plus dans le domaine public à la date convenue ; au lieu de ça, nous devrons attendre 20 années de plus. Dans les faits, on nous a volé 20 ans de domaine public, vu que rien ne nous a été donné en échange de cette perte soudaine.

Il n’y a donc pas à chipoter pour savoir s’il s’agit de vol ou non, puisque quelque chose nous a été pris sans que l’on nous en demande la permission. Oui, le Conseil Européen est censé, en théorie, agir en notre nom, mais je ne me souviens pas que l’on m’ait, à aucun moment, demandé mon accord. Le fait est que le Conseil a agi de façon unilatérale, à l’injonction de l’industrie musicale qui voulait le beurre et l’argent du beurre – et non parce que nous, le public, demandions aux politiciens de changer la loi en ce sens pour nous rendre plus pauvres que nous ne l’étions.

Voilà ce qu’est le vrai vol de droit d’auteur : on vole le public par une extension injustifiée et non démocratique du droit d’auteur.

Notes

[1] Crédit photo : Alan Stanton (Creative Commons)




Android et la liberté des utilisateurs par Richard Stallman

Laihiuyeung Ryanne - CC byAndroid, le système d’exploitation de Google pour la téléphonie mobile, est-il véritablement un logiciel libre ?

C’est la question que s’est posée récemment Richard Stallman dans le colonne du Guardian.

« Presque » pourrait être une réponse optimiste. Mais c’est un presque subtil et complexe qui demande quelques explications et éclaircissements[1].

Parce qu’ici comme ailleurs, le diable se cache souvent dans les détails…

Android et la liberté des utilisateurs

Android and Users’ Freedom

Richard Stallman – 19 septembre 2011 – GNU.org
Traduction : Sylvain Le Menn – Creative Commons BY-ND

Dans quelle mesure est-ce qu’Android respecte les libertés de ses utilisateurs ? Pour l’utilisateur d’un ordinateur qui chérit la liberté, c’est la question la plus importante à se poser pour tout logiciel.

Dans le mouvement du logiciel libre, nous concevons des logiciels qui respectent les libertés des utilisateurs de sorte que vous comme moi puissiez échapper à l’emprise de ceux qui les dénient. Cela contraste avec l’idée de l’« open source » qui se concentre sur la façon de concevoir le code ; c’est une réflexion différente qui s’intéresse principalement à la qualité du code plutôt qu’à la liberté. Ainsi, le souci principal n’est pas de savoir si Android est « ouvert », mais s’il permet à celui qui l’utilise d’être libre.

Android est un système d’exploitation orienté principalement vers les téléphones portables. Il est constitué du noyau Linux (le noyau de Torvalds), quelques bibliothèques, une plateforme Java, et quelques applications. Sans parler de Linux, le logiciel d’Android versions 1 et 2 a été concu essentiellement par Google. Google l’a sorti sous la licence Apache 2.0, qui est une licence libre permissive sans copyleft.

La version de Linux incluse dans Android n’est pas un logiciel entièrement libre puisque qu’il contient des morceaux de code non libres (des « binary blobs »), tout comme la version de Torvalds de Linux, dont quelques-uns sont réellement utilisés dans des machines tournant sous Android. Les plateformes Android utilisent des microprogrammes non libres aussi, ainsi que des bibliothèques non libres. À part cela, le code source des versions 1 et 2 d’Android telles que faites par Google sont libres, mais ce code est insuffisant pour faire tourner l’appareil. Quelques applications qui viennent généralement avec Android sont aussi non libres.

Android est très différent du système d’exploitation GNU/Linux, car il contient très peu de GNU. En effet, le seul élément commun entre Android et GNU/Linux se résume à peu près à Linux, le noyau. Les gens qui font l’erreur de croire que « Linux » fait référence à la totalité de l’écosystème GNU/Linux s’emmêlent les pinceaux, et font des affirmations paradoxales telles que « Android contient Linux, mais ce n’est pas Linux ». Si nous évitons cette confusion au départ, la situation est simple : Android contient Linux, mais pas GNU. Ainsi Android et GNU/Linux sont majoritairement différents.

À l’intérieur d’Android, le noyau Linux reste un programme séparé, avec le code source sous licence GNU GPL version 2. Combiner Linux avec le code sous licence Apache 2.0 représenterait une violation du copyright, puisque les licences GPL version 2.0 et Apache 2.0 sont incompatibles. Les rumeurs que Google a d’une manière ou d’une autre fait passer Linux sous licence Apache sont fausses. Google n’a aucun pouvoir pour changer la licence du code de Linux, et n’a pas essayé de le faire. Si les auteurs de Linux autorisaient son usage sous la version 3 de la licence GPL, ensuite ce code pourrait être combiné avec un code sous licence Apache, et la combinaison pourrait être rendue publique sous licence GPL version 3. Mais Linux n’a pas été publié ainsi.

Google a respecté les règles de la licence GPL (General Public License ou Licence publique générale) pour Linux, mais la licence Apache sur le reste d’Android n’oblige pas à montrer le code. Google a dit qu’ils n’allaient jamais publier le code d’Android 3.0 (à part Linux), même si les exécutables ont été rendus disponibles pour le public. Le code source d’Android 3.1 est aussi retenu. Ainsi, Android 3, en dehors de Linux, est purement et simplement du logiciel non libre.

Google a dit qu’ils gardaient le code source de la version 3.0 parce qu’il était bogué, et que les gens devraient attendre la version d’après. Cela pourrait être un bon conseil pour ceux qui veulent juste faire tourner le système Android, mais les utilisateurs devraient être ceux qui prennent ces décisions. Et de toutes façons les développeurs et les bidouilleurs qui voudraient inclure des changements dans leurs propres versions pourraient très bien utiliser ce code.

Le fait de ne pas rendre publique deux versions du code source est source d’inquiétudes dans le sens que Google pourrait vouloir rendre Android propriétaire de manière permanente, que la publication de quelques versions d’Android ait été une stratégie temporaire afin d’obtenir l’aide de la communauté pour améliorer un logiciel propriétaire. Espérons que ce n’est pas le cas.

Dans tous les cas, la plupart du code source de plusieurs versions d’Android ont été publiées en tant que logiciel libre. Est-ce que ça veut dire que des machines qui utilisent ces versions d’Android respectent les libertés de l’utilisateur ? Non, ce n’est pas le cas pour plusieurs raisons.

Tout d’abord, la majorité des versions comprend des applications non libres de Google pour communiquer avec des services tels que Youtube et Google Maps. Celles-ci ne font pas officiellement partie d’Android, mais cela n’en fait pas un bon produit pour autant. Il y a aussi la présence de bibliothèques non libres. Qu’elles fassent partie d’Android ou pas est discutable, ce qui importe c’est que beaucoup de fonctionnalités en dépendent.

Même les exécutables qui font officiellement partie d’Android peuvent ne pas correspondre au code des versions de Google. Les constructeurs peuvent changer le code, et bien souvent ils ne publient pas le code source de leurs versions. La licence GNU GPL les oblige, en théorie, à redistribuer le code de leurs versions de Linux. Le reste du code sous licence Apache ne les oblige pas à publier le code source des versions qu’ils utilisent réellement.

Replicant, une version libre d’Android qui n’est compatible qu’avec quelques modèles de téléphones, a remplacé beaucoup de bibliothèques, et peut fonctionner sans les applications non libres. Mais il y a d’autres problèmes.

Certains modèles sont conçus pour empêcher leur propriétaire d’installer et de modifier le logiciel. Dans cette situation, les exécutables ne sont pas libres, même s’ils sont faits à partir d’une source libre qui est disponible pour vous. Cependant, certains appareils Android peuvent être «?rootés?», ce qui permet aux utilisateurs d’y installer d’autres logiciels.

Les micrologiciels importants et les pilotes sont généralement propriétaires aussi. Ceux-ci gèrent le matériel pour le réseau, la radio, le wifi, le bluetooth, le GPS, l’accélération 3D, l’appareil photo, les hauts-parleurs, et dans certains cas le microphone aussi. Sur certains modèles, quelques-uns de ces pilotes sont libres, et pour certains on peut s’en passer, mais le microphone et l’accès au réseau sont plutôt indispensables.

Le micrologiciel qui gère l’accès au réseau est préinstallé. Si tout ce que le programme se contentait de faire était de tourner dans son coin, on pourrait le considèrer comme un simple circuit. Quand on insiste sur le fait qu’un logiciel dans un ordinateur doit être libre, on peut passer sur un micrologiciel préinstallé qui ne sera jamais mis à jour, car cela ne fait pas de différence pour l’utilisateur que c’est un programme plutôt qu’un circuit.

Malheureusement, dans ce cas ce serait un circuit malveillant. Des fonctions malveillantes sont inacceptables, quelle que soit la manière dont elles sont implémentées.

Sur la plupart des téléphones Android, ce micrologiciel a tellement de contrôle qu’il pourrait transformer le produit en un appareil d’écoute. Sur certains, il peut prendre le contrôle entier de l’ordinateur principal, à travers la mémoire partagée, et peut ainsi supplanter ou remplacer le logiciel libre que vous avez installé. Avec certains modèles, il est possible d’exercer un contrôle à distance sur ce micrologiciel, et ainsi sur le téléphone tout entier, à travers le logiciel permettant l’accès au réseau. Le principe du logiciel libre, c’est d’avoir le contrôle sur la machine, et cet appareil en l’occurence ne remplit pas cette mission. Bien que n’importe quel système informatique puisse avoir des bogues, ces appareils peuvent être des bogues (Craig Murray, dans Meurtre à Samarkand, fait le récit de son rôle dans une opération de renseignement qui convertit un téléphone portable sans Android d’une cible peu suspicieuse en un appareil d’écoute).

En tout cas, le micrologiciel du téléphone permettant l’accès au réseau n’est pas l’équivalent d’un circuit, car le matériel permet l’installation de nouvelles versions, et il fonctionne dans ce but d’ailleurs. Puisque c’est un micrologiciel propriétaire, en pratique seul le fabricant peut faire de nouvelles versions, les utilisateurs ne le peuvent pas.

Pour résumer, on peut tolérer des versions non libres des micrologiciels gérant l’accès au réseau à la condition que des mises à jour ne seront pas téléchargées, elles ne prendront ainsi pas contrôle de l’ordinateur principal, et il peut seulement communiquer quand et si le système d’exploitation libre le permet. En d’autres termes, il doit avoir un fonctionnement équivalent à un circuit, et ce circuit ne doit pas être malveillant. Il n’y a pas d’obstacles à construire un téléphone Android qui a ces caractéristiques, mais nous n’en connaissons aucun.

De récentes couvertures médiatiques se sont intéressées aux guerres de brevets. Pendant les 20 ans de campagne qui ont été consacrés à l’abolition des brevets logiciels, nous avons prévenu que de telles guerres pouvaient arriver. Les brevets logiciels pourraient contraindre à la disparition de fonctions dans Android, ou même le rendre indisponible (consultez endsoftpatents.org pour plus d’informations sur les raisons nécessitant l’abolition des brevets logiciels).

Pourtant, les attaques sur les brevets, et les réponses de Google, n’ont pas de lien direct avec le sujet de cet article : comment les produits Android sont proches d’un système de distribution éthique, et comment ils échouent de peu. Ce problème mérite l’attention de la presse aussi.

Android représente une étape majeure vers un téléphone portable libre qui soit contrôlé par l’utilisateur, mais il y a encore beaucoup de chemin à parcourir. Les hackers travaillent sur Replicant, mais c’est un gros travail de rendre un nouveau modèle compatible, et il reste encore le problème du micrologiciel. Même si les téléphones Android d’aujourd’hui sont considérablement moins mauvais que les smartphones d’Apple ou de Windows, on ne peut pas dire qu’ils respectent vos libertés.

Notes

[1] Crédit photo : Laihiuyeung Ryanne (Creative Commons By)




Traducthon, tradaction, tradusprint… Pour un Web ouvert !

Geektionnerd - Simon Gee Giraudot - CC by-saDepuis plus de deux ans, plus précisément depuis un samedi de mai 2009 à l’occasion d’une Ubuntu party, je participe aux traductions collaboratives dans la vraie vie initiées par Framalang, le groupe de traducteurs gonzos du Framaland. Et je ne suis pas le seul à y avoir pris goût.

Nous avons récidivé à Bordeaux pour traduire Un monde sans Copyright, chez Mozilla Europe à Paris pour le manuel Thunderbird et en juillet dernier à Strasbourg à l’occasion des RMLL, pour vous proposer aujourd’hui Pour un Web ouvert.

J’ai traduit, aidé à traduire, relu et révisé des dizaines de textes de toutes sortes. Participer aux traductions d’articles avec Framalang depuis un certain temps déjà n’a fait que multiplier les occasions de pratiquer le petit jeu de la traduction. Mais participer à un traducthon est une tout autre expérience dont voici certaines caractéristiques.

Des traducteurs en chair, en os et en vie

Antoine Turmel - CC by-saCommençons par le plus flagrant : un traducthon c’est une rencontre physique de personnes qui ne se connaissaient pas forcément, qui n’étaient que des pseudos en ligne ou bien que l’on ne retrouve qu’à quelques occasions. C’est donc d’abord un temps convivial, où l’on échange des propos par-dessus le travail en cours, des plaisanteries de mauvais goût qui déclenchent le fou-rire, des considérations trollesques qui partent en vrille, mais aussi des projets, des questions, des réponses, des contacts, de la bière l’eau ferrugémineuse, des pizzas et des petits plats du restau du quartier. En somme c’est une petite bande de gens qui deviennent copains (au moins), une bande dont la géométrie est variable d’une session à l’autre suivant la disponibilité de chacun ou son libre désir de participer.

Le milieu des traducteurs libristes n’est pas si vaste, mais il est relativement compartimenté, généralement en fonction des tâches et projets. Un traducthon représente la possibilité de mettre un peu de liant dans cet émiettement des activités. Je suis assez content par exemple de voir se rencontrer sur une traduction partagée des copains de frenchmozilla et ceux de framalang. Ah mais j’entends aKa dans l’oreillette… ah oui, d’accord il faut employer au moins une fois le mot « synergie ». C’est fait.

Inconvénient ? C’est sûr, on découvre les vrais gens : Julien mange toute la tablette de Milka, Adrien est trop bavard, Goofy est un vieux et Simon ne devrait pas se laisser pousser la barbe.

Un défi, un enjeu, un grand jeu

La concentration dans le temps (un week-end, trois ou quatre jours dans le meilleur des cas…), la concentration dans un lieu de travail (une salle de cours de faculté plus ou moins équipée, un hall de la Cité des sciences, les locaux de Mozilla Europe…) sont bien sûr associées au défi que l’on se donne de terminer au moins un premier jet tout simplement parce qu’après le traducthon chacun reprend sa vie quotidienne et d’autres activités, il faut donc terminer « à chaud ». L’ensemble pourrait créer un stress particulier, mais le plus souvent il ne s’agit que d’une tension positive parce que nous sommes un groupe. Chacun sait que tout près un autre participant est animé lui aussi du désir d’atteindre le but commun. La collaboration crée en réalité l’émulation, chacun met un point d’honneur à faire au moins aussi bien et autant que ses voisins.

L’enjeu d’un traducthon est particulier car il s’agit d’un ouvrage d’un volume important et pas seulement d’un article de presse électronique qui est une denrée périssable, comme nous en traduisons régulièrement pour le Framablog. Dans un traducthon, nous nous lançons le défi de traduire vite un texte qui devrait pouvoir être lu longtemps et dont le contenu lui aussi est important. Nous avons le sentiment d’avoir une sorte de responsabilité de publication, et la fierté de mettre à la disposition des lecteurs francophones un texte qui contribue à la diffusion du Libre, de sa philosophie et de ses problématiques.

Reste que la pratique a heureusement une dimension ludique : les outils en ligne que nous partageons pour traduire, que ce soit la plateforme Booki ou les framapads, même s’ils ne sont pas parfaits, offrent la souplesse et l’ergonomie qui les rendent finalement amusants à pratiquer. Tous ceux qui ont utilisé un etherpad pour la première fois ont d’abord joué avec les couleurs et l’écriture simultanée en temps réel. Même au cœur du rush des dernières heures d’un traducthon, lorsque nous convergeons vers les mêmes pages à traduire pour terminer dans les temps, c’est un plaisir de voir vibrionner les mots de couleurs diverses qui complètent un paragraphe, nettoient une coquille, reformulent une tournure, sous le regard de tous.

Traduction ouverte, esprit ouvert

N’oublions pas tous ceux qui « passent par là » et disent bonjour sous la forme d’un petit ou grand coup de pouce. Outre ceux qui ont décidé de réserver du temps et de l’énergie pour se retrouver in situ, nombreux sont les contributeurs et contributrices qui collaborent sur place ou en ligne. Beaucoup découvrent avec intérêt la relative facilité d’accès de la traduction, qui demande plus de qualité de maîtrise des deux langues (source et cible) que de compétences techniques. Quelques phrases, quelques pages sont autant de contributions tout à fait appréciées et l’occasion de faire connaissance, voire d’entrer plus avant dans le jeu de la traduction en rejoignant framalang.

Plus on participe, plus on participe. Il existe une sorte d’effet addictif aux sessions de traduction collective, de sorte que d’une fois à la suivante, on retrouve avec plaisir quelques habitués bien rodés et d’autres plus récemment impliqués qui y prennent goût et y reviennent. Participer à un traducthon, c’est appréhender de près et de façon tangible la puissance du facteur collaboratif : de l’adolescent enthousiaste à l’orthographe incertaine au retraité venu donner son temps libre pour le libre en passant par le développeur qui apporte une expertise technique, chacun peut donner et recevoir.

Enfin, et ce n’est pas là un détail, la pratique du traducthon apprend beaucoup à chacun. Certains découvrent qu’ils sont à la hauteur de la tâche alors qu’ils en doutaient (nulle contrainte de toutes façons, on choisit librement ce que l’on veut faire ou non), mais pour la plupart d’entre nous c’est aussi une leçon de partage du savoir : nos compétences sont complémentaires, l’aide mutuelle est une évidence et la modestie est nécessaire à tous. Voir par exemple son premier jet de traduction repris et coloré par un traducteur professionnel (Éric, reviens quand tu veux ?!), se faire expliquer une tournure de slang par un bilingue et chercher avec lui un équivalent français, découvrir une thèse audacieuse au détour d’un paragraphe de la version originale, voilà quelques exemples des moments enrichissants qui donnent aussi sa valeur à l’exercice.

Le mot, la chose

Une discussion trolloïde de basse intensité est engagée depuis le début sur le terme à employer pour désigner le processus de traduction collaborative dans la vraie vie en temps limité. Quelques observations pour briller en société :

  • C’est un peu l’exemple des booksprints initiés par Adam Hyde et la bande des Flossmanuals qui nous a inspiré l’idée de nos sessions, on pourrait donc adopter tradusprint, surtout dans la mesure où c’est une sorte de course de vitesse…
  • En revanche lorsque une traduction longue demande plusieurs jours et un travail de fond (ne perdons pas de vue le travail indispensable de révision post-traduction), il est assez cohérent de parler plutôt de traducthon.
  • Pour être plus consensuel et « couvrir » tous les types de session, le mot tradaction a été proposé à juste raison

Ci-dessous, reproduction de l’affichette amicalement créée par Simon « Gee » Giraudot pour annoncer le traducthon aux RMLL de Strasbourg. À noter, Simon a également contribué à la traduction d’un chapitre !

Geektionnerd - Simon Gee Giraudot - CC by-sa

Et le Web ouvert alors ?

C’était justement le fruit d’un booksprint à Berlin l’année dernière, le voilà maintenant en français. Ce qui est assez frappant pour aller droit à l’essentiel, c’est la rhétorique guerrière qui en est le fil rouge. Au fil des pages on prend conscience de l’enjeu et de l’affrontement déjà en cours dans lequel nous pouvons jouer un rôle décisif. C’est maintenant et peut-être dans les deux ans qui viennent pas plus qu’il y a urgence à ce que nos pratiques de la vie numérique maintiennent et étendent un Web ouvert.

Le Web n’est pas un amoncellement de données, ni un amoncellement d’utilisateurs, le Web ouvert existe quand l’utilisateur propose librement des données et s’en empare librement. Le Web n’a pas d’existence tant que ses utilisateurs ne s’en emparent pas.

Nous voulons un Web bidouillable, libre et ouvert. Nous voulons des navigateurs Web extensibles, d’une plasticité suffisante pour répondre à nos goûts et nos besoins. Nous voulons contrôler nos données et en rester maîtres, non les laisser en otages à des services dont la pérennité et les intentions sont suspectes. Nous ne voulons pas que notre vie numérique soit soumise ni contrôlée, filtrée, espionnée, censurée.

Le Web n’appartient pas aux fournisseurs d’accès, ni aux états, ni aux entreprises.

Le Web n’appartient à personne, parce que nous sommes le Web.

Au fait, si vous voulez parcourir Pour un Web ouvert, c’est… ici en HTML et là en PDF.

Antoine Turmel - CC by-sa

Bonus track

Une interview au cours du traducthon de Strasbourg pour la radio québécoise La Voix du Libre.

Crédit photos : Antoine Turmel et Antoine Turmel (Creative Commons By-sa)




9 % pour le Parti Pirate à Berlin ! Et si la politique pouvait vraiment être réformée ?

Tobias Wolter - CC byLe Parti pirate allemand de Berlin n’osait espérer dépasser les 5% pour obtenir des sièges lors des élections de dimanche au parlement régional, il en a obtenu près du double en créant une véritable sensation qui va bien au delà des frontières de la cité.

Bien sûr il y a un ensemble de facteurs favorables liés au contexte local qui peuvent expliquer cet incroyable résultat (nature des élections, situation politique générale en Allemagne, dynamisme particulier de la jeunesse de cette ville…). Ce n’est donc pas demain la veille que tous les partis pirates européens auront 10% à toutes les élections.

Il n’en demeure pas moins que, tout comme le succès du Parti pirate suédois aux élections européennes de 2009, la date est à marquer d’une pierre blanche, de celle qui transcende et exalte le champ des possibles.

« Nous allons démontrer que la politique peut être réformée », nous promet ci-dessous le président du Parti pirate allemand, à la suite de ce succès[1].

C’est tout le mal que nous leur souhaitons, d’autant qu’il va sans dire que le logiciel libre n’était pas absent de leur programme de campagne (une campagne hyperactive sur Internet et qui n’a coûté au final que 40 000 euros, soit dit en passant, alors que les autres partis dépensaient des millions).

Hier les indignés de la Puerta del Sol, aujourd’hui le Parti pirate berlinois, demain viendra peut-être le tour de la France qui sait ?

Le parti pirate entre au Parlement de Berlin après une victoire historique aux élections

Pirate Party Enters Berlin Parliament After Historical Election Win

Ernesto – 18 septembre 2011 – TorrentFreak.com
(Traduction Framalang : Don Rico, Duthils, Lolo le 13, Mammig et Ypll)

Pour la première fois, un parti pirate a réussi à obtenir des sièges dans un parlement régional. Avec une estimation de 9% du total des suffrages, le Parti pirate dépasse de 5% le seuil nécessaire pour entrer au Parlement de Berlin et gagne plusieurs sièges. Pour le mouvement international des partis pirates, c’est un deuxième succès important après celui, suédois, des élections européennes de 2009.

Le Parti pirate allemand a remporté une brillante victoire aux élections du Parlement du land de Berlin. Deux heures après la fermeture des bureaux de vote, les premiers résultats indiquaient que les pirates avaient réuni 9% des suffrages. Cela se traduira par l’obtention de quinze sièges au Parlement.

Fondé en septembre 2006, le Parti pirate allemand a déjà enregistré plusieurs succès au cours de son existence relativement courte. Jusqu’à présent, le parti comptait plus de cinquante membres exerçant des mandats dans diverses circonscriptions allemandes, plus que dans tous les autres pays d’Europe réunis. Toutefois, le résultat du scrutin du 18 septembre reste sans précédent.


Jamais un parti pirate n’avait obtenu de siège dans un parlement régional ou un conseil fédéral. Le seuil requis pour obtenir un siège étant de 5%, l’exploit des élections berlinoises n’en est que plus impressionnant.

Les premiers résultats montrent que le Parti pirate a fait le plein de voix essentiellement chez les votants les plus jeunes. Quinze pour cent des électeurs de moins de trente ans ont voté pour le Parti pirate, mais même chez les soixante ans et plus, un faible pourcentage a donné son bulletin aux pirates.

Victoire électorale pour les pirates

Parti Pirate Berlin - Résultats

TorrentFreak a demandé à Sebastian Nerz, président du Parti pirate allemand, ce que ce succès signifiait pour son parti. Il nous a répondu que l’augmentation de son financement et son influence croissante permettront au Parti d’avoir un impact plus grand.

« Pour l’instant, le Parti pirate allemand n’a aucun salarié », explique Nerz. « Tous ceux qui travaillent pour le parti – y compris moi-même – le font en tant que bénévoles. Les députés, eux, sont payés pour leur travail. En outre, ils reçoivent de l’argent de l’État pour payer leurs assistants et leurs collègues. Cela permettra à ces pirates de travailler à plein temps pour le parti, et nous donnera ainsi plus de main d’oeuvre.

« Un autre avantage est que les citoyens et les médias prennent les partis qui ont accès au parlement beaucoup plus au sérieux. Bien des fois on m’a dit « votre parti n’est pas considéré parce qu’il n’a aucun élu ». Suite au succès de ce week-end, le parti sera nettement mieux placé sur ce plan.

De plus, le Parti pirate s’attend à une augmentation de ses membres grâce à son bon score, ainsi que du nombre de personnes travaillant pour le parti. Quant aux idées défendues, le parti se veut aussi transparent que possible, il veut améliorer la protection de la vie privée des citoyens, supprimer les brevets et limiter l’emprise toujours grandissante des organisations exploitant le droit d’auteur.

« Nous allons montrer qu’il est possible de faire de la politique de manière transparente. Jusqu’à maintenant, la politique est un domaine nébuleux et interdit. Les réunions sont tenues à huis clos, les ordres du jour et comptes-rendus sont tenus secrets, les traités non publiés », a déclaré Nerz à TorrentFreak.

« Nous démontrerons qu’il est possible d’informer ouvertement et sans mentir les citoyens de ce qu’il se passe, des alternatives possibles et pourquoi une certaine voie a été choisie. Nous démontrerons que les citoyens peuvent être intégrés dans les processus d’étude des faits et dans les choix politiques. Pourquoi ne pas demander aux citoyens leur opinion avant de décider ? Ça vaut bien un essai ! »

Une chose est sûre. Le Parti pirate a fait un score fantastique aujourd’hui. Avec ce résultat, le Parlement du land de Berlin sentira sans doute le vent frais venant du parti le plus technophile et respectueux de la vie privée. Tous les candidats de Berlin sont prêts et impatients de commencer, d’après le président.

« Pour être bref : Nous allons démontrer que la politique peut être réformée », dit Nerz

Note : nous mettrons à jour les pourcentages au fur et à mesure des résultats

Notes

[1] Crédit photo : Tobias Wolter (Creative Commons By)




20 ans que sans concurrence Microsoft équipe l’Europe !

Sébastien Bertrand - CC byLes institutions européennes, toujours promptes à donner la leçon, ont peut-être d’autres chats à fouetter actuellement mais il nous semble bon de leur rappeler un passé peu glorieux et un présent scandaleux[1].

Cela fait en effet près de 20 ans que l’on déroule le tapis rouge à la société non européenne Microsoft sans jamais prendre la peine d’évaluer les autres solutions, parmi lesquelles, évidemment, figure le logiciel libre.

Peut-être qu’en 1992, il était hasardeux de choisir autre chose que Windows pour ses postes clients. Mais pourquoi avoir systématiquement reconduit cette forme de partenariat exclusif jusqu’à aujourd’hui alors que parallèlement de réelles et crédibles alternatives voyaient le jour ?

Il est grand temps d’opposer au lobbying un certain bon sens citoyen. Je le dirai à mon député européen la prochaine fois que je le croiserai 🙂

Depuis 20 ans la Commission européenne achète du Microsoft sans concurrence

European Commission buys Microsoft for 20 years without competition

Mark Ballard – 15 août 2011 – ComputerWeekly.com
(Traduction Framalang : Goofy, ZeHiro, Pandark, Lolo le 13)

La Commission européenne achète des produits Microsoft depuis 1993 sans appel d’offre ouvert à la concurrence qui aurait pu proposer des alternatives, selon des documents transmis au magazine Computer Weekly.

Ces documents transmis au magazine Computer Weekly soulevent des questions quant à une politique d’achat qui a permis à un fournisseur unique de régner en maître pendant si longtemps en s’appuyant sur des exceptions législatives habituellement réservées à des circonstances extraordinaires.

Ils soulevent aussi des interrogations quant à la validité des explications officielles fournies par la Commission pour sécuriser ses accords commerciaux avec Microsoft, appelés « procédures négociées ». Le dernier en date, concerne l’acquisition pour environ 50 millions d’euros de licences logicielles pour les 36 000 PC et les infrastructures associées que comptent les 42 institutions européennes, y compris le Parlement Européen et la Cour de Justice.

Karsten Gerloff, président de la Free Software Foundation Europe, a dit que l’accord en cours avec Microsoft était une « honte » pour la Commission Européenne. « Il est effarant de constater que tous les accords passés entre la Commission et Microsoft depuis 1993 ont été conclus sans aucun appel d’offre public » a-t-il déclaré. « Il en résulte que la Commission Européenne est totalement dépendante d’un seul et unique fournisseur de logiciels pour ses outils de bureautique. Il est clair que les lois régulant les procédures d’achat de l’Europe doivent être rapidement mises à jour. Actuellement, celles-ci laissent bien trop de place aux accords négociés et anticoncurrentiels. »

« Ceci montre bien que le marché n’est ni juste ni égal », renchérit Paul Holt, directeur des ventes chez Canonical (NdT : Ceux qui distribuent Ubuntu). Il a ajouté que les accords que Microsoft a signé avec les institutions européennes empêchent celles-ci d’utiliser des standards ouverts qui permettraient de promouvoir la concurrence. Ainsi, Microsoft a pu imposer aux institutions européennes ses propres spécificités techniques.

Un porte-parole de Microsoft a affirmé que l’entreprise ne ferait pas de commentaires. « La Commission est le contractant et eux seuls décident de leur procédure d’achat » a-t-il dit.

Computer Weekly comprend toutefois que Microsoft s’appuie sur la ligne adoptée par le Directoire pour l’Informatique de la Commission Européenne (DIGIT) en réponse aux récentes questions des députés européens à propos de leurs contrats.

Maroš Šef?ovi?, le vice-président de la Commission et commissaire pour l’administration et les relations inter-institutionnelles, qui mène une réforme majeure des Technologies de l’Information et de la Communication dans la Commission Européenne, a déclaré aux députés européens que la Commission s’engageait dans la « promotion de l’interopérabilité » en utilisant des standards. Mais il a indiqué que ces standards pouvaient inclure ceux implémentés par les vendeurs de logiciels commerciaux. Il a démenti que la Commission ait été contrainte de se procurer des produits chez un unique fournisseur.

Le DIGIT affirma en 1992 qu’il était obligé de signer un arrangement privé avec Microsoft parce qu’aucune autre entreprise ne pouvait fournir le logiciel adéquat. Mais la justification officielle de la Commission pour cet arrangement demeure vague. Des procédures similairesen 1996 et 1999 confirment la position de Microsoft comme étant le seul fournisseur de systèmes d’exploitation et d’applications de bureautique pour la Commission.

Depuis 2003 cependant, la justification officielle de la Commission a évolué. La raison invoquée ici est qu’un logiciel alternatif impliquerait une incompatibilité technique et des migrations trop lourdes. Aiinsi il n’y a pas d’autre choix que de continuer à acheter du Microsoft.

La Commission a utilisé la même excuse d’incompatibilité pour justifier des achats sans concurrence avec Microsoft en 2007 et 2011. La justification contredit apparemment le discours de Šef?ovi? qui prétend que la Commission n’est pas pieds et poings liés à Microsoft, et qu’elle s’était engagée résolument dans la voie des standards interopérables.

Un porte-parole du DIGIT a déclaré que les directives concernant les achats de l’Union Européenne avaient changé plusieurs fois ces vingt dernières années, mais que les fournisseurs ont été choisis après une analyse approfondie du marché, des besoins des utilisateurs et du coût des achats.

« Il existe un grand nombre de procédures pour l’achat de biens et de services et tout choix particulier est dûment motivé et explicité. Il résulte d’une analyse poussée de la situation du marché, des besoins des utilisateurs et du coût total de l’acquisition. L’ensemble est mené dans un cadre qui a fait ses preuves, celui de la procédure Gestion des Technologies », a-t-il indiqué dans une déclaration écrite. Les décisions prises ont été soumises à un contrôle interne et sont conformes à la législation européenne.

Il a affirmé avec insistance que la Commission n’était pas contrainte à acheter des produits Microsoft : « Nous avons toujours dit clairement que ce n’était pas le cas, et que nous analysons en permanence les options offertes par le marché ».

Le dernier accord conclu en mai a assuré l’achat de licences pour que l’administration européenne puisse continuer à utiliser une gamme complète de logiciels Microsoft. Elle comprend les systèmes d’exploitation, la suite Office, le logiciel de gestion de base de données SQL Server Entreprise, des outils pour collaborer et gérer des projets ainsi qu’un volet sur la sécurité et le courrier électronique.

Mais Šef?ovi? a créé plusieurs comités de gestion des TIC qui n’ont toujours pas décidé si la Commission devait continuer à utiliser exclusivement des logiciels Microsoft. Ainsi on attend toujours la décision à prendre concernant la mise à niveau vers le système d’exploitation Windows 7, et ce neuf mois après avoir été soumise aux équipes dirigeantes.

Graham Taylor, directeur général d’Open Forum Europe, un groupe de pression activé par Google, IBM, Oracle et Red Hat, a déclaré qu’ils avaient abordé la procédure négociée avec « la plus extrême prudence », sans comprendre pourquoi la Commission l’avait utilisée pour empêcher la concurrence sur le marché du logiciel pour ordinateur de bureau.

Notes

[1] Crédit photo : Sébastien Bertrand (Creative Commons By)




La neutralité du Net, par Jean-Pierre Archambault

Desbenoit - CC by - Wikimedia Commons« La neutralité du Net ou la neutralité du réseau est un principe qui garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. »

Telle cette introduction Wikipédia ou cette illustration ci-contre, cela semble simple a priori.

Mais si l’on veut mieux la comprendre et en appréhender ses enjeux, le format Twitter ne suffit plus (surtout en cette période trouble où l’illimité pourrait prendre fin en France)

C’est dans ce but que nous publions un nouvel article de Jean-Pierre Archambault qui n’a pas son pareil pour nous présenter progressivement et limpidement un problème complexe 🙂

Et d’achever ainsi son propos : « Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité. »

La neutralité du Net

URL d’origine du document

Jean-Pierre Archambault – juin 2011 – Association EPI

Le numérique est partout. Les débats sociétaux qu’il suscite se multiplient. Ainsi celui sur la neutralité du Net qui s’est installé de plain-pied dans l’actualité. Deux raisons principales sont à l’origine de ce débat : l’accroissement du trafic et la montée de questions juridiques et marchandes. S’interpénètrent des questions scientifiques, techniques, juridiques, économiques, commerciales, politiques, ainsi que celles de la liberté d’expression et de la citoyenneté, géopolitiques.

Le trafic sur internet ne cesse de croître, une évidence que cette rançon du succès ! La vidéo, gourmande en bande passante, sature les réseaux. Le marché mobile des terminaux explose. Les infrastructures doivent évoluer et se développer, le haut débit en premier lieu. Qui doit payer ? Qui pourrait payer ? Des mesures de discrimination, blocage et filtrage (pour les flux illicites), antinomiques avec la philosophie du Net, sont mises à l’ordre du jour, issues de problématiques comme la lutte contre la cybercriminalité, les modèles économiques de l’immatériel, des industries culturelles. La neutralité du Net rencontre ici les débats qui ont accompagné la transposition de la DADVSI, la loi Hadopi… La question se pose également de savoir si le Net est vraiment neutre. Et si la vision d’un cyberespace « idéal » et insensible aux réalités géopolitiques de la planète est réaliste et pertinente.

Un réseau de réseaux

Internet est un réseau de réseaux (de beaucoup de réseaux, grande distance, intranets, locaux) en trois couches : une couche physique (le fil de cuivre des réseaux téléphoniques, la fibre optique…), une couche logique (les logiciels, les protocoles d’internet) et des contenus[1]. Les câbles et les réseaux qu’ils interconnectent appartiennent à l’État ou à des entreprises privées. Les ordinateurs au sein du réseau fournissent un service de base – le transport des données – avec des fonctions très simples nécessaires pour les applications les plus diverses. L’intelligence et la complexité, à savoir le traitement de l’information, sont situées dans des ordinateurs à la lisière du réseau.

La philosophie d’internet repose fondamentalement sur l’absence de discrimination dans l’acheminement des flux et dans le fait de pouvoir, pour tout un chacun, accéder librement au réseau sans avoir à en demander la permission à une autorité. Des travaux montrent qu’un réseau d’information public est d’efficacité maximale s’il aspire à traiter tous les contenus, sites et plates-formes, de manière égale[2].

Cette architecture favorise l’innovation. En effet, les inventeurs ont seulement besoin de connecter leurs ordinateurs, sans qu’il faille modifier ceux de l’intérieur. La structure d’internet n’est optimisée pour aucune application existante spécifique, en conséquence le réseau est ouvert à toute innovation non prévue à l’origine. Il est neutre, au sens où un propriétaire du réseau ne peut pas sélectionner des données au détriment d’une nouvelle structure innovante qui menace une application en situation dominante. Les créateurs n’ont pas besoin d’obtenir une permission de quiconque pour développer une nouvelle application. Les opérateurs réseaux qui font circuler les paquets d’informations ne doivent pas y toucher. Sauf cas de force majeure, comme une congestion de réseau ou une attaque, ils doivent les transporter sans discrimination que ce soit, selon la source, la destination ou le type de message auquel le paquet appartient (données, voix, audio, vidéo). Ce principe est étendu aux services et applications, ce qui interdit les pratiques commerciales de distribution exclusive, d’exclusion et de traitement prioritaire au sein des offres internet.

D’autres réseaux fonctionnent « comme internet » : le réseau électrique auquel tout un chacun peut se connecter pourvu que son équipement corresponde aux normes du système, le réseau autoroutier car, à partir du moment où la voiture a été homologuée et où le conducteur a son permis de conduire, le concessionnaire de l’autoroute n’a pas à savoir pourquoi ni quand l’usager emprunte celle-ci.

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc difficile de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Au-dessus du réseau internet « se répandent à grande vitesse des applications du web comme les réseaux sociaux, le commerce électronique, l’usage des smartphones ou des tablettes, les blogs, les chats, la téléphonie sur IP, la géolocalisation, les sites de notation des restaurants, hôtels, voyages, les sites de rencontres, les sites de partage de vidéos, les jeux en ligne, etc. On pourrait se dire qu’on est vraiment embarqués sur un “bateau ivre”… De plus, vu les dangers et les menaces de piratage dont les médias se font écho pratiquement chaque jour, on peut également se dire que le bateau, en plus d’être “ivre”, navigue dans un véritable “champ de mines” !!! »[3]. Nous y reviendrons.

Les acteurs du Net

Quels sont les acteurs du Net ? Les internautes bien sûr. La puissance publique. Sur le plan économique, « la dernière décennie a consacré l’organisation économique d’Internet en quatre groupes d’acteurs : producteurs d’éléments de réseaux et de terminaux (ex. Intel, Microsoft, Cisco, Alcatel-Lucent, Dassault Systems), opérateurs réseaux (ex. AT&T, Verizon, France Télécom), fournisseurs de services et intermédiaires (ex. Google, Amazon, eBay, Pages Jaunes) et producteurs de contenus (ex. The Walt Disney Company, Time Warner, Lagardère, Reed Elsevier). La catégorie la plus récente, les intermédiaires, est celle qui participe le moins à l’investissement dans les réseaux, échappe largement à l’impôt et réalise les bénéfices les plus importants. C’est aussi celle qui occupe une part croissante des ressources en bande passante »[4]. On compte de l’ordre de 27 000 acteurs de par le monde.

Internet est une plate-forme qui semble mettre les internautes en relation directe, ce qu’elle n’est pas. Il y a le coeur du réseau, à savoir les réseaux d’accès avec la boucle locale (dédiée à une habitation ou à une entreprise) en cuivre ou en fibre optique, les opérateurs étant les fournisseurs d’accès à internet. Les points d’interconnexion assurent l’ouverture sur les autres réseaux d’accès par l’intermédiaire des « backbones », épine dorsale du réseau mondial[5]. Concernant les tuyaux et les flux de données, il y a donc les fournisseurs d’accès au client final, les opérateurs de transit au niveau du backbone, les hébergeurs qui stockent les données (dans des serveurs, les « data center »), les fournisseurs de « cache ».

Qui paye ?

Au plan mondial, le marché du transit et du cache représente quelques milliards d’euros, celui de l’accès plusieurs centaines de milliards d’euros. Historiquement les fournisseurs de contenus payaient les opérateurs de transit mais pas les fournisseurs d’accès. Aujourd’hui, les fournisseurs d’accès font payer une partie de leurs contrats aux fournisseurs de contenus. La téléphonie subventionne l’accès à internet. Nous avons vu ci-avant que la catégorie des intermédiaires (Google…) était celle qui participait le moins à l’investissement dans les réseaux, échappant largement à l’impôt et réalisant les bénéfices les plus importants. Les consommateurs payent davantage que les fournisseurs de contenus. Les enjeux sont d’importance et la bataille fait rage.

Le trafic va continuer à augmenter. La qualité de l’internet dépend en grande partie du dimensionnement des interconnexions, de la taille des tuyaux entre les réseaux des fournisseurs d’accès et les autres opérateurs de l’internet. Il va falloir investir dans les infrastructures fixes et mobiles. Qui va payer ? L’écosystème d’internet est complexe. Ménager un bon équilibre économique ne va pas de soi car les conflits d’intérêt sont bien réels. Comment par exemple mettre en place des mécanismes amenant les opérateurs qui induisent un trafic à payer aux fournisseurs d’accès un montant dépendant de la partie asymétrique des flux qu’ils engendrent ?

Certains, se fondant sur le fait qu’internet est et doit rester un bien commun de l’humanité, avancent l’idée d’un caractère et d’un financement publics, reposant donc sur l’impôt (notamment la fiscalité numérique qui reste un objectif majeur à mettre en oeuvre), d’une infrastructure publique d’intérêt général. Au même titre que d’autres infrastructures, par exemple les adductions d’eau, le réseau ferré ou les réseaux électriques qui le sont, l’étaient ou devraient le redevenir. Car le risque existe de dégradation de la qualité si les opérateurs n’investissent pas dans les réseaux ou privilégient la commercialisation des services gérés, mettant ainsi à mal le principe de non-discrimination, un des piliers de la neutralité du Net. Par exemple, les opérateurs réseaux sont tentés de facturer aux offreurs de contenus des services de livraison prioritaire, et aux abonnés une qualité de service privilégiée ou des bouquets de contenus exclusifs. En tout état de cause, la puissance publique ne saurait se désintéresser d’une infrastructure sociétale stratégique.

Une question centrale : la gestion du trafic

Faut-il mettre de l’intelligence dans le réseau ? Internet ne donne pas de garanties de performances dans l’acheminement, contrairement aux réseaux de type « circuits virtuels ». Les applications n’ont pas les mêmes besoins en termes de performances. La vidéo requiert beaucoup de bande passante, ce qui n’est pas le cas de la messagerie. Les applications en temps réel, synchrones, comme la téléphonie, se distinguent des applications asynchrones, le transfert de fichiers par exemple. La qualité dépend de l’interconnexion, de l’éloignement aussi, ce qui met en évidence l’intérêt du « peer to peer » qui distribue les échanges de fichiers entre plusieurs utilisateurs. Des routeurs sont capables de faire de la gestion de trafic à très haut débit avec des priorités. Faut-il permettre la discrimination des flux, mettre des priorités (ce qui n’est pas le cas en France pour les offres « triple play ») ? Les marchands répondent oui, on s’en doute. D’autres font dépendre la réponse du caractère commercial ou non des applications. Il y aurait alors l’internet et le non internet des services gérés. Ce qui supposerait que le commercial ne pénalise pas l’internet, qu’il y ait une garantie de qualité. Et il y a ceux pour qui il ne saurait y avoir de priorisation sur internet, bien commun, les services gérés n’existant que pour des applications qui en ont vraiment besoin. On pense par exemple à des services d’urgence médicale. Dans tous les cas, assurer la protection du principe de neutralité suppose des obligations de transparence imposées aux opérateurs en matière de gestion de trafic.

Sous l’angle du blocage et du filtrage

Le débat sur la neutralité du Net s’est aussi développé sous l’angle du « blocage », qui consiste à empêcher une communication sans inspection de contenu, et du « filtrage », qui repose sur une inspection de contenu, les deux soulevant des questions liées à la liberté d’expression sur internet. Les pouvoirs publics recherchent en la circonstance des moyens pour faire respecter la loi sur internet et lutter contre la cybercriminalité. Effectivement, l’État doit combattre les comportements attentatoires aux principes et valeurs de la société. Internet n’est pas un espace de non-droit. Les industries culturelles font pression, au nom de leurs modèles économiques traditionnels, pour empêcher l’accès aux contenus « illicites ». Mais l’on sait que la frontière avec les contenus « licites » peut être franchie. Et l’on sait surtout que les modèles économiques de l’immatériel ne peuvent pas être ceux de la production des biens matériels, les coûts marginaux de production et de diffusion d’un exemplaire supplémentaire étant quasi nuls[6]. Un vaste et tumultueux débat qui est loin d’être clos !

Un opérateur d’accès qui aurait une obligation légale de blocage serait amené à intervenir sur les contenus alors que son métier consiste à les acheminer. Les techniques de blocage (d’adresses IP, de noms de domaine, d’URL) et de filtrage ont un coût. Sont-elles efficaces ? Elles se contournent (utilisation de sites « miroir », de proxy, recours à un réseau privé virtuel) et peuvent engendrer des effets pervers (sur-blocage – les faux positifs – et sous-blocage – les faux négatifs –, chiffrement qui présente des risques pour la sécurité bien supérieurs à la défense des intérêts protégés…). Il est interdit d’utiliser son téléphone portable au volant. Pour autant, on n’a pas (encore ?) mis en place des dispositifs de blocage de cet usage-là.

Le rapport d’information déjà cité rappelle (page 34) : « Bien que, de manière générale, la Constitution n’oblige pas le législateur à prévoir l’intervention du juge pour prononcer toute mesure de restriction de la liberté individuelle, le Conseil constitutionnel a jugé, dans sa décision sur la loi HADOPI, qu’en raison de l’importance de la liberté d’expression et de communication et du rôle que joue l’accès à internet à l’égard de cette liberté, le législateur ne peut pas laisser une autorité administrative prononcer la sanction de suspension de cet accès. Il a ensuite précisé dans sa décision sur la LOPPSI que les dispositions confiant à l’autorité administrative le pouvoir de prononcer des mesures obligatoires de blocage “assurent une conciliation qui n’est pas disproportionnée entre l’objectif de valeur constitutionnelle de sauvegarde de l’ordre public et la liberté de communication garantie par l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789”, la décision de l’autorité administrative étant notamment toujours contestable devant le juge. »

Mais internet est-il vraiment neutre ?

Prenant un peu à contre-pied le débat sur la neutralité du Net, certains posent la question (iconoclaste ?) de savoir s’il est vraiment neutre. Serait-ce un mythe ?[7] La neutralité débattue est relativisée.

Le grand public ne le sait pas toujours mais l’ICANN, une association de droit californien, contrôle les ressources critiques que sont les adresses IP, les extensions et noms de domaines (fonction importante, noeud stratégique qui conditionne la visibilité sur le réseau), de par une dévolution du Ministère Américain du Commerce et dans l’absence de transparence requise ! Ainsi la France gère-t-elle son domaine national (.fr) en vertu d’une délégation accordée par cette association. Il est pour le moins surprenant et paradoxal de voir un espace public mondial géré par une association californienne ! Une nouvelle gouvernance, dans laquelle notamment chaque État aurait voix au chapitre dans des rapports d’égalité et en toute indépendance, s’impose car elle est une exigence légitime.

La couche basse d’internet, son épine dorsale en particulier, ce sont des câbles qu’il faut fabriquer et poser, sous la terre, les mers et les océans, ce sont des satellites. Et il faut gérer ces infrastructures. Ce monde est opaque et non régulé. Il est tenu par un club très fermé de gros transporteurs, pour l’essentiel des firmes états-uniennes. Elles contrôlent la quasi-totalité du trafic au plan mondial, ce qui leur procure en passant des profits substantiels.

On a vu que la mise en relation des internautes était loin d’être directe. Il y a des intermédiaires, qui plus est, de plus en plus puissants et concentrés : Google, Amazon, eBay, Apple, Yahoo, MSN, Facebook et autres compagnies. Ils commercialisent tout ce qui peut l’être dans le nouveau monde numérique : données personnelles, données de connexions, statistiques, musique, livres… Et si l’on ne connaît pas les algorithmes que Google utilise, en revanche on sait qu’il leur arrive d’accorder des « faveurs » dans leurs classements au bénéfice de sites avec lesquels l’entreprise entretient des relations commerciales. L’attention des internautes est captée à leur insu. Ils sont devenus la cible de producteurs de contenus en recherche de consommateurs. L’informatique est à la fois du calcul, du stockage et de la communication. L’approche de la neutralité du Net doit être globale. Elle doit aussi s’intéresser aux programmes et aux applications dont on doit savoir ce qu’ils font exactement. Et aux informations (quelles informations ?) qu’ils stockent on se sait trop où pour des utilisations dont il arrive qu’on les ignore.

Des questions de fond, planètaires

Avec internet, nous sommes de plain-pied dans des questions qui ont à voir avec l’état du monde et son devenir[8]. L’économie de la planète s’est réorganisée autour d’internet. Est en question le contrôle du commerce mondial, enjeu majeur comme ont pu l’être dans les siècles passés le contrôle du détroit des Dardanelles ou du canal de Suez. La mondialisation des activités humaines, long processus qui ne date pas d’hier, signifierait-elle dissolution des civilisations, des cultures, des langues (il existe d’autres caractères que latins sans accent : indiens, cyrilliques, arabes, mandarin… et un DNS peut s’écrire avec des idéogrammes), des systèmes économiques, des frontières, des modèles juridiques, des distances… des différences entre les hommes ? Fort improbable (on peut légitimement penser que c’est mieux ainsi) si l’on se réfère à la réalité observée. Quid alors de cette perception d’internet système global, homogène, offrant une plate-forme universelle de communications multimédia ? Exception paradoxale ou mythe, un de plus ? « L’internet est un réseau de réseaux autonomes depuis son ouverture commerciale au début des années 80. Il est fragmenté par construction, et il le restera »[9]. Et cette fragmentation devrait se renforcer. Avec « des webs “régionaux” ou même “continentaux”, à l’instar de la Chine et de son “AsiaNet” ; des webs “linguistiques”, où l’on pourra utiliser toute la puissance de sa langue maternelle pour exprimer une recherche, une adresse email ; des webs “culturels” qui embarqueront ou non des webs sectaires et/ou ethniques ; des webs “fermés”, sécurisés, anonymisés, plus ou moins cachés selon les objectifs suivis par leurs promoteurs et/ou utilisateurs ; des webs commerciaux, sur base “navigation” et/ou activité sociétale, essayant avec des bonheurs divers d’attirer des internautes dans leurs filets pour en revendre l’identité et leurs besoins et/ou habitude et/ou opinion… »[10]. La Chine s’est émancipée du contrôle américain de l’internet et ce sera bientôt le cas de l’Inde. Cela a nécessité le travail de milliers d’ingénieurs pendant des années.

Pourtant, « un épouvantail agité fréquemment par les gardiens du temple est la balkanisation ou fragmentation du réseau, avec son cortège de calamités, discontinuité des communications, confusion des noms et adresses, instabilité, insécurité, perte de fiabilité… Faudrait-il s’efforcer de maintenir au maximum un système de contrôle historique dont les éléments critiques sont verrouillés par le gouvernement des États Unis ?… oubliant au passage que la Chine a construit son propre internet, qu’il existe des milliers d’intranets… S’il fut un temps où l’ICANN, mandataire du gouvernement US, faisait la loi, on observe maintenant un réveil des gouvernements dits du sud… Le tropisme de fragmentation se renforce à mesure que les enjeux techniques deviennent minoritaires au regard d’autres domaines comme la propriété intellectuelle, le filtrage des informations, les investissements en infrastructure, la législation, la criminalité, ou les facteurs culturels et religieux »[11]. S’affrontent des modèles de cybersociétés, ayant chacune leurs valeurs, avec leur cortège de cyberconflits, cyberattaques[12], opérations de manipulation et désinformation, leurs enjeux en matière de souveraineté, de régulation et de sécurité des systèmes d’information. Dernière illustration en date, la publication par les États-Unis de leur « International Strategy for Cyberspace » dans laquelle ils indiquent leur volonté de réguler l’internet, de promouvoir un Internet « ouvert, interopérable, sécurisé et fiable »[13]. Un objectif louable mais, pour autant, les moyens annoncés ne manquent pas d’en inquiéter légitimement plus d’un de par le monde. En effet, « pour réaliser ce futur et aider à promulguer des normes positives, les États-Unis associeront diplomatie, défense et développement pour favoriser la prospérité, la sécurité et l’ouverture afin que chacun puisse bénéficier de la technologie du réseau ». Et les points sont mis sur les « i » : « Les États-Unis vont, avec d’autres nations, encourager un comportement responsable et s’opposer à ceux qui chercheront à perturber les réseaux et systèmes, en dissuadant et démasquant les acteurs malicieux, en défendant ces installations nationales vitales de façon aussi nécessaire et appropriée qu’il faudra. Nous nous réservons le droit d’utiliser tous les moyens – diplomatiques, informatifs, militaires et économiques – si appropriés et compatibles avec la loi internationale, afin de défendre notre nation, nos alliés, nos partenaires et nos intérêts. Nous épuiserons toutes les options avant d’en venir à la force militaire à chaque fois que nous le pourrons. » Le cyberespace est décidément bien dans l’espace « réel » !

Des mesures à prendre

L’enjeu de défense d’un bien commun et d’un bien public à l’échelle de la planète se situe donc dans un contexte global pluraliste. Cela étant, réaffirmer ces caractères de bien commun et bien public ainsi que le bien-fondé de l’intervention de la puissance publique reste fondamental. Cela implique quelques mesures qui figurent dans le rapport parlementaire déjà cité : inscrire dans la loi le principe de neutralité ; prévoir a minima l’intervention systématique du juge pour éviter les dérives en matière de blocage et s’interroger sur son efficacité ; réserver l’appellation internet aux services respectant le principe de neutralité et ainsi les distinguer des services gérés à caractère commercial ; obliger à une qualité « suffisante » pour tous les internautes. En définitive, faire en sorte qu’internet reste une plate-forme ouverte. Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité.

Jean-Pierre Archambault
Président de l’EPI

PS : le débat sur la neutralité du Net est un débat de société qui concerne tous les citoyens. Il mêle d’une manière inextricable des questions politiques, économiques, juridiques et des concepts scientifiques et techniques : couches et protocoles de l’internet, adresses IP, réseaux d’accès et de transit, réseaux privés virtuels, routage, gestion du trafic, interconnexion des réseaux, chiffrement, standards ouverts… D’une manière évidente, un exercice plein de la citoyenneté suppose des connaissances de la science informatique, des représentations mentales efficientes. Fort opportunément, le programme de l’enseignement de spécialité optionnel « Informatique et sciences du numérique » créé en Terminale S à la rentrée 2012 comporte une partie consacrée aux réseaux. Une première avancée bienvenue pour les élèves de la filière scientifique ! Et tous sont concernés.

Notes

[1] Rapport parlementaire d’information déposé par la Commission des Affaires Économiques sur la neutralité des réseaux : Voir « Internet en 32 points », pages 16 à 20. « Innover ou protéger ? Un cyber-dilemme », Jean-Pierre Archambault, Médialog n° 58 de juin 2006, p. 42-45.

[2] Voir rapport parlementaire ci-dessus note 2, page 13.

[3] « La Netocratie », Mauro Israël, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ?, juin 2011. http://www.forumatena.org…

[4] « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16. http://www.forumatena.org

[5] Voir rapport parlementaire ci-dessus note 2, « Interconnexion, transit et peering », pages 52 à 56.

[6] « Téléchargement sur Internet : quelle légitimité ? », Jean-Pierre Archambault, Médialog n° 57 de mars 2006, p. 42-45.

[7] Voir note 5 « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16.

[8] Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[9] « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[10] Michel Charron, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[11] Voir note 10 « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[12] « The Malicious Flash Crash Attack ou pourquoi il faudra peut-être ralentir les transactions électroniques », Robert Erra, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011 http://www.forumatena.org…

[13] « Les États-Unis veulent réguler Internet », Orianne Vatin, L’informaticien, le 18 mai 2011.




Les brevets logiciels : une histoire de fous !

Kalidoskopika - CC by-sa« Les entreprises trouvent plus intéressant de gagner de l’argent en se faisant mutuellement des procès qu’en créant vraiment des produits. » Tel est le cinglant résumé de ce récent éditorial du Guardian qui prend appui sur l’actualité, dont le fameux rachat de Motorola par Google, pour nous livrer un constat aussi amer qu’objectif[1].

« Les brevets étaient censés protéger l’innovation. Maintenant ils menacent de l’étouffer. » Voilà où nous en sommes clairement maintenant.

Un nouvel exemple d’un monde qui ne tourne pas rond. Un nouvel exemple où le logiciel libre pourrait aider à améliorer grandement la situation si le paradigme et les mentalités voulaient bien évoluer.

Brevets logiciels : une histoire de fous

Software patents: foolish business

Éditorial du Guardian – 21 aout 2011 (Traduction Framalang : Goofy et Pandark)

Les entreprises trouvent plus intéressant de gagner de l’argent en se faisant mutuellement des procès qu’en créant vraiment des produits.

La plupart des gens comprennent les raisons et les arguments en faveur des brevets industriels. Ces derniers fournissent à un laboratoire pharmaceutique — qui a investi une fortune dans le développement d’un nouveau médicament — une sorte d’opportunité pour, pendant une période limitée, rentabiliser sa mise initiale avant que le reste du monde ne puisse en faire des versions moins chères. Mais les brevets logiciels, bien que semblables au plan juridique, sont très différents sur le plan pratique. Quand Google a racheté la division téléphone mobile de Motorola pour 12, 5 milliards de dollars la semaine dernière, l’événement a fait des vagues dans le commerce comme dans l’industrie, parce qu’il ne s’agissait pas d’acheter les mobiles de Motorola mais son portefeuille de plus de 17000 brevets logiciels, denrée devenue la poudre d’or de l’âge numérique.

Les brevets constituent une industrie qui brasse plusieurs milliards, et les entreprises trouvent plus intéressant de gagner de l’argent en se faisant des procès qu’en créant un produit. Jusqu’au milieu des années 90 l’industrie informatique — Microsoft compris — étaient opposée à cet abus de licences. essentiellement parce que l’industrie était suffisamment innovatrice pour pouvoir se passer de la protection des brevets, qui de toutes façons incluaient des avancées technologiques relativement ordinaires, considérées comme la routine du travail d’ingénieur.

Puis, la tentation entra en scène. Les juristes des entreprises prirent conscience qu’ils pouvaient poursuivre les autres pour infraction aux brevets souvent achetés par lots. Ils furent rejoints par des entreprises « troll », constituées dans l’unique but d’acheter des brevets et de faire des procès aux autres entreprises et aux développeurs, sachant pertinemment que la plupart accepteraient une transaction à l’amiable plutôt que d’affronter les coûts prohibitifs de leur défense juridique. Les entreprise qui étaient précédemment opposées aux brevets logiciels se sont aujourd’hui lancées dans la course à l’armement. Microsoft a accumulé un gigantesque arsenal de brevets et peut taxer un fabricant comme HTC à raison de 5 dollars par téléphone portable vendu — même si le système d’exploitation Android (développé par Google) utilisé sur les téléphones HTC est « open source » et supposé disponible pour tous. Avec des centaines, si ce n’est des milliers de brevets maintenant en jeu dans un téléphone mobile, il est pratiquement impossible de ne pas enfreindre un brevet d’une manière ou d’une autre. Dans le même temps Google, confronté au puissant aspirateur à brevet de ses rivaux, a été contraint de s’acheter son propre portefeuille en réaction d’auto-défense.

Les brevets étaient censés protéger l’innovation. Maintenant ils menacent de l’étouffer. De telles acquisitions peuvent entraîner les entreprises de technologies de l’information bien loin de leur cœur de métier. Une recherche universitaire menée par le Berkman Center for Internet and Society a montré que les brevets logiciels n’ont procuré aucun bénéfice à l’industrie du logiciel, et encore moins à la société dans son ensemble. C’est dramatique, car un grand nombre d’entreprises qui étaient auparavant opposées aux brevets logiciels se sont ralliées à ce système, rendant plus difficile de trouver une solution efficace. Une fois de plus les consommateurs sont vent debout contre les entreprises. Où sont les forces régulatrices quand on en a besoin ?

Notes

[1] Crédit photo : Kalidoskopika (Creative Commons By-Sa)




Reprenons possession d’Internet – Rebecca MacKinnon – TED Talk

Internet doit-il être au service des citoyens, des gouvernements ou des multinationales ? C’est en caricature la grande question sous-jacente de ce brillant TED talk de Rebecca MacKinnon.

Il s’agit du reste d’un étonnant mais révélateur paradoxe puisque si nous savons depuis longtemps que les intérêts des multinationales ne se confondent pas avec ceux des citoyens, il devrait en être autrement pour les gouvernements. Mais, par exemple chez nous en France, l’Hadopi est passée par là et la méfiance est plus que jamais de mise.

Liberté et contrôle dans le cyberespace… telle est l’une des tensions fondamentales de ce début de siècle. Nous pouvons faire semblant de ne pas la voir (trop occupé à modifier notre statut Facebook) mais nous pouvons aussi faire le choix de tenter de l’infléchir en notre faveur. Ce blog a l’immodestie de penser qu’il y participe dans son petit coin.

Remarque : on notera que si Apple en prend (justement) pour son grade en introduction, M. Sarkozy n’est pas non plus épargné.

—> La vidéo au format webm
—> Le fichier de sous-titres

Transcript

URL d’origine du document

Traduction française Anna Cristiana Minoli (relecture Elisabeth Buffard)
Licence Creative Commons By-Nc-Sa

Je commence avec une publicité inspirée par George Orwell qu’Apple a sortie en 1984.

(Vidéo) Big Brother : Nous sommes une seule personne avec une seule volonté, une seule résolution, une seule cause. Nos ennemis peuvent parler jusqu’à la mort, et nous les combattrons avec leur propre confusion. Nous l’emporterons. Narrateur : Le 24 Janvier, Apple Computer lancera Macintosh. Et vous verrez pourquoi 1984 ne ressemblera pas à « 1984 ».

Rebecca MacKinnon : Le message implicite de cette vidéo reste très puissant encore aujourd’hui. La technologie créée par des sociétés innovatrices nous rendra la liberté. Avancez rapidement de plus de deux décennies. Apple lance l’iPhone en Chine et censure le Dalai Lama ainsi que plusieurs autres applications politiquement sensibles à la demande du gouvernement chinois pour son app store Chinois. Le dessinateur politique Mark Fiore a également vu son application satirique censurée aux États-Unis parce que le personnel Apple s’inquiétait qu’elle puisse offenser certains groupes. Son appli n’a été republiée que quand il a gagné le Prix Pulitzer. Le magazine allemand Stern, un magazine d’actualité, s’est vu censurer son appli parce que les nourrices de Apple l’ont considérée un petit peu trop osée pour ses utilisateurs, et ce malgré le fait que ce magazine est en vente parfaitement légale dans les kiosques en Allemagne. Et encore plus controversé, récemment, Apple a censuré une appli de contestation palestinienne après que le gouvernement israélien ait exprimé des inquiétudes sur la possibilité qu’elle soit utilisée pour organiser des attaques violentes.

Donc voilà, nous sommes dans une situation où des sociétés privées appliquent des standards de censure qui sont souvent très arbitraires et généralement plus stricts que les standards constitutionnels de liberté de parole que nous avons dans les démocraties. Ou bien elles répondent aux demandes de censure de la part de régimes autoritaires qui ne reflètent pas le consentement de ceux qu’ils gouvernent. Ou bien ils répondent aux demandes et aux inquiétudes de gouvernements qui n’ont aucune juridiction sur plusieurs, ou sur la plupart, des usagers qui interagissent avec le contenu concerné.

Donc voici la situation. Dans un monde pré-Internet, la souveraineté sur les libertés physiques, ou son absence, était presque entièrement contrôlée par les états nation. Mais nous avons maintenant cette nouvelle couche de souveraineté privée dans le cyberespace. Et leurs décisions sur le codage des logiciels, sur l’ingénierie, la conception, les conditions d’utilisation agissent toutes comme une sorte de loi qui façonne ce que nous pouvons et ne pouvons pas faire avec nos vies numériques. Et leur souveraineté, transversale, mondialement interconnectée, peut d’une certaine façon défier la souveraineté des états nations de manière formidable, mais parfois agir également pour projeter et s’étendre au moment où le contrôle sur ce que les personnes peuvent et ne peuvent pas faire avec l’information a plus d’effet que jamais sur l’exercice du pouvoir dans notre monde physique. Après tout, même le leader du monde libre a besoin d’un peu d’aide du sultan du Facebookistan s’il veut être réélu l’année prochaine.

Et ces plateformes ont surement été très utiles aux activistes en Tunisie et en Égypte au printemps dernier et au delà. Comme Wael Ghonim, le cadre égyptien de Google le jour, et activiste secret de Facebook la nuit, a raconté à la CNN après la démission de Moubarak, « Si vous voulez libérer une société, il suffit de lui donner Internet. » Mais renverser un gouvernement est une chose et construire une démocratie stable est un peu plus compliqué. Sur la gauche une photo prise par un activiste égyptien qui était de ceux qui ont pris d’assaut les bureaux de la sécurité d’état égyptienne en Mars. Et de nombreux agents ont broyé le plus de documents possible et les ont laissé derrière eux en tas. Mais certains des fichiers sont restés intacts, et les activistes, certains d’entre eux, ont trouvé leurs propres dossiers de surveillance remplis de transcriptions de leurs propres échanges d’emails, leurs échanges de textos, même les conversations sur Skype. Et un activiste en fait a trouvé un contrat d’une société occidentale pour la vente d’une technologie de surveillance aux forces de sécurité égyptiennes. Et les activistes égyptiens présument que ces technologies de surveillance sont encore utilisées par les autorités transitoires qui gèrent les réseaux dans le pays.

Et en Tunisie, la censure a en fait commencé à revenir en Mai — pas aussi considérablement que sous la présidence de Ben Ali. Mais vous voyez ici une page bloquée, c’est ce qui se passe quand vous essayez de vous connecter à certaines pages de Facebook et à d’autres sites qui, selon les autorités de transition, peuvent inciter à la violence. Pour protester contre ça, le blogger Slim Amamou, qui avait été emprisonné sous Ben Ali et ensuite était rentré dans le gouvernement de transition après la révolution, a démissionné en signe de protestation. Mais de nombreux débats ont eu lieu en Tunisie sur la façon de gérer ce type de problème.

En fait, sur Twitter, il y avait un certain nombre de gens qui soutenaient la révolution qui disait, « Et bien, en fait, nous voulons la démocratie et la liberté d’expression, mais il y a certains discours qui doivent être tenus à l’écart parce qu’ils sont trop violents et pourraient déstabiliser notre démocratie. Mais le problème est, comment décider qui a le pouvoir de prendre ce genre de décisions et comment s’assurer qu’ils n’abusent pas de leur pouvoir ? Comme Riadh Guerfali, l’activiste numérique vétéran tunisien, a commenté l’incident, « Avant les choses étaient simples : il y avait les gentils d’un côté et les méchants de l’autre. Aujourd’hui, les choses sont plus subtiles. » Bienvenue dans la démocratie, amis tunisiens et égyptiens.

La réalité est que même dans les sociétés démocratiques d’aujourd’hui, nous n’avons pas de bonnes réponses à la question de comment équilibrer le besoin de sécurité et l’application des lois d’un côté et la protection des libertés civiles et la liberté de parole de l’autre dans nos réseaux numériques. En fait, aux États-Unis, quoi que vous pensiez de Julian Assange, même ceux qui ne sont pas nécessairement des grands fans sont très inquiets de la manière avec laquelle le gouvernement des États-Unis et certaines sociétés ont traité Wikileaks. Amazon en tant qu’hébergeur web a laissé tomber Wikileaks en tant que client après avoir reçu une plainte du sénateur américain Joe Lieberman, malgré le fait que Wikileaks n’ait pas été inculpé, encore moins condamné, pour aucun crime.

On présume donc qu’Internet est une technologie qui fait voler les frontières en éclat. Voici une carte des réseaux sociaux dans le monde, et il est certain que Facebook a conquis la plus grande partie du monde, ce qui peut être une bonne ou une mauvaise chose, selon que vous aimiez ou non la manière dont Facebook gère son service. Mais les frontières demeurent dans certaines parties du cyberespace. Au Brésil et au Japon, c’est pour des raisons culturelles et linguistiques uniques. Mais si vous regardez la Chine, le Vietnam et certains des anciens états soviétiques, ce qui s’y passe est plus inquiétant. Vous avez une situation où la relation entre le gouvernement et les sociétés de réseaux sociaux locales est en train de créer une situation où, effectivement, le pouvoir que pourrait donner ces plateformes est contraint à cause de ces relations entre les compagnies et le gouvernement.

En Chine, vous avez maintenant, le “grand pare-feu”, comme on l’appelle, qui bloque Facebook, Twitter et maintenant Google+ et de nombreux autres sites étrangers. Et ceci est fait en partie avec l’aide de la technologie occidentale. Mais ce n’est que la moitié de l’histoire. L’autre partie de l’histoire ce sont les conditions que le gouvernement chinois impose à toutes les sociétés qui opèrent sur Internet en Chine, qu’on connait comme un système d’autodiscipline. En anglais courant, cela signifie censure et surveillance des utilisateurs. Voici donc une cérémonie à laquelle j’ai assisté en 2009 où la Internet Society of China a remis des prix aux 20 premières sociétés chinoises les meilleures dans l’exercice de l’autodiscipline — c’est-à-dire dans le contrôle de leurs contenus. Et Robin Li, Directeur Général de Baidu, le premier moteur de recherche en Chine, faisait partie des lauréats.

En Russie, généralement ils ne bloquent pas Internet et ne censurent pas directement les sites. Mais voici un site qui s’appelle Rospil c’est un site anti-corruption. Et cette année, il y a eu un incident troublant au cours duquel les gens qui avaient fait des dons à Rospil à travers un système de paiement qui s’appelle Yandex Money ont soudain reçu des menaces par téléphone de la part de membres du parti nationaliste qui avaient obtenu des détails sur les donateurs de Rospil par le biais des membres des services de sécurité qui avaient d’une façon ou d’une autre obtenu ces informations des gens de Yandex Money. Cela a refroidi les gens quant à leur capacité d’utiliser Internet pour tenir le gouvernement responsable. Nous avons donc une situation dans le monde aujourd’hui où dans de plus en plus de pays la relation entre les citoyens et les gouvernements se fait au moyen d’Internet, qui est compromis à l’origine par des services privés.

Alors la question importante, je crois, ce n’est pas le débat pour savoir si Internet aidera les gentils plutôt que les méchants. Bien sûr, cela donnera du pouvoir à quiconque a le plus de talent dans l’utilisation de la technologie et comprend le mieux Internet par rapport à son adversaire, qui que ce soit. La question la plus urgente que nous devons nous poser aujourd’hui est comment pouvons-nous être sûrs que l’évolution d’internet est centrée sur les citoyens. Parce que je pense que vous serez tous d’accord que le seul but légitime d’un gouvernement est de servir les citoyens. Et je pourrais affirmer que le seul but légitime de la technologie est d’améliorer nos vies, et non de les manipuler ou de nous réduire à l’esclavage.

La question est donc, nous savons comment tenir le gouvernement responsable. Nous ne le faisons pas nécessairement très bien, mais nous avons une bonne idée des modèles politiques et institutionnels pour le faire. Comment tenir les souverains du cyberespace responsable de l’intérêt public quand la plupart des directeurs généraux affirment que leur principale obligation est de maximiser les profits des actionnaires ?

Et souvent la régulation du gouvernement n’aide pas beaucoup. Vous avez des situations, par exemple, en France dans laquelle le président Sarkozy dit aux directeurs généraux des compagnies Internet, « Nous sommes les seuls et légitimes représentants de l’intérêt public. » Mais ensuite il soutient des lois comme la tristement célèbre Hadopi qui déconnecte les citoyens d’Internet suite au partage de fichiers, ce que le Rapporteur Spécial des Nations-Unies pour la liberté d’expression a condamné comme une violation disproportionnée des droits de communication des citoyens, et a soulevé des questions parmi les groupes de société civique pour savoir si oui ou non certains représentants politiques sont plus intéressés par la préservation des intérêts de l’industrie du divertissement plutôt que pas la défense des droits de leurs citoyens. Et ici au Royaume-Uni on s’inquiète aussi d’une loi du nom de Digital Economy Act qui est en train de placer plus d’obligation sur les intermédiaires privés à surveiller les comportements des citoyens.

Nous devons donc reconnaitre c’est que si nous voulons avoir dans le futur un Internet centré sur le citoyen, nous avons besoin d’un mouvement sur Internet plus large et plus soutenu. Après tout, les sociétés n’ont pas arrêté de polluer les eaux, bien entendu, ou d’employer des gamins de 10 ans, uniquement parce que les cadres se sont levés un jour et ont décidé que c’était la bonne chose à faire. C’est le résultat de décennies d’activisme soutenu, de soutien de l’actionnariat et de soutien des consommateurs. De la même façon, les gouvernements ne promulguent pas de lois intelligentes concernant l’écologie et le travail uniquement parce que les politiciens se sont levés un jour. C’est le résultat d’un activisme politique très soutenu et prolongé. qui aboutit à de bons règlements, et avec lequel vous obtenez le bon comportement collectif. Nous avons besoin de la même approche avec Internet.

Nous aurons également besoin d’innovation politique. Il y a 800 ans, à peu près, les barons anglais ont décidé que le droit divin des rois ne leur allait plus tellement bien, et ils ont forcé le roi Jean à signer la Magna Carta, qui reconnaissait que même le roi qui prétendait régner de droit divin devait tout de même respecter une série de règles élémentaires. Ceci a mis en route un cycle de ce que nous pouvons appeler innovation politique, qui a conduit à l’idée de consentement des gouvernés — ce qui a été appliqué pour la première fois par ce gouvernement révolutionnaire radical en Amérique au delà de l’océan. Maintenant nous avons donc besoin de comprendre comment construire un consentement des utilisateurs du réseau.

Et à quoi cela ressemble ? Pour le moment, nous ne le savons pas encore. Mais cela demandera de l’innovation, qui ne devra pas se contenter de se concentrer sur la politique, ou sur la géopolitique, elle devra également s’occuper de questions de gestion des affaires, du comportement des investisseurs, des choix des consommateurs et également de création et construction de logiciels. Nous avons tous un rôle à jouer dans la construction du genre de monde dans lequel le gouvernement et la technologie servent les gens et non le contraire.