Google Chrome deviendra-t-il un nouvel IE6 ?

Denis Dervisevic - CC byBon ben voilà, c’est fait, le navigateur Google Chrome est passé devant Firefox au niveau mondial la semaine dernière. En France cela résiste plutôt bien, mais pour combien de temps encore ?

Ce qui avait été prédit ici-même il y a deux ans, alors que Chrome n’avait à peine que 6% du marché, s’est malheureusement révélé exact : Google Chrome m’a tuer ou le probable déclin de Firefox si nous n’y faisons rien (avec plus de 200 commentaires à la clé).

Dans cet article on pouvait lire en outre ce passage : « Pour ne rien arranger, rappelons également la situation schizophrénique et paradoxale des ressources de la Mozilla Foundation apportées à plus de 90% par l’accord avec… Google ! Quand vous dépendez financièrement d’un partenaire qui se transforme jour après jour en votre principal concurrent, vous vous sentez légèrement coincé aux entournures ! »

Or justement, nous y sommes, car une grosse inquiétude plane actuellement sur la reconduction du partenariat, rendant plus compliquée encore la situation[1].

Mais il y a pire. Comme relatée dans la traduction ci-dessous, Google, conforté par sa position de plus en plus dominante, commence à tomber dans le côté obscur de la force pour proposer des services « optimisés » pour Chrome (comprendre qui marche mieux ou qui marche tout court dans Chrome et uniquement dans Chrome). Gmail, Google Docs, Google Maps, etc. et si un jour vous vous retrouviez contraint de surfer sous Chrome pour utiliser pleinement ces services ?

Ce serait une belle régression et une belle menace pour un Web libre, neutre et ouvert. Et alors la comparaison avec le tristement célèbre Internet Explorer 6 n’est pas si exagérée que cela !

Pour aller plus loin et continuer à prendre garde, on pourra parcourir les articles du tag Chrome du Framablog.

Google Chrome est-il le nouveau IE6 ?

Is Google Chrome the New IE6?

Michael Muchmore – 2 décembre 2011 – PC Mag
(Traduction Framalang : Poupoul, Goofy, Pandark, Marting, Duthils, Toufalk et Deadalnix)

Laissez moi vous parler d’un navigateur. Un navigateur innovant qui fut le premier à implémenter de nouvelles technologies Web permettant une meilleure interactivité. Un navigateur avec une nouvelle interface étonnante. Chrome ? Non, Internet Explorer 6.

Il y a une raison pour laquelle le navigateur de Microsoft prit 95 pour cent du marché des navigateurs Web à Netscape (l’ancêtre de Firefox) : IE6 pouvait faire des choses dont ses prédécesseurs étaient incapables. Il y avait le HTML dynamique, le langage CSS, et même (oui, oui) de nouvelles fonctionnalités en matière de sécurité.

Mais d’années en années, ces fonctionnalités uniques ont montré un tout autre visage. Tous les principaux sites web ont cherché à s’optimiser pour IE, à tel point que ces sites ne fonctionnaient plus correctement avec d’autres navigateurs.

Avançons rapidement jusqu’en 2011. Le nouveau navigateur à la mode s’appelle Google Chrome, qui, d’après StatCounter, vient juste de dépasser l’ex-favori indépendant Firefox en part de marché globale. Chrome peut faire des choses dont les autres navigateurs sont incapables, et Google ne connaît plus que Chrome, ce qui signifie que certains des sites de Google ne fonctionnent intégralement que dans Chrome. Même aujourd’hui, vous pouvez lire sur le blog de Google qu’il existe de nouveaux niveaux d’Angry Birds qui ne fonctionnent que dans Chrome.

C’est perturbant, quand on considère tout ce que Google a fait pour l’ouverture du Web ; Google n’existerait pas si de vrais standards ouverts n’existaient pas sur le Web. Mais de plus en plus, Chrome devient un portail vers les services Google, jusqu’à la mise au ban d’autres navigateurs.

Bien sûr, tout le monde peut faire un site web qui fonctionne sous Chrome, donc il est, d’une certaine façon, ouvert. Mais si ces sites fonctionnent uniquement sous Chrome et plus sous les autres navigateurs, nous avons un manque d’ouverture dans l’écosystème du Web. De même, tout le monde pouvait produire un site qui fonctionnait parfaitement avec IE6, mais nous avons aussi le même problème : le site ne fonctionnera pas complètement dans les autres navigateurs.

Des cas de services Google utilisables uniquement avec Chrome sont en train d’apparaitre. Très récemment, avec la sortie de Chrome 15, le leader de la recherche sur Internet a changé juste une petite fonctionnalité de l’interface — la page d’un nouvel onglet. Et il l’a fait de manière à promouvoir le « Chrome Web Store » de l’entreprise. Cet « app » store — les apps étant en fait tout simplement des sites Web — ne fonctionne qu’avec Chrome. Avant ça, la société annonçait enfin la possibilité d’utiliser le service de webmail Gmail hors-ligne. Et devinez quoi ? Ça ne fonctionne que si vous utilisez Chrome.

Ce ne sont pas les seuls exemples de services de Google à ne fonctionner que sous Chrome ; il y a aussi, parmi tant d’autres, Google Instant Page, Google Cloud Print, le glisser-déposer et l’upload de dossiers dans Google Docs, les notifications des évènements du calendrier et des emails de Google Apps.

Un autre « standard », SPDY, pourrait transformer le Web en Google Wide Web (NdT : référence au World Wide Web). SPDY est un remplacement à HTTP qui compresse les données d’en-tête et permet des connexions persistantes entre le serveur et les navigateurs. Il s’avère que certains sites de Google utilisent déjà SPDY lorsque vous naviguez avec Chrome. De même que pour les Instant Pages, la technologie est disponible à l’implémentation pour les éditeurs Web, mais encore une fois, Google lui-même est le seul acteur majeur à le supporter. Un bon truc, des interactions Web plus rapides, mais n’oublions pas qu’un accès universel avec n’importe quel logiciel est la raison première pour laquelle le Web a décollé.

Cette stratégie prend l’exemple de Microsoft pour IE6 et l’étend à une échelle beaucoup plus grande. Le client Web Outlook (premier exemple majeur de site utilisant massivement Ajax, proche d’une app) ne permettait d’utiliser la fonctionnalité de recherche dans votre boîte de réception que si vous utilisiez Internet Explorer. C’est exactement ce que Google a commencé à faire : offrir un service Web qui fonctionne presque dans tous les navigateurs, mais nécessite le navigateur de l’entreprise pour fonctionner complètement. Heureusement, Microsoft a abandonné ces fonctionnalités réservées à IE. Espérons que Google en fera de même.

Lors d’une discussion que j’ai eu récemment avec Hakum Lie, directeur technique du développeur de navigateur Opera Software, le scandinave s’est inquiété de la démarche de Google.

« Il arrive souvent que Google lance des services sans les tester dans tous les navigateurs. On se réveille parfois un matin avec un nouveau service Google dont certains bugs auraient pu être corrigés s’ils avaient travaillé avec nous pendant la phase de developpement » a dit Lie. « Maintenant qu’ils ont leur propre navigateur, ils pensent moins à s’assurer que tout marche pour tout le monde, ce qui est préoccupant parce que Google n’aurait pas existé sans des standards ouverts. Nous serions probablement restés dans le giron de Microsoft ».

Mais Lie reconnaiît que Google a contribué aux standards du Web, « Certaines de ces expériences sont géniales », dit-il. « Nous avons besoin d’expérimentations de ce genre et on ne peut pas exiger que tout fonctionne avec tous les navigateurs. Mais vous devriez tester avec les navigateurs les plus populaires ».

Les Chromebook sont encore plus verrouillés et privateurs de liberté puisque ce ne sont quasiment que des navigateurs dans des boîtes vides. « Ce que nous reprochons au Chromebook c’est qu’il s’agit d’une plateforme très fermée », dit Lie. « Nous avons râlé après Microsoft pendant toutes ces années, mais avec Windows, vous pouviez au moins créer un navigateur concurrent ».

On pourrait dire la même chose pour les machines Apple tournant sous iOS, comme les iPads. Mais bien que les Chromebooks ne soient pas aussi populaires que les iPad, si un jour tous les ordinateurs sont des Chromebooks, le choix du navigateur et l’ouverture seront des concepts appartenant au passé.

Comme toutes les multinationales, Google veut être le premier partout où elle le peut. Elle a déjà réussi dans la recherche en ligne. Ne vous méprenez pas, Google a fait un boulot fantastique. Chrome ne serait pas aussi populaire si ce n’était pas le cas. C’est mon choix en tant qu’éditeur de PCMag parce qu’il est beaucoup plus rapide que ses prédecesseurs. L’arrivée de Chrome sur la scène a obligé tous les autres navigateurs à s’améliorer. J’espère seulement que ces améliorations n’entraveront pas l’ouverture et l’interopérabilité.

Notes

[1] Crédit photo : Denis Dervisevic (Creative Commons By)




Geektionnerd : DePiraatBaai.be

Pour en savoir plus sur le blocage de The Pirate Bay en Belgique, voir Le Monde ou Numérama.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




La promotion du Web Ouvert a bien changé mais Mozilla est toujours là

SCA Svenska Cellulosa Aktiebolaget - CC byPromouvoir le Web ouvert est l’une des missions de Mozilla.

Mission parfaitement assumée et réussie il y a quelques années avec l’avènement de Firefox qui obligea Internet Explorer à quitter son arrogance pour rentrer dans le rang et se montrer plus respectueux des standards et donc des internautes.

Sauf qu’aujourd’hui la donne a sensiblement changé.

Avec la mobilité, les stores, les apps, les navigateurs intégrés, etc. c’est en effet un Web bien plus complexe qui se présente devant nous. Un Web enthousiasmant[1] mais plein d’embûches pour ceux qui sont attachés à son ouverture et à sa neutralité.

C’est tout l’objet de ce très intéressant récent billet du développeur Mozilla Robert O’Callahan.

Des changements dans la façon de promouvoir le Web Ouvert

Shifts In Promoting The Open Web

Robert O’Callahan – 30 septembre 201 – Blog personnel
(Traduction Framalang : Antistress et Goofy)

Historiquement Mozilla a dépensé pas mal d’énergie pour promouvoir l’usage du « Web ouvert » plutôt que de plateformes propriétaires et de code spécifique à des navigateurs non standards (IE6). Cette évangélisation reste nécessaire mais le paysage s’est modifié et je pense que notre discours doit s’adapter.

Les plateformes dont nous devons nous préoccuper ont beaucoup changé. Au lieu de WPF, Slivertlight and Flash, les outils propriétaires pour développeurs avec lesquelles il faut rivaliser dorénavant sont iOS et Android. En conséquence, les fonctionnalités que le Web doit intégrer sont à présent orientées vers la mobilité. Nous devons abattre les barrières qui incitent les développeurs d’applications mobiles à écrire des applications natives plutôt que des applications Web, et nous devons promouvoir (et c’est ce que nous faisons !) le développement et l’usage d’applications Web au lieu d’applications natives. Les démonstrations qui ne fonctionnent que sur les navigateurs des micro-ordinateurs sont moins importantes.

Le Web ouvert doit également faire face à de nouvelles plateformes rivales intéressantes : des plateformes qui sont conçues sur les standards du Web mais qui brident l’installation d’applications pour créer une plateforme entièrement contrôlée par le fabricant. L’app store (plateforme de téléchargement d’applications) de Chrome et celle du futur Windows 8 Metro en sont des exemples. J’ai été très déçu de voir que les versions hors connexion de Gmail et Google Calendar n’étaient proposées que sous la forme d’applications pour Chrome. Et même si Angry Birds fonctionne très bien sur Firefox, son affiliation commerciale à Chrome laisse certainement croire qu’il ne fonctionne que sur Chrome. Pour contrer cela nous devons nous assurer que la compétition entre navigateurs reste forte et offre aux développeurs des app stores indépendants des navigateurs. Mozilla travaille dessus, bien sûr :-). Nous devons également exprimer clairement que les app stores dédiés à un navigateur vont à l’encontre d’un Web ouvert.

Une forme de compétition moins évidente résulte de développeurs d’applications se focalisant sur un seul navigateur ou un seul moteur de rendu. Google demande explicitement à ses développeurs de cibler uniquement Chrome avant de penser aux autres navigateurs. C’est compréhensible, mais ça reste perturbant. Une autre préoccupation est de constater que beaucoup de sites pour appareils mobiles ne ciblent que WebKit (parfois implicitement en codant en fonction des bogues de WebKit, le plus souvent explicitement en codant des fonctions propres à WebKit). Beaucoup de développeurs de sites pour appareils mobiles, y compris des développeurs de sociétés renommées comme Google, sont réticents à changer de comportement. C’est un immense problème pour le Web ouvert. Nous avons besoin d’une campagne de promotion des standards du Web ouvert à destination des développeurs de sites pour appareils mobiles. Nous devons être clairs sur le fait que proposer des applications qui ne tournent que sur un seul moteur de rendu, quel que soit ce moteur, va à l’encontre d’un Web ouvert.

C’est malheureux de constater que, parmi les principaux concepteurs de navigateurs, seul Mozilla (et peut-être Opera) n’a pas d’intérêt particulier au succès d’une plateforme Web non ouverte. Je suis content de travailler ici.

Une chose formidable concernant le Web actuellement est l’explosion de nouvelles fonctionnalités et standards pour les développeurs Web. Pourtant nous devons distinguer avec soin les bons standards ouverts des imitations poussées unilatéralement. Toutes les propositions de standards ne sont pas bonnes pour le Web, même si elles sont accompagnées d’une implémentation open-source. Maciej Stachowiak désigne quelques projets de Google – VP8, SPDY, Pepper, and Native Client – qui, bien qu’étant peut-être de bonnes idées, échouent plus ou moins à être de véritables standards ouverts (le manque d’une bonne spécification pour VP8 est un problème que nous pouvons et devrions régler nous-mêmes à Mozilla). Il y a aussi des cas où, même si une bonne spécification collégiale existe et est attendue par certains développeurs, la fonctionnalité n’est pas bonne pour le Web et doit être repoussée. C’est pourquoi je pense que, lorque nous faisons la promotion du Web ouvert, nous devons faire très attention aux spécifications que nous mettons en avant. Ce n’est pas parceque quelqu’un lance une ébauche de spécification avec « CSS » (ou « HTML » ou « Web ») dans le nom en même temps qu’une implémentation embryonnaire, que cette spécification fait partie ou devrait faire partie du Web ouvert. Les gens doivent se demander : est-ce que cette fonctionnalité est bonne pour le Web ? Est-ce qu’il existe une ébauche exhaustive de la spécification qui ne nécessite pas de rétro-ingénierie sur une implémentation existante ? Existe t-il plusieurs implémentations ? Est-ce que la spécification est activement mise à jour pour tenir compte des retours des concepteurs de navigateurs et des développeurs Web ?

C’est une période stimulante et excitante. En dépit des menaces que je viens d’évoquer, c’est super de constater l’investissement massif dans l’amélioration des technologies du Web ouvert. C’est super de voir Microsoft abandonner Silverlight pour une plateforme basée sur les standards. Nous avons remporté quelques batailles, mais la guerre pour les standards du Web ouvert n’est pas finie et nous devons poursuivre le combat, sur les fronts correctement choisis.

Notes

[1] Crédit photo : SCA Svenska Cellulosa Aktiebolaget (Creative Commons By)




Geektionnerd : Internet illimité (mise à jour)

En référence à cette première planche, mais aussi à une nouvelle saillie de la mascotte d’Internet qu’est Frédéric Lefebvre.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Traducthon, tradaction, tradusprint… Pour un Web ouvert !

Geektionnerd - Simon Gee Giraudot - CC by-saDepuis plus de deux ans, plus précisément depuis un samedi de mai 2009 à l’occasion d’une Ubuntu party, je participe aux traductions collaboratives dans la vraie vie initiées par Framalang, le groupe de traducteurs gonzos du Framaland. Et je ne suis pas le seul à y avoir pris goût.

Nous avons récidivé à Bordeaux pour traduire Un monde sans Copyright, chez Mozilla Europe à Paris pour le manuel Thunderbird et en juillet dernier à Strasbourg à l’occasion des RMLL, pour vous proposer aujourd’hui Pour un Web ouvert.

J’ai traduit, aidé à traduire, relu et révisé des dizaines de textes de toutes sortes. Participer aux traductions d’articles avec Framalang depuis un certain temps déjà n’a fait que multiplier les occasions de pratiquer le petit jeu de la traduction. Mais participer à un traducthon est une tout autre expérience dont voici certaines caractéristiques.

Des traducteurs en chair, en os et en vie

Antoine Turmel - CC by-saCommençons par le plus flagrant : un traducthon c’est une rencontre physique de personnes qui ne se connaissaient pas forcément, qui n’étaient que des pseudos en ligne ou bien que l’on ne retrouve qu’à quelques occasions. C’est donc d’abord un temps convivial, où l’on échange des propos par-dessus le travail en cours, des plaisanteries de mauvais goût qui déclenchent le fou-rire, des considérations trollesques qui partent en vrille, mais aussi des projets, des questions, des réponses, des contacts, de la bière l’eau ferrugémineuse, des pizzas et des petits plats du restau du quartier. En somme c’est une petite bande de gens qui deviennent copains (au moins), une bande dont la géométrie est variable d’une session à l’autre suivant la disponibilité de chacun ou son libre désir de participer.

Le milieu des traducteurs libristes n’est pas si vaste, mais il est relativement compartimenté, généralement en fonction des tâches et projets. Un traducthon représente la possibilité de mettre un peu de liant dans cet émiettement des activités. Je suis assez content par exemple de voir se rencontrer sur une traduction partagée des copains de frenchmozilla et ceux de framalang. Ah mais j’entends aKa dans l’oreillette… ah oui, d’accord il faut employer au moins une fois le mot « synergie ». C’est fait.

Inconvénient ? C’est sûr, on découvre les vrais gens : Julien mange toute la tablette de Milka, Adrien est trop bavard, Goofy est un vieux et Simon ne devrait pas se laisser pousser la barbe.

Un défi, un enjeu, un grand jeu

La concentration dans le temps (un week-end, trois ou quatre jours dans le meilleur des cas…), la concentration dans un lieu de travail (une salle de cours de faculté plus ou moins équipée, un hall de la Cité des sciences, les locaux de Mozilla Europe…) sont bien sûr associées au défi que l’on se donne de terminer au moins un premier jet tout simplement parce qu’après le traducthon chacun reprend sa vie quotidienne et d’autres activités, il faut donc terminer « à chaud ». L’ensemble pourrait créer un stress particulier, mais le plus souvent il ne s’agit que d’une tension positive parce que nous sommes un groupe. Chacun sait que tout près un autre participant est animé lui aussi du désir d’atteindre le but commun. La collaboration crée en réalité l’émulation, chacun met un point d’honneur à faire au moins aussi bien et autant que ses voisins.

L’enjeu d’un traducthon est particulier car il s’agit d’un ouvrage d’un volume important et pas seulement d’un article de presse électronique qui est une denrée périssable, comme nous en traduisons régulièrement pour le Framablog. Dans un traducthon, nous nous lançons le défi de traduire vite un texte qui devrait pouvoir être lu longtemps et dont le contenu lui aussi est important. Nous avons le sentiment d’avoir une sorte de responsabilité de publication, et la fierté de mettre à la disposition des lecteurs francophones un texte qui contribue à la diffusion du Libre, de sa philosophie et de ses problématiques.

Reste que la pratique a heureusement une dimension ludique : les outils en ligne que nous partageons pour traduire, que ce soit la plateforme Booki ou les framapads, même s’ils ne sont pas parfaits, offrent la souplesse et l’ergonomie qui les rendent finalement amusants à pratiquer. Tous ceux qui ont utilisé un etherpad pour la première fois ont d’abord joué avec les couleurs et l’écriture simultanée en temps réel. Même au cœur du rush des dernières heures d’un traducthon, lorsque nous convergeons vers les mêmes pages à traduire pour terminer dans les temps, c’est un plaisir de voir vibrionner les mots de couleurs diverses qui complètent un paragraphe, nettoient une coquille, reformulent une tournure, sous le regard de tous.

Traduction ouverte, esprit ouvert

N’oublions pas tous ceux qui « passent par là » et disent bonjour sous la forme d’un petit ou grand coup de pouce. Outre ceux qui ont décidé de réserver du temps et de l’énergie pour se retrouver in situ, nombreux sont les contributeurs et contributrices qui collaborent sur place ou en ligne. Beaucoup découvrent avec intérêt la relative facilité d’accès de la traduction, qui demande plus de qualité de maîtrise des deux langues (source et cible) que de compétences techniques. Quelques phrases, quelques pages sont autant de contributions tout à fait appréciées et l’occasion de faire connaissance, voire d’entrer plus avant dans le jeu de la traduction en rejoignant framalang.

Plus on participe, plus on participe. Il existe une sorte d’effet addictif aux sessions de traduction collective, de sorte que d’une fois à la suivante, on retrouve avec plaisir quelques habitués bien rodés et d’autres plus récemment impliqués qui y prennent goût et y reviennent. Participer à un traducthon, c’est appréhender de près et de façon tangible la puissance du facteur collaboratif : de l’adolescent enthousiaste à l’orthographe incertaine au retraité venu donner son temps libre pour le libre en passant par le développeur qui apporte une expertise technique, chacun peut donner et recevoir.

Enfin, et ce n’est pas là un détail, la pratique du traducthon apprend beaucoup à chacun. Certains découvrent qu’ils sont à la hauteur de la tâche alors qu’ils en doutaient (nulle contrainte de toutes façons, on choisit librement ce que l’on veut faire ou non), mais pour la plupart d’entre nous c’est aussi une leçon de partage du savoir : nos compétences sont complémentaires, l’aide mutuelle est une évidence et la modestie est nécessaire à tous. Voir par exemple son premier jet de traduction repris et coloré par un traducteur professionnel (Éric, reviens quand tu veux ?!), se faire expliquer une tournure de slang par un bilingue et chercher avec lui un équivalent français, découvrir une thèse audacieuse au détour d’un paragraphe de la version originale, voilà quelques exemples des moments enrichissants qui donnent aussi sa valeur à l’exercice.

Le mot, la chose

Une discussion trolloïde de basse intensité est engagée depuis le début sur le terme à employer pour désigner le processus de traduction collaborative dans la vraie vie en temps limité. Quelques observations pour briller en société :

  • C’est un peu l’exemple des booksprints initiés par Adam Hyde et la bande des Flossmanuals qui nous a inspiré l’idée de nos sessions, on pourrait donc adopter tradusprint, surtout dans la mesure où c’est une sorte de course de vitesse…
  • En revanche lorsque une traduction longue demande plusieurs jours et un travail de fond (ne perdons pas de vue le travail indispensable de révision post-traduction), il est assez cohérent de parler plutôt de traducthon.
  • Pour être plus consensuel et « couvrir » tous les types de session, le mot tradaction a été proposé à juste raison

Ci-dessous, reproduction de l’affichette amicalement créée par Simon « Gee » Giraudot pour annoncer le traducthon aux RMLL de Strasbourg. À noter, Simon a également contribué à la traduction d’un chapitre !

Geektionnerd - Simon Gee Giraudot - CC by-sa

Et le Web ouvert alors ?

C’était justement le fruit d’un booksprint à Berlin l’année dernière, le voilà maintenant en français. Ce qui est assez frappant pour aller droit à l’essentiel, c’est la rhétorique guerrière qui en est le fil rouge. Au fil des pages on prend conscience de l’enjeu et de l’affrontement déjà en cours dans lequel nous pouvons jouer un rôle décisif. C’est maintenant et peut-être dans les deux ans qui viennent pas plus qu’il y a urgence à ce que nos pratiques de la vie numérique maintiennent et étendent un Web ouvert.

Le Web n’est pas un amoncellement de données, ni un amoncellement d’utilisateurs, le Web ouvert existe quand l’utilisateur propose librement des données et s’en empare librement. Le Web n’a pas d’existence tant que ses utilisateurs ne s’en emparent pas.

Nous voulons un Web bidouillable, libre et ouvert. Nous voulons des navigateurs Web extensibles, d’une plasticité suffisante pour répondre à nos goûts et nos besoins. Nous voulons contrôler nos données et en rester maîtres, non les laisser en otages à des services dont la pérennité et les intentions sont suspectes. Nous ne voulons pas que notre vie numérique soit soumise ni contrôlée, filtrée, espionnée, censurée.

Le Web n’appartient pas aux fournisseurs d’accès, ni aux états, ni aux entreprises.

Le Web n’appartient à personne, parce que nous sommes le Web.

Au fait, si vous voulez parcourir Pour un Web ouvert, c’est… ici en HTML et là en PDF.

Antoine Turmel - CC by-sa

Bonus track

Une interview au cours du traducthon de Strasbourg pour la radio québécoise La Voix du Libre.

Crédit photos : Antoine Turmel et Antoine Turmel (Creative Commons By-sa)




Librologie 3 : User-generated multitude

Bonjour à tous, bonjour à toutes,

Après deux premières Librologies en forme de portrait, je vous propose aujourd’hui de commencer à aborder le domaine des pratiques culturelles Libres, qui est la motivation d’origine de ces chroniques.

C’est l’occasion de revenir sur quelques thématiques évoquées précédemment avec l’épisode rms, mais également d’introduire d’autres problèmes que nous serons amenés à retrouver au fil des semaines.

Bonne lecture, et à la semaine prochaine…

Librologie 3 : User-generated multitude

La chronique que je vous propose aujourd’hui a déjà été écrite pour moi, au moins en partie, par l’enseignant-chercheur Olivier Ertzscheid, qui a récemment été frappé, tout comme moi (et des millions d’internautes), par le diagramme suivant :

In 60 seconds - Go-Globe.com

Son commentaire, brillamment intitulé L’imaginaire numéraire du numérique, mérite d’être lu en entier. En voici quelques fragments (où l’on notera d’ailleurs une allusion à Roland Barthes) :

Le vertige des grands nombres est constitutif de la statistique du web, formidable écosystème facilitateur et multiplicateur de la moindre interaction, de la moindre navigation, de la moindre publication, de la moindre attention portée. Les chiffres de Facebook sont donc pareillement vertigineux, comme sont vertigineux ceux de Google, de Youtube et de l’ensemble de ces mégalopoles virtuelles dans lesquelles se croisent, chaque jour, deux milliards d’internautes. (…)

Ces chiffres contribuent également à nourrir un imaginaire collectif qui, incapable de littéralement se représenter « ce que représente » le traitement computationnel de 57 milliards d’interactions comme on est incapable, dans l’instant, de se représenter « ce que représente » la fortune de Liliane Bettancourt à l’échelle de notre salaire mensuel, ces chiffres, disais-je, contribuent également à nourrir un imaginaire collectif réduit à choisir l’extase statistique comme seul argumentaire de la construction de son horizon critique. (…)

2 milliards d’internautes mais 6 miliards d’êtres humains. Or avez-vous vu récemment une infographie sur le nombre de véhicules circulant chaque jour sur le périphérique parisien ou new-yorkais ? Voit-on se multiplier les infographies sur le nombre de coups de fils passés chaque jour dans le monde ? Sur le nombre de litres d’essence consommés chaque jour dans chaque pays ? Sur le nombre de feuilles de papier sortant chaque jour des imprimantes domestiques ? On sait que là aussi les chiffres seraient vertigineux. Mais ces chiffres là ne nous fascinent plus. L’écosystème qu’ils décrivent est « tangible », lourdement, tristement et désespérement tangible. (…)

Le chiffre, les chiffres de l’internet renvoient donc à des effets de sidération qui participent d’une atténuation de l’effet de réel des entités qu’ils décrivent en même temps qu’ils renforcent le pouvoir symbolique des grandes firmes du web. (…) La mythologie de l’internet – au sens des mythologies de Barthes – est construite sur ces chiffres renvoyant à une nouvelle Babel statistique.

Puisqu’Olivier Ertzscheid nous y invite, relisons les Mythologies de Barthes, et tentons par exemple de mettre en balance ce nouvel imaginaire vertigineux des très grands nombres auquel donne lieu Internet, avec la rhétorique de la computabilité et de la quantifiabilité que Roland Barthes observait chez la petite-bourgeoisie poujadiste de son temps (état d’esprit dont nous avons vu qu’il est toujours à l’œuvre aujourd’hui) : « l’infini du monde est conjuré, écrit-il dans son texte sur Poujade déjà cité, (…) toute une mathématique de l’équation rassure le petit-bourgeois, lui fait un monde à la mesure de son commerce ».

M. Ertzscheid n’a pas tort de parler d’une « extase statistique » (d’ailleurs souvent en forme d’auto-congratulation), cependant il s’en faut de peu pour que l’extase cède le pas (en particulier dans certains milieux traditionnellement légitimés) à un sentiment de terreur. Un chiffre concevable fait un argument publicitaire efficace, un chiffre inconcevable effraie. On peut nous vendre, sur des affiches de vingt mètres carrés, tel grand concert dans un stade sportif, avec « 500 musiciens, 200 artistes sur scène », mais on a renoncé depuis longtemps à nous vendre tel film comme ayant nécessité « 200 millions de dollars, 50 000 figurants » et ainsi de suite.

Lorsqu’il cesse d’être concevable pour devenir « sidérant », lorsqu’il ne réduit plus le monde à une donnée appréhensible mais évoque au contraire son ampleur, le chiffre n’est plus un nombre, mais une image : on ne s’appuie plus dessus pour argumenter, mais pour frapper les esprits. Cela n’a pas échappé à un autre enseignant-chercheur, André Gunthert, qui rebondit sur l’analyse de Ertzscheid pour critiquer un ouvrage de Patrice Flichy intitulé Le Sacre de l’amateur, et dont les premières lignes donnent (mal ?) le ton :

Les quidams ont conquis Internet. Cent millions de blogs existent dans le monde. Cent millions de vidéos sont visibles sur YouTube. En France, Wikipédia réunit un million d’articles, et dix millions de blogs ont été créés. Un quart des internautes a déjà signé une pétition en ligne. Ces quelques chiffres illustrent un phénomène essentiel : le web contemporain est devenu le royaume des amateurs.

Ce qui définit l’amateur, c’est donc sa multitude indéterminée (par opposition, imagine-t-on, à la singularité du « professionnel » — j’y reviens à l’instant). Dans un autre ouvrage plus ancien au titre similaire (Le Culte de l’Amateur, également remarqué par Gunthert), l’entrepreneur américain Andrew Keen est même nettement plus vindicatif :

Voici l’ère où la musique que nous écouterons viendra de groupes amateurs dans des garages, les films que nous verrons viendront d’un YouTube amélioré, et les actualités, faite de potins mondains survitaminés, nous seront servies comme une garniture autour de la pub. Voilà ce qui arrive lorsque l’ignorance se joint à l’égoïsme qui se joint lui-même à la loi de la foule.

Les invasions barbares, réactualisation d’un mythe. Cependant, est-ce vraiment là la seule attitude possible ? Autre entrepreneur américain, Chris Anderson a montré avec ses travaux sur la « longue traîne » et l’économie de la gratuité que l’avènement des « multitudes » sur le Web pouvait permettre l’émergence de modèles éminement rentables.

À condition, évidemment, de savoir quoi vendre. Nous parlions récemment de ce glissement linguistique qui consiste à désigner les œuvres de l’esprit sous l’appellation de « contenu », glissement critiqué aussi bien par Stallman que Doctorow : jamais sans doute n’aura-t-il été aussi révélateur que dans l’expression User-Generated Content, « contenu produit par les utilisateurs », dont l’avènement dans les années 2000 a été décrit comme signe d’une « marchandisation du Web ».

Ainsi, le regard que porte le système idéologique dominant sur les multitudes d’internautes me semble osciller entre mépris et avidité, entre terreur et intérêt financier. Nous ne nous appesantirons pas ici sur l’oxymore « user-generator », retournement par lequel le public autrefois passif, devient aujourd’hui actif ; de spectateur, devient acteur ; de consommateur, devient producteur. Beaucoup s’en sont émerveillés (à juste titre), souvent avec cette tonalité d’auto-congratulation que nous évoquions plus haut ; d’autres ont fait remarquer combien l’internaute producteur de richesse intellectuelle devient force de travail volontaire, sans toujours en être conscient ; d’autres enfin soulignent que certaines formes de cette production de richesse sont à même de remettre en cause l’intégrité de notre citoyenneté — autant de critiques pertinentes et valides.

Le point sur lequel j’aimerais m’arrêter ici plus longuement est la dichotomie amateur/professionnel et l’idéologie qui la sous-tend. (C’est là un thème sur lequel nous aurons l’occasion de revenir, et que j’ai déjà tenté d’évoquer ailleurs.) Outre son arbitraire simpliste, cette division me semble révélatrice d’un Ordre social conservateur, par lequel les auteurs se voient figés dans une marginalité clairement identifiée. Un signe de ce processus (sur lequel je reviendrai prochainement) est sans doute à lire dans l’emploi immodéré du terme « artiste » parmi les discours d’industriels ou de politiques : « défendre les artistes », « aimer les artistes »… Or, là où des termes comme « musicien », « écrivain » ou « peintre » évoquent une profession, le mot « artiste » renvoie à un statut social. Ce même « statut prestigieux, comme le relèvait Barthes dans sa mythologie de l’Écrivain en vacances, que la société bourgeoise concède libéralement à ses hommes de l’esprit (pourvu qu’ils lui soient inoffensifs) ». Soyez « artistes », soyez « professionnels »… mais surtout ne sortez pas de votre case. L’on sait ce que le mot « amateur » peut avoir de méprisant ; c’est pourtant occulter le pouvoir assujettissant du mot « professionnel ».

L’amateur d’un côté, le professionnel de l’autre : les deux termes sont d’ailleurs interdépendants, et nous verrons plus bas que leur définition même, dans le dictionnaire, relève de la tautologie. Un ordre bien délimité, bien intelligible, presque « naturel » pour ainsi dire… ce même naturel, note Barthes dans l’avant-propos déjà cité, « dont la presse, l’art, le sens commun affublent une réalité qui, pour être celle dans laquelle nous vivons, n’en est pas moins parfaitement historique ». Nous avons déjà eu l’occasion de nous arrêter sur le mythe du « créateur » ; nous pourrions l’examiner d’un point de vue historique et montrer combien des concepts tels que la singularité et l’unicité de l’auteur (pour ne rien dire de la propriété) sont bien moins universels, immémoriels et impérissables qu’on ne nous le laisse accroire. Dans de nombreuses cultures (et durant une très large part de l’histoire de l’Occident chrétien) les pratiques artistiques sont d’essence rituelle et le fait même de prétendre signer une œuvre semblerait incongru, l’auteur s’estompant devant la tradition ou les divinités ; inversement, même certains auteurs (peintres, compositeurs) qui passent aujourd’hui, à juste titre, pour des individualités exceptionnelles (ou génies, pour employer un autre mythe) de ces quatre derniers siècles, travaillaient dans des conditions que je n’hésiterais pas à qualifier de proto-industrielles. En fin de compte, les pratiques culturelles de toute société ne sont qu’un épiphénomène de son Histoire.

D’un côté l’amateur, de l’autre le professionnel. Certes. Mais comment qualifier alors un citoyen qui, sans être statutairement identifié comme « créateur », s’empare d’une parole publique à laquelle il ne devrait pas « légitimement » prétendre ? On lui fabriquera un nom hybride sur mesure : ce sera le Pro-Am. Virginie Clayssen décrit ainsi cette mise à l’index, avec une jolie période : « Les Pro-Am, cible des contempteurs de blogs, des pourfendeurs de Wikipédia, des détracteurs du Crowdsourcing, cible de ceux qui disent `et voiià, maintenant, n’importe qui peut dire n’importe quoi.´ »

J’irai, pour ma part, plus loin : la simple terminologie pro-am me semble elle-même investie de l’idéologie d’ « ordre social » que j’évoquais à l’instant, délimitée d’un côté par ceux qui produisent, de l’autre par ceux qui consomment. Dans ce cadre il n’est pas anodin de souligner dans quel contexte social se produit l’avènement de l’Internet User-Generated : dans une époque où « nos » sociétés occidentales s’engoncent dans une morosité économique et où les classes sociales sont de moins en moins perméables, la figure de l’artiste est l’une des dernières images positives laissant entrevoir la possibilité d’une ascension sociale — du moins en termes de capital symbolique : les pratiques artistiques, et les possibilités de diffusion ouvertes par Internet, incarnent pour toute une classe moyenne ou défavorisée, l’espoir de « devenir quelqu’un ». (On pourra lire à cet égard un récent article du jeune auteur québecois Mathieu Arsenault, qui applique avec pertinence quelques notions de Pierre Bourdieu au paysage culturel actuel.)

C’est pourquoi cette idéologie fonctionne aussi bien dans les deux sens : au mythe des hordes d’amateur déferlant sur les rivages de la civilisation numérique, répond en miroir celui du jeune artiste « révélé » par Internet. (Étant entendu que la cause finale de toute success story digne de ce nom n’est autre que de rentrer dans le rang : une fois « révélé », le pro-am devient pro tout court et l’Ordre est enfin confirmé.) Du « Sacre de l’amateur » comme horizon ultime.

L’anecdote qui suit me semble révélatrice de cette ambivalence. Comme nous le rapporte le blog américain Techdirt, la prestigieuse guilde des auteurs de romans policiers américains (Mystery Writers of America) se refuse encore aujourd’hui à accepter parmi ses membres des auteurs qui éditent eux-même leurs ouvrages. Cela agace particulièrement un auteur reconnu tel que J.A. Konrath, qui s’en plaint abondamment sur son blog.

Son (long) commentaire mérite d’être lu attentivement. Dans un premier temps, il décrit l’isolement et le besoin de reconnaissance d’un jeune auteur, les conditions (et tarifs) drastiques pour entrer dans cette association… puis sa déception lorsqu’il se rend compte que « La MWA, une structure qui était censée exister pour venir en aide aux auteurs, semblait n’exister que pour s’alimenter elle-même. » On est ici dans un cheminement classique, qui ne devrait étonner personne s’étant déjà trouvé en rapport avec une société dite « d’auteurs ».

Critique des intermédiaires, d’un système industriel dépassé : son texte reprend nombre d’arguments développés depuis longtemps dans le milieu Libriste. Cependant nous allons voir que son raisonnement diffère sensiblement des thématiques du mouvement Libre :

En fixant des conditions d’accès fondées sur les contrats passés avec des éditeurs traditionnels, cette association cherche à n’être composée que de professionnels.

Le fait est que la plupart des ouvrages auto-édités ne sont pas très bon, et n’auraient jamais été publiés dans le système traditionnel.

Mais les temps ont changé. Il est aujourd’hui possible pour les auteurs de contourner les gardiens du temple par choix (et non parce qu’ils n’auraient pas d’autre choix). Des auteurs auto-édités peuvent vendre beaucoup de livres et se faire un paquet d’argent. L’équivalent d’un salaire à temps plein.

Pour moi, être un professionnel n’est pas autre chose.

(…) Au demeurant, je suis entièrement d’accord pour protéger les auteurs d’éditeurs peu recommandables, et pour maintenir une qualité professionnelle élevée.

Mais ces règles font que même quelqu’un comme John Locke, qui a vendu près de 1 million de livres électroniques, ne pourrait prétendre s’inscrire à la MWA.

Combien de membres de la MWA tirent donc à 1 million d’exemplaires ?

J’ai vendu près de 300 000 livres électroniques auto-édités. Mais il semble que ça n’entre pas dans la définition de « qualité professionnelle » de la MWA.

Qualité professionnelle, apparemment, veut dire : « Vous ne valez rien tant que vous ne serez pas approuvé par l’industrie. »

(…) Dans toute structure, il existe une culture du « nous d’un côté, eux de l’autre ». C’est enraciné dans le génome humain. Disciplines sportives. Clubs d’étudiants. Sociétés secrètes. Syndicats. En tant que membre d’un lieu select, on se sent spécial. Dans le pire des cas, on se sent supérieur.

J’ai une info pour vous : aucun écrivain n’est supérieur à aucun autre. Certains peuvent avoir plus de talent. D’autres, plus de chance. Mais si l’on s’acharne, jour après jour, mois après mois, sur votre ordinateur et qu’on atteint enfin le mot magique « fin », on est un écrivain.

Vous voulez faire tourner un groupe d’écrivains ? Alors incluez tout le monde. Vous voulez faire tourner un groupe d’écrivains professionnels ? Ouvrez votre dictionnaire :

professionnel. Se dit de quelqu’un qui :
a. prend part contre rétribution à une activité souvent pratiquée par les amateurs
b. exerce une profession spécifique dans le cadre d’une carrière à long terme
c. est engagé par d’autres gens moyennant rémunération

D’après le dictionnaire, il me semble que beaucoup d’écrivains auto-édités pourraient être qualifiés de professionnels.

(…) Autrefois, il fallait être validé par les gardiens du temple (c’est-à-dire avoir le cul bordé de nouilles) pour se faire de l’argent.

Aujourd’hui on peut court-circuiter les intermédiaires et atteindre directement le lecteur, et se faire au passage une marge plus importante que jamais dans l’histoire de l’imprimerie.

Je me suis cassé le cul à essayer d’être édité. Mais je ne prétends pas que le succès m’est dû. Tout métier exige de travailler dur, et ça ne garantit rien.

Je me rends compte que j’ai eu de la chance de décrocher quelques contrats traditionnels, et encore plus de chance quand l’auto-édition est devenu aussi rentable.

Ça ne fait pas de moi quelqu’un d’estimable. Ça fait de moi quelqu’un de riche.

Si, un par un, les membres de la MWA réalisaient qu’il ne doivent leur carrière et leurs contrats qu’à un coup de chance, je doute qu’ils persisteraient à exclure l’auto-édition.

Au demeurant, je ne dis pas qu’il faudrait ouvrir les portes à tout le monde. Il devrait y avoir des standards de qualité. Une association d’écrivains devrait être composée d’écrivains, pas d’imposteurs.

Aussi, quels seraient mes critères d’admission si j’étais à la tête de la MWA ?

Je n’en aurais qu’un. Prouvez-moi que vous avez vendu 5000 livres. Et l’affaire est dans le sac.

Je dirais que tirer à 5000 témoigne d’une vraie motivation « professionnelle », sans que des dinosaures-gardiens du temple n’aient leur mot à dire. Laissons les lecteurs garder le temple : ce sont eux qui ont le dernier mot de toute façon.

(…) Chacun de nous travaille dur. Chacun de nous n’écrit qu’un mot à la fois. Certains d’entre nous réussissent, la plupart échouent.

Mais nous sommes tous écrivains. Nous pouvons tous apprendre des autres, et nous aider les uns les autres.

Et nous n’avons pas besoin d’une association pour nous dire qu’une avance sur droits de 500 dollars chez un éditeur traditionnel veut dire qu’on est un pro, mais pas un chiffre d’affaires de 500 000 dollars dans l’auto-édition.

Si les ouvrages de Konrath n’ont jamais été publiés sous licences Libres, l’on sait au moins qu’il est favorable à la diffusion gratuite sur Internet et à l’auto-publication.

Cependant cet extrait nous montre aussi combien il reste attaché à la distinction amateur/professionnel, et que son raisonnement s’appuie sur une quantification entièrement marchande (l’on pourra également se référer à ce calcul et cette discussion sur le même sujet, tous deux révélateurs) qui n’est pas sans rappeler la vision de Chris Anderson que nous évoquions plus haut.

Si l’avènement d’Internet et de « la multitude » marque les esprits et semble de nature à bouleverser l’ordre établi, il se contente finalement de perpétuer (dans le meilleur des cas, au prix d’une simple redistribution des rôles), sinon l’ordre social pré-existant, du moins ses valeurs et son idéologie. De même qu’un scenario de film hollywoodien joue avec l’idée de transgression et d’incertitude, pour finalement aboutir à une conclusion où sont restaurées les valeurs morales traditionnelles, le « vertige des grands nombres » que nous procure aujourd’hui le Web n’est autre que ce frisson délicieux d’extase, d’espoir ou de terreur qui nous saisirait devant un rebondissement inattendu : nous ne sommes, après tout, qu’au milieu du film.




Geektionnerd : Internet illimité

La semaine dernière un article d’Owni mettait le feu aux poudres. Depuis on a tenté de nous expliquer que oui mais non… Ils savent désormais en tout cas que c’est un sujet sensible qui peut très vite nous mobiliser.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




La neutralité du Net, par Jean-Pierre Archambault

Desbenoit - CC by - Wikimedia Commons« La neutralité du Net ou la neutralité du réseau est un principe qui garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. »

Telle cette introduction Wikipédia ou cette illustration ci-contre, cela semble simple a priori.

Mais si l’on veut mieux la comprendre et en appréhender ses enjeux, le format Twitter ne suffit plus (surtout en cette période trouble où l’illimité pourrait prendre fin en France)

C’est dans ce but que nous publions un nouvel article de Jean-Pierre Archambault qui n’a pas son pareil pour nous présenter progressivement et limpidement un problème complexe 🙂

Et d’achever ainsi son propos : « Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité. »

La neutralité du Net

URL d’origine du document

Jean-Pierre Archambault – juin 2011 – Association EPI

Le numérique est partout. Les débats sociétaux qu’il suscite se multiplient. Ainsi celui sur la neutralité du Net qui s’est installé de plain-pied dans l’actualité. Deux raisons principales sont à l’origine de ce débat : l’accroissement du trafic et la montée de questions juridiques et marchandes. S’interpénètrent des questions scientifiques, techniques, juridiques, économiques, commerciales, politiques, ainsi que celles de la liberté d’expression et de la citoyenneté, géopolitiques.

Le trafic sur internet ne cesse de croître, une évidence que cette rançon du succès ! La vidéo, gourmande en bande passante, sature les réseaux. Le marché mobile des terminaux explose. Les infrastructures doivent évoluer et se développer, le haut débit en premier lieu. Qui doit payer ? Qui pourrait payer ? Des mesures de discrimination, blocage et filtrage (pour les flux illicites), antinomiques avec la philosophie du Net, sont mises à l’ordre du jour, issues de problématiques comme la lutte contre la cybercriminalité, les modèles économiques de l’immatériel, des industries culturelles. La neutralité du Net rencontre ici les débats qui ont accompagné la transposition de la DADVSI, la loi Hadopi… La question se pose également de savoir si le Net est vraiment neutre. Et si la vision d’un cyberespace « idéal » et insensible aux réalités géopolitiques de la planète est réaliste et pertinente.

Un réseau de réseaux

Internet est un réseau de réseaux (de beaucoup de réseaux, grande distance, intranets, locaux) en trois couches : une couche physique (le fil de cuivre des réseaux téléphoniques, la fibre optique…), une couche logique (les logiciels, les protocoles d’internet) et des contenus[1]. Les câbles et les réseaux qu’ils interconnectent appartiennent à l’État ou à des entreprises privées. Les ordinateurs au sein du réseau fournissent un service de base – le transport des données – avec des fonctions très simples nécessaires pour les applications les plus diverses. L’intelligence et la complexité, à savoir le traitement de l’information, sont situées dans des ordinateurs à la lisière du réseau.

La philosophie d’internet repose fondamentalement sur l’absence de discrimination dans l’acheminement des flux et dans le fait de pouvoir, pour tout un chacun, accéder librement au réseau sans avoir à en demander la permission à une autorité. Des travaux montrent qu’un réseau d’information public est d’efficacité maximale s’il aspire à traiter tous les contenus, sites et plates-formes, de manière égale[2].

Cette architecture favorise l’innovation. En effet, les inventeurs ont seulement besoin de connecter leurs ordinateurs, sans qu’il faille modifier ceux de l’intérieur. La structure d’internet n’est optimisée pour aucune application existante spécifique, en conséquence le réseau est ouvert à toute innovation non prévue à l’origine. Il est neutre, au sens où un propriétaire du réseau ne peut pas sélectionner des données au détriment d’une nouvelle structure innovante qui menace une application en situation dominante. Les créateurs n’ont pas besoin d’obtenir une permission de quiconque pour développer une nouvelle application. Les opérateurs réseaux qui font circuler les paquets d’informations ne doivent pas y toucher. Sauf cas de force majeure, comme une congestion de réseau ou une attaque, ils doivent les transporter sans discrimination que ce soit, selon la source, la destination ou le type de message auquel le paquet appartient (données, voix, audio, vidéo). Ce principe est étendu aux services et applications, ce qui interdit les pratiques commerciales de distribution exclusive, d’exclusion et de traitement prioritaire au sein des offres internet.

D’autres réseaux fonctionnent « comme internet » : le réseau électrique auquel tout un chacun peut se connecter pourvu que son équipement corresponde aux normes du système, le réseau autoroutier car, à partir du moment où la voiture a été homologuée et où le conducteur a son permis de conduire, le concessionnaire de l’autoroute n’a pas à savoir pourquoi ni quand l’usager emprunte celle-ci.

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc difficile de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Au-dessus du réseau internet « se répandent à grande vitesse des applications du web comme les réseaux sociaux, le commerce électronique, l’usage des smartphones ou des tablettes, les blogs, les chats, la téléphonie sur IP, la géolocalisation, les sites de notation des restaurants, hôtels, voyages, les sites de rencontres, les sites de partage de vidéos, les jeux en ligne, etc. On pourrait se dire qu’on est vraiment embarqués sur un “bateau ivre”… De plus, vu les dangers et les menaces de piratage dont les médias se font écho pratiquement chaque jour, on peut également se dire que le bateau, en plus d’être “ivre”, navigue dans un véritable “champ de mines” !!! »[3]. Nous y reviendrons.

Les acteurs du Net

Quels sont les acteurs du Net ? Les internautes bien sûr. La puissance publique. Sur le plan économique, « la dernière décennie a consacré l’organisation économique d’Internet en quatre groupes d’acteurs : producteurs d’éléments de réseaux et de terminaux (ex. Intel, Microsoft, Cisco, Alcatel-Lucent, Dassault Systems), opérateurs réseaux (ex. AT&T, Verizon, France Télécom), fournisseurs de services et intermédiaires (ex. Google, Amazon, eBay, Pages Jaunes) et producteurs de contenus (ex. The Walt Disney Company, Time Warner, Lagardère, Reed Elsevier). La catégorie la plus récente, les intermédiaires, est celle qui participe le moins à l’investissement dans les réseaux, échappe largement à l’impôt et réalise les bénéfices les plus importants. C’est aussi celle qui occupe une part croissante des ressources en bande passante »[4]. On compte de l’ordre de 27 000 acteurs de par le monde.

Internet est une plate-forme qui semble mettre les internautes en relation directe, ce qu’elle n’est pas. Il y a le coeur du réseau, à savoir les réseaux d’accès avec la boucle locale (dédiée à une habitation ou à une entreprise) en cuivre ou en fibre optique, les opérateurs étant les fournisseurs d’accès à internet. Les points d’interconnexion assurent l’ouverture sur les autres réseaux d’accès par l’intermédiaire des « backbones », épine dorsale du réseau mondial[5]. Concernant les tuyaux et les flux de données, il y a donc les fournisseurs d’accès au client final, les opérateurs de transit au niveau du backbone, les hébergeurs qui stockent les données (dans des serveurs, les « data center »), les fournisseurs de « cache ».

Qui paye ?

Au plan mondial, le marché du transit et du cache représente quelques milliards d’euros, celui de l’accès plusieurs centaines de milliards d’euros. Historiquement les fournisseurs de contenus payaient les opérateurs de transit mais pas les fournisseurs d’accès. Aujourd’hui, les fournisseurs d’accès font payer une partie de leurs contrats aux fournisseurs de contenus. La téléphonie subventionne l’accès à internet. Nous avons vu ci-avant que la catégorie des intermédiaires (Google…) était celle qui participait le moins à l’investissement dans les réseaux, échappant largement à l’impôt et réalisant les bénéfices les plus importants. Les consommateurs payent davantage que les fournisseurs de contenus. Les enjeux sont d’importance et la bataille fait rage.

Le trafic va continuer à augmenter. La qualité de l’internet dépend en grande partie du dimensionnement des interconnexions, de la taille des tuyaux entre les réseaux des fournisseurs d’accès et les autres opérateurs de l’internet. Il va falloir investir dans les infrastructures fixes et mobiles. Qui va payer ? L’écosystème d’internet est complexe. Ménager un bon équilibre économique ne va pas de soi car les conflits d’intérêt sont bien réels. Comment par exemple mettre en place des mécanismes amenant les opérateurs qui induisent un trafic à payer aux fournisseurs d’accès un montant dépendant de la partie asymétrique des flux qu’ils engendrent ?

Certains, se fondant sur le fait qu’internet est et doit rester un bien commun de l’humanité, avancent l’idée d’un caractère et d’un financement publics, reposant donc sur l’impôt (notamment la fiscalité numérique qui reste un objectif majeur à mettre en oeuvre), d’une infrastructure publique d’intérêt général. Au même titre que d’autres infrastructures, par exemple les adductions d’eau, le réseau ferré ou les réseaux électriques qui le sont, l’étaient ou devraient le redevenir. Car le risque existe de dégradation de la qualité si les opérateurs n’investissent pas dans les réseaux ou privilégient la commercialisation des services gérés, mettant ainsi à mal le principe de non-discrimination, un des piliers de la neutralité du Net. Par exemple, les opérateurs réseaux sont tentés de facturer aux offreurs de contenus des services de livraison prioritaire, et aux abonnés une qualité de service privilégiée ou des bouquets de contenus exclusifs. En tout état de cause, la puissance publique ne saurait se désintéresser d’une infrastructure sociétale stratégique.

Une question centrale : la gestion du trafic

Faut-il mettre de l’intelligence dans le réseau ? Internet ne donne pas de garanties de performances dans l’acheminement, contrairement aux réseaux de type « circuits virtuels ». Les applications n’ont pas les mêmes besoins en termes de performances. La vidéo requiert beaucoup de bande passante, ce qui n’est pas le cas de la messagerie. Les applications en temps réel, synchrones, comme la téléphonie, se distinguent des applications asynchrones, le transfert de fichiers par exemple. La qualité dépend de l’interconnexion, de l’éloignement aussi, ce qui met en évidence l’intérêt du « peer to peer » qui distribue les échanges de fichiers entre plusieurs utilisateurs. Des routeurs sont capables de faire de la gestion de trafic à très haut débit avec des priorités. Faut-il permettre la discrimination des flux, mettre des priorités (ce qui n’est pas le cas en France pour les offres « triple play ») ? Les marchands répondent oui, on s’en doute. D’autres font dépendre la réponse du caractère commercial ou non des applications. Il y aurait alors l’internet et le non internet des services gérés. Ce qui supposerait que le commercial ne pénalise pas l’internet, qu’il y ait une garantie de qualité. Et il y a ceux pour qui il ne saurait y avoir de priorisation sur internet, bien commun, les services gérés n’existant que pour des applications qui en ont vraiment besoin. On pense par exemple à des services d’urgence médicale. Dans tous les cas, assurer la protection du principe de neutralité suppose des obligations de transparence imposées aux opérateurs en matière de gestion de trafic.

Sous l’angle du blocage et du filtrage

Le débat sur la neutralité du Net s’est aussi développé sous l’angle du « blocage », qui consiste à empêcher une communication sans inspection de contenu, et du « filtrage », qui repose sur une inspection de contenu, les deux soulevant des questions liées à la liberté d’expression sur internet. Les pouvoirs publics recherchent en la circonstance des moyens pour faire respecter la loi sur internet et lutter contre la cybercriminalité. Effectivement, l’État doit combattre les comportements attentatoires aux principes et valeurs de la société. Internet n’est pas un espace de non-droit. Les industries culturelles font pression, au nom de leurs modèles économiques traditionnels, pour empêcher l’accès aux contenus « illicites ». Mais l’on sait que la frontière avec les contenus « licites » peut être franchie. Et l’on sait surtout que les modèles économiques de l’immatériel ne peuvent pas être ceux de la production des biens matériels, les coûts marginaux de production et de diffusion d’un exemplaire supplémentaire étant quasi nuls[6]. Un vaste et tumultueux débat qui est loin d’être clos !

Un opérateur d’accès qui aurait une obligation légale de blocage serait amené à intervenir sur les contenus alors que son métier consiste à les acheminer. Les techniques de blocage (d’adresses IP, de noms de domaine, d’URL) et de filtrage ont un coût. Sont-elles efficaces ? Elles se contournent (utilisation de sites « miroir », de proxy, recours à un réseau privé virtuel) et peuvent engendrer des effets pervers (sur-blocage – les faux positifs – et sous-blocage – les faux négatifs –, chiffrement qui présente des risques pour la sécurité bien supérieurs à la défense des intérêts protégés…). Il est interdit d’utiliser son téléphone portable au volant. Pour autant, on n’a pas (encore ?) mis en place des dispositifs de blocage de cet usage-là.

Le rapport d’information déjà cité rappelle (page 34) : « Bien que, de manière générale, la Constitution n’oblige pas le législateur à prévoir l’intervention du juge pour prononcer toute mesure de restriction de la liberté individuelle, le Conseil constitutionnel a jugé, dans sa décision sur la loi HADOPI, qu’en raison de l’importance de la liberté d’expression et de communication et du rôle que joue l’accès à internet à l’égard de cette liberté, le législateur ne peut pas laisser une autorité administrative prononcer la sanction de suspension de cet accès. Il a ensuite précisé dans sa décision sur la LOPPSI que les dispositions confiant à l’autorité administrative le pouvoir de prononcer des mesures obligatoires de blocage “assurent une conciliation qui n’est pas disproportionnée entre l’objectif de valeur constitutionnelle de sauvegarde de l’ordre public et la liberté de communication garantie par l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789”, la décision de l’autorité administrative étant notamment toujours contestable devant le juge. »

Mais internet est-il vraiment neutre ?

Prenant un peu à contre-pied le débat sur la neutralité du Net, certains posent la question (iconoclaste ?) de savoir s’il est vraiment neutre. Serait-ce un mythe ?[7] La neutralité débattue est relativisée.

Le grand public ne le sait pas toujours mais l’ICANN, une association de droit californien, contrôle les ressources critiques que sont les adresses IP, les extensions et noms de domaines (fonction importante, noeud stratégique qui conditionne la visibilité sur le réseau), de par une dévolution du Ministère Américain du Commerce et dans l’absence de transparence requise ! Ainsi la France gère-t-elle son domaine national (.fr) en vertu d’une délégation accordée par cette association. Il est pour le moins surprenant et paradoxal de voir un espace public mondial géré par une association californienne ! Une nouvelle gouvernance, dans laquelle notamment chaque État aurait voix au chapitre dans des rapports d’égalité et en toute indépendance, s’impose car elle est une exigence légitime.

La couche basse d’internet, son épine dorsale en particulier, ce sont des câbles qu’il faut fabriquer et poser, sous la terre, les mers et les océans, ce sont des satellites. Et il faut gérer ces infrastructures. Ce monde est opaque et non régulé. Il est tenu par un club très fermé de gros transporteurs, pour l’essentiel des firmes états-uniennes. Elles contrôlent la quasi-totalité du trafic au plan mondial, ce qui leur procure en passant des profits substantiels.

On a vu que la mise en relation des internautes était loin d’être directe. Il y a des intermédiaires, qui plus est, de plus en plus puissants et concentrés : Google, Amazon, eBay, Apple, Yahoo, MSN, Facebook et autres compagnies. Ils commercialisent tout ce qui peut l’être dans le nouveau monde numérique : données personnelles, données de connexions, statistiques, musique, livres… Et si l’on ne connaît pas les algorithmes que Google utilise, en revanche on sait qu’il leur arrive d’accorder des « faveurs » dans leurs classements au bénéfice de sites avec lesquels l’entreprise entretient des relations commerciales. L’attention des internautes est captée à leur insu. Ils sont devenus la cible de producteurs de contenus en recherche de consommateurs. L’informatique est à la fois du calcul, du stockage et de la communication. L’approche de la neutralité du Net doit être globale. Elle doit aussi s’intéresser aux programmes et aux applications dont on doit savoir ce qu’ils font exactement. Et aux informations (quelles informations ?) qu’ils stockent on se sait trop où pour des utilisations dont il arrive qu’on les ignore.

Des questions de fond, planètaires

Avec internet, nous sommes de plain-pied dans des questions qui ont à voir avec l’état du monde et son devenir[8]. L’économie de la planète s’est réorganisée autour d’internet. Est en question le contrôle du commerce mondial, enjeu majeur comme ont pu l’être dans les siècles passés le contrôle du détroit des Dardanelles ou du canal de Suez. La mondialisation des activités humaines, long processus qui ne date pas d’hier, signifierait-elle dissolution des civilisations, des cultures, des langues (il existe d’autres caractères que latins sans accent : indiens, cyrilliques, arabes, mandarin… et un DNS peut s’écrire avec des idéogrammes), des systèmes économiques, des frontières, des modèles juridiques, des distances… des différences entre les hommes ? Fort improbable (on peut légitimement penser que c’est mieux ainsi) si l’on se réfère à la réalité observée. Quid alors de cette perception d’internet système global, homogène, offrant une plate-forme universelle de communications multimédia ? Exception paradoxale ou mythe, un de plus ? « L’internet est un réseau de réseaux autonomes depuis son ouverture commerciale au début des années 80. Il est fragmenté par construction, et il le restera »[9]. Et cette fragmentation devrait se renforcer. Avec « des webs “régionaux” ou même “continentaux”, à l’instar de la Chine et de son “AsiaNet” ; des webs “linguistiques”, où l’on pourra utiliser toute la puissance de sa langue maternelle pour exprimer une recherche, une adresse email ; des webs “culturels” qui embarqueront ou non des webs sectaires et/ou ethniques ; des webs “fermés”, sécurisés, anonymisés, plus ou moins cachés selon les objectifs suivis par leurs promoteurs et/ou utilisateurs ; des webs commerciaux, sur base “navigation” et/ou activité sociétale, essayant avec des bonheurs divers d’attirer des internautes dans leurs filets pour en revendre l’identité et leurs besoins et/ou habitude et/ou opinion… »[10]. La Chine s’est émancipée du contrôle américain de l’internet et ce sera bientôt le cas de l’Inde. Cela a nécessité le travail de milliers d’ingénieurs pendant des années.

Pourtant, « un épouvantail agité fréquemment par les gardiens du temple est la balkanisation ou fragmentation du réseau, avec son cortège de calamités, discontinuité des communications, confusion des noms et adresses, instabilité, insécurité, perte de fiabilité… Faudrait-il s’efforcer de maintenir au maximum un système de contrôle historique dont les éléments critiques sont verrouillés par le gouvernement des États Unis ?… oubliant au passage que la Chine a construit son propre internet, qu’il existe des milliers d’intranets… S’il fut un temps où l’ICANN, mandataire du gouvernement US, faisait la loi, on observe maintenant un réveil des gouvernements dits du sud… Le tropisme de fragmentation se renforce à mesure que les enjeux techniques deviennent minoritaires au regard d’autres domaines comme la propriété intellectuelle, le filtrage des informations, les investissements en infrastructure, la législation, la criminalité, ou les facteurs culturels et religieux »[11]. S’affrontent des modèles de cybersociétés, ayant chacune leurs valeurs, avec leur cortège de cyberconflits, cyberattaques[12], opérations de manipulation et désinformation, leurs enjeux en matière de souveraineté, de régulation et de sécurité des systèmes d’information. Dernière illustration en date, la publication par les États-Unis de leur « International Strategy for Cyberspace » dans laquelle ils indiquent leur volonté de réguler l’internet, de promouvoir un Internet « ouvert, interopérable, sécurisé et fiable »[13]. Un objectif louable mais, pour autant, les moyens annoncés ne manquent pas d’en inquiéter légitimement plus d’un de par le monde. En effet, « pour réaliser ce futur et aider à promulguer des normes positives, les États-Unis associeront diplomatie, défense et développement pour favoriser la prospérité, la sécurité et l’ouverture afin que chacun puisse bénéficier de la technologie du réseau ». Et les points sont mis sur les « i » : « Les États-Unis vont, avec d’autres nations, encourager un comportement responsable et s’opposer à ceux qui chercheront à perturber les réseaux et systèmes, en dissuadant et démasquant les acteurs malicieux, en défendant ces installations nationales vitales de façon aussi nécessaire et appropriée qu’il faudra. Nous nous réservons le droit d’utiliser tous les moyens – diplomatiques, informatifs, militaires et économiques – si appropriés et compatibles avec la loi internationale, afin de défendre notre nation, nos alliés, nos partenaires et nos intérêts. Nous épuiserons toutes les options avant d’en venir à la force militaire à chaque fois que nous le pourrons. » Le cyberespace est décidément bien dans l’espace « réel » !

Des mesures à prendre

L’enjeu de défense d’un bien commun et d’un bien public à l’échelle de la planète se situe donc dans un contexte global pluraliste. Cela étant, réaffirmer ces caractères de bien commun et bien public ainsi que le bien-fondé de l’intervention de la puissance publique reste fondamental. Cela implique quelques mesures qui figurent dans le rapport parlementaire déjà cité : inscrire dans la loi le principe de neutralité ; prévoir a minima l’intervention systématique du juge pour éviter les dérives en matière de blocage et s’interroger sur son efficacité ; réserver l’appellation internet aux services respectant le principe de neutralité et ainsi les distinguer des services gérés à caractère commercial ; obliger à une qualité « suffisante » pour tous les internautes. En définitive, faire en sorte qu’internet reste une plate-forme ouverte. Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité.

Jean-Pierre Archambault
Président de l’EPI

PS : le débat sur la neutralité du Net est un débat de société qui concerne tous les citoyens. Il mêle d’une manière inextricable des questions politiques, économiques, juridiques et des concepts scientifiques et techniques : couches et protocoles de l’internet, adresses IP, réseaux d’accès et de transit, réseaux privés virtuels, routage, gestion du trafic, interconnexion des réseaux, chiffrement, standards ouverts… D’une manière évidente, un exercice plein de la citoyenneté suppose des connaissances de la science informatique, des représentations mentales efficientes. Fort opportunément, le programme de l’enseignement de spécialité optionnel « Informatique et sciences du numérique » créé en Terminale S à la rentrée 2012 comporte une partie consacrée aux réseaux. Une première avancée bienvenue pour les élèves de la filière scientifique ! Et tous sont concernés.

Notes

[1] Rapport parlementaire d’information déposé par la Commission des Affaires Économiques sur la neutralité des réseaux : Voir « Internet en 32 points », pages 16 à 20. « Innover ou protéger ? Un cyber-dilemme », Jean-Pierre Archambault, Médialog n° 58 de juin 2006, p. 42-45.

[2] Voir rapport parlementaire ci-dessus note 2, page 13.

[3] « La Netocratie », Mauro Israël, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ?, juin 2011. http://www.forumatena.org…

[4] « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16. http://www.forumatena.org

[5] Voir rapport parlementaire ci-dessus note 2, « Interconnexion, transit et peering », pages 52 à 56.

[6] « Téléchargement sur Internet : quelle légitimité ? », Jean-Pierre Archambault, Médialog n° 57 de mars 2006, p. 42-45.

[7] Voir note 5 « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16.

[8] Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[9] « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[10] Michel Charron, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[11] Voir note 10 « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[12] « The Malicious Flash Crash Attack ou pourquoi il faudra peut-être ralentir les transactions électroniques », Robert Erra, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011 http://www.forumatena.org…

[13] « Les États-Unis veulent réguler Internet », Orianne Vatin, L’informaticien, le 18 mai 2011.