La neutralité du réseau – Benjamin Bayart – Extrait du livre La bataille Hadopi

La bataille Hadopi - InLibroVeritas - CC by-sa et Art Libre« La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle. »

Ainsi s’achève ce très intéressant article de Benjamin Bayart pioché dans le non moins intéressant livre choral d’InLibroVeritas La bataille Hadopi (et ses 40 auteurs).

Benjamin Bayart, c’est le président de French Data Network (FDN). C’est aussi l’homme de la désormais célèbre expression du « Minitel 2.0 » et de la citation suivante qui prend le même chemin : « l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire ».

Mais c’est surtout un « expert des libertés numériques » (dixit Nicolas Dupont-Aignan) et certainement l’un des meilleurs d’entre nous lorsqu’il s’agit d’exposer et d’expliquer ce sujet à la fois simple (à comprendre) et complexe (à défendre) qu’est la Neutralité du Net.

C’est pourquoi cet article synthèse, au style plaisant malgré la rugosité du propos, nous semble important à lire et à faire lire.

PS : Vous trouvez l’article trop long pour un blog ? C’est peut-être parce qu’Internet vous a rendu idiot ! Mais nous avons une solution : commander le livre, dont les bénéfices iront intégralement à La Quadrature du Net, et qui vous fera découvrir par la même occasion 39 autres articles du même acabit.

La neutralité du réseau

URL d’origine du document

Benjamin Bayart – Octobre 2009 – La Bataille Hadopi (InLibroVeritas)
Licence Creative Commons By-Sa et Licence Art Libre

La bataille d’Hadopi, telle que nous l’avons connue à l’Assemblée Nationale et dans les médias a eu plusieurs vertus. La première, longuement expliquée déjà, est d’avoir amené à la politique toute une population, appelée « les Internautes » pour faire simple, qui ne s’en préoccupait pas vraiment avant.

La seconde vertu de la bataille d’Hadopi, c’est d’avoir permis de bien mettre en avant ce qui est, au fond, l’enjeu central de tous ces sujets, à savoir non pas la rémunération des artistes, auteurs et troubadours, mais la neutralité du réseau et ses enjeux.

En effet, quand le Conseil Constitutionnel a eu à connaître de ce texte, finalement bébêtte, qui menaçait de couper d’Internet les enfants qui téléchargent comme nos parents nous privaient de télé, il le censura. Et pas sur de l’argutie légère ou sur un point de détail, non, sur du fondamental, sur du lourd, du très lourd : présomption d’innocence et liberté d’expression. Deux des piliers des Droits de l’Homme depuis 1789.

Comment cette loi supposée traiter un problème assez léger a pu se cogner dans des problèmes aussi lourds ?

Internet – liberté fondamentale

Pour expliquer ça, il faut revenir un peu en arrière, et essayer de comprendre ce qu’est Internet, et son influence sur la marche du monde. Internet est, en beaucoup de points, comparable à l’imprimerie. D’abord par sa nature, c’est un moyen de diffusion de la connaissance, et d’accès à celle-ci. Ensuite, par ses conséquences. L’invention de l’imprimerie, et son lent développement, à partir de 1445, ne peut pas être séparée des évolutions majeures de l’époque. Pas de renaissance et de démarche scientifique sans moyen moderne de diffusion des connaissances. On ne peut pas séparer la renaissance du renouveau philosophique, et en particulier de la philosophie des Lumières, donc des révolutions démocratiques. De même que tout le progrès scientifique et technique du dix- neuvième siècle est impensable sans les avancées fondamentales de la renaissance et la naissance de la démarche scientifique.

Ce n’est pas l’imprimerie qui a fait ça. On peut toujours lancer des petits caractères en plomb sur les soldats, ça ne renverse pas les gouvernements. Mais l’imprimerie était une étape nécessaire, pour permettre ces évolutions et ces changements, il fallait un moyen moderne et rapide de diffuser et de conserver le savoir pour qu’il puisse s’accroître.

De la même manière, Internet change très en profondeur la façon dont se diffuse, et donc la façon dont se crée, le savoir. Une bonne façon de résumer ça est de dire que l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire.

On a déjà dit cent fois qu’Internet met à la disposition de tous, et sans coût notable, modulo quelques barrières pénibles, la totalité du savoir de l’humanité, c’est facile à comprendre. On a moins souvent dit, parce que c’est moins clair pour un esprit formé au siècle dernier, qu’Internet permet à chacun de construire le savoir de l’humanité, c’est-à-dire d’écrire.

Bien entendu, chacun sait qu’Internet n’est pas qu’un lieu d’échanges savants entre érudits. Forcément. L’imprimerie ne sert-elle qu’à imprimer des ouvrages savants ? Pour un livre « intelligent », combient sont imprimés de prospectus, de tracts, de catalogues, de correspondances sans intérêts (factures, relevés, avis, et autre paperasses) ? Et bien Internet suit la même pente. Fondamentalement, il a été créé pour diffuser et produire de la connaissance scientifique à grande échelle et rapidement, mais il était évident depuis le premier jour qu’il servirait aussi à diffuser et produire tout le reste de ce qu’on peut vouloir diffuser ou produire comme information.

Cependant, bien que l’imprimerie soit en majorité utilisée à des fins futiles, il ne vient à l’idée de personne de remettre en cause la liberté de la presse. Il y a là une logique, l’outil technique a apporté une avancée pour la société, et c’est pour défendre l’avancée qu’on défend l’outil. D’une manière similaire, Internet crée une percée importante, un changement profond, même si une partie colossale du trafic sur le réseau correspond à autre chose.

Un argument souvent opposé à cette vision du réseau est d’expliquer que les discussions y sont trop souvent d’un faible niveau, qualifiées de discussions de café du commerce. Là encore, c’est une analyse à courte vue. D’abord parce que la forme d’expression permise par le café du commerce ne permet pas de construire de vrais argumentaires : on est dans l’oral, dans le périssable, et dans le débat privé, donc sans argumentation extérieure possible. Ce qu’Internet crée comme débat est structurellement différent. Les débats sur la place publique, le plus souvent par écrit, permettent aux points de vues de se confronter, de s’invalider, ou au contraire de se renforcer, de s’étayer. De tout cela, il ressort une espèce de discussion du café du commerce dont on consignerait les arguments par écrit, pour les étudier, les rendre publics, bref, pour en faire une vraie réflexion. Au final, c’est plus proche des débats publics, qu’on connaît depuis longtemps, mais qui ne sont plus réservés à de petits groupes.

De tout celà, une idée forte est à retenir : Internet est l’avancée technique qui a permis, enfin, l’exercice réel de la liberté d’expression. La presse, on s’en rend compte avec le recul, ne fournissant au fond que la liberté d’accéder à l’information. Et c’est bien sur cette base-là que la Conseil Constitutionnel a censuré l’Hadopi, c’est bien en se référant à l’article 11 de la Déclaration Universelles des Droits de l’Homme et du Citoyen de 1789, à savoir :

Art. 11 : La libre communication des pensées et des opinions est un des droits les plus précieux de l’homme ; tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté dans les cas déterminés par la loi.

On a donc, validé par le Conseil Constitutionnel, cette première étape de marquée : Internet est essentiel à l’exercice de la liberté d’expression, qui est une liberté fondamentale.

Hadopi – Besoin d’un juge

C’est le premier point, immense, gagné dans la bataille d’Hadopi. Maintenant, ce n’est plus une renvendication, ce n’est plus un point de vue de visionnaire maniaque du réseau ou de futurologue échevelé, c’est une décision, forte, d’une autorité qu’on ne peut pas soupçonner de travailler avec légèreté, ou de se laisser emporter par sa technophilie. Or, de ce point fondamental qui vient d’être édicté par le Conseil, il découle des conséquences inattendues et fortes, pour ceux qui pensaient priver les gens d’Internet comme on prive un enfant de télévision ou de dessert.

En effet, priver un citoyen d’une liberté fondamentale, ce n’est pas une décision qui se prend à la légère. Il y a des cas, prévus, connus, codifiés, mais ce sont des sanctions lourdes, pour des délits ou des crimes graves. L’exemple le plus connu, et pratiquement le seul, est l’emprisonnement ou l’assignation à résidence[1]. Une telle mesure de privation de liberté ne peut être décidée que par un juge, et dans le cadre d’une procédure contraignante. Ce qu’on apprend donc, toujours en lisant la même décision du Conseil, couper l’accès Internet d’un citoyen, c’est aussi sérieux que de l’envoyer en prison, et ne peut donc pas se faire dans n’importe quelles conditions. On est maintenant bien loin de la petite loi simpliste, pensée trop vite par des gens qui ne comprennent plus le monde qui les entoure.

De là, bien entendu, les autres conséquences qu’en tire le Conseil dans sa décision, à savoir que la présomption d’innocence est de mise, qu’il faudra des preuves de la matérialité des faits pour condamner, que le juge sera requis, que le mouchard filtrant obligatoire pour pouvoir se disculper n’est pas valable dans ce contexte, bref, tout l’édifice Hadopi s’effondre.

Neutralité du réseau

Un point n’est pas abordé par le Conseil Constitutionnel dans sa décision, et pourtant il est important pour comprendre là où on va, c’est celui de la nécessité de la neutralité du réseau.

Pour aborder ce sujet-là, il faudrait faire un peu de technique, expliquer avec quelques termes barbares des notions affreuses, comme l’analyse de traffic, l’analyse protocolaire, l’analyse de contenu, l’analyse de comportement, et le tout dans un beau jargon anglais. Pour éviter cela, on va se contenter d’une définition intuitive et pratique : on dit que le réseau est neutre si on sait qu’on peut lui faire confiance pour ne pas altérer le message. C’est le cas par exemple du réseau utilisé pour les discussions orales : quand on parle, de vive voix, en face à face, on sait que l’air qui nous sépare ne modifie pas les propos, que ce qui est dit est vraiment dit. Qu’il vienne se glisser dans la discussion un interprète, et alors, forcément, la question de confiance se pose.

L’intermédiaire, dans cet échange, n’est acceptable que si les deux interlocuteurs lui font une confiance entière et absolue. à tel point que, lorsqu’on n’a pas confiance en l’interprète, chacun vient avec le sien. On dit alors que le réseau est neutre quand il joue le rôle d’un interprète idéal, réussissant à transporter le message sans l’altérer en rien, sans le déformer.

Une autre façon de le dire, c’est de considérer ce qu’est Internet. D’où que je sois sur le réseau, je vois Internet. Si l’Internet que je vois depuis un point A n’est pas le même que l’Internet que je vois depuis un point B, alors, quelque part, quelque chose n’est pas neutre. Par exemple, quand un site est filtré dans un pays, c’est une atteinte à la neutralité du réseau : depuis ce pays-là, le site ne marche pas, et curieusement depuis partout ailleurs il marche bien. Par exemple, quand un site est enrichi : je peux mettre en place, sur le réseau de mon entreprise, un mécanisme qui fait qu’à chaque fois que j’accède à tel site de mon fournisseur habituel, il soit affiché des informations annexes (dernière fois qu’on a commandé tel produit, quantité disponible en stock, etc). Quelqu’un qui viendra se connecter à ce réseau verra un site qui n’est pas le même que celui qu’il voit quand il se connecte depuis chez lui : mon réseau n’est plus neutre, il fausse la communication, il ajoute des informations qui n’existent pas.

La neutralité des réseaux est importante. En fait, autant que le réseau lui même. C’est presque sa définition. Internet n’est que l’accord d’interconnexion, techniquement neutre, entre les réseaux de plus de 40.000 opérateurs sur la planète. Supprimez cette neutralité, et ce n’est plus Internet.

Il ne faut pas se méprendre, ça ne veut pas dire qu’il ne faut pas, jamais, enrichir ou filtrer, simplement, que ce n’est pas le réseau qui doit le faire, et que si un réseau fait ça, ce n’est plus Internet.

Pour reprendre les exemples précédents, le service, fort utile, imaginé sur ce réseau d’entreprise, n’est pas en soi une mauvaise chose. Simplement, ce réseau d’entreprise n’est plus Internet. C’est un réseau d’entreprise, un outil interne, comme le logiciel de comptabilité ou l’outil pour faire les devis.

Il y a donc deux éléments fondamentaux pour définir la neutralité du réseau : le premier est que jamais le réseau lui-même ne doit altérer en rien le contenu, le second est que les altérations sont nécessairement pilotées en périphérie du réseau. Par exemple quand je filtre les mails publicitaires (les spams), c’est moi qui ai la maîtrise de ces filtres, je peux les activer ou les désactiver, selon mon bon vouloir. Et ce point-là est fondamental, c’est moi qui trie le courrier intéressant du courrier inutile, pas le facteur.

Pilier des libertés

La neutralité du réseau n’est pas, en elle-même, une liberté fondamentale. Mais c’est un élément important, parce que sur cette neutralité sont adossées des libertés.

Par exemple la liberté d’expression évoquée par le Conseil Constitutionnel, n’a pas de sens sur un réseau qui ment : comment savoir si le texte que je suis en train d’écrire sera bien reçu, non modifié, par mes lecteurs ? Comment savoir s’il sera modifié, et si oui par qui ? Moi, je vois bien ce texte tel que je l’ai posté. Tant qu’Internet est neutre, et que donc tout le monde voit le même Internet, alors tout le monde voit mon texte tel que je l’ai publié. Sitôt que le réseau n’est plus neutre, je n’ai aucun moyen de savoir ce que voit mon voisin. Donc, sur un réseau non-neutre, je ne peux pas exprimer librement ma pensée, et donc l’exercice pratique et réel de cette liberté est remis en cause.

Par exemple la liberté d’accès à l’information. En effet, tant que le réseau est neutre, chacun peut être confiant dans ce qu’il lit sur le réseau. Non pas que toutes les informations y soient justes (ce serait utopique comme croyance), mais simplement de savoir que l’information qu’on reçoit est bien celle qui a été émise. Si le réseau n’est plus neutre, comment savoir si le texte est bien le fruit de la pensée de son auteur, ou s’il a été ‘‘ caviardé ’’ au passage par les habiles ciseaux de la censure moderne ? Si je ne peux plus avoir confiance dans le réseau de transport, alors je ne peux plus avoir confiance dans l’information qui est dessus. La liberté d’accès à l’information est amputée.

Par exemple, la libre concurrence, qui est une liberté moindre en général (la liberté de choisir son fournisseur, par exemple), peut devenir fort sérieuse sitôt qu’on parle d’accès à l’information (choisir un quotidien par exemple, ce n’est pas tout à fait comme choisir une marque de lessive). En effet, les atteintes à la neutralité du réseau sont souvent le fait d’opérateurs en place, ou de fournisseurs de services bien implantés, utilisant une position de force pour évincer d’éventuels concurrents. Ce mode de fonctionnement n’est pas le modèle habituel d’Internet. En effet, sur un réseau neutre, n’importe quel abonné à Internet peut, de chez lui, proposer n’importe quel service, et peut donc, sans permis, sans moyens financiers particuliers, sans moyens techniques particuliers, innover et mettre en œuvre des idées nouvelles. Sur un réseau non-neutre, ce n’est plus possible. Les modèles économiques qui découlent de ce choix d’un réseau neutre ou non ont, entre autre conséquence, pour effet d’empêcher l’innovation en la réservant aux acteurs en place.

Si la neutralité du réseau n’est pas une liberté en elle-même, elle est nécessaire à pouvoir garantir d’autres libertés, tout comme la séparation et l’équilibre des pouvoirs n’est pas une liberté en elle-même, mais une condition nécessaire.

Modèle économique

L’argument le plus souvent employé par les opposants à la neutralité des réseaux est celui de la congestion. Internet serait trop plein, et, étant rempli, il faudrait rationnaliser l’usage de la bande passante devenue rare. La technique habituelle de rationalisation des ressources rares étant l’économie, on transporterait de manière plus prioritaire les données des plus offrants, et donc on pénaliserait les autres.

Cet argument a pour principale caractéristique d’être faux. Sauf dans sa causalité, en effet le réseau est très régulièrement saturé. Et ce de manière normale et naturelle. En moins de dix ans, la France est passée, par exemple, de zéro à plus de dix-huit millions d’accès permanents à haut débit, générant des usages, et donc de la charge pour le réseau. Dans cette croissance très rapide, bien entendu, il y a des phases de saturation, qui sont résorbées en investissant sur la capacité du réseau.

Il y a deux façons de traiter une saturation du réseau, l’une qui est d’investir sur la capacité du réseau, cet investissement devant être refait très régulièrement, aussi longtemps que les usages continueront de croître à un rythme soutenu, l’autre étant d’investir, très régulièrement aussi, dans des équipements permettant de sélectionner le trafic à faire passer en priorité. Ces deux modèles correspondent à des niveaux d’investissements similaires, simplement pas sur les mêmes technologies.

Porter atteinte à la neutralité du réseau est donc bien, effectivement, un moyen de résoudre une saturation du réseau, tout comme on peut résoudre une pénurie de logements en augmentant les prix des loyers, ou en construisant des logements. Simplement, ce moyen est dangereux, qui porte atteinte, comme on l’a vu, aux libertés. Laisser à des opérateurs privés, à des financiers, le choix de porter atteinte aux libertés individuelles n’est pas une option valable.

Difficultés techniques

Filtrer Internet, puisque c’est bien de cela qu’on parle, pose de grosses difficultés techniques :

  • Que ce soit du filtrage pur (faire disparaître tel contenu), et on se retrouve alors avec des moyens qui fleurissent pour contourner le filtre. Par exemple, tel texte est interdit, il circulera le lendemain sous forme d’une image, ou d’un enregistrement audio.
  • Que ce soit de la priorisation de trafic, et là aussi les moyens de contournement fleuriront. Le trafic web est plus rapide que le trafic de partage de musique chez mon opérateur ? Dans les jours qui suivent, l’application de téléchargement ressemblera à s’y méprendre à du trafic web, pour devenir elle aussi favorisée.

Ce n’est pas nouveau, c’est le principe de l’arme et de l’armure. Plus l’arme est puissante, plus l’armure est solide. Et, en matière de réseau et de numérique en général, la puissance des moyens de contournement des filtres se trouve sur les ordinateurs en périphérie du réseau (basiquement, sur mon bureau). Or il y a beaucoup plus de puissance sur les ordinateurs individuels des utilisateurs que sur la totalité de tous les systèmes de traitement du réseau lui-même. Pour faire un parallèle hasardeux : que les automobilistes décident de ne plus s’arrêter au péage, et, forcément, les barrières de péage seront explosées. Il y a trop de voitures pour les contenir autrement qu’avec la bonne volonté des conducteurs.

Difficulté politique

Par ailleurs, le filtrage décidé par un état, en général sous couvert de nobles objectifs, comme par exemple de museler les terroristes, ou de protéger les enfants, etc. pose une vraie difficulté politique.

Chaque état aura sa propre politique de filtrage, selon ses propres critères, correspondant à sa notion de l’intérêt général. Par exemple, l’Iran et les USA n’ont pas la même vision de ce qu’est un dangereux terroriste mettant en danger la nation. Or le trafic, sur Internet, passe d’un opérateur à l’autre, sans faire vraiment attention aux pays. Si chaque pays a sa propre politique de filtrage, alors le filtrage résultant, pour l’internaute, est la somme des effets de ces politiques sur le chemin suivi par sa communication.

Pour aboutir à un résultat cohérent, il faut donc une cohérence des filtrages. Sans quoi, quand je veux accéder à une information interdite dans le pays A, je m’arrange pour que ma connexion passe plutôt par un pays B qui a d’autres vues, chose qui est techniquement assez simple, et en train de se démocratiser. D’ailleurs, pourquoi ces techniques sont en train de se démocratiser ? Elles ont été mises au point en général pour des usages pointus, par exemple d’accéder aux données clefs de l’entreprise, pour le cadre dirigeant, depuis chez lui, sans risque pour la sécurité de l’entreprise. Elles ont été raffinées pour contourner les filtrages les plus voyants, par exemple pour accéder à de l’information y compris quand on est en Chine. Et elles sont en train de se démocratiser… à cause de la bataille d’Hadopi et des batailles voisines qui ont lieu dans toute l’Europe.

Le premier grand combat

Au final, tout ça nous dit quoi ? Qu’Internet est important, que ce n’est pas un jouet, mais un pilier de la société de demain. Et qu’on ne peut pas en faire n’importe quoi. En particulier, on ne peut pas se permettre de l’abîmer, de le polluer, de le filtrer.

La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle.

Notes

[1] Qui portent, bien entendu, atteinte à la liberté d’aller et venir, qui est elle aussi une liberté fondamentale.




Avez-vous le réflexe OpenStreetMap ?

Francois Schnell - CC byDans la série « les projets pharaoniques (mais sans esclaves) de la culture libre hors logiciels », on cite toujours, et à juste titre, Wikipédia. Mais il se pourrait bien qu’OpenStreetMap vienne rapidement le rejoindre aux yeux du grand public.

Afin d’accélerer le mouvement, adoptons tous « le réflexe OpenStreetMap », qu’il s’agisse de participer directement à son édition ou plus modestement de l’utiliser autant que faire se peut dans nos documents, messages, sites, blogs et autres réseaux sociaux.

Qu’est-ce qu’OpenStreetMap, ou OSM pour les intimes ?

(et je m’adresse ici bien moins aux fidèles lecteurs du Framablog qu’à ceux, bienvenus, qui arrivent un peu par hasard et curiosité, par exemple à partir de Wikio et son « classement » des blogs)

Commençons par ce petit reportage vidéo issu des archives Framatube, et poursuivons en interrogeant encore (et toujours) Wikipédia : « OpenStreetMap est un projet pour créer des cartes libres du monde, en utilisant le système GPS ou d’autres données libres. OpenStreetMap a été fondé en juillet 2004 par Steve Coast au University College de Londres. Les cartes sont disponibles sous les termes de la licence Creative Commons Attribution-ShareAlike 2.0. Par l’utilisation de moyens informatiques basés sur Internet qui permettent l’intervention et la collaboration de tout utilisateur volontaire, le projet OpenStreetMap relève de la géomatique 2.0 et est aussi une contribution à ce qui est appelé la néogéographie. »

Du coup on le surnomme parfois « le Wikipédia de la cartographie » et, licences et affinités obligent, on ne s’étonnera pas de trouver les cartes de l’un dans les articles de l’autre.

Mais vous en saurez beaucoup plus en parcourant l’excellent dossier OpenStreetMap, les routards du web réalisé cet été par Camille Gévaudan pour le non moins excellent site Ecrans.fr (l’année d’avant c’était le tour de Wikipédia mais surtout de la désormais célèbre Saga Ubuntu d’Erwan Cario !).

Non seulement ce dossier nous permet de mieux appréhender le projet dans son extraordinaire dimension collaborative (avec interview de contributeurs à la clé) mais il fournit en prime un mode d’emploi par l’exemple pour ceux qui aimeraient à leur tour participer à dessiner librement le monde. Ce qui, par contagion, est une conclusion presque naturelle de la lecture du dossier (quand bien même on vous prévient qu’il faut être sacrément motivé parce que techniquement parlant les ballades « Je cartographie ma ville pour OpenStreetMap » relèvent parfois du parcours du combattant).

Extraits de l’introduction :

OpenStreetMap, sorte de Wikipédia de la cartographie, est un projet un peu fou qui tente depuis 5 ans de redessiner le monde (…), rue après rue. Sa communauté œuvre d’abord par idéologie. Convaincue que les données géographiques de la planète devraient appartenir au bien commun et non aux agences qui les ont relevées pour les exploiter commercialement.

(…) Et comme toute réutilisation des contenus propriétaires de Google Maps, Yahoo ! Maps et autres Mappy est formellement interdite, l’exercice est un peu sportif… au sens littéral du terme. Ni clavier ni souris : les outils du cartographe 2.0 sont un appareil GPS et une voiture, un vélo ou une bonne paire de baskets. On enregistre son itinéraire en parcourant méthodiquement les rues de sa ville ou les sentiers d’une randonnée locale, avant de transférer les coordonnées sur son ordinateur et de convertir le paquet de chiffres en tracés de routes. La dernière étape consiste à associer aux tracés des informations (nom, type de voie, largeur…) qui leur permettent d’être correctement interprétés et affichés sur la carte interactive.

(…) L’ampleur du travail à fournir et le côté un peu « roots » du projet ne semble pas décourager les participants, dont les contributions sont de plus en plus nombreuses. Quand on s’est toujours figuré les militants du Libre comme des geeks blafards et sédentaires, on ne peut qu’être fortement intrigué…

Alors, à Ecrans.fr, on a eu envie d’essayer aussi. Un GPS en main (…), on se donne comme objectif d’apporter une petite pierre à l’édifice. Disons deux ou trois rues, pour commencer. Lire la suite…

Mais est-ce que ne pas posséder de GPS est éliminatoire pour contribuer ? Que nenni !

Rendez-vous sur le wiki francophone du site officiel où l’on vous expliquera[1] comment vous pouvez cartographier les traces GPS existantes et/ou ajouter des informations (ou tags) aux cartes qui ne demandent que cela (cf cette page et cette aide-mémoire pour avoir une idée de la diversité de la chose). On remarquera qu’il n’y aucune raison de se restreindre aux routes et chemins proprement dits, comme en témoignent ces extensions au projet que sont OpenCycleMap[2] (vélo), OpenPisteMap (ski) ou encore OpenSeaMap (balises maritimes) !

Imaginons maintenant que vous n’ayez ni GPS, ni la patience, la disponibilité, etc. d’enrichir les informations des cartes ? Et bien vous pouvez quand même participer !

En effet, à chaque fois que vous avez besoin d’afficher une carte dynamique sur vos sites, oubliez Google Maps[3] et autres aspirateurs propriétaires à données, et pensez à OpenStreetMap.

Comme la planète entière n’a pas encore été « openstreetmapisée » (une question de temps ?), il se peut fort bien que votre zone géographique soit mal ou non renseignée. Mais dans le cas contraire (comme c’est généralement désormais le cas pour les grandes voire moyennes villes occidentales), ce serait vraiment dommage de s’en priver et ne pas en profiter du même coup pour faire à moindre effort la promotion de ce formidable projet.

Comment procède-t-on concrètement ? C’est très simple. On se rend sur le site d’OpenStreeMap et on parcourt le monde en zoomant jusqu’à tomber sur le lieu qui nous intéresse. Si vous êtes satisfait du résultat (c’est à dire si les dimensions et la qualité de la carte vous conviennent), cliquez alors sur l’onglet Exporter en choisissant le format HTML incorporable. Un code à recopier directement sur votre site Web vous sera alors proposé (notez au passage que l’on peut également exporter en XML, PDF, PNG, etc.).

Voici ce que cela donne ci-dessus pour mon chez moi à moi qui se trouve pile au centre de la carte (que l’on peut aussi consulter en grand sur le site d’OSM bien entendu).

D’ailleurs si vous passez un jour à Rome, n’hésitez pas à me contacter pour qu’on refasse le monde ensemble autour d’un cappuccino !

Autant le refaire plus libre qu’avant du reste, si vous voulez mon humble avis 😉

MapOSMatic - Exemple de La Cantine à ParisMais ça n’est pas fini ! En combinant les données, le très prometteur projet dérivé MapOSMatic vous délivre de véritables cartes « qualité pro » avec un magnifique index coordonné des rues.

Par exemple, si je veux vous donner rendez-vous à La Cantine à Paris pour un « TrucCamp » autour du libre, je peux faire comme précédemment mais je peux également y adjoindre une carte générée par MapOSMatic avec le PDF du plan et de son index (cf photo ci-contre et pièces jointes ci-dessous). Impressionnant non ?! Le tout étant évidemment sous licence libre.

Il faut vraiment être blasé pour ne pas s’enthousiasmer une fois de plus sur la formidable capacité de travail que peuvent fournir bénévolement les gens lorsqu’il sont motivés par une cause qui leur semble noble, juste et source de progrès.

Pour le moment le programme est restreint à la France (à ce que j’en ai compris), pour cause de projet démarré chez nous[4], mais nous n’en sommes qu’au début de l’application qui ne compte certainement pas en rester là.

Voilà, d’une implication forte (mais qui fait faire de belles ballades individuelles ou collectives en mapping party) à une participation plus légère (qui rend service et embellit nos sites Web), prenons tous « l’habitude OSM » et parlons-en autour de nous. Ce n’est pas autrement que nous réussirons là encore un projet de type « ils ne savaient pas c’était impossible alors ils l’ont fait » qu’affectionne tout particulièrement le logiciel libre lorsqu’il part à la rencontre des biens communs.

« La route est longue mais la voie est libre », avons-nous l’habitude de dire à Framasoft. Ce n’est pas, bien au contraire, le projet OpenStreetMap qui nous démentira !

Notes

[1] Dans la mesure où l’édition dans OpenStreetMap n’est pas forcément chose aisée, je me prends à rêver d’un framabook dédié ouvrant plus facilement l’accès au projet. Des volontaires ?

[2] Crédit photo : François Schnell (Creative Commons By)

[3] À propos de Google Maps, quelques questions pour d’éventuels commentaires. Peut-on considérer que les deux projets sont concurrents ? Est-ce que la comparaison est valable et valide ? Est-ce que, à terme, l’un peut librement se substituer à l’autre ?

[4] À propos de MapOSMatic, sachez que l’un des prochains entretiens du Framablog concernera justement ce projet puisque nous partirons à la rencontre de l’un de ses créateurs, le prolifique développeur Thomas Petazzoni.




Google se conjugue au futur et Microsoft au passé ?

Google sfida Microsoft con Chrome - Copyright Federico FieniOn le sait, Microsoft n’a pas vu venir le Web et ne porte pas le logiciel libre dans sa culture (c’est le moins que l’on puisse dire).

À partir de là comment s’étonner qu’un Google lui fasse aujourd’hui concurrence et menace demain d’attaquer frontalement ses deux plus beaux fleurons (et source colossale de revenus) que sont le système d’exploitation Windows et la suite bureautique MS Office.

Un Google qui a massivement investi dans le cloud computing, l’informatique dans les nuages, Un Google qui non seulement ne méprise pas le logiciel libre mais sait très bien l’utiliser quand ça l’arrange, par exemple pour faire s’y reposer son navigateur Chrome ou son prochain et très attendu Google OS (histore de boucler la boucle)[1].

À propos de Google OS, un petit coup de Wikipédia : « Google Chrome OS est un projet de système d’exploitation qui sera fondé sur son navigateur Web Chrome et un noyau Linux. À destination des netbooks dans un premier temps, il serait capable, à terme, de faire tourner des ordinateurs de bureau traditionnels. Google laisse à penser que son OS fonctionnerait en ligne sur tout ou partie, comme ses applications (Google Documents, Gmail, etc.). Après sa suite gratuite Google Documents concurrent de la suite payante Microsoft Office, puis Android face à Windows Mobile, ce nouveau système d’exploitation gratuit attaque le cœur du business Microsoft. »

La fin d’un cycle, si ce n’est d’une époque ?

Google est en compétition pour le futur; Microsoft, pour le passé

Google competes for the future; Microsoft, the past

Matt Asay – 23 octobre 2009 – CNET News
(Traduction Framalang : Poupoul2 et Goofy)

Google est né sur le Web, et provoque de plus en plus de quintes de toux chez Microsoft en contraignant le géant séculaire du logiciel à se battre en utilisant les règles de Google. Comme avec l’open source. Comme avec l’informatique dans les nuages.

Microsoft pourrait se reposer sur ses lauriers dans l’immédiat grâce au lancement réussi de Windows 7. Mais à long terme son plus grand succès que représentent ses vieux logiciels de bureautique menace de céder le marché à Google.

Ce n’est pas très équitable pour Microsoft. Microsoft est victime de son propre succès, en ayant besoin de s’adresser à sa clientèle existante à chaque nouvelle version, coincé qu’il est par le « dilemme de l’innovateur ». Microsoft continue de remplir ses caisses, mais ses deux derniers trimestres ont vu ses forces traditionnelles telles que le système d’exploitation Windows devenir un frein pour ses revenus, tandis que les entreprises dépensent toujours plus d’argent auprès de Google, Red Hat et quelques autres.

L’absence d’héritage de Google lui permet d’innover rapidement à large échelle, comme le suggère Todd Pierce, directeur technique de Genentech et client de Google :

Le rythme d’innovation de Google…, enfin bon, le cycle de production d’Oracle, SAP et Microsoft est de cinq ans, celui de Google est de cinq jours. C’est incrémental. En cinq jours, vous ne pouvez pas supprimer toutes vos licences de Microsoft Office, mais d’ici cinq ans, vous n’aurez plus de Microsoft Office.

Microsoft, de son côté, est tellement préoccupé par la compatibilité ascendante, « Ce produit ou cette fonctionnalité sont-ils compatibles avec notre capacité à monétiser notre monopole sur la bureautique des années 80 ? », qu’ils continuent à se battre pour comprendre le Web. Dave Rosenberg, blogueur sur CNET, note que Windows 7 aurait dû être la tête de pont de Microsoft sur l’informatique dans les nuages, mais qu’il n’en a rien été.

Il y a beaucoup de « aurait dû être » chez Microsoft, lorsqu’on parle du Web.

Dans l’intervalle, personne ne ralentit pour attendre Microsoft. Arrêtons-nous un instant sur l’informatique dans les nuages. VMware domine la virtualisation, et a de grandes ambitions dans l’informatique dans les nuages, alors que les rivaux open source Eucalyptus et VMops menacent de contester la suprématie de VMware et Microsoft, en cherchant à dominer l’informatique dans les nuages.

Et arrive alors Google, qui fournit une gamme de services d’informatique dans les nuages toujours plus large aux entreprises qui cherchent à se détacher de l’ordinateur de bureau. Dans une interview donnée à CNET News, Eric Schmidt, PDG de Google, soutient que le navigateur peut être à la fois orienté entreprise et consommateur. L’architecture est dirigée par le navigateur. C’est toute l’histoire de l’informatique d’entreprise actuelle.

En d’autres termes, le bureau est simplement un moyen pour l’utilisateur de lancer son navigateur. C’est une passerelle. Il n’y a plus de valeur dans le bureau. Elle se trouve dans le navigateur, qui devient le nouveau bureau, en termes de fonctionnalités réelles disponibles

La meilleure opportunité pour Microsoft de contrecarrer la menace de Google et des autres s’appelle SharePoint. Le PDG de Microsoft, Steve Ballmer, l’a décrit comme le nouveau système d’exploitation de Microsoft, mais ce n’est que dans un entretien récent avec Forrester qu’il lui a donné tout son sens :

Dans mon esprit, je compare SharePoint au PC, le PC est venu à la vie comme machine à tableau, puis est devenu une machine à développer, une machine à traiter du texte, SharePoint est une infrastructure à objectif global qui connectera les gens aux gens, et les gens à l’information…

Je crois que SharePoint est considéré par les administrateurs informatiques et les développeurs comme une plateforme de développement très sérieuse pour les développement rapide d’application (NdT : RAD, Rapid Application Development).

SharePoint est la meilleure tentative de Microsoft pour connecter les applications de bureau telles qu’Office, avec des outils collaboratifs et de stockage centralisé ou dans les nuages. Bien sûr, Microsoft a d’autres initiatives telles qu’Office en ligne, mais aucune ne marie aussi bien ses centres de profits historiques et l’innovation future.

SharePoint pourrait alors être le meilleur espoir de Microsoft pour marier son héritage à la future informatique en ligne.

Microsoft a besoin de cela. Ils perdent dans le marché des mobiles, et pas uniquement face à Apple. Android, le système dédié de Google, est déjà efficient et opérationnel, avec par exemple ses données AdMob qui situent aujourd’hui la pénétration des smartphones Android à 10 % au Royaume Uni.

Si nous prenons l’hypothèse que le mobile sera de plus en plus une plateforme de choix pour le client, alors nous voyons Google harceler Microsoft par le haut (les nuages de services) et par le bas (le client).

Dans les deux cas, l’open source est une arme de choix pour Google, et c’en est une que Microsoft va devoir comprendre rapidement s’ils veulent devenir un acteur de poids sur le Web. Le Web est trop grand pour que Microsoft le contrôle, et le Web est incroyablement open source, tel que le remarque Mitch Kapor, fondateur de Lotus :

La victoire de l’open source est qu’il constitue le fondement du Web, la partie invisible, celle que vous ne voyez pas en tant qu’utilisateur.

Les majorité des serveurs utilisent Linux comme système d’exploitation avec Apache comme serveur Web sur lequel tout le reste est construit. Les principaux langages sur lesquels les applications Web sont construites, qu’il s’agisse de Perl, de Python, de PHP ou de n’importe quel autre langage, sont tous open source. Donc l’infrastructure du Web est open source. Le Web tel que nous le connaissons est totalement dépendant de l’open source.

Kapor suggère que la guerre que Microsoft livre à l’open source est terminée, ou devrait l’être : l’open source a gagné. Il s’agit désormais d’une infrastructure essentielle, et quelque chose que Microsoft doit arriver à comprendre, plutôt que de le combattre. Il ne s’agit pas de « religion open source », il ne s’agit que de pragmatisme. Un pragmatisme que Microsoft peut s’approprier aussi bien que n’importe qui d’autre.

Google utilise le futur (l’open source, les nuages) pour se battre pour l’avenir, et ses tactiques menacent de frapper Microsoft au cœur de ses vaches à lait tels que Windows.

Microsoft, cependant, semble être embourbé dans son passé. Windows 7 a l’air d’une mise à jour sérieuse de son prédécesseur Vista, mais dans dix ans, cela aura-t-il une importance pour nous ? Peut-être aurons-nous changé, oubliant ces jours pittoresques où nous nous soucions du système d’exploitation et des applications telles qu’Office ?

Notes

[1] Crédit illustration : Copyright Federico Fieni




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.




« Le droit de lire » de Richard Stallman… 13 ans après !

Marfis75 - CC by-saÀ l’heure où le feuilleton Hadopi poursuit ses aventures parlementaires, il nous a semblé intéressant de déterrer un énième écrit de Richard Stallman.

D’abord parce que ce n’est pas tous les jours que Stallman verse dans la nouvelle de science-fiction (et nous parle… d’amour, dans un univers orwellien à souhait[1]). Mais aussi et surtout parce que, bien que rédigé en 1996, ce texte n’est pas loin d’avoir aujourd’hui des petits accents prophétiques (à commencer par la récente affaire Kindle).

Malheureusement…

Le droit de lire

Richard Stallman – février 1997 – GNU.org
(Traduction : Pierre Sarrazin)

URL d’origine du document

(extrait de « The Road to Tycho », une collection d’articles sur les antécédents de la Révolution lunaire, publiée à Luna City en 2096)

Pour Dan Halbert, la route vers Tycho commença à l’université — quand Lissa Lenz lui demanda de lui prêter son ordinateur. Le sien était en panne, et à moins qu’elle puisse en emprunter un autre, elle échouerait son projet de mi-session. Il n’y avait personne d’autre à qui elle osait demander, à part Dan.

Ceci posa un dilemme à Dan. Il se devait de l’aider — mais s’il lui prêtait son ordinateur, elle pourrait lire ses livres. À part le fait que vous pouviez aller en prison pour plusieurs années pour avoir laissé quelqu’un lire vos livres, l’idée même le choqua au départ. Comme à tout le monde, on lui avait enseigné dès l’école primaire que partager des livres était malicieux et immoral — une chose que seuls les pirates font.

Et il était improbable que la SPA — la Software Protection Authority — manquerait de le pincer. Dans ses cours sur les logiciels, Dan avait appris que chaque livre avait un moniteur de copyright qui rapportait quand et où il était lu, et par qui, à la Centrale des licences. (Elle utilisait ces informations pour attraper les lecteurs pirates, mais aussi pour vendre des renseignements personnels à des détaillants.) La prochaine fois que son ordinateur serait en réseau, la Centrale des licences se rendrait compte. Dan, comme propriétaire d’ordinateur, subirait les punitions les plus sévères — pour ne pas avoir tout tenté pour éviter le délit.

Bien sûr, Lissa n’avait pas nécessairement l’intention de lire ses livres. Elle pourrait ne vouloir l’ordinateur que pour écrire son projet. Mais Dan savait qu’elle venait d’une famille de classe moyenne et qu’elle arrivait difficilement à payer ses frais de scolarité, sans compter ses frais de lecture. Lire les livres de Dan pourrait être sa seule façon d’obtenir son diplôme. Il comprenait cette situation; lui-même avait eu à emprunter pour payer pour tous les articles scientifiques qu’il avait eu à lire. (10% de ces frais allaient aux chercheurs qui écrivaient ces articles; puisque Dan visait une carrière académique, il pouvait espérer que si ses propres articles scientiques étaient souvent lus, il gagnerait un revenu suffisant pour rembourser sa dette).

Par la suite, Dan apprendrait qu’il y eut un temps où n’importe qui pouvait aller à la bibliothèque et lire des articles de journaux, et même des livres, sans avoir à payer. Il y avait des universitaires indépendants qui lisaient des milliers de pages sans subventions des bibliothèques gouvernementales. Mais dans les années 1990, les éditeurs aussi bien commerciaux qu’à but non lucratif avaient commencé à facturer l’accès. En 2047, les bibliothèques offrant un accès public gratuit à la littérature scientifique n’étaient qu’un pâle souvenir.

Il y avait des façons, bien sûr, de contourner la SPA et la Centrale des licences. Elles étaient elles-mêmes illégales. Dan avait eu un compagnon de classe dans son cours sur les logiciels, Frank Martucci, qui avait obtenu un outil illégal de déboguage, et l’avait utilisé pour outrepasser le code du moniteur de copyright quand il lisait des livres. Mais il en avait parlé à trop d’amis, et l’un d’eux l’a dénoncé auprès de la SPA pour une récompense (des étudiants criblés de dettes pouvaient facilement être tentés par la trahison). En 2047, Frank était en prison, non pas pour lecture pirate, mais pour possession d’un débogueur.

Dan apprendrait plus tard qu’il y eut un temps où n’importe qui pouvait posséder des outils de déboguage. Il y avait même des outils de déboguage disponibles gratuitement sur des CD ou qu’on pouvait télécharger du Net. Mais des usagers ordinaires commencèrent à s’en servir pour outrepasser les moniteurs de copyright, et finalement un juge a décidé que c’était devenu leur principale utilisation en pratique. Ceci voulait dire qu’ils étaient illégaux; les développeurs de ces débogueurs furent envoyés en prison.

Les programmeurs avaient encore besoin d’outils pour déboguer, bien sûr, mais les vendeurs de débogueurs en 2047 ne distribuaient que des copies numérotées, et seulement à des programmeurs officiellement licenciés et soumis. Le débogueur que Dan utilisait dans son cours sur les logiciels était gardé derrière un garde-barrière spécial afin qu’il ne puisse servir que pour les exercices du cours.

Il était aussi possible de contourner les moniteurs de copyright en installant un noyau système modifié. Dan apprendrait finalement l’existence de noyaux libres, et même de systèmes d’exploitation entièrement libres, qui avaient existé au tournant du siècle. Mais non seulement étaient-ils illégaux, comme les débogueurs, mais vous ne pouviez en installer un, si vous en aviez un, sans connaître le mot de passe de l’usager superviseur de votre ordinateur. Or, ni le FBI ni l’Aide technique Microsoft ne vous le révèlerait.

Dan conclut qu’il ne pouvait simplement prêter son ordinateur à Lissa. Mais il ne pouvait refuser de l’aider, car il l’aimait. Chaque chance de lui parler le remplissait d’aise. Et le fait qu’elle l’avait choisi pour demander de l’aide pouvait signifier qu’elle l’aimait aussi.

Dan résolut le dilemme en faisant une chose encore plus impensable — il lui prêta l’ordinateur, et lui dit son mot de passe. Ainsi, si Lissa lisait ses livres, la Centrale des licences penserait que c’était lui qui les lisait. C’était quand même un délit, mais la SPA ne s’en rendrait pas compte automatiquement. Ils ne s’en rendraient compte que si Lissa le dénonçait.

Bien sûr, si l’école devait un jour apprendre qu’il avait donné son propre mot de passe à Lissa, ce serait la fin de leurs études, peu importe ce à quoi le mot de passe aurait servi. La politique de l’école était que toute interférence avec ses mécanismes de surveillance de l’utilisation des ordinateurs par les étudiants était punissable. Il n’importait pas qu’aucun mal n’ait été fait — l’offense était de se rendre difficile à surveiller par les administrateurs. Ils supposaient que ça signifiait que vous faisiez quelque chose d’autre qui était interdit, et ils n’avaient pas besoin de savoir de quoi il s’agissait.

Les étudiants n’étaient habituellement pas expulsés pour cela — pas directement. Ils étaient plutôt bannis des systèmes informatiques de l’école, et échouaient inévitablement leurs cours.

Plus tard, Dan apprendrait que ce genre de politique n’a commencé dans les universités que dans les années 1980, quand des étudiants commencèrent à être nombreux à utiliser des ordinateurs. Avant, les universités avaient une approche différente au sujet de la discipline auprès des étudiants; elles punissaient des activités qui causaient du tort, et non pas simplement celles qui soulevaient des doutes.

Lissa ne dénonça pas Dan à la SPA. La décision de Dan de l’aider mena à leur mariage, et les amena aussi à remettre en question ce qu’on leur avait enseigné durant leur enfance au sujet du piratage. Le couple se mit à lire sur l’histoire du copyright, sur l’Union soviétique et ses restrictions sur la copie, et même sur la Constitution originale des États-Unis. Ils déménagèrent à Luna, où ils trouvèrent d’autres gens qui comme eux avaient pris leurs distances par rapport au bras long de la SPA. Quand la révolte de Tycho commença en 2062, le droit universel de lire devint bientôt un de ses buts principaux.

Copyright © 1996 Richard Stallman
La reproduction exacte et la distribution intégrale de cet article est permise sur n’importe quel support d’archivage, pourvu que cette notice soit préservée.

Cet article a été publié dans la parution de février 1997 de Communications of the ACM (volume 40, numéro 2). Il a fait l’objet d’une intéressante note de l’auteur mise à jour en 2007 que nous n’avons pas reproduite ici.

Notes

[1] Crédit photo : Marfis75 (Creative Commons By-Sa)




Le socialisme nouveau est arrivé

Copyleft FlagLe socialisme est mort, vive le socialisme ? À l’instar de Is Google making us stupid? c’est une nouvelle traduction de poids que nous vous proposons aujourd’hui.

Un socialisme nouveau, revu et corrigé, est en train de prendre forme sur Internet. Telle est l’hypothèse de Kevin Kelly, célèbre éditorialiste du célèbre magazine Wired. Et l’on ne s’étonnera guère d’y voir le logiciel libre associé aux nombreux arguments qui étayent son propos.

Vous reconnaissez-vous dans ce « socialisme 2.0 » tel qu’il est présenté ici ? Peut-être oui, peut-être non. Mais il n’est jamais inutile de prendre un peu de recul et tenter de s’interroger sur ce monde qui s’accélère et va parfois plus vite que notre propre capacité à lui donner du sens.

Le nouveau Socialisme : La société collectiviste globale se met en ligne

The New Socialism: Global Collectivist Society Is Coming Online

Kevin Kelly – 22 mai 2009 – Wired
(Traduction Framalang : Poupoul2, Daria et Don Rico)

Bill Gates s’est un jour moqué des partisans de l’Open Source avec le pire épithète qu’un capitaliste puisse employer. Ces gens-là, a-t-il dit, sont « une nouvelle race de communistes », une force maléfique décidée à détruire l’incitation monopolistique qui soutient le Rêve Américain. Gates avait tort : les fanatiques de l’Open Source sont plus proches des libertariens que des communistes. Il y a pourtant une part de vérité dans son propos. La course effrénée à laquelle on se livre partout sur la planète pour connecter tout le monde avec tout le monde dessine doucement les contours d’une version revue et corrigée du socialisme.

Les aspects communautaires de la culture numérique ont des racines profondes et étendues. Wikipédia n’est qu’un remarquable exemple de collectivisme émergeant parmi d’autres, et pas seulement Wikipédia mais aussi toute le système des wikis. Ward Cunningham, qui inventa la première page web collaborative en 1994, a recensé récemment plus de cent cinquante moteurs de wiki différents, chacun d’entre eux équipant une myriade de sites. Wetpaint, lancé il y a tout juste trois ans, héberge aujourd’hui plus d’un million de pages qui sont autant de fruits d’un effort commun. L’adoption massive des licences de partage Creative Commons et l’ascension de l’omniprésent partage de fichiers sont deux pas de plus dans cette direction. Les sites collaboratifs tels que Digg, Stumbleupon, the Hype Machine ou Twine poussent comme des champignons et ajoutent encore du poids à ce fantastique bouleversement. Chaque jour nous arrive une nouvelle start-up annonçant une nouvelle méthode pour exploiter l’action communautaire. Ces changements sont le signe que l’on se dirige lentement mais sûrement vers une sorte de socialisme uniquement tourné vers le monde en réseau.

Mais on ne parle pas là du socialisme de votre grand-père. En fait, il existe une longue liste d’anciens mouvements qui n’ont rien à voir avec ce nouveau socialisme. Il ne s’agit pas de lutte des classes. Il ne s’agit pas d’anti-américanisme. Le socialisme numérique pourrait même être l’innovation américaine la plus récente. Alors que le socialisme du passé était une arme d’État, le socialisme numérique propose un socialisme sans État. Cette nouvelle variété de socialisme agit dans le monde de la culture et de l’économie, plutôt que dans celui de la politique… pour le moment.

Le communisme avec lequel Gates espérait salir les créateurs de Linux est né dans une période où les frontières étaient rigides, la communication centralisée, et l’industrie lourde et omniprésente. Ces contraintes ont donné naissance à une appropriation collective de la richesse qui remplaçait l’éclatant chaos du libre marché par des plans quinquennaux imposés par un politburo tout puissant.

Ce système d’exploitation politique a échoué, c’est le moins que l’on puisse dire. Cependant, contrairement aux vieilles souches du socialisme au drapeau rouge, le nouveau socialisme s’étend sur un Internet sans frontières, au travers d’une économie mondiale solidement intégrée. Il est conçu pour accroître l’autonomie individuelle et contrecarrer la centralisation. C’est la décentralisation à l’extrême.

Au lieu de cueillir dans des fermes collectives, nous récoltons dans des mondes collectifs. Plutôt que des usines d’État, nous avons des usines d’ordinateurs connectées à des coopératives virtuelles. On ne partage plus des forêts, des pelles ou des pioches, mais des applications, des scripts et des APIs. Au lieu de politburos sans visage, nous avons des méritocracies anonymes, où seul le résultat compte. Plus de production nationale, remplacée par la production des pairs. Finis les rationnements et subventions distribués par le gouvernement, place à l’abondance des biens gratuits.

Je reconnais que le terme socialisme fera forcément tiquer de nombreux lecteurs. Il porte en lui un énorme poids culturel, au même titre que d’autres termes associés tels que collectif, communautaire ou communal. J’utilise le mot socialisme parce que techniquement, c’est celui qui représente le mieux un ensemble de technologies dont l’efficience dépend des interactions sociales. L’action collective provient grosso modo de la richesse créée par les sites Web et les applications connectées à Internet lorsqu’ils exploitent du contenu fourni par les utilisateurs. Bien sûr, il existe un danger rhétorique à réunir autant de types d’organisation sous une bannière aussi provocatrice. Mais puisqu’il n’existe aucun terme qui soit vierge de toute connotation négative, autant donner une nouvelle chance à celui-là. Lorsque la multitude qui détient les moyens de production travaille pour atteindre un objectif commun et partage ses produits, quand elle contribue à l’effort sans toucher de salaire et en récolte les fruits sans bourse délier, il n’est pas déraisonnable de qualifier ce processus de socialisme.

À la fin des années 90, John Barlow, activiste, provocateur et hippie vieillissant, a désigné ce courant par le terme ironique de « point-communisme » (NdT : en référence au point, dot, des nom de domaines des sites Web comme framablog point org). Il le définissait comme une « main d’œuvre composée intégralement d’agents libres », « un don décentralisé ou une économie de troc où il n’existe pas de propriété et où l’architecture technologique définit l’espace politique ». En ce qui concerne la monnaie virtuelle, il avait raison. Mais il existe un aspect pour lequel le terme socialisme est inapproprié lorsqu’il s’agit de désigner ce qui est en train de se produire : il ne s’agit pas d’une idéologie. Il n’y a pas d’exigence de conviction explicite. C’est plutôt un éventail d’attitudes, de techniques et d’outils qui encouragent la collaboration, le partage, la mise en commun, la coordination, le pragmatisme, et une multitude de coopérations sociales nouvellement rendues possibles. C’est une frontière conceptuelle et un espace extrêmement fertile pour l’innovation.

Socialisme 2.0 - HistoriqueDans son livre publié en 2008, Here Comes Everybody (NdT : Voici venir chacun), le théoricien des médias Clay Chirky propose une hiérarchie utile pour classer ces nouveaux dispositifs. Des groupes de personnes commencent simplement par partager, puis ils progressent et passent à la coopération, à la collaboration et, pour finir, au collectivisme. À chaque étape, on constate un accroissement de la coordination. Une topographie du monde en ligne fait apparaître d’innombrables preuves de ce phénomène.

I. Le partage

Les masses connectées à l’Internet sont animées par une incroyable volonté de partage. Le nombre de photos personnelles postées sur Facebook ou MySpace est astronomique, et il y a fort à parier que l’écrasante majorité des photos prises avec un appareil photo numérique sont partagées d’une façon ou d’une autre. Sans parler des mises à jour du statut de son identité numérique, des indications géographiques, des bribes de réflexion que chacun publie çà et là. Ajoutez-y les six milliards de vidéos vues tous les mois sur Youtube pour les seuls États-Unis et les millions de récits issus de l’imagination de fans d’œuvres existantes. La liste des sites de partage est presque infinie : Yelp pour les critiques, Loopt pour la géolocalisation, Delicious pour les marque-pages.

Le partage est la forme de socialisme la plus tempérée, mais elle sert de fondation aux niveaux les plus élevés de l’engagement communautaire.

II. La coopération

Lorsque des particuliers travaillent ensemble à atteindre un objectif d’envergure, les résultats apparaissent au niveau du groupe. Les amateurs n’ont pas seulement partagé plus de trois milliards de photos sur Flickr, ils les ont aussi associées à des catégories ou des mots-clés ou les ont étiquetées (NdT : les tags). D’autres membres de la communauté regroupent les images dans des albums. L’usage des populaires licences Creative Commons aboutit à ce que, d’une façon communautaire, voire communiste, votre photo devienne ma photo. Tout le monde peut utiliser une photo, exactement comme un communiste pourrait utiliser la brouette de la communauté. Je n’ai pas besoin de prendre une nouvelle photo de la tour Eiffel, puisque la communauté peut m’en fournir une bien meilleure que la mienne.

Des milliers de sites d’agrégation emploient la même dynamique sociale pour un bénéfice triple. Premièrement, la technologie assiste directement les utilisateurs, en leur permettant d’étiqueter, marquer, noter et archiver du contenu pour leur propre usage. Deuxièmement, d’autres utilisateurs profitent des tags et des marque-pages des autres… Et tout ceci, au final, crée souvent une valeur ajoutée que seul le groupe dans son ensemble peut apporter. Par exemple, des photos d’un même endroit prises sous différents angles peuvent être assemblées pour former une reproduction du lieu en 3D stupéfiante. (Allez voir du côté de Photosynth de Microsoft). Curieusement, cette proposition va plus loin que la promesse socialiste du « chacun contribue selon ses moyens, chacun reçoit selon ses besoins », puisqu’elle améliore votre contribution et fournit plus que ce dont vous avez besoin.

Les agrégateurs communautaires arrivent à d’incroyables résultats. Des sites tels que Digg ou Reddit, qui permettent aux utilisateurs de voter pour les liens qu’ils souhaitent mettre en évidence, peuvent orienter le débat public autant que les journaux ou les chaînes de télévision (pour info Reddit appartient à la maison mère de Wired, Condé Nast). Ceux qui contribuent sérieusement à ces sites y consacrent plus d’énergie qu’ils ne pourront jamais en recevoir en retour, mais ils continuent en partie à cause du pouvoir culturel que représentent ces outils. L’influence d’un participant s’étend bien au-delà d’un simple vote, et l’influence collective de la communauté surpasse de loin le nombre de ses participants. C’est l’essence même des institutions sociales, l’ensemble dépasse la somme de ses composants. Le socialisme traditionnel visait à propulser cette dynamique par le biais de l’État. Désormais dissociée du gouvernement et accrochée à la matrice numérique mondiale, cette force insaisissable s’exerce à une échelle plus importante que jamais.

III. La collaboration

La collaboration organisée peut produire des résultats dépassant ceux d’une coopération improvisée. Les centaines de projets de logiciel Open Source, tel que le serveur Web Apache, en sont le parfait exemple. Dans ces aventures, des outils finement ciselés par la communauté génèrent des produits de haute qualité à partir du travail coordonné de milliers ou dizaines de milliers de membres. Contrairement à la coopération traditionnelle, la collaboration sur d’énormes projets complexes n’apporte aux participants que des bénéfices indirects, puisque chaque membre du groupe n’intervient que sur une petite partie du produit final. Un développeur motivé peut passer des mois à écrire le code d’une infime partie d’un logiciel dont l’état global est encore à des années-lumière de son objectif. En fait, du point de vue du marché libre, le rapport travail/récompense est tellement dérisoire (les membres du projet fournissent d’immenses quantités de travail à haute valeur ajoutée sans être payés) que ces efforts collaboratifs n’ont aucun sens au sein du capitalisme.

Pour ajouter à la dissonance économique, nous avons pris l’habitude de profiter du fruit de ces collaborations sans mettre la main à la poche. Plutôt que de l’argent, ceux qui participent à la production collaborative gagnent en crédit, statut, réputation, plaisir, satisfaction et expérience. En plus d’être gratuit, le produit peut être copié librement et servir de socle à d’autres produits. Les schémas alternatifs de gestion de la propriété intellectuelle, parmi lesquelles Creative Commons ou les licences GNU, ont été créés pour garantir ces libertés.

En soi, la collaboration n’a bien sûr rien de spécialement socialiste. Mais les outils collaboratifs en ligne facilitent un style communautaire de production qui exclut les investisseurs capitalistes et maintient la propriété dans les mains de ceux qui travaillent, voire dans celles des masses consommatrices.

IV Le collectivisme

Socialisme 2.0 - Ancien / NouveauAlors qu’une encyclopédie peut être rédigée de façon coopérative, nul n’est tenu pour responsable si la communauté ne parvient pas au consensus, et l’absence d’accord ne met pas en danger l’entreprise dans son ensemble. L’objectif d’un collectif est cependant de concevoir un système où des pairs autogérés prennent la responsabilité de processus critiques, et où des décisions difficiles, comme par exemple définir des priorités, sont prises par l’ensemble des acteurs. L’Histoire abonde de ces centaines de groupes collectivistes de petite taille qui ont essayé ce mode de fonctionnement. Les résultats se sont révélés peu encourageants (quand bien même on ne tienne pas compte de Jim Jones et de la « famille » de Charles Manson).

Or, une étude approfondie du noyau dirigeant de Wikipédia, Linux ou OpenOffice, par exemple, montre que ces projets sont plus éloignés de l’idéal collectiviste qu’on pourrait le croire vu de l’extérieur. Des millions de rédacteurs contribuent à Wikipédia, mais c’est un nombre plus restreint d’éditeurs (environ mille cinq cents) qui est responsable de la majorité de l’édition. Il en va de même pour les collectifs qui écrivent du code. Une myriade de contributions est gérée par un groupe plus réduit de coordinateurs. Comme Mitch Kapor, membre fondateur de la Mozilla Open Source Code Factory, le formule : « au cœur de toutes les anarchies qui marchent, il y a un réseau à l’ancienne ».

Ce n’est pas forcément une mauvaise chose. Certaines formes de collectivisme tirent avantage de la hiérarchie, alors que d’autres en souffrent. Des plateformes tels qu’Internet et Facebook, ou même la démocratie, qui servent de substrat à la production de biens ou à la fourniture de services, profitent de l’absence quasi totale de hiérarchie, laquelle réduit les obstacles à l’intégration et permet la répartition équitable des droits et responsabilités. Lorsque des acteurs puissants émergent, la structure dans son ensemble souffre. D’un autre côté, les organisations bâties pour créer des produits ont souvent besoin de dirigeants forts, et de hiérarchies organisées capable de se projeter dans l’avenir : l’un des niveaux se concentre sur les besoins immédiats, l’autre sur les cinq années à venir.

Par le passé, il était quasi impossible de construire une organisation qui exploitait la hiérarchie tout en maximisant le collectivisme. Désormais, les réseaux numériques fournissent l’infrastructure nécessaire. Le Net donne la possibilité aux organisations concentrées sur le produit de fonctionner collectivement, tout en empêchant la hiérarchie d’en prendre totalement le pouvoir. L’organisation qui conçoit MySQL, une base de données Open Source, n’est pas animée par un refus romantique de la hiérarchie, mais elle est bien plus collectiviste qu’Oracle. De la même manière, Wikipédia n’est pas un bastion d’égalité, mais elle est largement plus collectiviste que l’encyclopédie Britannica. Le cœur élitiste que nous trouvons au centre des collectifs en ligne est en fait un signe que le socialisme sans État peut fonctionner à grande échelle.

La plupart des occidentaux, moi y compris, ont été endoctrinés par l’idée que l’extension du pouvoir des individus réduit forcément le pouvoir de l’État, et vice versa. Pourtant, dans la pratique, la plupart des politiques socialisent certaines ressources et en individualisent d’autres. Les économies de marché ont pour la plupart socialisé l’éducation, et même les sociétés les plus socialisées autorisent une certaine forme de propriété privée.

Plutôt que de voir le socialisme technologique comme une sorte de compromis à somme nulle entre l’individualisme du marché libre et une autorité centralisée, on peut le considérer comme un système d’exploitation culturel qui élève en même temps l’individu et le groupe. Le but, largement désarticulé mais intuitivement compréhensible, de la technologie communautaire consiste à maximiser l’autonomie individuelle et le pouvoir de ceux qui travaillent ensemble. Ainsi, on peut voir le socialisme numérique comme une troisième voie rendant les vieux débats obsolètes.

Ce concept de troisième voie est également rapporté par Yochai Benkler, auteur de The Wealth of Networks (NdT : La richesse des réseaux), qui a probablement réfléchi plus que quiconque aux politiques des réseaux. Il affirme voir « l’émergence de la production sociale et de la production collective comme une alternative aux systèmes propriétaires et fermés, basés sur l’État ou le marché », notant que ces activités « peuvent accroître la créativité, la productivité et la liberté ». Le nouveau système d’exploitation, ce n’est ni le communisme classique et sa planification centralisée sans propriété privée, ni le chaos absolu du marché libre. C’est au contraire un espace de création émergeant, dans lequel la coordination publique décentralisée peut résoudre des problèmes et créer des richesses, là où ni le communisme ni le capitalisme purs et durs n’en sont capables.

Les systèmes hybrides qui mélangent les mécanismes marchands et non marchands ne sont pas nouveaux. Depuis des décennies, les chercheurs étudient les méthodes de production décentralisées et socialisées des coopératives du nord de l’Italie et du Pays Basque, dans lesquelles les employés sont les propriétaires, prennent les décisions, limitent la distribution des profits et sont indépendants du contrôle de l’État. Mais seule l’arrivée de la collaboration à bas prix, instantanée et omniprésente que permet Internet a rendu possible la migration du cœur de ces idées vers de nombreux nouveaux domaines telle que l’écriture de logiciels de pointe ou de livres de référence.

Le rêve, ce serait que cette troisième voie aille au-delà des expériences locales. Jusqu’où ? Ohloh, une entreprise qui analyse l’industrie de l’Open Source, a établi une liste d’environ deux cent cinquante mille personnes travaillant sur deux cent soixante-quinze mille projets. C’est à peu près la taille de General Motors et cela représente énormément de gens travaillant gratuitement, même si ce n’est pas à temps complet. Imaginez si tous les employés de General Motors n’étaient pas payés, tout en continuant à produire des automobiles !

Jusqu’à présent, les efforts les plus importants ont été ceux des projets Open Source, dont des projets comme Apache gèrent plusieurs centaines de contributeurs, environ la taille d’un village. Selon une étude récente, la version 9 de Fedora, sortie l’année dernière, représenterait soixante mille années-homme de travail. Nous avons ainsi la preuve que l’auto-assemblage et la dynamique du partage peuvent gouverner un projet à l’échelle d’une ville ou d’un village décentralisé.

Évidemment, le recensement total des participants au travail collectif en ligne va bien au-delà. YouTube revendique quelques trois cent cinquante millions de visiteurs mensuels. Presque dix millions d’utilisateurs enregistrés ont contribué à Wikipédia, cent soixante mille d’entre eux sont actifs. Plus de trente-cinq millions de personnes ont publié et étiqueté plus de trois milliards de photos et vidéos sur Flickr. Yahoo héberge près de huit millions de groupes sur tous les sujets possibles et imaginables. Google en compte près de quatre millions.

Ces chiffres ne représentent toujours pas l’équivalent d’une entière nation. Peut-être ces projets ne deviendront-ils jamais grand public (mais si Youtube n’est pas un phénomène grand public, qu’est-ce qui l’est ?). Pourtant, la population qui baigne dans les médias socialisés est indéniablement significative. Le nombre de personnes qui créent gratuitement, partagent gratuitement et utilisent gratuitement, qui sont membres de fermes logicielles collectives, qui travaillent sur des projets nécessitant des décisions collectives, ou qui expérimentent les bénéfices du socialisme décentralisé, ce nombre a atteint des millions et progresse en permanence. Des révolutions sont nées avec bien moins que cela.

On pourrait s’attendre à de la démagogie de la part de ceux qui construisent une alternative au capitalisme et au corporatisme. Mais les développeurs qui conçoivent des outils de partage ne se voient pas eux-mêmes comme des révolutionnaires. On n’est pas en train d’organiser de nouveaux partis politiques dans les salles de réunions, du moins pas aux États-Unis (en Suède, le Parti Pirate s’est formé sur une plateforme de partage, et il a remporté un piètre 0,63% des votes aux élections nationales de 2006).

En fait, les leaders du nouveau socialisme sont extrêmement pragmatiques. Une étude a été menée auprès de deux mille sept cent quatre-vingt-quatre développeurs Open Source afin d’analyser leurs motivations. La plus commune d’entre elles est « apprendre et développer de nouvelles compétences ». C’est une approche pratique. La vision académique de cette motivation pourrait être : « si je bosse sur du code libre, c’est surtout pour améliorer le logiciel ». En gros, la politique pour la politique n’est pas assez tangible.

Même ceux qui restent et ne participent pas au mouvement pourraient ne pas être politiquement insensibles à la marée montante du partage, de la coopération, de la collaboration et du collectivisme. Pour la première fois depuis des années, des pontes de la télévision et des grands magazines nationaux osent prononcer le mot tabou « socialisme », désormais reconnu comme une force qui compte dans la politique des États-Unis. À l’évidence, la tendance à la nationalisation de grosses portions de l’industrie, à l’établissement d’un système de santé public et à la création d’emplois avec l’argent du contribuable n’est pas dû en totalité au techno-socialisme. Ainsi les dernières élections ont démontré le pouvoir d’une base décentralisée et active sur le Web, dont le cœur bat au rythme de la collaboration numérique. Plus nous tirons les bénéfices d’une telle collaboration, plus nous nous ouvrons la porte à un avenir d’institutions socialistes au gouvernement. Le système coercitif et totalitaire de la Corée du Nord n’est plus, le futur est un modèle hybride qui s’inspire de Wikipédia et du socialisme modéré de la Suède.

Jusqu’où ce mouvement nous rapprochera-t-il d’une société non capitaliste, Open Source, à la productivité collaborative ? Chaque fois cette question apparue, la réponse a été : plus près que nous le pensons. Prenons Craigslist, par exemple. Ce ne sont que des petites annonces classées, n’est-ce pas ? Pourtant, ce site a démultiplié l’efficacité d’une sorte de troc communautaire pour toucher un public régional, puis l’a amélioré en intégrant des images et des mises à jour en temps réel, jusqu’à devenir soudain un trésor national. Fonctionnant sans financement ni contrôle public, connectant les citoyens entre eux sans intermédiaire, cette place de marché essentiellement gratuite produit du bien et du lien social avec une efficacité qui laisserait pantois n’importe quel gouvernement ou organisation traditionnelle. Bien sûr, elle ébranle le modèle économique des journaux, mais en même temps il devient indiscutable que le modèle de partage est une alternative viable aux entreprises à la recherche permanente de profits et aux institutions civiques financées par les impôts.

Qui aurait cru que des paysans précaires pourraient obtenir et rembourser des prêts de cent dollars accordés par de parfaits étrangers vivant à l’autre bout du monde ? C’est ce que réussit Kiva en fournissant des prêts de pair-à-pair. Tous les experts de santé publique ont déclaré sous le sceau de la confidentialité que le partage, ça convenait pour les photos, mais que personne ne partagerait son dossier médical. Pourtant, PatientsLikeMe, où les patients mettent en commun les résultats de leurs traitements pour échanger et mieux prendre soin d’eux-mêmes, a montré que l’action collective peut contredire les médecins et leurs craintes concernant la confidentialité.

L’habitude de plus en plus répandue qui consiste à partager ce que vous pensez (Twitter), ce que vous lisez (StumbleUpon), ce que vous gagnez (Wesabe), bref tout et n’importe quoi (le Web) est en train de prendre une place essentielle dans notre culture. En faire de même en créant des encyclopédies, des agences de presse, des archives vidéo, des forges logicielles, de façon collaborative, dans des groupes rassemblant des contributeurs du monde entier sans distinction de classe sociale, voilà ce qui fait du socialisme politique la prochaine étape logique.

Un phénomène similaire s’est produit avec les marchés libres du siècle dernier. Chaque jour, quelqu’un demandait : « Y a-t-il quelque chose que les marchés ne peuvent pas faire ? ». Et on établissait ainsi une liste de problèmes qui semblaient nécessiter une planification rationnelle ou un mode de gouvernance paternaliste en leur appliquant une logique de place de marché. Dans la plupart des cas, c’était la solution du marché qui fonctionnait le mieux, et de loin. Les gains de prospérité des décennies récentes ont été obtenus en appliquant les recettes du marché aux problèmes sociaux.

Nous essayons aujourd’hui d’en faire de même avec la technologie sociale collaborative, en appliquant le socialisme numérique à une liste de souhaits toujours plus grande (jusqu’aux problèmes que le marché libre n’a su résoudre) pour voir si cela fonctionne. Pour l’instant, les résultats ont été impressionnants. Partout, la puissance du partage, de la coopération, de la collaboration, de l’ouverture, de la transparence et de la gratuité s’est montrée plus pragmatique que nous autres capitalistes le pensions possible. À chaque nouvelle tentative, nous découvrons que le pouvoir du nouveau socialisme est plus grand que nous ne l’imaginions.

Nous sous-estimons la capacité de nos outils à remodeler nos esprits. Croyions-nous réellement que nous pourrions construire de manière collaborative et habiter des mondes virtuels à longueur de temps sans que notre perception de la réalité en soit affectée ? La force du socialisme en ligne s’accroît. Son dynamisme s’étend au-delà des électrons, peut-être même jusqu’aux élections.




Firefox 3.5 en vidéo 3 minutes chrono

Ce n’est pas peu dire qu’on attend avec impatience la sortie officielle (et désormais imminente) de la première version stable 3.5 du célèbre navigateur qui a changé la face du Web !

Vous voulez savoir pourquoi ? Alors jetez un coup d’œil sur cette vidéo présentée par Mike Beltzner, le boss du développement Firefox chez Mozilla.

Cela dure moins de trois minutes, mais c’est normal puisqu’on vous dit que cette version est rapide, rapide…

Un sous-titrage collectif de toute l’équipe Framalang qui souhaitait marquer le coup et participer elle aussi à l’évènement 😉

What’s new in Firefox 3.5 ?

URL d’origine de la vidéo

—> La vidéo au format webm




Google Wave : une bonne nouvelle pour le logiciel libre ?

Rappensuncle - CC by-sa« Google Wave, c’est ce que pourrait être le mail si on devait l’inventer aujourd’hui » s’exclame le grand Tim O’Reilly, se mettant ainsi au diapason de cette autre citation, « Wave va rendre caducs tous les outils actuels de communication », entendue au moment même de la présentation de ce nouveau projet, il y a quinze jours de cela.

Le dévoilement de Wave a d’abord valu à Google une standing ovation au sortir de la conférence inaugurale. Puis, dans la foulée, des articles souvent dithyrambiques sont apparus sur la Toile. C’est donc clairement la sensation du moment, avant même que le moindre utilisateur ait pu tester quoi que ce soit. Une nouvelle vague (wave en anglais) va-t-elle déferler sur le Web ?

Si vous voulez en savoir plus quant à son approche originale et à ses fonctionnalités, je vous invite à lire theClimber, TechCrunch ou Transnets. Outre tout ce qu’il nous propose de faire, retenons qu’on a besoin du HTML 5 et surtout que le protocole sera Open Source, basé sur XMPP (Jabber), avec un serveur qui sera libre et qu’on pourra installer chez soi (cf Minitel 2.0).

Cet aspect libre (ou prétendu tel) est très important et n’a pas forcément été mis en avant par la blogosphère (sauf l’inévitable journal LinuxFr). Pour marquer le coup et nous interroger ensemble sur l’impact potentiel d’une telle nouveauté sur le logiciel libre, nous avons choisi de traduire un article enthousiaste (peut-être trop ?) issu de la revue Free Software Magazine.

Cet article envisage Google Wave sous l’angle de ce qu’il pourrait apporter à une communauté agrégée autour d’un logiciel libre. Jusqu’à se demander si Wave ne va pas se substituer aux bons vieux outils que sont les logiciels de gestion de versions (CVS, etc.), les wikis, et autres listes de discussion. Ce qui, au sein des développeurs, serait effectivement une petite révolution dans la manière de travailler et de communiquer.

Mais il n’entre pas dans le détail des licences, dans l’évalutation du degré réel ou supposé de l’ouverture annoncée par Google (à sa décharge, on ne dispose à l’heure actuelle que le peu d’informations qu’a bien voulu nous donner la société). Et surtout il oublie d’évoquer une, pour ne pas dire la, question majeure que l’on résume souvent dans la formule « Google everywhere ». Ok pour la possibilité d’avoir son petit serveur à domicile mais dans la pratique la grande majorité se connectera à n’en pas douter chez Google. Du Google partout, tout le temps, qui va finir par devenir problématique (si ça ne l’est pas déjà !). On peut, par exemple, compter sur Google pour nous proposer son navigateur Chrome configuré aux petits oignons pour Google Wave, si vous voyez ce que je veux dire.

Aussi puissant, séduisant et ouvert (protocole, API…) soit Google Wave, le logiciel libre a-t-il intérêt à surfer tête baissée sur cette vague[1], ou bien laisser couler et continuer tranquillement dans son coin à ériger sa petite berge qui deviendra un jour si haute que pas même un tsunami ne pourra l’emporter ?

Google Wave va-t-il révolutionner la collaboration dans le logiciel libre ?

Will Google Wave revolutionise free software collaboration?

Ryan Cartwright – 15 juin 2009 – Free Software Magazine
(Traduction Framalang : Poupoul2, Daria et Tyah)

Si vous n’en avez pas encore entendu parler, Google a publié une version de développement de Wave, son nouvel outil de réseau social et collaboratif. Quel impact cela peut-il avoir sur les utilisateurs et les développeurs de logiciel libre ?

Wave est ce que Google appelle un « nouvel outil de communication et de collaboration sur le Web ». Voyez-le comme un carrefour entre le courriel, le réseau social, la messagerie instantanée, l’IRC et Twitter. Wave apporte (ou plus exactement apportera) non seulement de nouveaux moyens de communication, mais offre également un retour instantané aux autres participants. En utilisant la base d’une vague comme une conversation, il permet aux destinataires de vos conversations de voir ce que vous écrivez en temps réel, au moment où vous l’écrivez. Plus besoin d’attendre que votre contact de messagerie instantanée termine son message. Wave offre également aux participants, dans le même outil, des messages de type panneau d’affichage, afin de savoir à quel moment ils se reconnectent. Il propose des fonctionnalités sympathiques qui permettent contextuellement de répondre à différentes parties d’un message. De nouveaux participants peuvent entrer à n’importe quel moment, tout en bénéficiant à la fois de l’historique complet de la vague, mais aussi en ayant la possibilité de « rejouer la vague » telle qu’elle s’est formée, en voyant qui a écrit quoi et dans l’ordre chronologique.

Ouais, ouais, encore un outil de réseautage social… allez, circulez !

Aussi intéressant, ou pas, que cela puisse paraître, quel impact cela aura-t-il pour nous, utilisateurs de logiciels libres et plus particulièrement développeurs ? Et bien, tout d’abord, Wave est développé grâce à un nouveau protocole ouvert et Google souhaite que nous l’aidions à le développer. Ce protocole est disponible sous les termes ouverts d’une licence que Google considère « libérale » (Un oxymore peut-être ?). En plaçant un protocole ouvert derrière cette technologie, Google nous invite activement à contribuer, distribuer et propager cette technologie. Cela signifie que nous, utilisateurs de logiciels libres, pouvons créer des outils libres qui utilisent le protocole Wave. Un protocole ouvert est assurément une bonne chose dans ce contexte : Pas d’accord de confidentialité, pas de royalties liées à des licences telles que pour les formats GIF ou MP3. Google nous demande également que nous aidions à donner forme au protocole. Les contributions sont réalisées sous un contrat de licence contributeur, qui insiste sur le fait que vous donnez à Google, le droit de « reproduire, construire des travaux dérivés, publier, exécuter en public, sous-licencier et distribuer vos contributions et les travaux dérivés associés ». Google semble être parti sur la bonne voie. Le temps nous en dira bien sûr plus, mais nous ne devrions pas être trop sceptique, c’est une opportunité réelle. Là où Android est un système ouvert sur un matériel fermé, en devenant ainsi de fait semi-fermé, nous avons une chance de développer Wave avec une foule d’outils libres et ouverts basés sur l’API et le protocole de Wave.

Google a livré quelques informations sur le fait de conserver le code source ouvert. Mais jusqu’à présent, ils n’ont publié aucun code source (à l’exception peut-être pour la version développeur, dont je ne fais pas partie), Cependant, même s’ils conservent les sources de l’API fermées, disposer d’un protocole ouvert (et d’une licence libérale) signifie que nous pouvons créer des outils qui utiliseront ce protocole et que ceux qui utiliseront les outils de Google pourront collaborer avec ces outils libres, du moins en théorie.

Mais qu’est-ce que cela peut nous apporter ?

Pensez à la manière de développer du logiciel libre. Peut-être plus que n’importe quel autre type de produits, le logiciel libre a besoin d’un effort collaboratif intense de la part de ses créateurs. Grâce à SVN, Sourceforge et consorts, nous avons des moyens de partager du code source et nous possédons des outils de communication durant le cycle de développement : wiki, panneaux d’affichage, liste de dicusssions, etc. Imaginez que vous disposez d’une « vague » pour les développeurs d’un projet logiciel. Chaque contributeur, en temps réel s’il le souhaite, dispose d’une conversation sans peur de perdre le fil dans de multiples embranchements. Les nouveaux membres peuvent rejouer la discussion pour comprendre l’état présent. Des fragments de code pourraient être placés à l’intérieur de la conversation et édités en temps réel par les autres membres. Et tout cela se déroule dans un des outils les plus communs, le navigateur. Les rassemblements de développeurs pourraient inclure ceux qui ne peuvent participer physiquement grâce à l’utilisation d’une vague. Les meilleurs esprits ne seront plus exclus parce qu’ils n’ont pu réserver une place dans l’avion[2].

Si cela semble excitant, c’est parce que je m’exalte. Google Wave a le potentiel pour aller bien au-delà du simple buzz pour foules numériques. Wave a la possibilité de réellement faire du bruit et de représenter un grand pas dans la manière dont nous développons du logiciel libre. Évidemment, il m’est venu à l’esprit que les développeurs de logiciels propriétaires pourraient utiliser le même système pour produire leurs logiciels, mais soyons honnêtes : qui de deux est le plus habitué à la collaboration (en réalité, en dépend même) ?

J’ai entendu certaines personnes dire que Google Wave pourrait dépasser Twitter et Facebook d’ici 2011. Je n’en sais rien, et même peu m’importe, mais je crois que Wave peut avoir un impact aussi fort sur le développement de logiciel libre que CVS ou les wikis.

Notes

[1] Crédit photo : Rappensuncle (Creative Commons By-Sa)

[2] Non pas que j’ai entendu que cela arrive, je conjecture juste.