Ne pas subir, toujours agir ! Rencontre avec Patrick d’Emmaüs

David Dennis - CC by-saPatrick A., je l’ai rencontré en novembre dernier lors de l’Ubuntu Party 10.10 à la Cité des Sciences. Il était assis près du stand Framasoft et j’ai tout de suite été intéressé par son projet liant la communauté Emmaüs et les logiciels libres.

Nous nous sommes retrouvés pour déjeuner et nous avons discuté pendant près d’une heure dudit projet, de la société actuelle et bien sûr, des logiciels et ressources libres. « Ne pas subir, toujours agir ! », telle est la devise première d’Emmaüs, et elle lui va si bien que j’ai eu envie de mettre son projet mais aussi son engagement en valeur, en lui proposant une interview ultérieure par courriel pour le Framablog.

Patrick contribue à sa manière à aider les plus démunis en reconditionnant d’anciens PC avec des logiciels libres (soit sous Windows, soit directement sous GNU/Linux Ubuntu) et en les revendant à très bas prix. L’argent ainsi récolté permet de faire vivre des compagnons d’Emmaüs. À sa manière, et à la manière de l’abbé Pierre il y plus de 60 ans, il participe à un monde plus ouvert, plus respectueux de l’humain et plus solidaire [1].

Si il n’est pas seul sur ce projet, il est toujours à la recherche de bonnes volontés pour l’aider à améliorer ses scripts d’installation, ou plus généralement à mettre ses compétences informatiques au service de cette noble cause. N’hésitez pas à nous contacter, nous nous ferons un plaisir de relayer votre message à Patrick.

Entretien avec Patrick, bénévole chez Emmaüs

Bonjour Partick, peux-tu te présenter ?

Cette question est la première que vous me posez, mais c’est ma dernière à laquelle j’ai répondu, car la tâche n’est pas aisée. En essayant de ne pas faire trop long, pour ménager les lecteurs, à mes yeux ce sont les autres questions les plus importantes.

Pour vous répondre, je vais faire une liste style interrogatoire de police, il faut que je me prépare à cela, car ça pourrait me servir dans un futur proche 😉

  • âge 45 ans ;
  • marié depuis 20 ans, un enfant de 23 ans ;
  • né à Perpignan, vécu plus exactement à Pollestres, village de mes grands-parents paternels ;
  • études : Lycée technique Bac F2, DUT et diplôme d’ingénieur en Génie Électrique ;
  • je travaille depuis plus de 20 ans sur la région parisienne dans un groupe de « haute technologie », comme ils disent 😉

Mon engagement au sein d’Emmaüs et du bénévolat date de mai dernier. Jusque là j’avais envie de faire du bénévolat, mais comme beaucoup je n’avais pas le temps, ou plutôt je ne voulais pas le prendre. Mais à cette époque, je me suis dit qu’il fallait essayer de faire quelque chose, car je ne supportais plus que notre société laisse tout partir à la dérive.

Cela correspond aussi à une phase de changement de vie, où l’on comprend que si on ne fait pas ce que l’on a envie de faire à 45 ans après il sera trop tard.

Avec ces interrogations sur mon futur et à la lecture de cette phrase, « Dans toute difficulté, il y a une opportunité » d’Albert Einstein, j’ai décidé d’agir pour une cause et je me suis tourné vers le bénévolat chez Emmaüs. D’abord je voulais aider les personnes dans la rue, celles que je croisais dans le RER sans oser agir, puis sur les conseils de ma femme, je me suis tourné vers une aide dans le domaine informatique (voir ci-dessous), mais je ne pensais pas que cet acte allait me conduire aussi loin dans mon engagement.

À l’heure actuelle je me suis engagé dans d’autres combats face à cette société en crise. Je fais référence aux dernières lois de réforme de la retraite, à la catastrophe économique provoquée par les puissances financières, tout cela quand il y a de plus en plus de gens qui se retrouvent à mourir de froid dans les rues d’une des plus grandes capitales du monde !

Mes engagements sont pour les libertés en général et pas uniquement le logiciel libre. Si il n’y avait que ce dernier à libérer, nous serions dans un monde idyllique. Mais non, il y a beaucoup de choses à libérer. C’est pourquoi j’ai pris comme fond d’écran des PC reconditionnés : « Un jour, le monde sera libre ! » (voir image ci-dessous en fin d’article), mais seulement si nous faisons tous front ensemble.

Actuellement j’œuvre aussi pour la liberté des personnes, des biens et des entreprises, en aidant les autres dans ces combats, et en m’engageant syndicalement au sein de mon entreprise.

J’espère que mon témoignage aura un écho au sein des communautés du logiciel libre, afin que certains viennent à leur tour participer et soutenir. Car il y a urgence à faire bouger cette société qui a remplacé notre belle devise républicaine par : « Libéralisme, Égoïsme, Finance (ou Futilité) ».

Voila mes engagements et mon état d’esprit actuel, qui ne sont pas facile à vivre avec mes ex-amis et mes collègues de travail. Je n’ai pas la même vision du monde, et je suis parfois considéré dans mon milieu professionnel comme un « fou de gauche » !

Quelques mots sur Emmaüs ? (on a tous une vague idée, mais noir sur blanc, c’est mieux)

Vous savez, je ne suis pas un spécialiste du mouvement Emmaüs, mais en voici ma vision :

Le mouvement a été créé par l’abbé Pierre (originaire de Lyon, ville d’une partie des membres de Framasoft je crois), figure emblématique au point d’avoir été élu l’homme le plus aimé des français, plus d’une quinzaine de fois (il a même demandé à la presse de ne plus le faire figurer dans ces sondages pour laisser un peu de visibilité aux autres).

Cet homme était un religieux, ça tout le monde le sait, mais il s’est aussi engagé dans la résistance en 1940. Il aurait participé à fonder le maquis du massif du Vercors. Ami du général de Gaulle, il a fait de la politique sous ses conseils, après la Seconde Guerre Mondiale, et a été élu député à plusieurs reprises. Le mouvement Emmaüs est né en 1949 à Neuilly-Plaisance, dans une ancienne auberge de jeunesse. Durant le terrible hiver 54, il a lancé un appel radiophonique en faveur des plus démunis, c’est ce que l’on a appelé « l’Appel de la bonté » (cf le film Hiver 54). C’est à ce moment là que les communautés d’Emmaüs vont prendre leur essor. À l’heure actuelle il y environ 148 communautés en France, et plus d’une trentaine dans le monde.

Le principe des communautés est d’aider les plus démunis en leur fournissant un logement, de la nourriture et de l’argent de poche. En retour les compagnons (c’est comme cela qu’on appelle les personnes pour lesquels ce mouvement est né) doivent travailler pour la communauté en fonction de leurs moyens physiques, intellectuels et de leurs choix. Comme dans le monde libéral, les compagnons ont droit à une retraite (je ne sais pas à quel âge ils y ont droit), mais lorsqu’ils ne peuvent plus travailler, ils peuvent s’il le veulent, rester dans la communauté.

Pour pouvoir faire vivre les compagnons chaque communauté vend les dons des particuliers, et plus rarement des entreprises. Ces dons sont de toutes sortes, cela va du cendrier de bistrot à la marque d’une boisson alcoolisée jusqu’à un pavillon. Les dons sont triés, remis en état, puis vendus au sein de chaque communauté. Chaque communauté est indépendante et vit du fruit de son propre travail. Une communauté est gérée par un ou plusieurs directeurs par alternance, afin de coordonner le travail des compagnons.

Les objectifs de chaque communauté sont :

  • Fournir le logement aux compagnons (environ une cinquantaine de personnes par communauté);
  • Fournir la nourriture à ces mêmes compagnons, et aux salariés pendant leurs services;
  • Payer toutes les charges : salaires des directeurs, essence des camions de livraison, etc.
  • Donner de l’argent pour aider d’autres associations humanitaires à l’étranger;
  • Envoyer du matériel pour des associations humanitaires;
  • Acheter des maisons pour loger d’autres démunis;
  • etc.

À la tête des communautés, il y a Emmaüs-France qui coordonne et assure la logistique de l’ensemble. Il y a aussi la Fondation Abbé Pierre plus axée sur la communication (exemple de campagne) et la collecte des dons des entreprises. Au total ce sont environ 14 000 personnes qui participent au mouvement (4 000 compagnons, 4 000 salariés et 6 000 bénévoles).

Comment as-tu connu le logiciel libre ?

Dans le cadre de mon travail et de ma passion j’ai découvert le logiciel libre il y a une dizaine d’années.

J’ai connu Framasoft vers 2004, et c’est vous qui m’avez aidé sur le choix de SPIP pour développer un petit site intranet dans le cadre de mon travail. J’avais déjà à l’époque fait des tests d’installations sur les distributions Mandrake, Knoppix, et un peu plus tard Ubuntu. J’ai migré mon informatique personnelle sous Ubuntu il a deux/trois ans quand j’ai cassé un Windows XP Pro en voulant mettre à jour un logiciel de musique propriétaire (iTunes pour ne pas le nommer) !

Comment en es-tu venu à faire le lien Emmaüs / logiciel libre ? (motivations personnelles, éthique, etc.)

Je voulais participer à une cause humanitaire à force de voir cette misère quotidienne dans les transports en commun que je prend tous les jours de la semaine. D’abord j’ai voulu faire de la distribution de nourriture pour les plus démunis, mais ma femme m’a conseillé d’utiliser mes compétences en informatique pour aider Emmaüs.

J’ai pris contact avec leur service bénévolat, je voulais être affecté à la place la plus adaptée pour leur organisation. Je ne voulais pas spécialement travailler pour la communauté de Neuilly-Plaisance, que je connais depuis quinze ans maintenant, car je ne savais pas qu’il faisait du reconditionnement de PC, je n’en avais vu aucun lors de mes visites en tant que client, et pour cause, ils se sont vendus très vites, et c’est très bien.

Toujours est-il que le service du bénévolat, m’a renvoyé sur la communauté de Neuilly-Plaisance. Lors de mon arrivée, j’ai rencontré Djebar, le bénévole responsable informatique, qui travaillait tout seul à l’époque et qui avait beaucoup de mal à s’en sortir. Je lui ai demandé comment il travaillait et ce qu’il voulait que je fasse, ce qui lui prenait le plus de temps. Il m’a répondu que c’était l’installation des machines, donc j’ai commencé par faire un petit script d’installation en mode « unattend » [2].

Comme il perdait encore plus de temps sur la partie désinstallation des logiciels sur les machines XP, je me suis lancé également sur la désinstallation.

Quels sont les services que toi et les autres compagnons proposez ?

Maintenant, depuis deux semaines nous avons mis en place un mini Cyber-Espace (deux machines) pour présenter l’utilisation d’Ubuntu, avant la vente des machines. Notre but étant de vendre des machines pour faire vivre la communauté, mais aussi de faire en sorte que les acheteurs soient satisfaits de leurs achats. Nous préférons, ne pas vendre, que faire de la vente forcée, car le but est d’avoir le moins de retour possible et donner une bonne image de notre engagement et de notre travail.

Pour participer à rompre la fracture numérique nous vendons des machines d’occasions de l’ordre de 60 à 80 euros et les écrans plats de 15, 17 pouces entre 20 et 40 euros.

Je tente de diffuser mon travail à toutes les personnes et associations qui œuvrent pour les biens communs. En ce moment j’essaye de faire une installation Ubuntu en mode PXE [3], pour permettre la mise à jour de machines dans une école au Burkina Faso. Cette école a été équipée par Hervé S. et d’autres professeurs il y a deux ans. Je suis en contact avec lui depuis la dernière Ubuntu Party de Paris.

D’où proviennent les matériels à reconditionner ?

Le matériel reconditionné vient essentiellement de dons de particuliers. Les entreprises donnent mais c’est alors un lot de machines d’un seul coup et depuis huit mois que je travaille chez Emmaüs, je n’ai pas encore vu un don de machines provenant des entreprises.

Pourquoi avoir choisi de faire deux versions (GNU/Linux et Windows) ? Pourquoi ne pas l’avoir fait uniquement sous GNU/Linux ?

Mon responsable voulait vendre des machines et cela est plus simple sur XP, car les clients ne connaissent pas Ubuntu et GNU/Linux. Il avait déjà fait une expérience à ce sujet par le passé, mais cela n’avait pas donné de bons résultats. Et c’est aussi pour cela que je médiatise notre travail (merci à vous), car la communication est un outil nécessaire aujourd’hui.

Pourquoi Ubuntu ? Pourquoi XP ?

Pour XP, la vente est plus facile, mais le temps et les scripts d’installations plus complexes.

Pour Ubuntu, l’installation est plus simple, car on formate le disque dur, mais la vente est beaucoup plus difficile.

Comment sont gérées les licences Windows XP ? Achat ? Récupération ?

C’est à cause des problèmes de licences que nous mettons pour l’instant des machines sous Ubuntu, car les licences sont celle incluses dans le PC, et nous prenons grand soin à désinstaller les programmes hors XP pour conserver la licence d’origine.

Peux-tu nous en dire plus sur ces scripts d’installation ?

Pour les scripts sous XP vous trouverez en pièce-jointe ci-dessous le manuel d’installation.

Pour Ubuntu j’utilise à l’heure actuelle un fichier « preseed » [4] pour l’installer, puis un script Bash pour installer les programmes annexes, configurer Firefox, le bureau, le dock…

Ces scripts sont-ils librement téléchargeables ? Si oui, peut-on avoir le lien ?

Non pas pour l’instant, car je ne suis pas encore pleinement satisfait de mon travail et je n’ai pas de site pour mettre ces scripts. Je pourrais faire un site ou un blog mais avant d’avoir une grande visibilité, je serai à la retraite, même en tenant compte des prolongations présentes et futures 😉

En revanche, si vous me proposez de mettre ces scripts sur votre site je suis partant et j’en serais ravi. J’aimerai avant que vous fassiez des essais pour mettre quelque chose de vraiment opérationnel et même utilisable par Madame Michu.

Quels sont les retours des utilisateurs ? (sur XP modifié et sur Ubuntu ?)

Nous n’avons pas de retour des utilisateurs, sauf une fois, une personne avait rapporté sa machine, car il n’arrivait pas à lancer certains logiciels et pour cause, le script ne les avaient pas installés. Il y avait un petit bug dans le script. C’était les premières machines livrées avec ce XP modifié.

Maintenant nous n’avons pas de retour, donc cela fonctionne. Lors de la vente de la première machine Ubuntu, j’ai demandé à la cliente de me faire un retour sur l’utilisation de sa machine, mais toujours rien depuis 15 jours. C’est dommage de ne pas avoir de retour, mais c’est dans la logique de l’époque actuelle, les gens ne font rien et sont en permanence en train de zapper d’un loisir à l’autre sans autre but que celui d’oublier leur vie routinière.

Il faudrait que les gens suivent plus souvent la devise des compagnons d’Emmaüs, « Ne pas subir, toujours agir », mais on se retrouve plutôt avec « Métro Boulot Dodo ». On est loin du « Liberté Égalité Fraternité » qui anime mon travail et le logiciel libre.

Quelles sont les perspectives d’avenir pour ce projet ? (ce qui marche, ce qui bloque, etc.)

Les perspectives au niveau développement sont les suivantes :

  • Faire une installation PXE;
  • Faire une version ISO d’Ubuntu et des scripts ainsi que les paquets pour pouvoir faire une installation offline, afin de fournir un DVD à tout le monde car beaucoup de personnes n’ont pas encore Internet;
  • En même temps que cette version ISO, faire la documentation de mise en œuvre de l’installation (remarque : je ne l’ai pas fait car je veux l’effectuer pour une installation indépendante);
  • Faire une version dérivée de la Framakey Ubuntu Remix, personnalisée avec le dock que j’utilise (Pyg de Framasoft m’a dit que cela était faisable, donc à suivre);
  • Associer des artistes musiciens, photographes pour promouvoir leurs œuvres et leurs talents (à l’heure actuelle j’ai mis un lien sur le site de Pat D., qui fait des photos pour Emmaüs et j’ai un projet de diaporama avec elle pour une vente d’objets recyclés et personnalisés à la communauté de Neuilly-Plaisance).

Les perspectives au niveau diffusion sont les suivantes :

  • Avoir une visibilité sur le site Framasoft, cela serait super bien pour faire du buzz 😉
  • Évangéliser l’Emmaüs de Perpignan/Pollestres (je cite ce village car il y a peine 6 mois, je ne savais pas que l’Emmaüs de Perpignan se trouvait dans mon village natal, comme quoi le monde n’est peut-être pas encore libre mais il est petit !). J’emploie ce verbe « Évangéliser » même si je ne suis pas croyant, car cela va être difficile de convaincre le directeur, avec qui j’ai déjà eu un contact téléphonique, de passer sur Ubuntu, car il pense que les clients ne sont pas prêts. Mon but étant qu’il accepte de faire un mini Cyber-Espace avec deux machines en libre service (pour tout le monde ou en fonction de la configuration des lieux en libre service pour les futurs clients), et qu’il mette deux machines Ubuntu toujours en vente;
  • Prendre contact avec les « Ateliers sans frontière », contact fournit par YoBoY;
  • Diffuser les versions XP, et surtout la version Ubuntu sur les Emmaüs de la région parisienne.
  • Diffuser sur les MJC, puisque j’ai des contacts à ce niveau.
  • Puis m’attaquer à la diffusion sur les associations de la ville de Paris.

Comment peux-t-on aider ?

Déjà en me témoignant votre enthousiasme, mais aussi en informant comme ici sur nos actions.

Si vous voulez aller plus loin dans votre soutien, ma dernière idée serait de mettre en réseau les Emmaüs et/ou toutes les associations vendant des machines avec des logiciels libres et/ou ayant mis un place un Cyber-Espace, etc. On pourrait ainsi dessiner une carte de France sur un site web où nous trouverions à chaque fois les contacts, le nombres de machines vendues, celles disponibles, etc. Ce serait utile pour les personnes ou associations désireuses d’avoir des informations, voulant utiliser ces distributions, cherchant une formation, etc.

Quelles sont les personnes qui participent de près ou de loin à ce projet ?

Je ne suis pas tout seul pour faire vivre ce projet, même si pour l’instant je suis le seul à faire du développement (ce n’est pas faute d’avoir essayé d’impliquer des ex-amis pour les sortir de leur mal de vivre) et de faire de la diffusion.

Dans l’ordre d’arrivée et de soutien à ce projet, je tiens à remercier les compagnonnes et les compagnons de route suivants :

  • Laurence A. – Pour m’avoir entrainé malgré elle sur cette route sinueuse, et qui m’épaule quotidiennement;
  • Djebar R. – Pour son implication dans le bénévolat, et son enthousiasme;
  • Olive et Sab – Pour leurs engagements au sein de la communauté Emmaüs Neuilly-Plaisance, et d’être toujours partants pour suivre mes idées les plus folles;
  • José – Pour me mettre à la porte tous les samedi soir de la « Fontaine », et m’éviter ainsi de passer la nuit à l’atelier;
  • Antony 81 – Pour son travail tous les jours, et sa volonté : « Don’t give up my friend »;
  • César Henri – Pour ces connaissances en informatique de pointe, et ses tests de destruction de machines XP 😉
  • Yann D. – Pour son enthousiasme et ses implications futures, quand il aura réussi ces examens 😉
  • Sylvain D. – Pour son support dans le monde nébuleux et pas très libre d’Apple;
  • Ubuntu et plus particulièrement YoboY et Kinouchou – Pour leurs accueils à la dernière Ubuntu-Party;
  • Gérard P. – Pour son soutien inconditionnel à mon travail, pour avoir fait du buzz sur ce travail lors de la dernière Ubuntu-Party et son idée géniale de Cyber-Espace interne au sein des communautés Emmaüs pour montrer « l’EmmaBuntu », comme il souhaite que j’appelle cette distribution 😉
  • Hervé S. – Pour son travail pour une école au Burkina Faso, son soutien et ses conseils techniques, sans oublier ses corrections sur mon catalan;
  • Pat D. – Pour ses photos et son soutien au mouvement ;
  • et vous bien sûr, toute la grande équipe de Framasoft, sans qui ce travail n’aurait pas été possible.

Un dernier mot pour la route (nécessairement longue, mais nécessairement libre) ?

La route est longue cela tout le monde le sait, mais elle est sinueuse et glissante par temps de neige. Ce qui est dommage c’est que si peu de monde s’y engage ne serait-ce que pour un temps. Ils préfèrent souvent tous prendre des autoroutes déjà tracées.

Pour ma part je l’ai prise lorsque j’ai lu phrase d’Albert Einstein (pour rappel : « Dans toute difficulté, il y a une opportunité. »), et j’espère ne plus la quitter.

Merci pour ton engagement en faveur du logiciel libre et pour la réponse à cette interview.

Merci à vous tous pour votre travail, sincèrement sans vous je ne serais pas là où j’en suis. C’est pour cette raison que j’ai choisi un fond d’écran Framasoft (voir ci-dessous) pour mettre en valeur les PC reconditionnés et non pas un fond écran dédié aux causes d’Emmaüs.

Je suis désolé d’avoir donné autant de détails à vos questions, mais ce n’est pas ma faute c’est à cause de mon nom 🙂

Bonnes fêtes de fin d’année à vous tous, en liberté.

Patrick

Emmaüs - Bureau Ubuntu

Notes

[1] Crédit photo : David Dennis (Creative Commons By-Sa)

[2] Qui ne nécessite pas la supervision d’un humain pour cliquer sur « Ok » à tout bout de champs. Un peu à l’image de Framapack.org

[3] Directement depuis le réseau, et sans nécessiter de système d’exploitation sur la machine cible.

[4] Fichier d’instructions pour l’installation.




Longue vie au Web, par Tim Berners-Lee

Neal Fowler - CC By « Sir » Tim Berners-Lee, le père du Web, a livré ce week-end au magazine Scientific American, une analyse complète lucide et accessible des menaces qui pèsent aujourd’hui sur ce curieux phénomène qui depuis vingt ans a changé la face du monde : Internet.

En termes simples, Berners-Lee revient sur l’universalité de ce réseau, qui n’a pu se développer que grâces à des conditions initiales propices :

  • Une technique simple et libre, donc bidouillable par chacun dans son coin;
  • Une conception décentralisée, permettant une croissance tous azimuts;
  • Le principe de neutralité du réseau, qui permet à tous de proposer du contenu.

Or, force est de constater que ces conditions, qui ont démarqué ce que nous appelons aujourd’hui « Internet » des autres tentatives de mise en réseau à grande échelle d’ordinateurs de par le monde, sont attaquées et mises en péril par de grandes entreprises, et, presque comme une conséquence par de nombreux gouvernements. [1]

À la lecture de ce texte, on peut également se rendre compte que la France est malheureusement en bonne position parmi les gouvernements les plus hostiles au réseau, et que la HADOPI, comme un pavé jeté dans la mare, éclabousse effectivement de honte le pays des droits de l’Homme face à ses voisins. Contrastant par exemple clairement avec le droit au haut débit pour tous mis en place par la Finlande et lui aussi mentionné par Berners-Lee.

Toutefois, la principale qualité de cette riche synthèse est son ton résolument grand public, qui a mobilisé l’équipe Framalang tout un week-end pour venir à bout de la traduction des 6 pages de l’article original en moins de 48h.

Longue vie au Web ! Un appel pour le maintien des standards ouverts et de la neutralité

Long Live the Web, A Call for Continued Open Standards and Neutrality

Tim Berners-Lee – lundi 22 novembre – ScientificAmerican.com
Traduction Framalang : Goofy, Pablo, Seb seb, Misc, Siltaar

Le Web est un enjeu crucial non seulement pour la révolution numérique mais aussi pour notre prospérité — et même pour notre liberté. Comme la démocratie elle-même, il doit être défendu.

Le world wide web est venu au monde, concrètement, sur mon ordinateur de bureau à Genève en Suisse en décembre 1990. Il était composé d’un site Web et d’un navigateur, qui d’ailleurs se trouvaient sur la même machine. Ce dispositif très simple faisait la démonstration d’une idée fondamentale : n’importe qui pouvait partager des informations avec n’importe qui d’autre, n’importe où. Dans cet esprit, le Web s’est étendu rapidement à partir de ces fondations. Aujourd’hui, à son 20ème anniversaire, le Web est intimement mêlé à notre vie de tous les jours. Nous considérons qu’il va de soi, nous nous attendons à ce qu’il soit disponible à chaque instant, comme l’électricité.

Le Web est devenu un outil puissant et omniprésent parce qu’il a été conçu suivant des principes égalitaires et parce que des milliers d’individus, d’universités et d’entreprises ont travaillé, à la fois indépendamment et ensemble en tant que membres du World Wide Web Consortium, pour étendre ses possibilités en se fondant sur ces principes.

Le Web tel que nous le connaissons, cependant, est menacé de diverses façons. Certains de ses plus fameux locataires ont commencé à rogner sur ses principes. D’énormes sites de réseaux sociaux retiennent captives les informations postées par leurs utilisateurs, à l’écart du reste du Web. Les fournisseurs d’accés à Internet sans fil sont tentés de ralentir le trafic des sites avec lesquels ils n’ont pas d’accords commerciaux. Les gouvernements — qu’ils soient totalitaires ou démocratiques — surveillent les habitudes en ligne des citoyens, mettant en danger d’importants droits de l’Homme.

Si nous, les utilisateurs du Web, nous permettons à ces tendances et à d’autres encore de se développer sans les contrôler, le Web pourrait bien se retrouver fragmenté en archipel. Nous pourrions perdre la liberté de nous connecter aux sites Web de notre choix. Les effets néfastes pourraient s’étendre aux smartphones et aux tablettes, qui sont aussi des portails vers les nombreuses informations fournies par le Web.

Pourquoi est-ce votre affaire ? Parce que le Web est à vous. C’est une ressource publique dont vous, vos affaires, votre communauté et votre gouvernement dépendent. Le Web est également vital pour la démocratie, en tant que canal de communication qui rend possible une conversation globale permanente. Le Web est désormais plus crucial pour la liberté d’expression que tout autre média. Il transpose à l’âge numérique les principes établis dans la constitution des États-Unis, dans la Magna Carta britannique et d’autres textes fondateurs : la liberté de ne pas être surveillée, filtrée, censurée ni déconnectée.

Pourtant les gens semblent penser que le Web est en quelque sorte un élément naturel, et que s’il commence à dépérir, eh bien, c’est une de ces choses malheureuses contre lesquelles on ne peut rien faire. Or il n’en est rien. Nous créons le Web, en concevant les protocoles pour les ordinateurs et les logiciels. Ce processus est entièrement entre nos mains. C’est nous qui choisissons quelles caractéristiques nous voulons qu’il ait ou non. Il n’est absolument pas achevé (et certainement pas mort). Si nous voulons contrôler ce que fait le gouvernement, ce que font les entreprises, comprendre dans quel état exact se trouve la planète, trouver un traitement à la maladie d’Alzheimer, sans parler de partager nos photos avec nos amis, nous le public, la communauté scientifique et la presse, nous devons nous assurer que les principes du Web demeurent intacts — pas seulement pour préserver ce que nous avons acquis mais aussi pour tirer profit des grandes avancées qui sont encore à venir.

L’universalité est le principe fondateur

Il existe des principes-clés pour s’assurer que le Web devienne toujours plus précieux. Le premier principe de conception qui sous-tend l’utilité du Web et son développement, c’est l’universalité. Lorsque vous créez un lien, vous pouvez le diriger vers n’importe quoi. Cela signifie que chacun doit être capable de mettre tout ce qu’il veut sur le Web, quel que soit l’ordinateur, le logiciel utilisé ou la langue parlée, peu importe qu’on ait une connexion avec ou sans wifi. Le Web devrait être utilisable par des personnes handicapées. Il doit fonctionner avec n’importe quelle information, que ce soit un document ou un fragment de données, quelle que soit la qualité de l’information — du tweet crétin à la thèse universitaire. Et il devrait être accessible avec n’importe quel type de matériel connectable à Internet : ordinateur fixe ou appareil mobile, petit ou grand écran.

Ces caractéristiques peuvent paraître évidentes, allant de soi ou simplement sans importance, mais ce sont grâce à elles que vous pourrez voir apparaître sur le Web, sans aucune difficulté, le site du prochain film à succès ou la nouvelle page d’accueil de l’équipe locale de foot de votre gamin. L’universalité est une exigence gigantesque pour tout système.

La décentralisation est un autre principe important de conception. Vous n’avez nul besoin de l’approbation d’une quelconque autorité centrale pour ajouter une page ou faire un lien. Il vous suffit d’utiliser trois protocoles simples et standards : écrire une page en HTML (langage de balisage hypertextuel), de la nommer selon une norme d’URI (identifiant uniforme de ressource), et de la publier sur Internet en utilisant le protocole HTTP (protocole de transfert hypertexte). La décentralisation a rendu possible l’innovation à grande échelle et continuera de le faire à l’avenir.

L’URI est la clé de l’universalité (à l’origine j’ai appelé le procédé de nommage URI, Universal Resource Identifier – Identifiant Universel de Ressource ; par la suite il est devenu URL, Uniform Resource Locator – Localisateur Uniforme de Ressource). L’URI vous permet de suivre n’importe quel lien, indépendamment du contenu vers lequel il pointe ou de qui publie ce contenu. Les liens transforment le contenu du Web en quelque chose de plus grande valeur : un espace d’information inter-connecté.

Plusieurs menaces à l’encontre de l’universalité du Web sont apparues récemment. Les compagnies de télévision par câble qui vendent l’accès à Internet se demandent s’il faut pour leurs clients limiter le téléchargement à leurs seuls contenus de divertissement. Les sites de réseaux sociaux présentent un problème différent. Facebook, LinkedIn, Friendster et d’autres apportent essentiellement une valeur en s’emparant des informations quand vous les saisissez : votre date de naissance, votre adresse de courriel, vos centres d’intérêts, et les liens qui indiquent qui est ami avec qui et qui est sur quelle photo. Les sites rassemblent ces données éparses dans d’ingénieuses bases de données et réutilisent les informations pour fournir un service à valeur ajoutée — mais uniquement sur leurs sites. Une fois que vous avez saisi vos données sur un de ces services, vous ne pouvez pas facilement les utiliser sur un autre site. Chaque site est un silo, séparé des autres par une cloison hermétique. Oui, vos pages sur ces sites sont sur le Web, mais vos données n’y sont pas. Vous pouvez accéder à une page Web contenant une liste de gens que vous avez rassemblée au même endroit, mais vous ne pouvez pas envoyer tout ou partie de cette liste vers un autre site.

Cette compartimentation se produit parce que chaque élément d’information est dépourvu d’URI. L’interconnexion des données existe uniquement à l’intérieur d’un même site. Ce qui signifie que plus vous entrez de données, et plus vous vous enfermez dans une impasse. Votre site de réseau social devient une plateforme centrale — un silo de données fermé, qui ne vous donne pas le plein contrôle sur les informations qu’il contient. Plus ce genre d’architecture se répand, plus le Web se fragmente, et moins nous profitons d’un unique espace d’information universel.

Un effet pervers possible est qu’un site de réseau social — ou un moteur de recherche, ou un navigateur — prenne une telle ampleur qu’il devienne hégémonique, ce qui a tendance à limiter l’innovation. Comme cela s’est produit plusieurs fois depuis les débuts du Web, l’innovation permanente du plus grand nombre peut être la meilleure réponse pour contrer une entreprise ou un gouvernement quelconque qui voudrait saper le principe d’universalité. GnuSocial et Diaspora sont des projets sur le Web qui permettront à chacun de créer son propre réseau social sur son propre serveur, et de se connecter à d’autres sur leur site. Le projet Status.net, qui fait tourner des sites comme Identi.ca, vous permet de monter votre propre réseau de micro-blogage à la manière de Twitter mais sans la centralisation induite par Twitter.

Les standards ouverts sont le moteur de l’innovation

Permettre à chaque site d’être lié à n’importe quel autre est nécessaire mais pas suffisant pour que le Web ait une armature solide. Les technologies de base du Web, dont les particuliers et les entreprises ont besoin pour développer des services avancés, doivent être gratuites et sans redevance. Amazon.com, par exemple, est devenu une gigantesque librairie en ligne, puis un disquaire, puis un immense entrepôt de toutes sortes de produits, parce que l’entreprise avait un accès libre et gratuit aux standards techniques qui sous-tendent le Web. Amazon, comme tout usager du Web, a pu utiliser le HTML, l’URI et le HTTP sans avoir à en demander l’autorisation à quiconque et sans avoir à payer pour cela. La firme a pu également bénéficier des améliorations de ces standards développées par le World Wide Web Consortium, qui permettent aux clients de remplir un bon de commande virtuel, de payer en ligne, d’évaluer les marchandises achetées et ainsi de suite.

Par « standards ouverts » je veux dire des standards à l’élaboration desquels peuvent participer tous les spécialistes, pourvu que leur contribution soit largement reconnue et validée comme acceptable, qu’elle soit librement disponible sur le Web et qu’elle soit gratuite (sans droits à payer) pour les développeurs et les utilisateurs. Des standards ouverts, libres de droits et faciles à utiliser génèrent l’extraordinaire diversité des sites Web, depuis les grands noms tels qu’Amazon, Craigslist et Wikipédia jusqu’aux blogs obscurs maintenus par des passionnés, en passant par les vidéos bricolées à la maison et postées par des ados.

La transparence signifie aussi que vous pouvez créer votre site Web ou votre entreprise sans l’accord de qui que ce soit. Au début du Web, je ne devais pas demander de permission ni payer de droits d’auteur pour utiliser les standards ouverts propres à Internet, tels que le célèbre protocole de contrôle de transmission (TCP) et le protocole Internet (IP). De même, la politique de brevets libres de droits du W3C (World Wide Web Consortium) dit que les entreprises, les universités et les individus qui contribuent au développement d’un standard doivent convenir qu’ils ne feront pas payer de droits d’auteur aux personnes qui pourraient l’utiliser.

Les standards libres de droits et ouverts ne signifient pas qu’une entreprise ou un individu ne peut pas concevoir un blog ou un programme de partage de photos et vous faire payer son utilisation. Ils le peuvent. Et vous pourriez avoir envie de payer pour ça, si vous pensez que c’est « mieux » que le reste. L’important est que les standards ouverts permettent un grand nombre d’options, gratuites ou non.

En effet, de nombreuses entreprises dépensent de l’argent pour mettre au point des applications extraordinaires précisément parce qu’elles sont sûres que ces applications vont fonctionner pour tout le monde, sans considération pour le matériel, le système d’exploitation ou le fournisseur d’accés internet (FAI) que les gens utilisent — tout ceci est rendu possible par les standards ouverts du Web. La même confiance encourage les scientifiques à passer des centaines d’heures à créer des bases de données incroyables sur lesquelles ils pourront partager des informations sur, par exemple, des protéines en vue de mettre au point des remèdes contre certaines maladies. Cette confiance encourage les gouvernements des USA ou du Royaume-Uni à mettre de plus en plus de données sur le réseau pour que les citoyens puissent les inspecter, rendant le gouvernement de plus en plus transparent. Les standards ouverts favorisent les découvertes fortuites : quelqu’un peut les utiliser d’une façon que personne n’a imaginée avant. Nous le voyons tous les jours sur le Web.

Au contraire, ne pas utiliser les standards ouverts crée des univers fermés. Par exemple, le systéme iTunes d’Apple identifie les chansons et les vidéos par des URI que l’on ouvre. Mais au lieu d’« http: », les adresses commencent par « itunes: » qui est propriétaire. Vous ne pouvez accéder à un lien « itunes: » qu’en utilisant le logiciel propriétaire iTunes d’Apple. Vous ne pouvez pas faire un lien vers une information dans l’univers iTunes, comme une chanson ou une information sur un groupe. L’univers iTunes est centralisé et emmuré. Vous êtes piégés dans un seul magasin, au lieu d’être sur une place ouverte. Malgré toutes les fonctionnalités merveilleuses du magasin, leurs évolutions sont limitées par ce qu’une seule entreprise décide.

D’autres entreprises créent aussi des univers fermés. La tendance des magazines, par exemple, de produire des « applis » pour smartphone plutôt que des applications Web est inquiétante, parce que ce contenu ne fait pas partie du Web. Vous ne pouvez pas le mettre dans vos signets, ni envoyer par email un lien vers une page pointant dessus. Vous ne pouvez pas le « tweeter ». Il est préférable de créer une application Web qui fonctionnera aussi sur les navigateurs des smartphones et les techniques permettant de le faire s’améliorent en permanence.

Certaines personnes pourraient penser que les univers fermés ne sont pas un problème. Ces univers sont faciles à utiliser et peuvent donner l’impression de leur apporter tout ce dont elles ont besoin. Mais comme on l’a vu dans les années 1990 avec le système informatique bas débit d’AOL, qui vous donnait un accès restreint à un sous-ensemble du Web, ces « jardins emmurés », qu’importe qu’ils soient agréables, ne peuvent rivaliser en diversité, en profusion et en innovation avec l’agitation démente du Web à l’extérieur de leurs portes. Toutefois, si un « clôt » a une emprise trop importante sur un marché cela peut différer sa croissance extérieure.

Garder la séparation entre le Web et l’Internet

Conserver l’universalité du Web et garder ses standards ouverts aide tout le monde à inventer de nouveaux services. Mais un troisième principe — la séparation des couches — distingue la conception du Web de celle de l’Internet.

Cette séparation est fondamentale. Le Web est une application tournant sur Internet, qui n’est autre qu’un réseau électronique transmettant des paquets d’information entre des millions d’ordinateurs en suivant quelques protocoles ouverts. Pour faire une analogie, le Web est comme un appareil électroménager qui fonctionne grâce au réseau électrique. Un réfrigérateur ou une imprimante peut fonctionner tant qu’il utilise quelques protocoles standards — aux États-Unis, on fonctionne sur du 120 volts à 60 hertz. De la même façon, chaque application — parmi lesquelles le Web, les courriels ou la messagerie instantanée — peut fonctionner sur Internet tant qu’elle suit quelques protocoles standards d’Internet, tels que le TCP et l’IP.

Les fabricants peuvent améliorer les réfrigérateurs et les imprimantes sans transformer le fonctionnement de l’électricité, et les services publics peuvent améliorer le réseau électrique sans modifier le fonctionnement des appareils électriques. Les deux couches de technologie fonctionnent en même temps mais peuvent évoluer indépendamment. C’est aussi valable pour le Web et Internet. La séparation des couches est cruciale pour l’innovation. En 1990 le Web se déploie sur Internet sans le modifier, tout comme toutes les améliorations qui ont été faites depuis. À cette période, les connexions Internet se sont accélérées de 300 bits par seconde à 300 millions de bits par seconde (Mbps) sans qu’il ait été nécessaire de repenser la conception du Web pour tirer profit de ces améliorations.

Les droits de l’homme à l’âge électronique

Bien qu’Internet et les principes du Web soient distincts, un utilisateur du Web est aussi un utilisateur d’Internet et par conséquent il compte sur un réseau dépourvu d’interférences. Dans les temps héroïques du Web, il était techniquement trop difficile pour une entreprise ou un pays de manipuler le Web pour interférer avec un utilisateur individuel. La technologie nécessaire a fait des bonds énormes, depuis. En 2007, BitTorrent, une entreprise dont le protocole de réseau « peer to peer » permet de partager les musiques, les vidéos et d’autres fichiers directement sur Internet, a déposé une plainte auprès de la FCC (commission fédérale des communications) contre le géant des fournisseurs d’accès Comcast qui bloquait ou ralentissait le trafic de ceux qui utilisaient l’application BitTorrent. La FCC a demandé à Comcast de cesser ces pratiques, mais en avril 2010 la cour fédérale a décidé que la FCC n’avait pas le droit de contraindre Comcast. Un bon FAI (Fournisseur d’Accès Internet) qui manque de bande passante s’arrangera souvent pour délester son trafic de moindre importance de façon transparente, de sorte que les utilisateurs soient au courant. Il existe une différence importante entre cette disposition et l’usage du même moyen pour faire une discrimination.

Cette différence met en lumière le principe de la neutralité du réseau. La neutralité du réseau garantit que si j’ai payé pour une connexion d’une certaine qualité, mettons 300 Mbps, et que vous aussi vous avez payé autant, alors nos communications doivent s’établir à ce niveau de qualité. Défendre ce principe empêcherait un gros FAI de vous transmettre à 300 Mbps une vidéo venant d’une société de média qu’il posséderait, tandis qu’il ne vous enverrait la vidéo d’une société concurrente qu’à une vitesse réduite. Cela revient à pratiquer une discrimination commerciale. D’autres situations complexes peuvent survenir. Que se passe-t-il si votre FAI vous rend plus facile l’accès à une certaine boutique en ligne de chaussures et plus difficile l’accès à d’autres ? Ce serait un moyen de contrôle puissant. Et que se passerait-il si votre FAI vous rendait difficile l’accès à des sites Web de certains partis politiques, de groupes à caractère religieux, à des sites parlant de l’évolution ?

Hélas, en août Google et Verizon ont suggéré pour diverses raisons que la neutralité ne doit pas s’appliquer aux connexions des téléphones portables. De nombreuses personnes dans des zones rurales aussi bien dans l’Utah qu’en Ouganda n’ont accés à l’Internet que par leur téléphone mobile. Exclure les accès sans fil du principe de neutralité laisserait ces utilisateurs à la merci de discriminations de service. Il est également bizarre d’imaginer que mon droit fondamental d’accés à la source d’information de mon choix s’applique quand je suis sur mon ordinateur en WiFi à la maison, mais pas quand j’utilise mon téléphone mobile.

Un moyen de communication neutre est la base d’une économie de marché juste et compétitive, de la démocratie et de la science. La polémique est revenue à l’ordre du jour l’année dernière pour savoir s’il est nécessaire qu’une législation gouvernementale protège la neutralité du réseau. C’est bien le cas. Même si généralement Internet et le Web se développent grâce à une absence de régulation, quelques principes fondamentaux doivent être protégés légalement.

Halte à l’espionnage

D’autres menaces envers le web résultent d’indiscrétions touchant Internet, ce qui inclut l’espionnage. En 2008, une entreprise du nom de Phorm a mis au point un moyen pour un FAI de fouiner dans les paquets d’informations qu’il envoie. Le fournisseur peut alors déterminer chaque URI sur laquelle un de ses clients a surfé, et ensuite créer un profil des sites que l’utilisateur a visités afin de produire des publicités ciblées.

Accéder à l’information contenue dans un paquet Internet est équivalent à mettre un téléphone sur écoute ou ouvrir le courrier postal. Les URI que les gens utilisent révèlent beaucoup de choses sur eux. Une entreprise ayant acheté les profils URI de demandeurs d’emploi pourrait les utiliser pour faire de la discrimination à l’embauche sur les idées politiques des candidats par exemple. Les compagnies d’assurance-vie pourraient faire de la discrimination contre les personnes qui ont fait des recherches concernant des symptômes cardiaques sur le Web. Des personnes mal intentionnées pourraient utiliser les profils pour traquer des individus. Nous utiliserions tous le Web de façon très différente si nous savions que nos clics pouvaient être surveillés et les données ainsi obtenues partagées avec des tierces personnes.

La liberté d’expression devrait être elle aussi protégée. Le Web devrait être semblable à une feuille de papier blanche : disponible pour y écrire, sans qu’on puisse contrôler ce qui y est écrit. Au début de cette année Google a accusé le gouvernement chinois d’avoir piraté ses bases de données pour récupérer les courriels des dissidents. Ces intrusions supposées ont fait suite au refus de Google d’obéir aux exigences du gouvernement, qui demandait à l’entreprise de censurer certains documents sur son moteur de recherche en langue chinoise.

Les régimes totalitaires ne sont pas les seuls qui violent les droits du réseau de leurs citoyens. En France une loi créée en 2009, appelée HADOPI, autorise une administration du même nom à déconnecter un foyer pendant un an si quelqu’un dans la maison est accusé par une compagnie de distribution de médias d’avoir téléchargé de la musique ou des vidéos. Suite à une forte opposition, en octobre le Conseil constitutionnel français a demandé qu’un juge soit saisi du dossier avant que l’accès à Internet ne soit coupé, mais si le juge l’accepte, le foyer familial pourra être déconnecté sans procédure légale digne de ce nom. Au Royaume-Uni, le Digital Economy Act, hâtivement voté en avril, autorise le gouvernement à demander à un FAI (Fournisseur d’Accès Internet) d’interrompre la connexion de quiconque figure dans une liste d’individus soupçonnés de violation de copyright. En septembre, le Sénat des États-Unis a introduit le Combating Online Infringement and Counterfeits Act (loi pour lutter contre la délinquance en ligne et la contrefaçon), qui devrait permettre au gouvernement de créer une liste noire de sites Web — qu’ils soient ou non hébergés aux USA — accusés d’enfreindre la loi, et d’obliger tous les FAI à bloquer l’accès des-dits sites.

Dans de tels cas de figure, aucune procédure légale digne de ce nom ne protège les gens avant qu’ils ne soient déconnectés ou que leurs sites soient bloqués. Compte-tenu des multiples façons dont le Web s’avère essentiel pour notre vie privée et notre travail, la déconnexion est une forme de privation de notre liberté. En s’inspirant de la Magna Carta, nous pourrions maintenant proclamer :

« Aucun individu ni organisation ne pourra être privé de la possibilité de se connecter aux autres sans une procédure légale en bonne et due forme qui tienne compte de la présomption d’innocence. »

Lorsque nos droits d’accès au réseau sont violés, un tollé général est déterminant. Les citoyens du monde entier se sont opposés aux exigences de la Chine envers Google, à tel point que la Secrétaire d’état Hillary Clinton a déclaré que le gouvernement des États-Unis soutenait la résistance de Google et que la liberté de l’Internet — et avec elle celle du Web — allait devenir une pièce maîtresse de la politique étrangère américaine. En octobre, la Finlande a fait une loi qui donne le droit à chaque citoyen d’avoir une connexion à haut débit de 1 Mbps.

Connexion vers l’avenir

Tant que les principes fondamentaux du Web seront maintenus, son évolution ultérieure ne dépendra d’aucun individu ni d’aucune organisation particulière — ni de moi, ni de personne d’autre. Si nous pouvons en préserver les principes, le Web est promis à un avenir extraordinaire.

La dernière version du HTML par exemple, intitulée HTML5, n’est pas simplement un langage de balisage mais une plateforme de programmation qui va rendre les applications Web encore plus puissantes qu’elles ne le sont aujourd’hui. La prolifération des smartphones va mettre le Web encore plus au cœur de nos vies. L’accès sans fil donnera un avantage précieux aux pays en développement, où beaucoup de gens n’ont aucune connexion filaire ou par câble mais peuvent en avoir sans fil. Il reste encore beaucoup à faire, bien sûr, y compris en termes d’accessibilité pour les personnes handicapées, et pour concevoir des pages qui s’afficheront aussi bien sur tous les écrans, depuis le mur d’images géantes en 3D jusqu’à la taille d’un cadran de montre.

Un excellent exemple de futur prometteur, qui exploite la puissance conjuguée de tous ces principes, c’est l’interconnexion des données. Le Web d’aujourd’hui est relativement efficace pour aider les gens à publier et découvrir des documents, mais nos programmes informatiques ne savent pas lire ni manipuler les données elles-mêmes au sein de ces documents. Quand le problème sera résolu, le Web sera bien plus utile, parce que les données concernant presque chaque aspect de nos vies sont générées à une vitesse stupéfiante. Enfermées au sein de toutes ces données se trouvent les connaissances qui permettent de guérir des maladies, de développer les richesses d’un pays et de gouverner le monde de façon plus efficace.

Les scientifiques sont véritablement aux avants-postes et font des efforts considérables pour inter-connecter les données sur le Web. Les chercheurs, par exemple, ont pris conscience que dans de nombreux cas un unique laboratoire ou un seul dépôt de données en ligne s’avèrent insuffisants pour découvrir de nouveaux traitements. Les informations nécessaires pour comprendre les interactions complexes entre les pathologies, les processus biologiques à l’œuvre dans le corps humain, et la gamme étendue des agents chimiques sont dispersées dans le monde entier à travers une myriade de bases de données, de feuilles de calcul et autres documents.

Un expérience réussie est liée à la recherche d’un traitement contre la maladie d’Alzheimer. Un grand nombre de laboratoires privés ou d’état ont renoncé à leur habitude de garder secrètes leurs données et ont créé le projet Alzheimer’s Disease Neuroimaging. Ils ont mis en ligne une quantité phénoménale d’informations inter-connectées sur les patients, ainsi que des scanners cérébraux, une base dans laquelle ils ont puisé à maintes reprises pour faire progresser leurs recherches. Au cours d’une démonstration dont j’ai été témoin, un scientifique a demandé : « quelles protéines sont impliquées dans la transduction des signaux et sont liées aux neurones pyramidaux ? ». En posant la question avec Google, on obtenait 233 000 résultats — mais pas une seule réponse. En demandant aux bases de données inter-connectées du monde entier pourtant, on obtenait un petit nombre de protéines qui répondaient à ces critères.

Les secteurs de l’investissement et de la finance peuvent bénéficier eux aussi des données inter-connectées. Les profits sont générés, pour une grande part, par la découverte de modèles de recherche dans des sources d’informations incroyablement diversifiées. Les données sont également toutes liées à notre vie personnelle. Lorsque vous allez sur le site de votre réseau social et que vous indiquez qu’un nouveau venu est votre ami, vous établissez une relation. Et cette relation est une donnée.

Les données inter-connectées suscitent un certains nombre de difficultés que nous devrons affronter. Les nouvelles possibilités d’intégration des données, par exemple, pourraient poser des problèmes de respect de la vie privée qui ne sont pratiquement pas abordés par les lois existantes sur le sujet. Nous devrions examiner les possibilités légales, culturelles et techniques qui préserveront le mieux la vie privée sans nuire aux possibilités de bénéfices que procure le partage de données.

Nous sommes aujourd’hui dans une période enthousiasmante. Les développeurs Web, les entreprises, les gouvernements et les citoyens devraient travailler ensemble de façon collaborative et ouverte, comme nous l’avons fait jusqu’ici, pour préserver les principes fondamentaux du Web tout comme ceux de l’Internet, en nous assurant que les processus techniques et les conventions sociales que nous avons élaborés respectent les valeurs humaines fondamentales. Le but du Web est de servir l’humanité. Nous le bâtissons aujourd’hui pour que ceux qui le découvriront plus tard puissent créer des choses que nous ne pouvons pas même imaginer.

Notes

[1] Crédit photo : Neal Fowler – Creative Commons By




Un mois de campagne « 1000 10 1 »

Harrypopof - Licence Art Libre

Il y a tout juste un mois, nous lancions ici même une audacieuse et indispensable campagne de soutien.

Aujourd’hui, plus de 600 personnes ont soutenu Framasoft suite à cet appel et plus de 250 ont décidé de participer à l’opération en nous assurant d’un soutien régulier et mensuel. Nous tenons donc, en premier lieu, à les en remercier très sincèrement.

Toutefois, comme l’illustre Harrypopof [1] avec humour et talent, si un quart de l’objectif a déjà été atteint, la route est encore longue… [2]

Depuis sa création, Framasoft n’a cessé de mener à bien des projets visant à promouvoir le logiciel libre et sa culture. Au-delà de Framasoft.net, le grand annuaire francophone et collaboratif de logiciels libres, des bénévoles sont venus apporter toujours plus de bonnes idées et de bonne volonté pour réaliser de nouveaux projets, rencontrant à leur tour des succès encourageants. On retrouve ainsi les forums Framagora et leurs 250 000 messages, les logiciels francophones adaptés pour clé USB de Framakey.org, téléchargés et distribués par centaines de milliers, les livres libres de la collection Framabook, les compilations d’œuvres libres des FramaDVD, les 100 000 logiciels libres installés via Framapack, le Framablog, ses 850 billets, ses traductions Framalang et ses vidéos Framatube, le tout consulté plus de 80 000 fois par mois…

Toutefois, cela n’aurait pas été possible sans un premier permanent, Pierre-Yves Gosset, assurant l’administration des serveurs, le suivi des projets, les relations publiques, les tâches administratives et le support… (plus de détails sur LinuxFR.org)

Pour continuer à accompagner les projets de l’association et répondre à la charge croissante, Framasoft a décidé en juin dernier d’embaucher un second permanent, Simon Descarpentries, pour épauler le premier dans ses semaines à plus de 50h et lui permettre de prendre ses premières vacances depuis deux années passées sur les chapeaux de roues.

Cette décision est aujourd’hui menacée par manque de financement, ce qui nous amène à une question simple :

« Souhaitez-vous que Framasoft continue à créer de nouveaux projets, tout en consolidant les précédents succès ? »

Framasoft a besoin de vous aujourd’hui pour continuer, en toute indépendance, à soutenir le logiciel libre et sa culture, et à créer des projets qui mettent du libre entre toutes les mains.

Nous avons ainsi mis en place une campagne intitulée « 1000 10 1 », qui vise à réunir 1000 personnes donnant 10 € par mois pendant au moins 1 an, afin de proposer une solution franche et durable qui permettra à l’association de consacrer plus de temps au développement des projets et moins à la recherche de financement. Grâce à la reconnaissance d’intérêt général dont bénéficie l’association Framasoft, l’opération ne coûtera au final qu’un peu plus de 3 € par mois, soit 40€ au total aux contribuables français, soit 2 DVD en grande surface ou 4 albums en MP3 DRMisés sur Fnac.com 🙂 Enfin, si 1000 personnes permettraient d’assurer le fonctionnement de l’association sur une année, la moitié de cet objectif est nécessaire d’ici la fin de l’année pour le maintien du poste de notre second permanent.

Pour l’heure, nous avons eu le plaisir d’annoncer le lancement de nouveaux projets tels que le FramaDVD École, ou encore les Framabooks « Simple comme Ubuntu », « Le C en 20 heures » et « Pour aller plus loin avec la ligne de commande sous Unix » tous trois librement disponibles sur le site de la collection Framabook [3], ou encore de tenir conférences [4] et ateliers lors de la dernière Ubuntu Party et au centre de formation de la librairie Eyrolles avec l’April. Sans détailler l’effort tout particulier qui se poursuit encore quant à la mise à jour 10.10 Maverick Meerkat de la Framakey Ubuntu-fr Remix, bientôt disponible sur notre boutique EnVenteLibre.

Pour que Framasoft reste à vos côtés encore longtemps, répondez à l’appel de l’April, de LinuxFr, de Benjamin Bayart (président de FDN), de Jérémie Zimmermann (Co-Fondateur de La Quadrature du Net) ou encore de Tristan Nitot (président de Mozilla Europe).

Soutenez Framasoft sur : http://soutenir.framasoft.org

Harrypopof - Licence Art Libre

Notes

[1] Crédit : Harrypopof – Licence Art Libre

[2] …mais la voie est toujours libre !

[3] Et 4 autres sont bien avancés…

[4] Au sujet de la Framakey pour Pierre-Yves et devant des collégiens pour ma part.




Les cordons de la bourse de Londres se relâchent pour GNU/Linux

Jam_90s - CC-ByComme nous l’apprenait Lea-Linux le mois dernier :

GNU/Linux progresse sur les environnements dits critiques. On savait qu’il était utilisé sur les serveurs sensibles des militaires, des grands organismes de recherche, de la NASA et de nombreux industriels, ajoutons désormais le monde de la finance à cette liste. En effet, Computer World UK nous apprend que la Bourse de Londres mettra en production le 15 novembre prochain sa nouvelle plate-forme à base de GNU/Linux et Solaris, pour remplacer la plate-forme boguée « TradElect » basée sur Microsoft Windows, et la technologie .Net manifestement trop lente.

GNU/Linux a notamment été choisi par les britanniques pour ses performances (des temps de transmission de 0,125 milliseconde ont été enregistrés lors des tests). Le fait que le Chicago Mercantile Exchange, la Bourse de Tokyo et le NYSE Euronext soient déjà passés à GNU/Linux (Red Hat) n’y est sans doute pas pour rien non plus.

[1]

La Bourse de Londres a réalisé un premier test de sa plateforme « Millennium Exchange » basée sur Linux

London Stock Exchange completes first live Linux test

Leo King – 13 octobre 2010 – Computerworld UK
Traduction Framalang : Pablo, Barbidule, Siltaar, Kootox, Goofy, Petrus6, Martin, Don Rico, Daria

La Bourse de Londres a fait le premier test grandeur nature, avec des clients en ligne, d’un nouveau système fondé sur Linux et destiné à remplacer l’architecture actuelle basée sur des produits Microsoft et qui permettra d’échanger à la vitesse de 0.125 millisecondes.

Le système « Millennium Exchange » fonctionnant sur Linux et sur Unix (Sun Solaris) et utilisant les bases de données d’Oracle, remplacera le 1er novembre la plateforme TradElect, reposant sur Microsoft .Net, pour la plus grande bourse au monde. Il promet d’être le système d’échanges le plus rapide du monde, avec un temps de transaction de 0.125 milliseconde. La Bourse a terminé la migration de son système de gestion des transactions stagnantes/dormantes, ou anonymes, Turquoise, depuis différents systèmes, plus tôt ce mois-ci.

La BDL (Bourse De Londres) a refusé de dévoiler le verdict du test en avant-première du « Millenium Exchange », qui s’est déroulé samedi après plusieurs mois de tests hors ligne intensifs. Cependant, des sources proches de la Bourse ont indiqué qu’il se serait déroulé avec succès.

Une autre répétition générale aura lieu le 23 octobre, un peu plus d’une semaine avant le lancement dans le grand bain. La Bourse pousse pour lancer le service le 1er novembre, mais si les clients, les traders, ne sont pas prêts ou si des problèmes techniques apparaissent, une date de lancement alternative a été prévue au 15 novembre.

En attendant, la Bourse va continuer à travailler avec le système TradElect, basé sur une architecture Microsoft .Net et mis à jour par Accenture en 2008 pour 40 millions de livres (46 millions d’Euros). En juillet, elle a réservé 25,3 millions de livres (29,2 millions d’Euros) en coûts d’amortissement sur TradElect.

TradElect, sujet de nombreuses controverses ces dernières années, avait subi une série de pannes de grande envergure, la pire étant un arrêt de huit heures en 2008. À l’époque, la BDL avait maintenu que TradElect n’était pas responsable de la panne, mais a néanmoins, tenté de remplacer la plateforme depuis, en faisant l’acquisition de la société MilleniumIT, le fournisseur de ce nouveau système.

Les vitesses réseau sont aussi une des raisons principales de ce changement. La BDL a tenté désespérément de descendre les temps de transaction sur TradElect en-dessous des 2 millisecondes, une vitesse léthargique comparée à la concurrence comme Chi-X qui annonce des temps de moins de 0,4 millisecondes.

La BDL annonce que sa nouvelle plateforme d’échange aura des temps de réponse de 0,125 millisecondes, ce qui pourrait en faire une des plateformes d’échange les plus rapides du monde. Le changement est particulièrement important étant donné la progression des transactions algorithmiques, où des ordinateurs placent automatiquement des millions d’ordres d’achat et de vente alors que les prix des actions changent.

Lors d’une interview cette semaine dans le Financial Times, le directeur général de la Bourse de Londres, Xavier Rolet a déclaré que la Bourse avait « déjà prévu » la prochaine génération d’améliorations technologiques pour maintenir la plateforme Millenium à la pointe de la technologie en terme de vitesse de transaction.

Notes

[1] Crédit photo : Jam_90s Creative Commons By




TF1 réclame (sans rien risquer) Google censure (sans vérifier)

Vidberg © LeMonde.fr Sur le Framablog, on ne manque pas une occasion d’agir contre la censure, ou de publier le témoignage d’un citoyen s’élevant contre les menaces et restrictions faites à nos libertés fondamentales [1]. Parce qu’après tout, et comme me le fit un soir remarquer Benjamin Bayart, qu’est-ce qui nous motive tous dans le mouvement du Logiciel Libre ? Et dans la défense de la neutralité du réseau qui lui est indispensable ? Qu’est-ce qui nous réunit, si ce n’est la liberté d’expression ? Cette petite flamme fragile et dangereuse qui vacille au souffle du pouvoir et nécessite, pour être entretenue, notre attention constante.

Le témoignage que nous vous proposons aujourd’hui est celui de Theocrite, un « administrateur système » engagé pour le Logiciel Libre, qui nous explique comment TF1 [2] a silencieusement fait censurer par Google un extrait vidéo de débat à l’Assemblée Nationale.

On savait déjà que certains n’hésitent pas à attaquer, en vertu du Copyright de sa bande son, une vidéo compromettante, au mépris du « fair-use » largement accordé aux vidéos de lolcats. Mais cet extrait, posté par La Quadrature du Net, n’a lui pour seule bande son que le discours à l’Assemblée des députés de la République. Cela n’a pourtant pas arrêté TF1 [3] dans son coup de poker, son nouveau coup de poignard dans le dos de l’éthique et de notre liberté d’information.

Cette vidéo, c’est celle du rejet intégral par l’Assemblée Nationale du projet de loi HADOPI 1 le 9 avril 2009, et, pour illustrer le principe selon lequel une tentative de censure s’avère toujours contre-productive pour le censeur, la voici, archivée dans notre collection Framatube :

—> La vidéo au format webm

TF1 censure des vidéos HADOPI sur YouTube

Et Google ne vérifie pas la véracité des accusations

Theocrite – 1er novembre 2010

En me promenant sur le compte YouTube de la Quadrature du Net, j’ai découvert récemment dans les paramètres du compte que certaines vidéos étaient listées comme pouvant « comporter un contenu appartenant à un tiers ».

Theocrite - CC By Sa

Hm, c’est possible… Intrigué, je clique sur le lien proposé et je m’aperçois que la vidéo en question est la vidéo du rejet de la loi HADOPI l’Assemblée Nationale.

Theocrite - CC By Sa

Bigre ! Voilà que des vidéos contenant des discours « prononcés dans les assemblées politiques » serait en contradiction avec le droit d’auteur. Voilà qui est bien étrange.

Pour en savoir plus, je clique sur « Afficher les informations sur les droits d’auteur ».

Theocrite - CC By Sa

On y apprend des choses très intéressantes… Comme le fait que les vidéos produites dans l’hémicycle seraient la propriété de « lgl_tf1 ». Un peu présomptueux de la part de la vieille chaîne qui descend.

Bon, portons réclamation. Après avoir lu une page chiante à mourir, on accède à un formulaire de réclamation, fortement limité, mais je suis décidé à faire avec.

Theocrite - CC By Sa

Theocrite - CC By Sa

Je fais alors subtilement remarquer que dans la législation française, les débats politiques sont publics… Puis je valide l’envoi du formulaire.

Theocrite - CC By Sa

Le lendemain, je constate que j’ai obtenu gain de cause : la vidéo est débloquée. Mais pour combien de temps ? Google n’a pas pris la peine de nous notifier que la vidéo était à nouveau disponible. On pouvait toujours attendre en relevant notre boîte mail.

Theocrite - CC By Sa

Bilan

Google est réactif, mais pas spécialement poli. Pas de notifications lors du blocage de la vidéo, ni lors du déblocage.

La vidéo a été bloquée pendant un certain temps. Combien de temps ? Aucune idée. Mais TF1 a tenté et a réussi à faire censurer la vidéo, peu importe combien de temps, et ce sans rien risquer. C’est un jeu permanent dans lequel les plaignants ne peuvent pas perdre et les internautes ne peuvent pas gagner.

Ce n’est pas une nouvelle, pour TF1 quand il s’agit d’HADOPI, tous les moyens sont bons pour supporter la loi. Que ce soit en inventant un plébiscite lors d’un vote, en censurant son rejet comme nous venons de le voir ou encore en s’occupant des « salariés qui, manifestement, aiment tirer contre leur camp. »

Mais sur YouTube, TF1 ne s’arrête pas à HADOPI. TF1 sort le bulldozer. Je vous invite à rechercher lgl_tf1 dans un moteur de recherche. Celui de nos amis possesseurs de YouTube par exemple, ou bien sur un moteur de recherche libre, vous y trouverez des réactions unanimes d’Internautes énervés, soit parce que lgl_tf1 a bloqué des vidéos de France 2. Soit parce que TF1 a bloqué des vidéos sur lesquelles elle a acquis les droits de diffusions pour une certaine partie du monde, et se passe de demander aux auteurs s’ils autorisent cette rediffusion.

Notes

[1] Telles que garanties par la déclaration des droits de l’Homme et du citoyen, et rappelées par le « considérant n°12 » de la décision n°2009-580 DC du 10 juin 2009 du Conseil Constitutionnel concernant HADOPI 1 par exemple.

[2] Crédit première illustration : Vidberg © LeMonde.fr, reproduite avec l’aimable autorisation de l’auteur. Licence équivalente à une CC-By-NC-ND avec autorisation préalable requise.

[3] Ou peut-être un imposteur, que le chaîne laisserait agir « en son nom » depuis plus de deux ans.




Le contrôle des redirections

Kudumomo - CC BySi les redirections [1] sont à peu prêt aussi vieilles que le web, elles n’étaient, jusqu’à l’apparition des micro-blogs, que rarement utilisées, mises en place par les connaisseurs, lors du déménagement d’un document important.

Dans ce contexte, quand Kevin Gilbertson proposa en 2002 le premier service en-ligne de rétrécissement d’URL (TinyURL.com), permettant de créer à la demande, une redirection depuis une une adresse courte vers l’adresse de son choix, il n’eut qu’un succès modéré. L’initiative tomba presque dans l’oubli, et ce n’est qu’une demi-décennie plus tard, avec l’essor de Twitter que ce service rencontra d’un coup un large public. En effet, le principe de Twitter étant de proposer un blog dont les billets sont plus courts que des SMS, pouvoir réduire une URL devint un enjeu de taille, si j’ose dire. En effet, d’une part certaines URL sont simplement trop longues pour être gazouillées, et d’autre part, une fois l’adresse collée dans un micro-billet il ne reste plus beaucoup de place pour en expliquer l’intérêt.

TinyURL.com fut donc dans un premier temps directement proposé depuis l’interface du site de microblogage pour aider à la rédaction des messages. Puis devant le succès rencontré par cet intermédiaire, de nombreux concurrents vinrent occuper leurs parts de marché, tel que Bit.ly, qui se démarqua par les statistiques offertes sur l’utilisation des liens courts qu’il produit.

Et progressivement, chaque gros acteur du web se mit à proposer son propre service de rétrécissement, pour faire plaisir à ses utilisateurs avec un service techniquement trivial, ne pas dépendre d’un tiers et enfin pour mettre la main, chacun, sur sa parcelle de statistiques d’usage !

Car utiliser un raccourcisseur d’URL revient en fait à ajouter une barrière de péage d’autoroute entre les personnes auxquelles vous communiquez le lien court, et le document que vous souhaitiez porter à leur attention. Bien sûr, c’est une barrière pour laquelle tout le monde est abonné (pour l’instant), et elle ne fait que ralentir un peu le trafic, mais surtout, elle identifie au passage qui l’a franchi, quand et combien de fois.

Or, si cette information était jusque là collectée par l’émetteur du document de destination seulement, elle n’était pas aussi facilement recoupable et monnayable que si c’est un acteur central qui collecte toutes les visites effectuées suivant les recommandations des millions d’utilisateurs de Twitter, de Facebook ou de Google…

Et puis, d’un point de vue pragmatique, au-delà de la seconde d’attente ajoutée après le clic, ou du respect de la vie privée, un autre problème se pose, celui de la pérennité de ces étapes intermédiaires. Aujourd’hui, TinyURL.com se vante de servir des milliards de redirections par mois, mais ce service, qui n’est pas géré par une entreprise, est voué à disparaître, car son nom (qui avait besoin d’être explicite au début) est trop long pour être efficace aujourd’hui. Or, quand les serveurs de TinyURL seront éteints, c’est plus d’un milliard d’adresses qui, d’un coup, ne mèneront plus à rien.

Alors, quand on voit avec quel empressement les entreprises se sont mises à proposer ce gadget en apparence anodin, on peut avoir envie de ne pas se laisser enfermer nous non plus par une compagnie particulière, de suivre cet exemple en s’installant chacun son raccourcisseur d’URL à soi. Après tout, ça ne sera qu’une corde de plus à mettre à l’arc de la NoBox.

Toutefois, la question de la pérennité des redirections mises en place reste posée… En ce premier novembre, il est presque de bon ton de se demander ce qu’on fera du serveur personnel d’un défunt.

Mais pour l’heure, place au détail de l’enfer des redirections vers lequel on nous mène, et qui transforme progressivement le web en maison qui rend fou des 12 travaux d’Astérix… [2]

Le web se dirige-t-il vers un cauchemar de redirections ?

Is the Web heading toward redirect Hell?

22 septembre 2010 – Royal.Pingdom.com
(Traduction Framalang : Zitor, Barbidule, Daria, Goofy, Siltaar)

Google le fait. Facebook le fait. Yahoo le fait. Microsoft le fait. Et bientôt, Twitter le fera.

Nous parlons de la manie qu’ont tous les services web d’ajouter une étape intermédiaire pour échantillonner ce sur quoi nous cliquons avant de nous envoyer vers notre vraie destination. Ça dure déjà depuis un certain temps, et c’est progressivement en train de devenir un enfer de redirections. Cela a un coût.

Du trafic déjà en trop

Il y a déjà beaucoup de redirections en place, auxquelles vous ne songez pas forcément. Par exemple :

  • Chaque fois que vous cliquez sur un résultat de recherche dans Google ou Bing, il y a un passage obligé par les serveurs du moteur de recherche pour analyse avant d’être redirigé vers le site réellement ciblé;
  • Chaque fois que vous cliquez sur un titre dans un flux RSS Feedburner, vous êtes aussi redirigé avant d’arriver à la véritable cible;
  • Chaque fois que vous cliquez sur un lien sortant de Facebook, il y a une étape intermédiaire passant par un serveur de Facebook avant de vous rediriger vers où vous voulez aller.

Et ainsi de suite, et ainsi de suite, et ainsi de suite. C’est, bien sûr, parce que Google, Facebook et les autres sociétés en ligne aiment suivre les clics et le comportement de leurs utilisateurs. Vous connaître est une vraie ressource pour ces sociétés. Cela peut les aider à améliorer leur service, à le monétiser plus efficacement et dans de nombreux cas, ces données elles-mêmes valent de l’argent. Au final ce suivi de clic peut aussi être bon pour les utilisateurs finaux, en particulier s’il permet à un service d’améliorer sa qualité.

Mais…

Les choses sont en train de déraper

S’il ne s’agissait que d’une seule étape supplémentaire, cela pourrait aller. Mais si vous regardez autour, vous vous rendrez compte que ces redirections sont en train de s’empiler, chaque service interceptant des informations sur le clic lors du cheminement vers la destination finale. Vous savez, celle que l’utilisateur a vraiment demandée.

Cela peut vite devenir incontrôlable. Nous avons vu des scénarios où les liens sortants de Facebook, par exemple, vous redirigent d’abord vers un serveur Facebook, puis vers un racourcisseur d’URL (par exemple bit.ly), qui à son tour vous redirige vers une URL plus longue qui elle-même génère plusieurs redirections avant que FINALEMENT vous parveniez à la cible. Il n’est pas rare qu’il y ait plus de trois redirections vers différents sites qui, du point de vue de l’utilisateur, sont du trafic superflu.

Le problème, c’est que ce trafic supplémentaire n’est pas gratuit. Cela rallonge le temps nécessaire pour atteindre l’objectif, et cela rajoute d’autres liens (au sens propre !) dans la chaîne, ce qui peut la briser ou la ralentir. Cela peut même faire apparaitre des sites comme indisponibles alors qu’ils ne le sont pas, simplement parce que quelque chose sur le chemin est tombé en panne.

Et il semble que cette pratique soit de plus en plus répandue sur le Web.

Un exemple récent de cette « mode de la redirection » : Twitter

Vous souvenez-vous de cette vague de raccourcisseurs d’URL qui est venue quand Twitter a commencé à devenir populaire? C’est là que commence notre histoire.

Twitter a d’abord utilisé le déjà établi TinyURL.com comme raccourcisseur d’URL par défaut. C’était un partenaire idéal pour Twitter et sa limite de 140 caractères par message.

Puis vinrent Bit.ly et une pléthore d’autres raccourcisseurs d’URL, qui voulaient eux aussi surfer sur le succès grandissant de Twitter. Bit.ly a rapidement réussi à remplacer TinyURL comme réducteur d’URL par défaut pour Twitter. Grâce à cela, Bit.ly a mis la main sur une foule de données : la liste d’une bonne partie des liens postés sur Twitter, et de leur popularité, chaque clic pouvant être tracé.

Ce n’était qu’une question de temps avant que Twitter ne veuille garder ces données pour lui seul. Pourquoi s’en priverait-il ? Cela lui permet d’avoir le contrôle total de l’infrastructure nécessaire à son fonctionnement, tout en récupérant des informations sur ce que les utilisateurs aiment s’échanger, et ainsi de suite. Twitter a donc créé récemment son propre raccourcisseur d’URL, t.co. Dans le cas de Twitter, cela peut parfaitement se comprendre.

Cela est bel et bon, mais voici maintenant la partie la plus intéressante qui est la plus pertinente pour cet article : d’ici la fin de l’année, Twitter va rediriger TOUS les liens vers son raccourcisseur d’URL, y compris les liens déjà raccourcis par d’autres services comme Bit.ly ou Goo.gl, le raccourcisseur de Google. En canalisant tous les clics vers ses propres serveurs, Twitter va acquérir une connaissance précise de la façon dont son service est utilisé, et de ses utilisateurs. Cela lui donne le contrôle total sur la qualité de son service. C’est une bonne chose pour Twitter.

Mais qu’arrive-t-il quand tout le monde veut un morceau du gâteau ? Redirection après redirection après redirection avant d’arriver à notre destination ? Oui, c’est exactement ce qui se passe, et vous aurez à vivre avec ce trafic supplémentaire.

Voici ce à quoi le partage de liens pourrait ressembler une fois que Twitter aura commencé à soumettre tous les clics à son propre service :

  1. Quelqu’un partage un lien goo.gl sur Twitter, il est alors transformé en un lien t.co.
  2. En cliquant sur le lien t.co, l’utilisateur est alors redirigé vers les serveurs de Twitter pour convertir le lien t.co en lien goo.gl et se voit réorienté dessus.
  3. Le lien goo.gl dirige l’utilisateur vers les serveurs de Google pour y être résolu et ré-orienter enfin l’utilisateur vers la cible qu’il souhaitais atteindre.
  4. Rien n’empêche cette cible de n’être à son tour qu’une nouvelle redirection…

Vous en avez la tête qui tourne, hein ?

Encore plus de niveaux de redirection ?

Il y a un an, nous avons écrit un article sur les inconvénients potentiels des raccourcisseurs d’URL, et il s’applique parfaitement à ce scénario plus général avec de multiples redirections entre les sites. Les conséquences de ces redirections sur les performances, la sécurité et la confidentialité sont les mêmes.

Nous soupçonnons fortement que le chemin pris par Twitter (échantillonner et enregistrer les clics avant expédition vers la cible, avec ou sans raccourcisseurs d’URL) laisse présager des pratiques à venir chez les autres services Web qui ne le font pas déjà.

Et même quand les services principaux ne le font pas, de plus en plus d’intermédiaires et d’applications tierces, comme les raccourcisseurs d’URL, apparaissent tous les jours. L’autre jour, le fabricant d’antivirus McAfee a annoncé la version-bêta de McAf.ee, un raccourcisseur d’URL « sécurisé ». C’est peut-être super, qui sait, mais à la lumière de ce que nous vous avons dit dans cet article, il est difficile de ne pas penser : quoi, encore une autre niveau de redirection ? Est-ce vraiment vers cela que le Web évolue ? Est-ce vraiment ce que nous voulons ?

Notes

[1] Ce mécanisme du protocole HTTP permettant de faire rebondir la navigation vers une autre page au chargement d’une URL.

[2] Crédit photo : Kudumomo (Creative Commons Parternité)




Framasoft annonce deux nouveaux titres dans la collection Framabook

« Le C en 20 heures » - couverture par Alexandre Mory - Creative Commons By SaAprès la traditionnelle mise à jour d’automne du best-seller de la collection Framabook, Christophe Masutti, notre coordinateur de collection, s’est fendu ce matin d’un fier communiqué de presse, dont je vous dévoile ici le contenu en avant-première.

En effet, après de longs mois de labeur au sein de l’association, avec les auteurs, les bénévoles et relecteurs, l’équipe technique de mise en page et l’éditeur, Christophe n’annonce pas un, mais bien deux nouveaux Framabooks, s’ajoutant à la mise à jour complète du « Simple comme Ubuntu ».

Sortir ces deux ouvrages nous a occupé un peu plus que d’habitude, notamment parce qu’il a fallu adapter notre chaîne éditoriale (la formidable application web libre “La Poule ou l’Oeuf”) car la mise en page d’un des ouvrages s’est révélée particulièrement riche et complexe à mettre en œuvre. Mais comme le rappelle avec philosophie l’éditeur Mathieu Pasquini :

Un livre s’écrit à la vitesse à laquelle poussent les arbres dont leurs pages sont faites…

Toutefois, le site Framabook a été mis à jour cette nuit pour accueillir les nouveaux ouvrages, et ces derniers sont aussi disponibles à l’achat chez InLibroVeritas.

Le 7e Framabook sera donc un manuel de formation à la programmation, proposant une méthode intense et originale pour apprendre « Le C en 20 heures ». Sous licence Creative Commons By Sa, il fut rédigé conjointement par Eric Berthomier et Daniel Schang que vous pourrez découvrir plus avant dans la reproduction du communiqué de presse qui suit. « Unix. Pour aller plus loin avec la ligne de commande » - couverture par Alexandre Mory - Creative Commons By Sa

Le 8e Framabook fut quant à lui rédigé par Vincent Lozano et s’intitule « UNIX. Pour aller plus loin avec la ligne de commande ». Comme le précédent livre de Vincent dans la collection Framabook, il est placé sous licence Art Libre.

Avec ces deux nouveaux Framabooks, Framasoft continue résolument sa collection d’œuvres libres, permettant à tout un chacun de soutenir ses talents d’autodidacte en informatique, pour que le monde demain regorge des bidouilleurs inventifs que l’éducation nationale peine à former avec son B2i©.

Et ce n’est pas fini. Comme annoncé avec notre campagne de don “1000 10 1”, l’équipe Framabook est toujours à pied d’œuvre sur d’autres ouvrages qui viendront rapidement compléter la collection. On retrouve ainsi parmi les plus avancés le « Producing Open Source Software » de Karl Fogel, traduit par Framalang, ainsi qu’ « Imagine there is no Copyright » traduit cet été lors d’un Traducthon mémorable aux RMLL et qui attend juste son tour pour être mis en page.

Annonçons encore un mystérieux ouvrage préparé en secret par l’ami MBen et un livre sur l’utilisation du gestionnaire de versions SVN, dont la traduction est elle aussi bien avancée.

Enfin, le comité éditorial de la collection fait actuellement le tri dans les nombreuses propositions d’ouvrages reçues par Framasoft. Tout ne cadre pas toujours avec la convention de la collection, mais déjà deux projets s’annoncent comme particulièrement prometteurs…

Pour l’heure, place au concret, avec une présentation plus détaillée des nouveaux Framabooks, issue du communiqué de presse officiel du coordinateur de la collection.

Framabook n°7 : Le C en 20 heures

« Le C en 20 heures » - couverture par Alexandre Mory - Creative Commons By Sa

Le langage C est un langage de programmation dont l’histoire nous ramène à l’époque de la création d’Unix, durant la première moitié des années 1970. Conçu pour permettre à un même programme de fonctionner sur plusieurs types de machines, ce langage à fois simple et efficace séduisait par la rapidité d’exécution des programmes qu’il permettait de générer, et par sa relative simplicité d’adaptation pour un nouveau type de matériel. Depuis lors, la majorité des systèmes d’exploitation des machines créés ultérieurement utilisèrent ce langage fiable, à la fois proche du matériel et des mathématiques. Il n’est donc pas étonnant de retrouver aujourd’hui ce langage partout, des super-calculateurs aux téléphones portables. Le Logiciel Libre lui doit aussi beaucoup. Quel héritage ! Et quelle longévité. Dans ces conditions, comment apprendre aujourd’hui et en 20 heures seulement, un langage porteur de presque quarante ans d’améliorations (dont le C++) et de développements spectaculaires (dont GNU/Linux) ? C’est la question à laquelle Le C en 20 heures répond, et par la pratique.

Eric Berthomier et Daniel Schang nous font ainsi partager au fil des pages le fruit de leurs expériences pédagogiques et professionnelles en accomplissant un effort de vulgarisation trop rarement rencontré dans la littérature du monde de la programmation. Destiné aux grands débutants, l’ouvrage n’est pas un manuel comme les autres. Son intérêt est d’être parcouru de A à Z en suivant l’adage : « j’apprends le code en écrivant le code ».

Ainsi, Le C en 20 heures n’est pas un ouvrage destiné à prendre la poussière sur une étagère en attendant que l’on s’y réfère un dimanche matin pluvieux. Il a été écrit pour être lu d’un bout à l’autre, dans l’ordre et pendant 20 à 30 heures d’apprentissage (en tout !) où l’on vous suggèrera, par des exercices et des exemples, de programmer tel jeu ou de tester tel calcul en mettant votre imagination au défi. En ce sens, l’ouvrage est orienté vers la pratique de la programmation et l’enseigne sans doute à la manière dont les auteurs l’ont apprise : devant un ordinateur, à essayer de programmer quelque chose.

Les auteurs

Ingénieur en Informatique, Eric Berthomier a débuté par le développement d’applications systèmes en C / C++ / Assembleur. Investi dans le Libre, il réalise alors des missions de développement, d’administration système et réseau et de formation. Depuis 2005, il travaille pour un ministère où GNU/Linux et la sécurité sont ses compagnons de tous les jours. Le C (et l’Assembleur) sont pour lui indispensables à la compréhension d’un système d’exploitation.

Docteur en informatique, Daniel Schang est enseignant-chercheur au sein du Groupe Eseo où il a acquis une longue et riche expérience de l’enseignement des langages informatiques. À l’écoute de ses élèves, c’est pour eux qu’il a pris contact avec Eric Berthomier afin de réécrire ce livre qui, sous sa forme embryonnaire, était un support de cours.

Framabook n°8 : Unix. Pour aller plus loin avec la ligne de commande

« Unix. Pour aller plus loin avec la ligne de commande » - couverture par Alexandre Mory - Creative Commons By Sa

Tout ce que vous avez toujours voulu savoir sur Unix sans jamais oser le demander

Nous sommes désormais des habitués de la formule de Vincent Lozano qui, après son excellent ouvrage sur l’usage de LaTeX, récidive ici avec un manuel sur le système Unix (et – donc – GNU/Linux).

Lors de la création d’Unix, au début des années 70, un de ses concepteurs établit trois règles pour concevoir les composants de la « boîte à outils » qui permit à Unix de s’étendre :

  • Écrivez des programmes qui font une chose et le font bien.
  • Écrivez des programmes qui peuvent communiquer entre eux.
  • Écrivez des programmes qui traitent des flux de texte car c’est l’interface universelle.

Aujourd’hui, Vincent Lozano vous propose à la fois de découvrir ces outils situés « sous le capot » de votre distribution Unix (GNU/Linux en est une) mais aussi de concevoir les vôtres.

Si vous appréciez votre système Unix et que vous pressentez qu’il existe des outils qui rendent votre système programmable, cet ouvrage est pour vous ! Le langage de commande d’Unix vous offre en effet la possibilité de piloter votre système d’exploitation – et donc votre ordinateur – par le biais de scripts. Pour planifier des tâches aussi précises que vous le souhaitez, vous aurez donc le loisir de passer des ordres, à la fois de manière souple et puissante, à votre système informatique.

Dans cet ouvrage vous découvrirez les liens qui unissent l’histoire d’Unix et le mouvement pour les logiciels libres. Vous vous plongerez dans les utilitaires classiques de votre système et apprendrez à les assembler. Vous serez donc à même d’ajouter de nouvelles pièces à la boîte à outils. L’auteur vous guidera également pour que vous parveniez à créer vos propres programmes écrits dans le langage du système d’exploitation : le langage de commande.

L’auteur

Vincent Lozano est maître de conférences en informatique à l’école nationale d’ingénieurs de Saint-Étienne (Énise). Il y utilise GNU/Linux pour l’enseignement des systèmes d’exploitation, de la programmation et des bases de données. Il s’occupe également de l’informatisation du système d’information de l’Énise qui s’appuie sur des systèmes Unix.




« Simple comme Ubuntu » dans sa version 10.10 (.10) Maverick Meerkat

« Simple comme Ubuntu » - couverture par Alexandre Mory - Creative Commons By SaAvec un dépôt légal daté du 10 octobre 2010, soit le 10/10/10, ce qui peut signifier 42 en binaire, cette 9e mouture du « Simple comme Ubuntu » s’approche un peu plus de la réponse à « La grande question sur la vie, l’univers et le reste » telle que définie par Douglas Adams dans Le guide de voyageur galactique.

Toutefois rassurez-vous, si Didier Roche l’auteur de ce Framabook est un geek invétéré et un hacker hors-pair, son livre n’en reste pas moins le Guide du débutant sous Ubuntu, qui veut savoir où cliquer pour faire ce dont il a besoin et comprendre ce qui se passe quand il clique quelque part.

Comme à chaque sortie d’une version d’Ubuntu, tous les 6 mois depuis 5 ans, le « Simple comme Ubuntu » a été revu en détail et en profondeur pour correspondre rigoureusement à la version d’Ubuntu livrée avec le livre lors d’une commande chez InLibroVeritas. Pour cette 9e édition, cela correspond entre autre à la ré-écriture complète du chapitre 2 « Procédure d’installation », ou encore à un accompagnement de la meilleure intégration dans Ubuntu 10.10 des services de microblogage aux outils de communication en voix sur IP et messagerie instantanée embarqués dans la distribution.

Enfin, ce « Simple comme Ubuntu » est la deuxième édition imprimée intégralement en couleur, ce qui est du plus bel effet sur les nouvelles captures d’écrans de cette nouvelle version, notamment celles des jeux vidéo 🙂 Voyez par vous-même avec ces deux extraits des 54 pages du chapitre 9 consacré aux jeux :

« Simple comme Ubuntu » - Didier Roche - page 234 - Creative Commons By Sa

« Simple comme Ubuntu » - Didier Roche - page 236 - Creative Commons By Sa

Voici donc « Simple comme Ubuntu 10.10 » :

« Simple comme Ubuntu » - couverture par Alexandre Mory - Creative Commons By Sa

Et pour finir sans déroger aux traditions, voici le changelog proposé par l’auteur [1] :

  • remplacement de toutes les références de l’ancienne à la nouvelle version, ainsi que le nombre d’inscrits sur le forum ubuntu-fr. Comme d’hab 🙂
  • plus de powerpc, ajout de ARM;
  • support de langue incomplet -> c’est maintenant une boîte de dialogue qui apparaît;
  • précision sur les définitions de pppoe et du câble ethernet;
  • f-spot est remplacé par shotwell;
  • Les “sources de logiciel” se lance maintenant depuis la logithèque Ubuntu et plus depuis de le menu;
  • grand remaniement et réécriture du chapitre 2 : mise à jour de la procédure d’installation, complètement changée pour cette version;
  • précision au chapitre 5 maintenant que le mp3 peut être installé dès l’installation de Ubuntu;
  • mise à jour des informations pour bien insister sur le fait qu’une partition /home n’est absolument pas supplémentaire;
  • chapitre 3: réécriture de la description du menu supérieure (suppression de yelp, explication de l’indicator son et indicateur de message, mis à jour du me menu);
  • Nombreux changements dans le menu Préférences:
    • Chiffrement et trousseaux s’appellle maintenant Mots de passe et clés de;
    • Clavier -> changement léger de l’interface;
    • Ajout de Comptes de messagerie et VoIP et de comptes de microblogage;
    • Ajout de Input Method Switcher et Keyboard Input Methods;
    • Micro-blogage -> Microblogage;
    • Suppression de Partage de fichiers personnels;
    • Ajout de OpenJDK Java 6 Policy Tool;
    • Ajout de Paramètres de messagerie.
  • ajout de détails sur indicateur son, indicateur message et retravail de la description de la partie supérieure;
  • Firefox est maintenant mis à jour à chaque version, même sur des versions stables;
  • Le mode spatial n’est plus le mode par défaut de GNOME depuis 2.30;
  • Extension foxmarks -> Xmarks (+ note bientôt appelé à disparaître);
  • Suppression de Glipper, ajout de Parcellite;
  • Description de la procédure pour ouvrir le lecteur de CD mécaniquement;
  • Le nom des paquets de childsplay a changé;
  • mise à jour des images, photos, etc. ainsi que des typos/”fôtes” corrigées! Merci à la communauté 🙂

Notes

[1] Et que vous pouvez retrouver dans les sources LaTeX de l’ouvrage.