Le voyage mouvementé de Wikitravel

En 2003 naissait le projet Wikitravel qui est un peu au voyage ce que Wikipédia est à l’encyclopédie : une rédaction collaborative de guides touristiques (pays, ville, etc.), multilingues, sous licence libre et sur un wiki.

Le fait est que cela a plutôt bien marché (exemple avec Paris). Ils en ont même fait de vrais guides papiers.

Sauf que jetez un œil au graphique ci-dessous et vous comprendrez vite que son histoire n’a pas été un long fleuve tranquille. De Wikitravel, on est passé à Wikivoyage pour espérer en arriver aujourd’hui à Wikimedia Travel. C’est tout le charme de la licence libre (en l’occurrence la CC By-Sa) et de ses forks possibles lorsque le projet prend, selon certains, une mauvaise direction.

C’est de cette histoire (à rebondissements) dont il est question dans l’article ci-dessous.

Remarque : On notera que son auteur (créateur de l’application WikiSherpa) est peut-être trop pessimiste car il se pourrait bien qu’on connaisse un happy ending grâce au concours de Wikimedia. Et puis, sans licence libre, on aurait été dès le départ totalement bloqué.

Timeline - Wikitravel

Tirer la leçon de la dramatique et lente agonie de Wikitravel

Lessons From The Dramatic Slow-Motion Death Of Wikitravel

Jon Evans – 29 septembre 2012 – TechCrunch
(Traduction Framalang : @ali0une, Pandark, aKa, LuD-up, @jfomhover, ali0une, lgodard, Karma-sama, martinien, senshu)

Il était une fois, en 2003, deux entrepreneurs avec un rêve. Ils s’appelaient Evan Prodromou et Michele Ann Jenkins, et ils ont rêvé d’un guide de voyage mondial édité collaborativement — un Wikipedia pour les voyages, si vous préférez. Ainsi, il créèrent Wikitravel. Et ils ont fait mentir l’expression anglaise « Lead zeppelin » qui sous-entend que le projet n’aurait jamais pu décoller. Deux ans plus tard, ils furent racheter pour 1,7 million de dollars (~1,3 million d’euros) par une compagnie nommée Internet Brands, pas mal d’argent pour ces nombreuses journées perdues avant que la startup ne devienne populaire. Et Wikitravel prospéra , et en prenant du recul, c’était plutôt bon.

Jusqu’à ce que le paradis s’en vienne à côtoyer les enfers…

Pendant six ans Wikitravel fonctionna bien. Il y avait bien la présence de quelques publicités mais rien d’intrusif. La plateforme technique sur laquelle il tournait prenait de l’âge et avait ses défauts, mais elle fonctionnait, et c’est tout ce qui compte, n’est-ce pas ?

En 2006 cependant, les administrateurs italiens et allemands (bénévoles et indépendants qui réparaient le site, éliminaient le spam, éditaient structure et langage, et le rendaient pour ainsi dire utilisable) ont forké toutes les pages du site en ces langues pour s’en aller migrer vers un nouveau site, appelé Wikivoyage, principalement à cause de la publicité placée par Internet Brands. C’était tout à fait légal parce que tout le contenu de Wikitravel est sous licence Creative-Commons. Et cela n’affecta pas vraiment Wikitravel (et en rien sa partie principale anglaise) qui continua à attirer un demi-million de visiteurs par mois. Son travail de guide pour la planète entière devenait meilleur de jour en jour…

Mais, il y a quelques mois, les administrateurs de Wikitravel en ont eu assez. Ils ont d’abord constaté l’inclusion de nouvelles publicités encore plus invasives et surtout ils ont perdu patience face à leurs demandes répétées de mises à jour techniques restées sans réponses. D’autant plus que quand Internet Brands se décida enfin à effectuer ces mises à jour la plateforme se retrouva toute pleine de bugs ! En conséquence de quoi les administrateurs de Wikitravel baissèrent les bras et voyagèrent à travers l’Internet jusqu’à cette oasis de contenu libre qui s’appelle la Wikimedia Foundation pour lui dire en substance ceci : « Nous n’en pouvons plus de notre logement actuel. Voudriez-vous héberger un site de voyage ? » La Wikimedia Foundation réfléchit, et décida finalement de répondre par l’affirmative.

Et puis l’enfer des procédures judiciaires s’est déchaîné.

Se sentant menacé par ce fork d’un Wikitravel hébergé par Wikimédia, Interned Brands, après avoir semble-t-il initialement proposé un partenariat, « intenta des poursuites contre les contributeurs bénévoles James Heilman et Ryan Hollliday, pour avoir utilisé le mot « Wikitravel » dans la phrase « Communauté Wikitravel » lors de la communication du fork », nous dit David Gerard. En réponse, la Wikimédia Fondation a elle_même intenté une poursuite stratégique contre la mobilisation publique et demandé des explications devant les tribunaux.

Nous allons laisser les sérieux avocats décider du sort de cette aventure. Je veux juste tirer quelques leçons personnelles de cette débâcle :

  • N’irritez pas vos utilisateurs les plus fidèles et actifs (NdT : power users). Vous pensez peut-être que la masse globale de vos utilisateurs est ce qui importe le plus, mais ce sont avant tout ces utilisateurs là qui fournissent avec passion le gros du travail. Ils sont pour ainsi dire le cœur et l’âme de votre site, et s’ils partent vous aurez de gros ennuis.
  • Ne retardez pas le paiement de votre dette technique. Comme la plupart des dettes, elle subit des interêts composés exponentiels 🙂 Et vous ne connaissez pas son taux d’intérêt jusqu’à ce que vous ayez commencé à la rembourser. Je pense qui si Internet Brands avait géré Wikitravel avec plus de considération et de compétences techniques, le fork n’aurait jamais eu lieu.
  • Ne poursuivez pas vos utilisateurs en justice dans un moment d’aigreur et de dépit. Vraiment. Ne le faites pas. N’avons nous donc rien appris de la RIAA (NdT : à comparer avec notre Hadopi) ? Respirez profondément, prenez un calmant, et détendez-vous. En effet, outre la question d’ordre moral, à partir du moment où vous poursuivez vos utilisateurs, vous perdez toute crédibilité aux yeux d’une fraction énorme de l’Internet. Et la crédibilité compte. Hélas, beaucoup de gens ne le réalisent pas, jusqu’à ce qu’ils perdent la leur.

Une version provisoire du nouveau guide de voyage anglophone est maintenant disponible. En attendant la suite…




Ce n’est qu’un début, continuons la copie !

Le fameux site The Pirate Bay est actuellement dans la tourmente, nous annonce Le Monde, puisque les trois fondateurs viennent d’épuiser un de leurs derniers recours contre leur incarcération.

L’un d’eux, Peter Sunde, a posté sur son blog une réponse que nous avons décidé de traduire ci-dessous.

On pourra la trouver teintée d’une révolte un peu adolescente et lyrique, mais qu’importe. Ce texte permet à minima de rappeler qu’en 2012 des gens vont faire de la prison ferme pour avoir hébergé des liens vers des fichiers…

« Kopimi » (alias « Copiez-moi ») pourrait bien devenir l’un des slogans les plus subversifs du XXIe siècle[1].

Viktor Hertz - CC by

Pas de concession : Kopimi ligne dure.

Maintain. Hardline. Kopimi.

Peter Sunde – 1 février 2012 – Copy me happy
(Traduction Framalang : goofy, albahtaar, Clochix, DonRico)

Nous avons appris aujourd’hui le rejet en appel par la cour suprême du dossier The Pirate Bay (TPB). Nous n’en sommes pas surpris. Les précédents procès suintaient la corruption. Depuis les pressions exercées par les États-Unis sur le ministre de la Justice afin de déférer TPB devant les tribunaux sans justification légale, en passant par l’officier de police responsable de l’enquête (Jim Keyzer) qui décrochait « par hasard » un poste chez Warner Bros quelques semaines avant ma promotion de témoin à suspect, jusqu’aux magistrats de nos procès qui siègent aux conseils d’administration — ou qui en président, comme c’est le cas d’un d’entre eux – de l’institution pro-copyright suédoise, il était clair pour nous que la cour suprême — où de nombreux juges gagnent beaucoup d’argent eux-mêmes grâce au copyright de leurs ouvrages — serait difficile à persuader de se saisir du dossier. Même si la majeure partie de la population voudrait que l’affaire y soit jugée. Même s’il s’agit de l’un des dossiers les plus importants dans toute l’Union européenne.

La Suède tient de beaux discours sur l’attention qu’elle porte à Internet. Elle consacre beaucoup d’argent et de temps pour aider des activistes dans le monde entier. Mais qui sont ces gens qu’ils sont si fiers d’aider ? TPB est l’un des plus importants mouvements de défense de la liberté d’expression en Suède, et œuvre contre la corruption et la censure. Tous ceux qui se sont à un moment ou un autre investis dans TPB l’ont aussi été dans de fameux projet de divulgation d’informations ou ont aidé des gens pendant le printemps arabe. Nous combattons la corruption à l’échelle mondiale. Nous défendons l’égalité des chances des nations pauvres partout dans le monde. Nous avons anéanti le monopole sur l’information. Nos proches, dont beaucoup nous ont aidés à construire TPB, ont été cités comme de possibles lauréats du prix Nobel de la paix. Je ne fanfaronne pas, j’explique cela pour être sûr que l’on comprenne qui ici a une action juste. Je n’ai jamais vu l’industrie du divertissement aider qui que ce soit, si ce n’est elle-même.

La Suède n’a pas l’habitude de la corruption. Ou plutôt, la Suède n’a pas l’habitude de voir la corruption qui sévit chez elle. La société y est fondée sur la croyance que dans les systèmes législatifs suédois tout le monde a de grandes qualités morales et éthiques. La mondialisation a changé cela. Les lobbies du divertissement ont rudoyé la Suède. Et pas seulement la Suède. On le voit dans des législations telles que SOPA, PIPA, ACTA, IPRED, IPRED2, TPP, TRIPS, pour n’en citer que quelques-unes. Toutes ces législations ont le même but : s’assurer que le contrôle d’Internet soit entre les mains des riches qui possèdent déjà certains pouvoirs de contrôle hors d’Internet.

Je ne suis qu’un homme parmi les millions qui se dressent contre cela. Même si le verdict (auquel nous ne sommes pas encore rendus) n’est pas favorable à ma situation personnelle, le but final pour lequel nous nous battons est bien plus important que les luttes personnelles de quelques individus. Je m’accomoderai de ne pas être riche — ce qui est simple lorsque de toutes façons l’on n’est pas riche. Je m’accomoderai de la peine à laquelle je serai finalement condamné — je vais simplement finir mon livre. Le combat continuera avec ou sans moi, je ne suis qu’un pion. Mais au moins, je suis un pion du côté moral. Je suis très fier de ce que j’ai accompli, et ne changerai rien à mon engagement. Je pense d’ailleurs que j’aurais pu en faire bien plus pour ce combat. Et j’en ai l’intention.

Aujourd’hui, j’appelle instamment chacun de vous à vous assurer que l’industrie du divertissement ne fait pas son beurre sur votre dos. Arrêtez d’aller voir leurs films. Arrêtez d’écouter leur musique. Assurez-vous de trouver des moyens alternatifs d’accéder à la culture. J’ai fondé Flattr.com, qui vous permet de soutenir directement les gens qui créent, plutôt qu’au travers de l’industrie corrompue du divertissement. Utilisez ce système en solidarité avec les créateurs et avec vos concitoyens. Ou lancez un procédé concurrent. Diffusez la culture et participez-y. Remixez, réutilisez, utilisez, abusez. Assurez-vous que personne ne contrôle votre esprit. Créez de nouveaux systèmes et des technologies qui contournent la corruption. Lancez une religion. Lancez votre propre nation, ou achetez-en une. Achetez un bus. Et désossez-le.

Agissez toujours résolument et appliquez une doctrine kopimi sans concession.

Notes

[1] Crédit photo : Viktor Hertz (Creative Commons By)




Nouveau Framabook : AlternC Comme si vous y étiez

AlternC Comme si vous y étiez - FramabookOuvrons ce billet par une citation clin d”œil de Jean-Marc Manach qui résume bien le nouveau livre libre framabook que nous sommes fiers de vous présenter aujourd’hui : « Offrez un nom de domaine à un homme et vous le nourrirez pour un jour. Apprenez-lui à l’administrer et vous le nourrirez pour toute la vie. »

C’est en effet ce que propose depuis longtemps déjà le projet libre et associatif AlternC, dont la démarche mais surtout l’existence bien réelle constituent un formidable rempart aux attaques actuelles contre les fondamentaux du Net.

AlternC c’est avant tout une suite logicielle permettant de gérer un ou plusieurs serveurs d’hébergement de site web, email, listes de discussions et autres services Internet.

Que vous soyez simple blogueur, hébergeur associatif ou industriel, professionel du web en agence, ou toute autre structure juridique aux facettes multiples (mairies, grande entreprise, fédération …), AlternC vous permet de gérer facilement les comptes d’hébergement de plusieurs entités, à travers une interface web simple, intuitive et multilingue. Les spécialistes du réseau et administrateurs système profitent aussi d’AlternC pour simplifier et industrialiser leurs processus de gestion d’infrastructure, et pouvoir ainsi confier à leur client la gestion des éléments simples de leur hébergement.

Mais AlternC c’est également se plonger dans l’histoire du Web francophone en général et du Web francophone libre en particulier, puisque le projet est directement issu du mythique service altern.org de Valentin Lacambre.

AlternC c’est enfin un projet politique, une informatique résolument tournée vers les logiciels libres, une volonté d’aider chacun à devenir son propre hébergeur, s’il le souhaite, dans le respect d’Internet et de ce qui fut son fondement toujours menacé : la liberté.

Rédigé, aussi bien à l’occasion des dix ans du projet que de la sortie imminente de la version 1.0 d’AlternC, par ces deux pionniers du libre que sont les hyperactifs Chantal Bernard-Putz et Benjamin Sonntag, cet ouvrage (illustré en couleur de 234 pages) propose un guide pas à pas du logiciel, de la gestion des comptes à l’installation (côté client) et l’administration de la plateforme (côté serveur).

Il a été entièrement réalisé sous LibreOffice. Il est édité par InLibroVeritas sous licence Creative Commons By-Sa. Les auteurs ont gracieusement décidé de céder l’intégralité de leurs droits d’auteur à La Quadrature du Net.

Le guide est encadré par deux articles de Laurent Chemla et Sébastien Canevet. C’est ce dernier que nous avons choisi de reproduire ci-dessous.

Les auteurs vous donnent rendez-vous le 28 mars prochain à 19h à La Cantine (Paris) pour une présentation du livre qui coïncidera avec la sortie de la version 1.0 d’AlternC ! C’est aussi à ce moment-là que symboliquement les sources du livre seront libérées.

-> Découvrir, télécharger et/ou acheter AlternC Comme si vous y étiez sur le site Framabook.

La neutralité du Net ne s’use que si on ne s’en sert pas !

Sébastien Canevet – décembre 2010

L’un des principes fondateurs d’internet conduit à traiter également toute information qui circule sur le réseau, indépendamment de sa source, de sa destination ou de son contenu. C’est la « neutralité du net ».

Lors de la création d’internet, la rusticité des outils alors mis en oeuvre ne permettait pas ce genre de discrimination. Aujourd’hui, le perfectionnement des équipements techniques rend possible une gestion discriminatoire du trafic. Cette idée malvenue ne manque pourtant pas de partisans. Les arguments pour la combattre sont plutôt nombreux, de la démocratie à la promotion de l’innovation et passant l’économie du développement des infrastructures.

Loin des débats théoriques sur ces principes fondamentaux, certains acteurs de l’internet ont choisi de participer à ce débat d’une autre façon, en rendant rapidement et facilement accessible la mise en place d’un hébergeur indépendant. Tel est le projet AlternC.

Alors que l’hébergement d’un site web était hors de portée des acteurs autres que les opérateurs institutionnels, publics ou privés, la mise à disposition de la suite logicielle AlternC permet depuis dix ans de gérer aisément un hébergeur mutualisé, assurant ainsi une indépendance technique à ceux qui souhaitent consacrer un minium de temps et quelques moyens (limités) à cette tâche.

Projet libre, il était logique qu’AlternC fut également un logiciel libre. A l’aube du projet, seuls les informaticiens (ou presque) comprenaient les enjeux de ce choix. C’est donc en connaissance de cause que les promoteurs du projet choisirent un logiciel libre (l’altern de Valentin Lacambre) plutôt que son homologue propriétaire, pour le faire évoluer.

C’est ainsi que, prouvant le mouvement en marchant, et mettant en oeuvre la neutralité du net bien avant que la problématique n’héberge au sein du public averti[1], AlternC permet la mise en oeuvre de l’hébergement de sites internet librement, et ceci aux quatre sens du mot libre lorsqu’il est accolé à nom logiciel.

  • Première des quatre libertés, l‘« exécution du programme », ou plus largement l’utilisation d’AlternC est libre, en ce sens que vous pouvez utiliser ces logiciels pour n’importe quel usage, commercial ou pas, et ceci sans aucune limitation d’aucune sorte. Il est d’ailleurs important pour les logiciels libres en général que leur utilisation dans la sphère commerciale et industrielle soit la plus large possible, ce ci afin d’éviter qu’ils ne soient isolés dans un milieu étroit….
  • La liberté d’étude est la seconde liberté. Alors que leurs homologues « propriétaires » sont enfermés dans un carcan juridique étroit et compliqué[2], l’étude d’AlternC n’est soumise à aucune contrainte. C’est ainsi que l’on peut librement étudier le fonctionnement de ces logiciels, quel que soit l’objectif de cette étude. La libre disposition du code source facilite cette étude.
  • La distribution de copie des logiciels AlternC est elle aussi possible librement, quelles que soient les conditions (gratuité ou pas…) de cette distribution. Une activité économique est ainsi parfaitement imaginable.
  • Enfin, il est possible (et même souhaitable) qu’AlternC soit l’objet d’améliorations. Cette suite logicielle est une oeuvre « in progress », en ce sens que, au sein de la communauté AlternC ou en dehors, toute personne ayant la compétence et la volonté de modifier ces programmes, peut le faire sans contrainte.

J’aime à répéter que ce que l’on ne trouve pas sur internet n’existe pas, tant le réseau est aujourd’hui d’une richesse inouïe.

Bien au delà des seuls usages commerciaux, dans lesquels l’utilisateur n’est envisagé que comme un consommateur, qui n’utiliserait le réseau que pour dépenser son argent, se contentant pour le reste de demeurer tranquillement sous perfusion télévisuelle, l’usager d’AlternC est un véritable acteur du réseau. C’est pour cela que cet ouvrage a été écrit.

-> Découvrir, télécharger et/ou acheter AlternC Comme si vous y étiez sur le site Framabook.

Notes

[1] L’article fondateur de Tim Wu, « Network Neutrality, Broadband Discrimination » date de 2003, mais la prise de conscience collective de l’importance de cette neutralité est bien plus tardive.

[2] En effet, l’étude et la décompilation d’un logiciel non libre n’est possible que dans une mesure très limitée, à seule fin d’assurer l’interopérabilité, et encore à condition que les informations nécessaires ne soient pas déjà rendues publiques.




Longue vie au Web, par Tim Berners-Lee

Neal Fowler - CC By « Sir » Tim Berners-Lee, le père du Web, a livré ce week-end au magazine Scientific American, une analyse complète lucide et accessible des menaces qui pèsent aujourd’hui sur ce curieux phénomène qui depuis vingt ans a changé la face du monde : Internet.

En termes simples, Berners-Lee revient sur l’universalité de ce réseau, qui n’a pu se développer que grâces à des conditions initiales propices :

  • Une technique simple et libre, donc bidouillable par chacun dans son coin;
  • Une conception décentralisée, permettant une croissance tous azimuts;
  • Le principe de neutralité du réseau, qui permet à tous de proposer du contenu.

Or, force est de constater que ces conditions, qui ont démarqué ce que nous appelons aujourd’hui « Internet » des autres tentatives de mise en réseau à grande échelle d’ordinateurs de par le monde, sont attaquées et mises en péril par de grandes entreprises, et, presque comme une conséquence par de nombreux gouvernements. [1]

À la lecture de ce texte, on peut également se rendre compte que la France est malheureusement en bonne position parmi les gouvernements les plus hostiles au réseau, et que la HADOPI, comme un pavé jeté dans la mare, éclabousse effectivement de honte le pays des droits de l’Homme face à ses voisins. Contrastant par exemple clairement avec le droit au haut débit pour tous mis en place par la Finlande et lui aussi mentionné par Berners-Lee.

Toutefois, la principale qualité de cette riche synthèse est son ton résolument grand public, qui a mobilisé l’équipe Framalang tout un week-end pour venir à bout de la traduction des 6 pages de l’article original en moins de 48h.

Longue vie au Web ! Un appel pour le maintien des standards ouverts et de la neutralité

Long Live the Web, A Call for Continued Open Standards and Neutrality

Tim Berners-Lee – lundi 22 novembre – ScientificAmerican.com
Traduction Framalang : Goofy, Pablo, Seb seb, Misc, Siltaar

Le Web est un enjeu crucial non seulement pour la révolution numérique mais aussi pour notre prospérité — et même pour notre liberté. Comme la démocratie elle-même, il doit être défendu.

Le world wide web est venu au monde, concrètement, sur mon ordinateur de bureau à Genève en Suisse en décembre 1990. Il était composé d’un site Web et d’un navigateur, qui d’ailleurs se trouvaient sur la même machine. Ce dispositif très simple faisait la démonstration d’une idée fondamentale : n’importe qui pouvait partager des informations avec n’importe qui d’autre, n’importe où. Dans cet esprit, le Web s’est étendu rapidement à partir de ces fondations. Aujourd’hui, à son 20ème anniversaire, le Web est intimement mêlé à notre vie de tous les jours. Nous considérons qu’il va de soi, nous nous attendons à ce qu’il soit disponible à chaque instant, comme l’électricité.

Le Web est devenu un outil puissant et omniprésent parce qu’il a été conçu suivant des principes égalitaires et parce que des milliers d’individus, d’universités et d’entreprises ont travaillé, à la fois indépendamment et ensemble en tant que membres du World Wide Web Consortium, pour étendre ses possibilités en se fondant sur ces principes.

Le Web tel que nous le connaissons, cependant, est menacé de diverses façons. Certains de ses plus fameux locataires ont commencé à rogner sur ses principes. D’énormes sites de réseaux sociaux retiennent captives les informations postées par leurs utilisateurs, à l’écart du reste du Web. Les fournisseurs d’accés à Internet sans fil sont tentés de ralentir le trafic des sites avec lesquels ils n’ont pas d’accords commerciaux. Les gouvernements — qu’ils soient totalitaires ou démocratiques — surveillent les habitudes en ligne des citoyens, mettant en danger d’importants droits de l’Homme.

Si nous, les utilisateurs du Web, nous permettons à ces tendances et à d’autres encore de se développer sans les contrôler, le Web pourrait bien se retrouver fragmenté en archipel. Nous pourrions perdre la liberté de nous connecter aux sites Web de notre choix. Les effets néfastes pourraient s’étendre aux smartphones et aux tablettes, qui sont aussi des portails vers les nombreuses informations fournies par le Web.

Pourquoi est-ce votre affaire ? Parce que le Web est à vous. C’est une ressource publique dont vous, vos affaires, votre communauté et votre gouvernement dépendent. Le Web est également vital pour la démocratie, en tant que canal de communication qui rend possible une conversation globale permanente. Le Web est désormais plus crucial pour la liberté d’expression que tout autre média. Il transpose à l’âge numérique les principes établis dans la constitution des États-Unis, dans la Magna Carta britannique et d’autres textes fondateurs : la liberté de ne pas être surveillée, filtrée, censurée ni déconnectée.

Pourtant les gens semblent penser que le Web est en quelque sorte un élément naturel, et que s’il commence à dépérir, eh bien, c’est une de ces choses malheureuses contre lesquelles on ne peut rien faire. Or il n’en est rien. Nous créons le Web, en concevant les protocoles pour les ordinateurs et les logiciels. Ce processus est entièrement entre nos mains. C’est nous qui choisissons quelles caractéristiques nous voulons qu’il ait ou non. Il n’est absolument pas achevé (et certainement pas mort). Si nous voulons contrôler ce que fait le gouvernement, ce que font les entreprises, comprendre dans quel état exact se trouve la planète, trouver un traitement à la maladie d’Alzheimer, sans parler de partager nos photos avec nos amis, nous le public, la communauté scientifique et la presse, nous devons nous assurer que les principes du Web demeurent intacts — pas seulement pour préserver ce que nous avons acquis mais aussi pour tirer profit des grandes avancées qui sont encore à venir.

L’universalité est le principe fondateur

Il existe des principes-clés pour s’assurer que le Web devienne toujours plus précieux. Le premier principe de conception qui sous-tend l’utilité du Web et son développement, c’est l’universalité. Lorsque vous créez un lien, vous pouvez le diriger vers n’importe quoi. Cela signifie que chacun doit être capable de mettre tout ce qu’il veut sur le Web, quel que soit l’ordinateur, le logiciel utilisé ou la langue parlée, peu importe qu’on ait une connexion avec ou sans wifi. Le Web devrait être utilisable par des personnes handicapées. Il doit fonctionner avec n’importe quelle information, que ce soit un document ou un fragment de données, quelle que soit la qualité de l’information — du tweet crétin à la thèse universitaire. Et il devrait être accessible avec n’importe quel type de matériel connectable à Internet : ordinateur fixe ou appareil mobile, petit ou grand écran.

Ces caractéristiques peuvent paraître évidentes, allant de soi ou simplement sans importance, mais ce sont grâce à elles que vous pourrez voir apparaître sur le Web, sans aucune difficulté, le site du prochain film à succès ou la nouvelle page d’accueil de l’équipe locale de foot de votre gamin. L’universalité est une exigence gigantesque pour tout système.

La décentralisation est un autre principe important de conception. Vous n’avez nul besoin de l’approbation d’une quelconque autorité centrale pour ajouter une page ou faire un lien. Il vous suffit d’utiliser trois protocoles simples et standards : écrire une page en HTML (langage de balisage hypertextuel), de la nommer selon une norme d’URI (identifiant uniforme de ressource), et de la publier sur Internet en utilisant le protocole HTTP (protocole de transfert hypertexte). La décentralisation a rendu possible l’innovation à grande échelle et continuera de le faire à l’avenir.

L’URI est la clé de l’universalité (à l’origine j’ai appelé le procédé de nommage URI, Universal Resource Identifier – Identifiant Universel de Ressource ; par la suite il est devenu URL, Uniform Resource Locator – Localisateur Uniforme de Ressource). L’URI vous permet de suivre n’importe quel lien, indépendamment du contenu vers lequel il pointe ou de qui publie ce contenu. Les liens transforment le contenu du Web en quelque chose de plus grande valeur : un espace d’information inter-connecté.

Plusieurs menaces à l’encontre de l’universalité du Web sont apparues récemment. Les compagnies de télévision par câble qui vendent l’accès à Internet se demandent s’il faut pour leurs clients limiter le téléchargement à leurs seuls contenus de divertissement. Les sites de réseaux sociaux présentent un problème différent. Facebook, LinkedIn, Friendster et d’autres apportent essentiellement une valeur en s’emparant des informations quand vous les saisissez : votre date de naissance, votre adresse de courriel, vos centres d’intérêts, et les liens qui indiquent qui est ami avec qui et qui est sur quelle photo. Les sites rassemblent ces données éparses dans d’ingénieuses bases de données et réutilisent les informations pour fournir un service à valeur ajoutée — mais uniquement sur leurs sites. Une fois que vous avez saisi vos données sur un de ces services, vous ne pouvez pas facilement les utiliser sur un autre site. Chaque site est un silo, séparé des autres par une cloison hermétique. Oui, vos pages sur ces sites sont sur le Web, mais vos données n’y sont pas. Vous pouvez accéder à une page Web contenant une liste de gens que vous avez rassemblée au même endroit, mais vous ne pouvez pas envoyer tout ou partie de cette liste vers un autre site.

Cette compartimentation se produit parce que chaque élément d’information est dépourvu d’URI. L’interconnexion des données existe uniquement à l’intérieur d’un même site. Ce qui signifie que plus vous entrez de données, et plus vous vous enfermez dans une impasse. Votre site de réseau social devient une plateforme centrale — un silo de données fermé, qui ne vous donne pas le plein contrôle sur les informations qu’il contient. Plus ce genre d’architecture se répand, plus le Web se fragmente, et moins nous profitons d’un unique espace d’information universel.

Un effet pervers possible est qu’un site de réseau social — ou un moteur de recherche, ou un navigateur — prenne une telle ampleur qu’il devienne hégémonique, ce qui a tendance à limiter l’innovation. Comme cela s’est produit plusieurs fois depuis les débuts du Web, l’innovation permanente du plus grand nombre peut être la meilleure réponse pour contrer une entreprise ou un gouvernement quelconque qui voudrait saper le principe d’universalité. GnuSocial et Diaspora sont des projets sur le Web qui permettront à chacun de créer son propre réseau social sur son propre serveur, et de se connecter à d’autres sur leur site. Le projet Status.net, qui fait tourner des sites comme Identi.ca, vous permet de monter votre propre réseau de micro-blogage à la manière de Twitter mais sans la centralisation induite par Twitter.

Les standards ouverts sont le moteur de l’innovation

Permettre à chaque site d’être lié à n’importe quel autre est nécessaire mais pas suffisant pour que le Web ait une armature solide. Les technologies de base du Web, dont les particuliers et les entreprises ont besoin pour développer des services avancés, doivent être gratuites et sans redevance. Amazon.com, par exemple, est devenu une gigantesque librairie en ligne, puis un disquaire, puis un immense entrepôt de toutes sortes de produits, parce que l’entreprise avait un accès libre et gratuit aux standards techniques qui sous-tendent le Web. Amazon, comme tout usager du Web, a pu utiliser le HTML, l’URI et le HTTP sans avoir à en demander l’autorisation à quiconque et sans avoir à payer pour cela. La firme a pu également bénéficier des améliorations de ces standards développées par le World Wide Web Consortium, qui permettent aux clients de remplir un bon de commande virtuel, de payer en ligne, d’évaluer les marchandises achetées et ainsi de suite.

Par « standards ouverts » je veux dire des standards à l’élaboration desquels peuvent participer tous les spécialistes, pourvu que leur contribution soit largement reconnue et validée comme acceptable, qu’elle soit librement disponible sur le Web et qu’elle soit gratuite (sans droits à payer) pour les développeurs et les utilisateurs. Des standards ouverts, libres de droits et faciles à utiliser génèrent l’extraordinaire diversité des sites Web, depuis les grands noms tels qu’Amazon, Craigslist et Wikipédia jusqu’aux blogs obscurs maintenus par des passionnés, en passant par les vidéos bricolées à la maison et postées par des ados.

La transparence signifie aussi que vous pouvez créer votre site Web ou votre entreprise sans l’accord de qui que ce soit. Au début du Web, je ne devais pas demander de permission ni payer de droits d’auteur pour utiliser les standards ouverts propres à Internet, tels que le célèbre protocole de contrôle de transmission (TCP) et le protocole Internet (IP). De même, la politique de brevets libres de droits du W3C (World Wide Web Consortium) dit que les entreprises, les universités et les individus qui contribuent au développement d’un standard doivent convenir qu’ils ne feront pas payer de droits d’auteur aux personnes qui pourraient l’utiliser.

Les standards libres de droits et ouverts ne signifient pas qu’une entreprise ou un individu ne peut pas concevoir un blog ou un programme de partage de photos et vous faire payer son utilisation. Ils le peuvent. Et vous pourriez avoir envie de payer pour ça, si vous pensez que c’est « mieux » que le reste. L’important est que les standards ouverts permettent un grand nombre d’options, gratuites ou non.

En effet, de nombreuses entreprises dépensent de l’argent pour mettre au point des applications extraordinaires précisément parce qu’elles sont sûres que ces applications vont fonctionner pour tout le monde, sans considération pour le matériel, le système d’exploitation ou le fournisseur d’accés internet (FAI) que les gens utilisent — tout ceci est rendu possible par les standards ouverts du Web. La même confiance encourage les scientifiques à passer des centaines d’heures à créer des bases de données incroyables sur lesquelles ils pourront partager des informations sur, par exemple, des protéines en vue de mettre au point des remèdes contre certaines maladies. Cette confiance encourage les gouvernements des USA ou du Royaume-Uni à mettre de plus en plus de données sur le réseau pour que les citoyens puissent les inspecter, rendant le gouvernement de plus en plus transparent. Les standards ouverts favorisent les découvertes fortuites : quelqu’un peut les utiliser d’une façon que personne n’a imaginée avant. Nous le voyons tous les jours sur le Web.

Au contraire, ne pas utiliser les standards ouverts crée des univers fermés. Par exemple, le systéme iTunes d’Apple identifie les chansons et les vidéos par des URI que l’on ouvre. Mais au lieu d’« http: », les adresses commencent par « itunes: » qui est propriétaire. Vous ne pouvez accéder à un lien « itunes: » qu’en utilisant le logiciel propriétaire iTunes d’Apple. Vous ne pouvez pas faire un lien vers une information dans l’univers iTunes, comme une chanson ou une information sur un groupe. L’univers iTunes est centralisé et emmuré. Vous êtes piégés dans un seul magasin, au lieu d’être sur une place ouverte. Malgré toutes les fonctionnalités merveilleuses du magasin, leurs évolutions sont limitées par ce qu’une seule entreprise décide.

D’autres entreprises créent aussi des univers fermés. La tendance des magazines, par exemple, de produire des « applis » pour smartphone plutôt que des applications Web est inquiétante, parce que ce contenu ne fait pas partie du Web. Vous ne pouvez pas le mettre dans vos signets, ni envoyer par email un lien vers une page pointant dessus. Vous ne pouvez pas le « tweeter ». Il est préférable de créer une application Web qui fonctionnera aussi sur les navigateurs des smartphones et les techniques permettant de le faire s’améliorent en permanence.

Certaines personnes pourraient penser que les univers fermés ne sont pas un problème. Ces univers sont faciles à utiliser et peuvent donner l’impression de leur apporter tout ce dont elles ont besoin. Mais comme on l’a vu dans les années 1990 avec le système informatique bas débit d’AOL, qui vous donnait un accès restreint à un sous-ensemble du Web, ces « jardins emmurés », qu’importe qu’ils soient agréables, ne peuvent rivaliser en diversité, en profusion et en innovation avec l’agitation démente du Web à l’extérieur de leurs portes. Toutefois, si un « clôt » a une emprise trop importante sur un marché cela peut différer sa croissance extérieure.

Garder la séparation entre le Web et l’Internet

Conserver l’universalité du Web et garder ses standards ouverts aide tout le monde à inventer de nouveaux services. Mais un troisième principe — la séparation des couches — distingue la conception du Web de celle de l’Internet.

Cette séparation est fondamentale. Le Web est une application tournant sur Internet, qui n’est autre qu’un réseau électronique transmettant des paquets d’information entre des millions d’ordinateurs en suivant quelques protocoles ouverts. Pour faire une analogie, le Web est comme un appareil électroménager qui fonctionne grâce au réseau électrique. Un réfrigérateur ou une imprimante peut fonctionner tant qu’il utilise quelques protocoles standards — aux États-Unis, on fonctionne sur du 120 volts à 60 hertz. De la même façon, chaque application — parmi lesquelles le Web, les courriels ou la messagerie instantanée — peut fonctionner sur Internet tant qu’elle suit quelques protocoles standards d’Internet, tels que le TCP et l’IP.

Les fabricants peuvent améliorer les réfrigérateurs et les imprimantes sans transformer le fonctionnement de l’électricité, et les services publics peuvent améliorer le réseau électrique sans modifier le fonctionnement des appareils électriques. Les deux couches de technologie fonctionnent en même temps mais peuvent évoluer indépendamment. C’est aussi valable pour le Web et Internet. La séparation des couches est cruciale pour l’innovation. En 1990 le Web se déploie sur Internet sans le modifier, tout comme toutes les améliorations qui ont été faites depuis. À cette période, les connexions Internet se sont accélérées de 300 bits par seconde à 300 millions de bits par seconde (Mbps) sans qu’il ait été nécessaire de repenser la conception du Web pour tirer profit de ces améliorations.

Les droits de l’homme à l’âge électronique

Bien qu’Internet et les principes du Web soient distincts, un utilisateur du Web est aussi un utilisateur d’Internet et par conséquent il compte sur un réseau dépourvu d’interférences. Dans les temps héroïques du Web, il était techniquement trop difficile pour une entreprise ou un pays de manipuler le Web pour interférer avec un utilisateur individuel. La technologie nécessaire a fait des bonds énormes, depuis. En 2007, BitTorrent, une entreprise dont le protocole de réseau « peer to peer » permet de partager les musiques, les vidéos et d’autres fichiers directement sur Internet, a déposé une plainte auprès de la FCC (commission fédérale des communications) contre le géant des fournisseurs d’accès Comcast qui bloquait ou ralentissait le trafic de ceux qui utilisaient l’application BitTorrent. La FCC a demandé à Comcast de cesser ces pratiques, mais en avril 2010 la cour fédérale a décidé que la FCC n’avait pas le droit de contraindre Comcast. Un bon FAI (Fournisseur d’Accès Internet) qui manque de bande passante s’arrangera souvent pour délester son trafic de moindre importance de façon transparente, de sorte que les utilisateurs soient au courant. Il existe une différence importante entre cette disposition et l’usage du même moyen pour faire une discrimination.

Cette différence met en lumière le principe de la neutralité du réseau. La neutralité du réseau garantit que si j’ai payé pour une connexion d’une certaine qualité, mettons 300 Mbps, et que vous aussi vous avez payé autant, alors nos communications doivent s’établir à ce niveau de qualité. Défendre ce principe empêcherait un gros FAI de vous transmettre à 300 Mbps une vidéo venant d’une société de média qu’il posséderait, tandis qu’il ne vous enverrait la vidéo d’une société concurrente qu’à une vitesse réduite. Cela revient à pratiquer une discrimination commerciale. D’autres situations complexes peuvent survenir. Que se passe-t-il si votre FAI vous rend plus facile l’accès à une certaine boutique en ligne de chaussures et plus difficile l’accès à d’autres ? Ce serait un moyen de contrôle puissant. Et que se passerait-il si votre FAI vous rendait difficile l’accès à des sites Web de certains partis politiques, de groupes à caractère religieux, à des sites parlant de l’évolution ?

Hélas, en août Google et Verizon ont suggéré pour diverses raisons que la neutralité ne doit pas s’appliquer aux connexions des téléphones portables. De nombreuses personnes dans des zones rurales aussi bien dans l’Utah qu’en Ouganda n’ont accés à l’Internet que par leur téléphone mobile. Exclure les accès sans fil du principe de neutralité laisserait ces utilisateurs à la merci de discriminations de service. Il est également bizarre d’imaginer que mon droit fondamental d’accés à la source d’information de mon choix s’applique quand je suis sur mon ordinateur en WiFi à la maison, mais pas quand j’utilise mon téléphone mobile.

Un moyen de communication neutre est la base d’une économie de marché juste et compétitive, de la démocratie et de la science. La polémique est revenue à l’ordre du jour l’année dernière pour savoir s’il est nécessaire qu’une législation gouvernementale protège la neutralité du réseau. C’est bien le cas. Même si généralement Internet et le Web se développent grâce à une absence de régulation, quelques principes fondamentaux doivent être protégés légalement.

Halte à l’espionnage

D’autres menaces envers le web résultent d’indiscrétions touchant Internet, ce qui inclut l’espionnage. En 2008, une entreprise du nom de Phorm a mis au point un moyen pour un FAI de fouiner dans les paquets d’informations qu’il envoie. Le fournisseur peut alors déterminer chaque URI sur laquelle un de ses clients a surfé, et ensuite créer un profil des sites que l’utilisateur a visités afin de produire des publicités ciblées.

Accéder à l’information contenue dans un paquet Internet est équivalent à mettre un téléphone sur écoute ou ouvrir le courrier postal. Les URI que les gens utilisent révèlent beaucoup de choses sur eux. Une entreprise ayant acheté les profils URI de demandeurs d’emploi pourrait les utiliser pour faire de la discrimination à l’embauche sur les idées politiques des candidats par exemple. Les compagnies d’assurance-vie pourraient faire de la discrimination contre les personnes qui ont fait des recherches concernant des symptômes cardiaques sur le Web. Des personnes mal intentionnées pourraient utiliser les profils pour traquer des individus. Nous utiliserions tous le Web de façon très différente si nous savions que nos clics pouvaient être surveillés et les données ainsi obtenues partagées avec des tierces personnes.

La liberté d’expression devrait être elle aussi protégée. Le Web devrait être semblable à une feuille de papier blanche : disponible pour y écrire, sans qu’on puisse contrôler ce qui y est écrit. Au début de cette année Google a accusé le gouvernement chinois d’avoir piraté ses bases de données pour récupérer les courriels des dissidents. Ces intrusions supposées ont fait suite au refus de Google d’obéir aux exigences du gouvernement, qui demandait à l’entreprise de censurer certains documents sur son moteur de recherche en langue chinoise.

Les régimes totalitaires ne sont pas les seuls qui violent les droits du réseau de leurs citoyens. En France une loi créée en 2009, appelée HADOPI, autorise une administration du même nom à déconnecter un foyer pendant un an si quelqu’un dans la maison est accusé par une compagnie de distribution de médias d’avoir téléchargé de la musique ou des vidéos. Suite à une forte opposition, en octobre le Conseil constitutionnel français a demandé qu’un juge soit saisi du dossier avant que l’accès à Internet ne soit coupé, mais si le juge l’accepte, le foyer familial pourra être déconnecté sans procédure légale digne de ce nom. Au Royaume-Uni, le Digital Economy Act, hâtivement voté en avril, autorise le gouvernement à demander à un FAI (Fournisseur d’Accès Internet) d’interrompre la connexion de quiconque figure dans une liste d’individus soupçonnés de violation de copyright. En septembre, le Sénat des États-Unis a introduit le Combating Online Infringement and Counterfeits Act (loi pour lutter contre la délinquance en ligne et la contrefaçon), qui devrait permettre au gouvernement de créer une liste noire de sites Web — qu’ils soient ou non hébergés aux USA — accusés d’enfreindre la loi, et d’obliger tous les FAI à bloquer l’accès des-dits sites.

Dans de tels cas de figure, aucune procédure légale digne de ce nom ne protège les gens avant qu’ils ne soient déconnectés ou que leurs sites soient bloqués. Compte-tenu des multiples façons dont le Web s’avère essentiel pour notre vie privée et notre travail, la déconnexion est une forme de privation de notre liberté. En s’inspirant de la Magna Carta, nous pourrions maintenant proclamer :

« Aucun individu ni organisation ne pourra être privé de la possibilité de se connecter aux autres sans une procédure légale en bonne et due forme qui tienne compte de la présomption d’innocence. »

Lorsque nos droits d’accès au réseau sont violés, un tollé général est déterminant. Les citoyens du monde entier se sont opposés aux exigences de la Chine envers Google, à tel point que la Secrétaire d’état Hillary Clinton a déclaré que le gouvernement des États-Unis soutenait la résistance de Google et que la liberté de l’Internet — et avec elle celle du Web — allait devenir une pièce maîtresse de la politique étrangère américaine. En octobre, la Finlande a fait une loi qui donne le droit à chaque citoyen d’avoir une connexion à haut débit de 1 Mbps.

Connexion vers l’avenir

Tant que les principes fondamentaux du Web seront maintenus, son évolution ultérieure ne dépendra d’aucun individu ni d’aucune organisation particulière — ni de moi, ni de personne d’autre. Si nous pouvons en préserver les principes, le Web est promis à un avenir extraordinaire.

La dernière version du HTML par exemple, intitulée HTML5, n’est pas simplement un langage de balisage mais une plateforme de programmation qui va rendre les applications Web encore plus puissantes qu’elles ne le sont aujourd’hui. La prolifération des smartphones va mettre le Web encore plus au cœur de nos vies. L’accès sans fil donnera un avantage précieux aux pays en développement, où beaucoup de gens n’ont aucune connexion filaire ou par câble mais peuvent en avoir sans fil. Il reste encore beaucoup à faire, bien sûr, y compris en termes d’accessibilité pour les personnes handicapées, et pour concevoir des pages qui s’afficheront aussi bien sur tous les écrans, depuis le mur d’images géantes en 3D jusqu’à la taille d’un cadran de montre.

Un excellent exemple de futur prometteur, qui exploite la puissance conjuguée de tous ces principes, c’est l’interconnexion des données. Le Web d’aujourd’hui est relativement efficace pour aider les gens à publier et découvrir des documents, mais nos programmes informatiques ne savent pas lire ni manipuler les données elles-mêmes au sein de ces documents. Quand le problème sera résolu, le Web sera bien plus utile, parce que les données concernant presque chaque aspect de nos vies sont générées à une vitesse stupéfiante. Enfermées au sein de toutes ces données se trouvent les connaissances qui permettent de guérir des maladies, de développer les richesses d’un pays et de gouverner le monde de façon plus efficace.

Les scientifiques sont véritablement aux avants-postes et font des efforts considérables pour inter-connecter les données sur le Web. Les chercheurs, par exemple, ont pris conscience que dans de nombreux cas un unique laboratoire ou un seul dépôt de données en ligne s’avèrent insuffisants pour découvrir de nouveaux traitements. Les informations nécessaires pour comprendre les interactions complexes entre les pathologies, les processus biologiques à l’œuvre dans le corps humain, et la gamme étendue des agents chimiques sont dispersées dans le monde entier à travers une myriade de bases de données, de feuilles de calcul et autres documents.

Un expérience réussie est liée à la recherche d’un traitement contre la maladie d’Alzheimer. Un grand nombre de laboratoires privés ou d’état ont renoncé à leur habitude de garder secrètes leurs données et ont créé le projet Alzheimer’s Disease Neuroimaging. Ils ont mis en ligne une quantité phénoménale d’informations inter-connectées sur les patients, ainsi que des scanners cérébraux, une base dans laquelle ils ont puisé à maintes reprises pour faire progresser leurs recherches. Au cours d’une démonstration dont j’ai été témoin, un scientifique a demandé : « quelles protéines sont impliquées dans la transduction des signaux et sont liées aux neurones pyramidaux ? ». En posant la question avec Google, on obtenait 233 000 résultats — mais pas une seule réponse. En demandant aux bases de données inter-connectées du monde entier pourtant, on obtenait un petit nombre de protéines qui répondaient à ces critères.

Les secteurs de l’investissement et de la finance peuvent bénéficier eux aussi des données inter-connectées. Les profits sont générés, pour une grande part, par la découverte de modèles de recherche dans des sources d’informations incroyablement diversifiées. Les données sont également toutes liées à notre vie personnelle. Lorsque vous allez sur le site de votre réseau social et que vous indiquez qu’un nouveau venu est votre ami, vous établissez une relation. Et cette relation est une donnée.

Les données inter-connectées suscitent un certains nombre de difficultés que nous devrons affronter. Les nouvelles possibilités d’intégration des données, par exemple, pourraient poser des problèmes de respect de la vie privée qui ne sont pratiquement pas abordés par les lois existantes sur le sujet. Nous devrions examiner les possibilités légales, culturelles et techniques qui préserveront le mieux la vie privée sans nuire aux possibilités de bénéfices que procure le partage de données.

Nous sommes aujourd’hui dans une période enthousiasmante. Les développeurs Web, les entreprises, les gouvernements et les citoyens devraient travailler ensemble de façon collaborative et ouverte, comme nous l’avons fait jusqu’ici, pour préserver les principes fondamentaux du Web tout comme ceux de l’Internet, en nous assurant que les processus techniques et les conventions sociales que nous avons élaborés respectent les valeurs humaines fondamentales. Le but du Web est de servir l’humanité. Nous le bâtissons aujourd’hui pour que ceux qui le découvriront plus tard puissent créer des choses que nous ne pouvons pas même imaginer.

Notes

[1] Crédit photo : Neal Fowler – Creative Commons By




Les sous-titres faciles d’Universal Subtitles

Universal Subtitles - CC-by-sa

Framatube, comme les lecteurs assidus de ce blog le savent déjà, est une initiative lancée il y a environ deux ans, dans le but de regrouper des vidéos en rapport avec le logiciel libre et sa culture, pour en favoriser la diffusion.

Framatube s’appuie pour cela aujourd’hui sur la plateforme Blip.tv et, pas de mystère, sur le travail de bénévoles chargés de produire des sous-titres lorsque la vidéo est dans une langue étrangère, l’équipe Framalang entrant alors dans la danse [1].

Dans ce dernier cas, le travail nécessaire pour proposer la vidéo sous-titrée va au delà de la simple traduction : il faut préalablement transcrire la bande-son pour la traduire, puis synchroniser les sous-titres obtenus avec la bande-son, incruster les sous-titres et finalement encoder le tout dans un format libre. Cela demande un travail important, qui nécessite une motivation de longue haleine et plus de travail que les habituelles 6 ou 7 heures par traduction d’article publiée sur le Framablog.

D’autant que, les sous-titres étant au final incrustés dans la vidéo, tout ce travail ne peut être réutilisé pour proposer de nouvelles traductions dans d’autres langues.

Pour prendre l’analogie du logiciel, le code source qui pourrait permettre d’améliorer ou de modifier facilement le résultat n’est pas fourni : paradoxal pour un projet Framasoft !

Heureusement, la Participation Culture Foundation (fondation à but non lucratif à laquelle on doit notamment le logiciel de télévision par Internet Miro) développe « Universal Subtitles » un outil en-ligne qui simplifie grandement la tâche.

Ce projet se place sous le parrainage de la Mozilla Foundation, autre fondation à but non lucratif à qui l’on doit le fameux navigateur web Firefox et qui a initié le projet Mozilla Drumbeat pour promouvoir des initiatives comme celle-ci, visant à garder le Web Ouvert.

L’objectif d’Universal Subtitles est pour le moins ambitieux, offrir à chaque vidéo disponible sur le web un support de sous-titrage collaboratif, où chacun puisse participer au sous-titrage dans sa langue d’une vidéo rencontrée sur le web.

La solution retenue est habile puisqu’elle consiste, à partir d’une vidéo préexistante sur le Web :

  1. à proposer des outils permettant de réaliser un sous-titrage de manière communautaire dont les données sont hébergées sur les serveurs du projet,
  2. à générer un simple bout de code mélangeant JavaScript et HTML5 à ajouter sur son site pour afficher un lecteur vidéo personnalisé pour afficher les sous-titres à la volée en surimpression de la vidéo.

Les avantages sont nombreux :

  • en associant la transcription et ses traductions aux vidéos, il devient possible d’indexer, analyser et traduire l’information contenue dans ces vidéos de façon automatique (les vidéos pourront être indexées par les moteurs de recherche aussi finement que les textes);
  • le travail manuel de sous-titrage se trouve facilité et le résultat peut à tout moment être modifié, complété et amélioré par la communauté;
  • tout cela contribuant à généraliser le sous-titrage et la traduction des vidéos, bénéficiant au plus grand nombre d’une part et augmentant d’autant l’accessibilité de ce support de communication. Les personnes atteintes de handicaps visuels ou auditifs pouvant à nouveau (comme aux débuts du web) bénéficier de versions textes lisibles à son rythme ou par un vocalisateur.

Et puis, cela promet de belles batailles concernant les sous-titres communautaires de clips musicaux…

Yostral, l’un des piliers de Framalang, a testé le système et publié un journal sur LinuxFr.org que nous reproduisons ici avec son aimable autorisation :

Je viens de tester le site UniversalSubtitles.org, qui se veut le « Wikipédia des sous-titres ».

Le but est simple : faciliter le sous-titrage dans n’importe-quelle langue de n’importe-quelle vidéo se trouvant sur le web.

Voyant les problèmes que nous avons à Framalang pour être efficace en sous-titrage vidéo, chacun faisant une étape dans son coin, sauf la traduction qui se fait sur wiki, pas adapté à ça, j’ai donc fait un petit test sur une simple vidéo, en français, pour voir les possibilité de travail collaboratif de traduction et de sous-titrage.

La première étape consiste bien sûr à « importer » une vidéo. En fait on travaille directement sur une vidéo déjà en ligne. Donc pas d’upload sur le site, pas de transcodage, rien. Il suffit simplement de donner l’adresse de la vidéo souhaitée. Pour le moment, les format supportés sont Ogg, WebM, FLV et donc les sites Youtube et Blip.TV (Dailymotion et Vimeo sont en cours).

Cette vidéo apparaît ensuite dans leur « Widget » de traduction. Une page je suppose remplie de HTML5 et de javascript, qui offre une interface relativement conviviale, claire et avec des raccourcis clavier. C’est succinct, mais suffisant pour faire ce qu’on lui demande. C’est donc ici que se déroule la première des trois étapes qui mènent au sous-titrage original de la vidéo : taper les sous-titres correspondant à la vidéo. Pour ceux qui ont 42 doigts, pas de soucis, vous laissez filer la vidéo et vous entrez le texte en temps réel… pour les autres, on peut toujours faire des pauses et naviguer avant/arrière tout simplement.

La seconde étape est la synchronisation du texte que vous avez tapé précédemment. Là, la vidéo défile et on doit appuyer sur une touche à chaque fois que l’on veut que le sous-titrage passe à la ligne suivante. Ici, faut être concentré ! Bien sûr, on peut mettre en pause, revenir en arrière, mais le mieux est de faire défiler et synchroniser au fur et à mesure. Faisable, mais pas évident, surtout sur la longueur.

La troisième étape est le peaufinage, où on peut ajuster les sous-titres plus précisément. Si on s’est un peu endormi à l’étape précédente, c’est ici qu’on se réveille.

Au final on nous donne un lien permanent vers la vidéo et ses sous-titres, ainsi qu’un bout de code pour l’intégration dans une page web. La vidéo est toujours la même au même endroit et seuls les sous-titres, qu’on peut se télécharger en .srt, sont sur le site d’UniversalSubtitles.org.

À partir de cette page, on peut rajouter simplement des sous-titres dans d’autres langues, calés sur la VO. Ça veut dire qu’une fois la transcription faite et synchronisée, en anglais ou autre, la traduction en français est vraiment simplifiée : on a juste à la rentrer dans les cases en dessous de chaque ligne de sous-titres de la langue originale. On peut bien sûr la stopper puis la reprendre plus tard. On voit également sur cette page les langues disponibles liées à la vidéo et l’avancement des traductions.

Bref, c’est vraiment du sous-titrage collaboratif. Les outils sont minimalistes mais efficaces. On peut tout ré-éditer, sauvegarder, exporter. Et on peut même uploader un fichier .srt, pour ceux qui ont plus souvent l’occasion de traduire hors ligne plutôt que connectés à Internet.

Comme je l’ai déjà dit, les outils sont, pour le moment en tout cas, assez minimalistes. Par exemple on ne peut pas régler les sous-titres : la police, la couleur, l’emplacement… limitation du HTML5 ou pas encore implanté dans ce programme ? On verra. Mais ça risque de poser parfois des gros problèmes de visibilité des sous-titres. Il m’est arrivé à plusieurs reprises, sur les vidéos qu’on a placées sur Framatube, de devoir rajouter une bande noire en-bas, ou les placer en haut, pour pouvoir lire convenablement les sous-titres pour des raisons de contraste avec le fond, qui peut varier…

Un autre bémol, c’est qu’il faut s’enregistrer : il faut soit un compte Twitter, soit un compte OpenID, soit un compte Google… En fait ça ne crée pas de compte à proprement parler, mais se sert de l’existant, ce qui est vraiment un moindre mal.

En tout cas c’est un bel outil qui va nous rendre bien des services pour nos sous-titrages.

Test fait avec une vidéo de Fred Couchet, de l’April, vidéo hébergée sur Blip.tv : http://universalsubtitles.org/videos/JFyBckvaWyCE/fr/

( {"base_state": {"language": "fr"}, "video_url": "http://blip.tv/file/get/Framasoft-FredericCouchetLeRoleDeLAPRILAuxMunicipalesDe2008975.ogv"} )

Notes

[1] Le Framablog de Framasoft, qui publie les travaux des projets Framatube et Framalang, tout cela n’est pas sans rappeler un certain Batman, avec sa Batmobile garée dans sa Batcave… Mais nous nous éloignons déjà du sujet.




Tout est libre dans le logiciel libre, sauf sa maison !

Pranav - CC byPar nature décentralisés et collaboratifs, les logiciels libres ont besoin d’être hébergés sur Internet dans des forges qui en assurent leur développement (en offrant de nombreux services comme la gestion des versions ou le suivi des bugs).

SourceForge est certainement la plus célèbre d’entre elles et abrite en son sein plusieurs centaines de milliers de logiciels libres. Google, encore lui, n’est pas en reste avec son Google Code qui accueille de plus en plus d’applications.

Or si ces forges sont bien gratuites et très pratiques (puisque l’on crée et gère son projet en quelques clics), la plupart ne sont paradoxalement pas libres ! Il n’est ainsi pas possible de récupérer le code qui les fait tourner pour installer sa propre forge sur son propre serveur.

On comprend aisément qu’un site comme Facebook garde jalousement son code puisque son objectif est de concentrer au même endroit un maximum d’utilisateurs et surtout pas de les voir partir pour y faire leur petit Facebook personnel dans leur coin. Mais on comprend moins que les développeurs de logiciels libres se retrouvent un peu dans la même situation en acceptant de placer leur code sur des plateformes propriétaires. C’est une question de principe mais aussi de l’avenir incertain d’un code qu’il est alors difficile de déplacer[1].

C’est tout l’objet de cette mise en garde de notre ami Benjamin Mako Hill dont c’est déjà la quatrième traduction.

Il faut des outils libres pour faire des logiciels libres

Free Software Needs Free Tools

Benjamin Mako Hill – 4 juin 2010 – Blog personnel
(Traduction Framalang : Misc, Cheval boiteux, Siltaar et Goofy)

Au cours des dix dernières années, les développeurs de logiciels libres ont été régulièrement tentés par des outils de développement qui offrent la capacité d’élaborer des logiciels libres de façon plus efficace et productive.

Le seul prix à payer, nous dit-on, est que ces outils eux-mêmes ne sont pas libres ou s’exécutent comme des services réseaux avec du code que nous ne pouvons pas voir, ou lancer nous-mêmes. Dans leurs décisions d’utiliser ces outils et services (tels que BitKeeper, SourceForge, Google Code et GitHub), les développeurs de logiciels libres ont décidé que « la fin justifie les moyens » et ont en quelque sorte vendu la liberté de leur communauté de développeurs et d’utilisateurs. Cette décision d’adopter des outils de développement non libres et privés a entamé notre crédibilité dans la promotion des libertés logicielles et a compromis notre liberté comme celle de nos utilisateurs d’une façon que nous devrions rejeter.

En 2002, Linus Torvalds a annoncé que le noyau Linux utiliserait le systéme de gestion de version distribué BitKeeper. Bien que la décision ait généré beaucoup de craintes et de débats, BitKeeper a permis aux codeurs du noyau de travailler de manière décentralisée avec une efficacité qu’il n’aurait pas été possible d’obtenir avec les outils libres de l’époque. Certains développeurs Linux ont décidé que les bénéfices obtenus justifiaient la perte de liberté des développeurs. Trois ans plus tard, les sceptiques prirent leur revanche quand le proprétaire de BitKeeper, Larry McVoy, a retiré la licence gratuite d’utilisation de plusieurs développeurs importants du noyau, car Andrew Tridgell avait commencé à écrire un remplaçant libre de BitKeeper. Les développeurs furent forcés d’écrire leur propre outil libre pour le remplacer, un projet connu maintenant sous le nom de Git.

Bien sûr, les relations entre logiciels libres et outils non libres vont au-delà du cas de BitKeeper. Le code source des logiciels du service SourceForge était jadis disponible pour ses utilisateurs, mais les auteurs sont revenus à un modèle totalement fermé. Bien que SourceForge soit construit sur des briques libres, les utilisateurs interagissent avec le logiciel uniquement via le Web sur l’unique site SourceForge. Comme les utilisateurs n’ont pas de copie du logiciel de Sourceforge, ils ne peuvent pas en demander le code source. Des projets similaires comme le service Tigris.org de CollabNet, Google Code et GitHub ont tous des buts similaires, et gardent leur code pour eux de la même façon. Les services sont souvent fournis gratuitement et promeuvent le développement de logiciel libre, mais leur dévouement ne s’étend pas aux logiciels qui font tourner leur plateforme de développement. Le code source de chacun de ces services reste privé et non modifiable par les développeurs utilisant ces services.

Ces outils de développement proprietaires posent un dilemme à de nombreux développeurs de logiciels libres. Le but de chacun de ces services est de permettre le succès des logiciels libres et l’obtention de plus de libertés grâce à l’utilisation d’outils plus efficaces. CollabNet, Google et GitHub annoncent chacun qu’ils veulent que le logiciel libre progresse et qu’ils veulent l’aider à avancer. Pour certaines raisons, ces entreprises ont choisi de soutenir les libertés logicielles par des moyens moins en phase avec les éthiques du mouvement que celle qu’ils cherchent à créer. Le résultat est que les développeurs sont dépossédés. La liberté du code logiciel que produisent ces hackers est dépendante d’une restriction inacceptable.

Tout d’abord, l’utilisation d’outils non libres envoie un message irrecevable pour les utilisateurs du logiciel libre produit. « La liberté des logiciels est importante pour vous », semblent dire les développeurs, « mais pas pour nous ». Un tel comportement sape l’efficacité basique du fort engagement éthique au cœur du mouvement du logiciel libre. À tous ceux qui ont déja fait le choix du logiciel libre, nous devons montrer que nous pouvons réussir – et prospérer – en utilisant des logiciels libres. Nous devons soutenir les alternatives libres face aux systèmes propriétaires, comme Savane qui peut remplacer SourceForge ou Google Code, et qui est à la base de GNU Savannah, ou encore Gitorious, pour remplacer GitHub, en les utilisant et en les améliorant dans les domaines où ils peuvent être améliorés.

Deuxièmement, nous devrions comprendre en nous projetant plus en avant que le logiciel que nous produisons n’est libre qu’en fonction des logiciels dont il dépend pour son usage, sa distribution et son évolution.

La licence GNU GPL et le code source ne signifient pas grand-chose pour un utilisateur qui veut modifier un programme sans avoir un accés libre au logiciel requis pour permettre cette modification. Il ne s’agit pas que de mettre les libertés des développeurs dans la balance, mais aussi finalement celles des utilisateurs et de tous les développeurs qui prendront le relais. Ceux qui choisissent d’utiliser des logiciels non libres placent tout le monde à la merci des groupes et des individus qui produisent les logiciels dont ils dépendent.

Tandis que les outils de développement propriétaires peuvent aider les développeurs de logiciels libres à produire de meilleurs logiciels à court terme, le prix à payer est inacceptable. Dans le débat controversé des logiciels privés et des services réseaux, les développeurs de logiciels libres devraient se placer du côté de « l’excès » de liberté. Compromettre nos principes afin d’obtenir plus de liberté est auto-destructeur, instable et au final injuste envers nos utilisateurs et la communauté des développeurs de logiciels libres dans son ensemble.

Tout comme les premiers mainteneurs du projet GNU se sont d’abord concentrés sur la création d’outils libres pour la création de logiciel libre, nous devons nous assurer que nous pouvons produire des logiciels sans entrave et utiliser des outils incontestablement ouverts. Si nous échouons, les logiciels seront indirectement moins libres. Nous devons refuser l’utilisation de logiciels qui ne nous garantissent pas les libertés que nous tentons de donner à nos utilisateurs par le développement de logiciels, et nous devons faire pression en ce sens sur les producteurs de nos outils de développement. Le logiciel libre n’a pas réussi en compromettant nos principes. Nous ne serons pas bien servis d’un point de vue technique, pragmatique ou éthique en compromettant la liberté des outils que nous utilisons pour constuire un monde libre.

Benjamin Mako Hill
Creative Commons By-Sa

Notes

[1] Crédit photo : Pranav (Creative Commons By)




Les incolmatables fuites de chez WikiLeaks – Portrait de Julian Assange

New Media Days - CC by-saAvec l’avènement d’Internet on parle régulièrement de révolution dès qu’un petit malin trouve le moyen de faire avec des bits d’information ce qu’on faisait jusque là avec des atomes de matière.

Pourtant, sur Internet il se passe parfois de vraies (r)évolutions, quand un petit malin innove réellement et trouve le moyen d’y faire ce qu’on n’y faisait pas avant !

Et c’est précisément le cas de WikiLeaks.org un site savamment mis au point par Julian Assange dès 2006 dans le but de divulguer « de manière anonyme, non identifiable et sécurisée, des documents témoignant d’une réalité sociale et politique, voire militaire, qui nous serait cachée, afin d’assurer une transparence planétaire. Les documents sont ainsi soumis pour analyse, commentaires et enrichissements à l’examen d’une communauté planétaire d’éditeurs, relecteurs et correcteurs wiki bien informés ».

Récemment rendu célèbre en France par la publication d’une vidéo montrant l’armée américaine en pleine bavure contre des civils Irakiens, le site et son créateur sont depuis dans l’œil du cyclone, ayant en effet attiré l’attention d’instances américaines soucieuses de ne pas voir d’autres documents officiels ou officieux ainsi libérés sur le net. L’équipe de WikiLeaks continue pourtant contre vents et marées à publier des vérités.

Portrait d’un homme discret et courageux, aux convictions simples, mais qui lui aussi participe à faire bouger les lignes du monde[1].

Julian Assange, lanceur d’alertes

Julian Assange: the whistleblower

Stephen Moss – 14 juillet 2010 – The Guardian
(Traduction Framalang par : Siltaar, Goofy, Yoann, misc, Julien)

Il se pourrait bien que Julian Assange, le fondateur de Wikileaks, préfigure l’avenir du journalisme d’investigation. Mais il n’est pas journaliste.

Tout est bizarre dans cette histoire. À commencer par Julian Assange lui-même : fondateur, directeur et porte-parole de Wikileaks, mais aussi guide spirituel de ce réseau planétaire de lanceurs d’alertes. Il est grand, cadavérique, porte des jeans râpés, une veste marron, une cravate noire et des tennis hors d’âge. Quelqu’un a dit qu’il ressemblait à Andy Warhol avec ses cheveux blancs précoces, mais je ne sais plus qui – voilà justement ce qui le mettrait hors de lui, parce qu’il place la précision au-dessus de tout. Il déteste la subjectivité dans le journalisme ; je crains que sa propre subjectivité ne le pousse à détester les journalistes aussi, et que Wikileaks, qui se définit comme « un système généralisé de fuites de documents, impossible à censurer ou pister », soit essentiellement un moyen de tailler en pièces les imbéciles subjectifs dans mon genre.

Si Assange écrivait cet article, il reproduirait ici sa conférence d’une heure et demie à l’université d’été du Centre de journalisme d’investigation à Londres. Sans oublier les dix minutes que nous avons passées à discuter sur le chemin du restaurant – j’ai failli le faire renverser par une BMW lancée à vive allure, ce qui aurait pu changer l’histoire du journalisme d’investigation – et les 20 minutes de bavardage au restaurant avant qu’il ne me fasse sentir courtoisement que le temps qui m’était imparti touchait à sa fin. « Quand vous recevez (sur moi) des informations de seconde main, soyez extrêmement prudent », me dit-il sur le chemin, pointant du doigt des failles d’un article du New Yorker, pourtant très long, très documenté, sans aucun doute archi-vérifié, mais dont l’auteur fait des suppositions sur une activiste de Wikileaks en se basant sur rien moins que le T-shirt qu’elle porte.

« Le journalisme devrait ressembler davantage à une science exacte », me déclare-t-il au restaurant. « Autant que possible, les faits devraient être vérifiables. Si les journalistes veulent que leur profession soit crédible à long terme, ils doivent s’efforcer d’aller dans ce sens. Avoir plus de respect pour leurs lecteurs ». Il aime l’idée qu’un article de 2000 mots devrait s’appuyer sur une source documentaire de 25000 mots, et dit qu’il n’y a aucune raison de ne pas agir ainsi sur Internet. Maintenant que j’y repense, je ne suis pas sûr que la voiture était une BMW, ni même qu’elle fonçait.

Assange a lancé wikileaks.org en janvier 2007 et a sorti des scoops impressionnants pour une organisation constituée d’une poignée de membres, et pratiquement dépourvue de financement. Wikileaks a donné des preuves de la corruption et du népotisme de l’ancien président du Kenya Daniel Arap Moi, a rendu publiques les procédures opérationnelles standard en vigueur au centre de détention de Guantánamo, a même publié le contenu du compte Yahoo de Sarah Palin. Mais ce qui a vraiment propulsé Wikileaks au premier plan des grands médias, c’est la vidéo publiée en avril dans laquelle on voit l’attaque d’un hélicoptère américain sur Bagdad en juillet 2007, qui a fait un certain nombre de victimes parmi les civils irakiens et provoqué la mort de deux employés de l’agence Reuters, Saeed Chmagh et Namir Noor-Eldeen.

La vidéo, publiée dans une version de 39 minutes sans montage et dans un film de 18 minutes intitulé Meutres collatéraux, donne un aperçu glaçant de la désinvolture avec laquelle les militaires américains identifient leurs cibles (les pilotes de l’hélicoptère ont pris les appareils photos des journalistes de Reuters pour des armes), leur acharnement à achever un homme grièvement blessé qui s’efforçait de ramper pour se mettre à l’abri, et l’absence de tout scrupule même pour deux enfants dans une camionnette qui venait récupérer les victimes et qui a été immédiatement attaquée. « C’est de leur faute s’ils ont entraîné deux enfants dans la bataille », dit l’un d’eux. « C’est clair », répond son collègue de façon réaliste. Il s’agissait pourtant d’une des batailles les plus déséquilibrées que vous verrez jamais. Il existe très peu d’appareils photos capables de dégommer un hélicoptère de combat.

Ma thèse, qui sera bientôt réduite en miettes par Assange avec à peu près tout ce que j’avais comme préjugés après mes lectures à son sujet, est que cette vidéo représente un moment décisif pour WikiLeaks. Mais, juste avant que je puisse lui en parler, un bel étudiant barbu qui était à la conférence me devance. « Julian, avant que vous ne partiez, puis-je vous serrer la main, dit-il, car j’aime vraiment ce que vous faites et vous êtes pour moi comme un héros, sincèrement ». Ils se serrent la main. L’icône vivante et l’adorateur. Le parallèle avec Warhol devient de plus en plus flagrant : Assange comme fondateur d’une nouvelle forme d’actualités.

Et voici cette thèse. « Est-ce que la vidéo du mois d’avril a tout changé ? » demandais-je. Il s’agit d’une question rhétorique car je suis quasi-certain que ce fut le cas. « Non » répondit-il. « Les journalistes aiment toujours avoir un prétexte pour n’avoir pas parlé la semaine d’avant de ce dont ils parlent maintenant. Ils aiment toujours prétendre qu’il y a quelque chose de nouveau ». Il lui faut cependant admettre que le champ de diffusion de WikiLeaks est en pleine expansion. Au début de sa conférence, il disait qu’il avait la tête « remplie de beaucoup trop de choses actuellement », comme pour excuser la nature hésitante et déstructurée de son discours. Quelles choses ? « Nous avons essayé de recueillir des fonds pendant les six derniers mois », dit-il, « nous avons donc publié très peu de choses et maintenant nous avons une énorme file d’attente d’informations qui se sont entassées. Nous travaillons sur ces questions ainsi que sur des systèmes informatiques afin d’accélérer notre processus de publication. »

WikiLeaks n’emploie que cinq personnes à plein temps et environ 40 autres qui, selon lui, « réalisent très régulièrement des choses », s’appuyant sur 800 bénévoles occasionnels et 10 000 soutiens et donateurs – une structure informelle, décentralisée, qui pourrait devenir un modèle d’organisation pour les médias à venir, puisque ce que l’on pourrait appeler les « usines à journalisme » sont de plus en plus dépassées et non viables financièrement. C’est un moment délicat dans le développement de ce qu’Assange préfère considérer comme « un mouvement ». « Nous avons tous les problèmes que peut rencontrer une jeune pousse lors de sa création », dit-il, « combinés avec un environnement extrêmement hostile et un espionnage étatique. »

Le danger d’infiltration par les services de sécurité est important. « Il est difficile d’obtenir rapidement de nouvelles recrues, dit-il, parce que chaque personne doit être contrôlée, et cela rend la communication interne très difficile car il faut tout chiffrer et mettre en place des procédures de sécurité. Nous devons d’ailleurs également être prêts à affronter des poursuites judiciaires. » D’un autre côté, positif cette fois, la campagne récente de financement a permis de récolter un million de dollars, principalement auprès de petits donateurs. Les grands groupes industriels eux, se sont tenus à bonne distance de WikiLeaks en raison de soupçons politiques et d’inquiétudes légales sur la publication d’informations confidentielles sur Internet. Sans compter les carences habituelles des organisations financées par l’occident, toujours promptes à dénoncer dans leurs rapports les mauvaises pratiques des pays émergents mais qui sont beaucoup moins prêtes à mettre en lumière les recoins les moins reluisants des pays soi-disant avancés.

WikiLeaks est-il le modèle journalistique de l’avenir ? La réponse qu’il donne est typiquement à côté de la question. « Partout dans le monde, la frontière entre ce qui est à l’intérieur d’une entreprise et ce qui est à l’extérieur est en train d’être gommée. Dans l’armée, le recours à des mercenaires sous contrat indique que la frontière entre militaires et non-militaires tend à disparaître. En ce qui concerne les informations, vous pouvez constater la même dérive – qu’est-ce qui relève du journal et qu’est-ce qui ne l’est déjà plus ? Selon les commentaires publiés sur des sites grand public et militants… » Il semble alors perdre le fil, je le presse donc d’émettre une prédiction sur l’état des médias d’ici une dizaine d’années. « En ce qui concerne la presse financière et spécialisée, ce sera probablement la même chose qu’aujourd’hui – l’analyse quotidienne de la situation économique dont vous avez besoin pour gérer vos affaires. Mais en ce qui concerne l’analyse politique et sociale, des bouleversements sont à prévoir. Vous pouvez déjà constater que c’est en train d’arriver ».

Assange doit faire attention à assurer sa sécurité personnelle. Bradley Manning, 22 ans, analyste des services de renseignement de l’armée américaine a été arrêté et accusé d’avoir envoyé à Wikileaks les vidéos de l’attaque de Bagdad, et les autorités pensent que l’organisation posséde une autre vidéo d’une attaque sur le village afghan de Granai durant laquelle de nombreux civils ont péri. Il y a également eu des rapports controversés selon lesquels Wikileaks aurait mis la main sur 260 000 messages diplomatiques classés, et les autorités américaines ont déclaré vouloir interroger Assange au sujet de ces documents, dont la publication mettrait selon eux en danger la sécurité nationale. Quelques sources ayant des contacts avec les agences de renseignement l’ont prévenu qu’il était en danger, et lui ont conseillé de ne pas voyager vers les USA. Il refuse de confirmer que Manning était la source de la vidéo de Bagdad, mais il dit que celui qui l’a divulguée est « un héros ».

Lors de la conférence, j’ai entendu un homme à coté de moi dire à son voisin: « Est-ce que tu penses qu’il y a des espions ici ? Les USA lui courent après tu sais ? ». Et bien sûr, c’est possible. Mais faire une conférence devant 200 étudiants dans le centre de Londres n’est pas le comportement de quelqu’un qui se sent particulièrement menacé. D’un autre côté, l’organisateur de la conférence me dit qu’Assange s’efforce de ne pas dormir 2 fois d’affilée au même endroit. Est-ce qu’il prend ces menaces au sérieux ? « Quand vous les recevez pour la première fois, vous devez les prendre au sérieux. Certaines personnes très informées m’ont dit qu’il y avait de gros problèmes, mais maintenant les choses se sont décantées. Les déclarations publiques du département d’état des États-Unis ont été pour la plupart raisonnables. Certaines demandes faites en privé n’ont pas été raisonnables, mais le ton de ces déclarations privées a changé au cours du dernier mois et elles sont devenues plus positives ».

Assange, en dépit de ses hésitations, respire la confiance en soi, voire un certain manque de modestie. Lorsque je lui demande si la croissance rapide et l’importance grandissante de WikiLeaks le surprennent, il répond par la négative. « J’ai toujours été convaincu que l’idée aurait du succès, dans le cas contraire, je ne m’y serais pas consacré ou n’aurais pas demandé à d’autres personnes de s’en occuper. » Récemment, il a passé une grande partie de son temps en Islande, où le droit à l’information est garanti et où il compte un grand nombre de partisans. C’est là-bas qu’a été réalisé le laborieux décryptage de la vidéo de Bagdad. Cependant, il déclare qu’il n’a pas de base réelle. « Je suis comme un correspondant de guerre, je suis partout et nulle part » dit-il. « Ou comme ceux qui fondent une société multinationale et rendent visite régulièrement aux bureaux régionaux. Nous sommes soutenus par des militants dans de nombreux pays ».

Assange est né dans le Queensland en 1971 au sein de ce que l’on pourrait appeler une famille très anticonformiste – ici on se fie sur des sources secondaires contre lesquelles il m’a mis en garde, il serait vraiment utile de consulter de la documentation. Ses parents exploitaient une compagnie de théâtre, si bien qu’il est allé dans 37 écoles différentes (selon certains pourtant, comme sa mère estimait que l’école n’apprend qu’à respecter l’autorité, elle lui faisait principalement cours à la maison). Ses parents ont divorcé puis sa mère s’est remariée, mais il y eut une rupture avec son nouveau mari, ce qui les a conduit elle, Julian et son demi-frère à partir sur les routes. Tout cela semble trop wharolien pour être vrai, mais il s’agit sans doute de la vérité. Ce n’est pas le moment de lui demander de raconter sa vie et je ne pense pas qu’il s’y prêterait s’il en avait le temps. En effet, ses réponses sont généralement laconiques et un peu hésitantes. Lorsque je lui demande s’il y a quelque chose que WikiLeaks ne publierait pas, il me répond : « Cette question n’est pas intéressante » avec son doux accent australien, et en reste là. Assange n’est pas quelqu’un qui éprouve le besoin de « combler les blancs » dans une conversation.

Il est tombé littéralement amoureux des ordinateurs dès son adolescence, est rapidement devenu un hacker confirmé et a même fondé son propre groupe nommé « International Subversives » qui a réussi à pirater les ordinateurs du Département de la Défense des États-Unis. Il s’est marié à 18 ans et a rapidement eu un fils, mais le mariage n’a pas duré et une longue bataille pour la garde de l’enfant a, dit-on, augmenté sa haine de l’autorité. Il existe aussi des rumeurs selon lesquelles il se figurait que le gouvernement conspirait contre lui. Nous avons donc ici une image journalistique parfaite : expert informatique, avec plus de 20 ans d’expérience en piratage, une hostilité à l’autorité et des théories conspirationnistes. Le lancement de WikiLeaks au milieu de sa trentaine semblait inévitable.

« Il s’agit plus d’un journaliste qui voit quelque chose et qui essaie de lui trouver une explication » dit-il. « C’est généralement de cette manière qu’on écrit une histoire. Nous voyons quelque chose à un moment donné et nous essayons d’écrire une histoire cohérente pour l’expliquer. Cependant, ce n’est pas comme ça que je vois les choses. Il est vrai que j’avais certaines capacités et que j’avais aussi la chance d’être dans un pays occidental disposant de ressources financières et d’Internet. De plus, très peu de personnes ont bénéficié de la combinaison de capacités et de relations dont je disposais. Il est également vrai que j’ai toujours été intéressé par la politique, la géopolitique et même peut-être le secret, dans une certaine mesure ». Ce n’est pas réellement une réponse, mais c’est tout ce que j’obtiendrai. Encore une fois, comme chez Warhol, le détachement semble presque cultivé.

Dans son discours, Assange a indiqué n’être ni de gauche ni de droite – ses ennemis tentant toujours de lui coller une étiquette pour saper son organisation. Ce qui compte avant tout est de publier l’information. « Les faits avant tout, madame, » est sa manière de me résumer sa philosophie. « Ensuite, nous en ferons ce que nous voudrons. Vous ne pouvez rien faire de sensé sans savoir dans quelle situation vous êtes. » Mais quand il rejette les étiquettes politiques, il précise que Wikileaks cultive sa propre éthique. « Nous avons des valeurs. Je suis un activiste de l’information. Vous sortez les informations pour les donner au peuple. Nous croyons qu’un dossier plus complet, plus précis, plus riche aux plans intellectuel et historique, est un dossier intrinsèquement bon qui donnera aux gens les outils pour prendre des décisions intelligentes ». Il précise qu’une part évidente de leur objectif est de dénoncer les cas de violation des droits de l’Homme, quels qu’en soient les lieux et les auteurs.

Il a décrit la mise au point d’une plateforme sécurisée pour les lanceurs d’alerte (son argument-clé étant la protection des sources) comme une vocation, et je lui demande si cela va rester le point central de sa vie. Sa réponse me surprend. « J’ai plein d’autres idées, et dès que Wikileaks sera suffisamment fort pour prospérer sans moi, je m’en irai réaliser d’autres de ces idées. Wikileaks peut déjà survivre sans moi, mais je ne sais pas s’il continuerait à prospérer. »

Est-ce que l’impact de Wikileaks, quatre ans après sa création, est une critique implicite du journalisme conventionnel ? Nous sommes-nous assoupis au travail ? « Il y a eu un échec scandaleux dans la protection des sources, » indique-t-il. « Ce sont ces sources qui prennent tous les risques. J’étais à une conférence sur le journalisme il y a quelque mois, et il y avait des affiches expliquant qu’un millier de journalistes ont été tués depuis 1944. C’est inacceptable. Combien de policiers ont été tués depuis 1944 ? »

Je ne le comprends pas, pensant qu’il déplore toutes ces morts de journalistes. Son idée, bien au contraire, n’est pas que beaucoup de journalistes soient morts au front, mais qu’il y en ait eu si peu. « Seulement un millier ! » dit-il, haussant un peu le ton lorsqu’il comprend que je n’ai pas saisi où il voulait en venir. « Combien sont morts dans des accidents de voiture depuis 1944 ? Probablement 40 000. Les policiers, qui ont un rôle important à jouer pour stopper des crimes, sont plus nombreux à mourir. Ils prennent leur rôle au sérieux. » dit-il. « La plupart des journalistes morts depuis 1944 le furent en des lieux comme l’Irak. Très peu de journalistes occidentaux y sont morts. Je pense que c’est une honte internationale que si peu de journalistes occidentaux aient été tués ou arrêtés sur le champ de bataille. Combien de journalistes ont été arrêtés l’année dernière aux États-Unis, un pays comptant 300 millions de personnes ? Combien de journalistes ont été arrêtés l’année dernière en Angleterre ? »

Les journalistes, poursuit-il, laissent les autres prendre des risques et s’en attribuent ensuite tout le bénéfice. Ils ont laissé l’état et les gros intérêts s’en tirer trop longtemps, alors un réseau de hackers et de lanceurs d’alertes reposant sur des ordinateurs, donnant du sens à des données complexes, et avec la mission de les rendre publiquement disponibles est maintenant prêt à faire tout simplement mieux. C’est une affirmation qui aurait mérité débat, et je m’y serais fermement engagé s’il n’était pas en train de siroter du vin blanc et sur le point de commander son dîner. Mais une chose que je tiens à souligner : le nombre de journalistes morts depuis 1944 est plus proche de 2000. Après tout, souvenez-vous, la précision, s’en tenir aux faits, présenter la vérité sans fard est tout ce qui compte dans le nouveau monde de l’information.

Notes

[1] Credit photo : New Media Days (Creative Commons By-Sa)




Drupal à la Maison Blanche !

Copie d'écran - WhiteHouse.gov - DrupalGrande nouvelle pour le logiciel libre : le site de la Maison Blanche, Whitehouse.gov, vient de basculer sous Drupal ! Du coup, son créateur et principal animateur, Dries Buytaert, s’enthousiasme ci-dessous sur son blog et il a bien raison.

Et d’ailleurs si vous avez la curiosité de vous promener un peu sur le site (sous Creative Commons By !), vous constaterez peut-être avec moi qu’en terme d’ergonomie et vélocité, c’est très impressionnant.

À des années-lumière du site d’une Segolène Royal « par exemple », mais aussi et surtout très loin du site de l’Élysée.

Pour ce qui concerne sa politique en général, je ne saurais m’exprimer et m’engager, mais il est évident que l’administration Obama est en train de faire beaucoup pour la reconnaissance, la diffusion et la légitimité du logiciel libre et/ou open source, d’autres billets du Framablog peuvent en témoigner.

Whitehouse.gov utilise Drupal

Whitehouse.gov using Drupal

Dries Buytaert – 25 octobre 2009 – Blog personnel
(Traduction Framalang : Vincent)

Une grande et sensationnelle nouvelle ! Le site phare du gouvernement des USA, Whitehouse.gov, vient d’être relancé sous Drupal. C’est un grand jour pour Drupal, et pour l’Open Source dans le gouvernement, et quelque chose dont chacun peut être très fier dans notre communauté.

Tout d’abord, je pense que Drupal est en parfaite adéquation avec la volonté du président Barack Obama d’avoir un gouvernement ouvert et transparent. Drupal fournit un mélange remarquable de fonctions de gestion de contenu web traditionnel et de fonctionnalités « sociales » qui permettent une participation et une communication ouverte. Cette combinaison est ce que nous appelons la « publication sociale » et c’est ce pourquoi autant de personnes utilisent Drupal. De plus, je pense que Drupal rentre bien dans l’optique de réduction des coûts et d’action rapide du président Barack Obama. La flexibilité et la modularité de Drupal permettent aux organisations de construire rapidement des sites, à un coût inférieur à d’autres systèmes. Autrement dit, Drupal correspond bien au gouvernement des USA.

Deuxièmement, ceci est un signal fort parce que les gouvernements se rendent compte que l’open source ne comporte pas de risques supplémentaires par rapport au logiciel propriétaire, qu’en quittant un logiciel propriétaire, ils ne sont plus enfermés dans une technologie particulière, et qu’ils peuvent bénéficier de l’innovation résultant des milliers de développeurs qui collaborent à Drupal. Cela prend du temps de comprendre ces choses et d’amener ce changement, et je félicite l’administration Obama de prendre cet important rôle de leader en considérant des solutions open source.

Etant l’un des plus grands utilisateurs de logiciels au monde, le gouvernement des USA n’est pas un nouvel utilisateur de Drupal. Plusieurs agences comme par exemple le Département de la Défense, le Département du Commerce, le Département de l’Education et l’Administration des Services Généraux utilisaient Drupal antérieurement. L’adoption de Drupal croît rapidement chez le gouvernement des USA. Toutefois, la transition de Whitehouse.gov sur Drupal va plus loin et au delà de toute autre installation de Drupal dans le gouvernement, et constitue un formidable témoignage pour Drupal et pour l’open source. Ceci va donner de la visibilité à Drupal à tout le gouvernement des Etats-Unis d’Amérique, et à d’autres gouvernements à travers le monde.

Personnellement, je suis enchanté par l’idée que Drupal puisse ainsi contribuer à aider les gouvernements à fournir une plus grande transparence, une plus grande vitesse et une plus grande flexibilité.