Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?

Justin De La Ornellas - CC byLa semaine dernière Google annonçait que Chrome, le navigateur de la firme, ne supporterait plus dorénavant le format vidéo fermé et payant H.264 pour la vidéo sur le Web, préférant promouvoir exclusivement les formats vidéo libres et gratuits tels que WebM (VP8) et Ogg Theora.

Cette décision a été diversement accueillie, certains félicitant Google de continuer à peser de tout son poids pour faire émerger un standard libre et gratuit pour la vidéo sur le Web (on se souvient que Google a racheté l’année dernière la société On2 à l’origine du codec vidéo VP8 – que l’on retrouve dans le format WebM – pour permettre à chacun de l’implémenter et de l’utiliser gratuitement). Tandis que d’autres ont reproché à Google son incohérence en continuant de supporter dans le même temps le greffon propriétaire Flash.

En effet, jusqu’à présent la vidéo sur le Web nécessitait un greffon (typiquement Flash, de la société Adobe, omniprésent) qui agissait comme une boite noire en s’intercalant entre le navigateur et l’utilisateur. La récente mise à jour de la spécification HTML (qui sert à créer et afficher les pages Web) offre depuis la possibilité d’afficher les vidéos directement dans n’importe quel navigateur à jour, sans avoir à dépendre d’un unique logiciel appartenant à une unique société privée avec tous les dangers que cela représente[1].

Mais il reste pour cela à se mettre d’accord sur le choix du format dans lequel encoder la vidéo. Apple (Safari) refuse d’implémenter autre chose que le format payant H.264 qu’il souhaiterait voir s’imposer, ce qui placerait la vidéo sur le Web entre les mains d’un consortium de sociétés privées chargé de récolter les redevances et créerait un péage incontournable pour toute société qui souhaiterait innover sur le Web (avec ce système, Firefox et bien d’autres n’auraient jamais pu voir le jour). Pour leur part, Mozilla (Firefox), Opera et Google (Chrome) soutiennent WebM et Ogg Theora en tant que technologies libres et gratuites pouvant être mises en œuvre par n’importe qui sans restriction. Pendant ce temps Microsoft compte les points, n’excluant aucune des solutions

Tristan Nitot, Président de Mozilla Europe, l’explique bien : « Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

Nous avons choisi de reproduire ici la réponse de Haavard, employé chez Opera Software, à ceux qui dénoncent la récente décision de Google.

Le retrait de Chrome du codec H.264 conduit-il à moins d’ouverture ?

Is the removal of H.264 from Chrome a step backward for openness?

par Haavard, employé chez Opera Software, le 13 janvier 2011
(Traduction Framalang : Antistress et Goofy)

Dans un long article publié sur le site Ars Technica, Peter Bright soutient que retirer de Chrome le support d’un standard fermé conduit à moins d’ouverture.

Je suis fermement en désaccord avec cette assertion et je vais essayer d’expliquer rapidement pourquoi et ce qui cloche avec les arguments mis en avant dans l’article.

1. « H.264 est un standard ouvert »

Malheureusement H.264 est un format breveté et vous ne pouvez l’utiliser sans bourse délier. Conformément à la politique du W3C sur les brevets, cela est incompatible avec la définition d’un standard ouvert, spécialement dans le contexte du Web. D’après la définition même de « ouvert », H.264 ne peut être ouvert car il ne peut être utilisé sans payer.

2. « VP8 n’est pas un standard ouvert »

Ce point est exact, en effet. Le format VP8 est une technologie avec une spécification, pas un standard. Pourtant Google a choisi de concéder à chacun le droit de l’utiliser sans payer de redevance. Ce qui signifie que VP8 est en fait un bon candidat pour devenir un véritable standard ouvert pour le Web.

3. « H.264 est libre d’utilisation à certaines conditions »

Rappelez-vous que H.264 coûte toujours de l’argent. Et même si des produits avec une faible base d’utilisateurs peuvent être exemptés dans un premier temps, vous devez toujours ouvrir votre portefeuille à un moment donné si vous voulez réaliser quelque chose sur le Web. Le consortium MPEG-LA a intelligemment « offert » la première dose. Une fois que vous êtes accro, ils peuvent commencer à vous présenter la facture.

C’est un leurre destiné à vous appâter.

4. « Le support de H.264 n’est pas requis dans la spécification HTML5 »

Mais cela deviendrait un autre standard de fait, fermé, comme l’était Internet Explorer 6. Et nous avons tous à l’esprit les dégâts que cela a causés au Web.

5. « Google fournit Chrome avec le greffon Flash préinstallé ; son attitude est hypocrite »

Cela revient à comparer des pommes avec des poires. Flash est un greffon que Google a choisit de fournir en même temps que son navigateur car il y a beaucoup de contenus qui nécessitent Flash sur le Web. H.264, loin de n’être qu’un simple greffon, ferait partie du navigateur lui-même.

Une chose qu’il est important d’avoir à l’esprit c’est que Flash est d’ores et déjà omniprésent. Si vous voulez profiter de la vidéo sur le Web, vous n’avez pas le choix : il vous faut Flash. Pourtant la « bataille » de la vidéo directement dans le navigateur, via HTML5, fait toujours rage sans qu’on puisse encore désigner le vainqueur. Mais à présent que Google laisse tomber le codec fermé H.264 dans son navigateur, la probabilité qu’un codec libre et ouvert finisse par s’imposer augmente.

Que Google continue de fournir le greffon Flash avec son navigateur est parfaitement compréhensible. La plupart des contenus vidéo sur le Web sont en Flash et Google Chrome peut ainsi continuer de les afficher, en attendant qu’un codec ouvert s’impose pour la vidéo directement dans le navigateur. Il n’y a aucune hypocrisie ici, seulement du pragmatisme.

Finalement le reproche fait à Google de livrer le greffon Flash avec son navigateur sert à détourner l’attention de la véritable question : est-ce que la vidéo directement dans le navigateur se fera au moyen d’une technologie ouverte ou fermée ?

Mise à jour : Certains brandiront iOS comme contre-argument mais ça ne résiste pas à l’analyse. Il y a une raison pour laquelle beaucoup d’utilisateurs d’iPhone/iPad sont prêts à payer même pour des solutions de transcodage de piètre qualité sur iOS : ils ne peuvent accéder à la plupart des sites de vidéos. La raison pour laquelle iOS trace sa route avec H.264 c’est basiquement que YouTube (le site d’hébergement de vidéos de Google, qui s’avère être le plus important sur le Web) le supporte. La vaste majorité des sites vidéo requièrent encore Flash. Cela dit, je comprends que certains des fans les plus importants d’Apple soient ennuyés par l’initiative de Google de promouvoir WebM. Perdre le support de YouTube serait un coup terrible pour Apple.

6. « H.264 est partout et le Web n’existe pas en vase clos »

Le fait qu’un format soit répandu en dehors d’Internet ne signifie pas qu’il convient pour le Web. Puisque le Web nécessite des formats ouverts, H.264 n’est pas adapté comme format de référence pour le Web, par définition.

Et l’argument selon lequel H.264 est partout et chacun devra faire avec ne tient pas la route à mon avis. Des sites comme YouTube doivent convertir et compresser les vidéos de toute façon, de sorte que très peu d’entre elles sont publiées telles qu’elles sortent de votre caméra.

Autrement dit : la recompression sera toujours là, et au lieu de réencoder le fichier en H.264 pour réduire sa taille et le jouer en ligne, il peut très bien être réencodé dans un format ouvert.

7. « H.264 peut être utilisé à la fois pour les vidéos en Flash et les vidéos HTML5, assurant une transition douce »

Comme je l’ai déjà expliqué, les vidéos sont habituellement recompressées d’une façon ou d’une autre. En effet, la plupart des sites offrent des vidéos de différents débits et de différentes tailles. Ils convertissent déjà les vidéos ! ils pourraient simplement les convertir dans un format ouvert à la place.

8. « Les utilisateurs de Firefox pourraient voir les vidéos H.264 en utilisant le greffon développé par Microsoft »

Notez bien le mot « greffon ». Cela veut dire que nous abandonnons la vidéo HTML5 pour retourner aux greffons. Tous les bénéfices de la vidéo directement dans le navigateur s’évanouissent (sans compter que le greffon n’existe que pour Windows 7). Par contre je pense qu’il est raisonnablement facile d’ajouter le support de WebM à Safari et Internet Explorer en complétant la liste des codecs supportés par le système d’exploitation[2].

9. « La part de marché des navigateurs qui supportent H.264 dépasse celle des navigateurs qui supportent WebM »

Google, avec son monopole de la publicité en ligne, met les bouchées doubles pour que ça n’arrive pas. Si je ne me trompe pas, la part des navigateurs basés sur les standards ouverts croît au détriment d’Internet Explorer. Bien qu’il soit impossible de mesurer de manière fiable les parts de marché de chaque navigateur, la plupart des données semblent le confirmer.

10 « La décision de Google restreint le choix des utilisateurs »

Nous attaquons maintenant le cœur du problème. Et malheureusement, c’est le format H.264 qui supprime le choix. Pendant que le format WebM maintient le Web comme plateforme ouverte, H.264 est un standard fermé détenu par un cartel d’industriels qui essaie d’éradiquer sans ménagement toute tentative de faire émerger une alternative.

Je suis également estomaqué de voir que Google est accusé de restreindre le choix des utilisateurs alors que Microsoft et Apple ne sont même pas mentionnés. Ils refusent de supporter WebM après tout.

11. « VP8 est contrôlé par Google et est propriétaire »

Je ne suis pas certain que cela fasse partie des griefs mais c’est l’interprétation que j’en ai. Et c’est un grief non fondé. Lisez la licence de WebM pour plus d’information]. WebM est un projet libre sponsorisé par Google et il est gratuitement disponible du fait de sa licence.

Propos finaux :

L’article tente de montrer que la décision de Google conduit à moins d’ouverture. En réalité l’article met sur la table toutes sortes de choses qui sont sans rapport avec cette question. Cela, je crois, pour embrouiller les choses, alors que la question des standards ouverts est une des plus importantes !

Nous pouvons facilement analyser ce qui permet plus d’ouverture dans le contexte du Web :

  • H264 est breveté, c’est donc un standard « fermé ». Il est incompatible avec la politique du W3C sur le brevets pour un Web ouvert. Par conséquent, promouvoir H.264 comme format de référence pour la vidéo HTML5 est le contraire de promouvoir l’ouverture.
  • De l’autre côté, WebM correspond bien plus à la politique des brevets du W3C. Google concède à chacun le droit d’utiliser cette technologie sans payer de redevance. Puisque WebM est ouvert, il promeut un Web ouvert.

Conclusion : En rejetant ce qui ferme le Web tout en promouvant des technologies ouvertes, Google contribue à un Web plus ouvert contrairement à ce qu’affirme l’article.

Notes

[1] Crédit photo : Justin De La Ornellas (Creative Commons By)

[2] Télécharger les codecs libres et gratuits WebM/VP8, Ogg Theora et Ogg Vorbis pour Windows – Télécharger le codec libre et gratuit WebM/VP8 pour MacOS avec les codecs libres et gratuits Ogg Vorbis et Ogg Theora pour MacOS (déposer le fichier dans votre bibliothèque QuickTime située sur votre disque dur à cet endroit : Macintosh HD/Bibliothèque/QuickTime).




L’accueil, le Sud et la défense d’Internet : des défis majeurs à venir pour Wikipédia

Enokson - CC byL’extraordinaire encyclopédie libre Wikipédia a 10 ans et c’est naturellement l’occasion de faire des bilans.

Nous avons préféré ici nous projeter dans l’avenir en compagnie de Sue Gardner, à la tête de la Wikimedia Foundation depuis 2007 (dont Jimbo Wales en personne nous dit que le recrutement fut certainement « l’une des meilleures décisions que nous ayons jamais prise au cours de cette première décennie »).

L’accueil[1] et la diversification de nouveaux éditeurs, l’ouverture au monde et tout particulièrement vers « le Sud » et son utilisation croissante des terminaux mobiles, mais aussi l’inquiétude (ô combien partagée) de l’émergence de lois potentiellement liberticides pour Internet et de ce que pourrait faire ensemble les Wikipédiens pour le défendre, sont quelques uns des thèmes abordés ici.

Rendre Wikipédia plus accueillant : un véritable défi

The battle to make Wikipedia more welcoming

Olivia Solon – 10 janvier 2011 – Wired.co.uk
(Traduction Framalang : Olivier Rosseler, Martin et Goofy)

L’un des défis majeurs pour Wikipedia est d’étendre sa base de collaborateurs. Ce ne sont pas les volontaires qui manquent, le problème vient plutôt de l’accueil pas très chaleureux qui est réservé aux novices. Sue Gardner, directrice exécutive de la fondation Wikimédia, annonce des mesures pour y remédier, dans une interview donnée à Wired.co.uk.

Le profil du contributeur de Wikipédia moyen, pour sa version anglaise est le suivant : homme (88%), jeune (pas encore tout à fait trentenaire), féru de technique, disposant d’une bonne éducation et qui habite dans l’hémisphère nord. Pour cette raison, les centres d’intérêt de l’encyclopédie tournent plus autour de l’informatique, de l’astronomie ou de la culture populaire qu’autour de l’agriculture, de l’art au moyen-âge ou de la linguistique, par exemple.

Afin de corriger ce déséquilibre, et pour élargir sa base de contributeurs et la rendre plus représentative de la population mondiale, Wikipédia est sur le point de lancer une campagne d’accompagnement des novices pour leurs 100 premières éditions. Cela implique de se pencher sur l’ergonomie du site, mais il s’agit surtout de s’assurer que les contributeurs chevronnés se montrent plus accueillants pour les nouveaux éditeurs.

Sue Gardner, directrice générale (NdT : Executive Director) de la fondation Wikimedia, se confie à Wired.co.uk : « Les Wikipédiens ne se montrent pas toujours très compréhensifs avec les nouveaux arrivants qui ne maîtrisent pas encore tout à fait l’outil et les règles. On parle beaucoup de « septembre sans fin » (NdT : endless September) – un terme inventé par Dave Fisher pour décrire le débarquement annuel d’étudiants qui se créaient leur premier adresse mail aux débuts d’Internet – et lorsque je suis entrée chez Wikimédia, l’idée de recruter de nouveaux contributeurs rencontrait énormément de résistance. »

« Les contributeurs de Wikipédia veulent que l’encyclopédie soit de très bonne qualité, et ils ne voient donc pas forcément d’un bon œil l’arrivée de personnes qui n’en connaissent pas les valeurs et les processus de publication. Il n’y avait pas une bonne perception de ce que pouvaient apporter de nouveaux éditeurs. »

Les contributeurs mystérieux

Après deux ans de discussions internes, les choses sont en train de changer. Une évolution majeure a été réalisée quand des contributeurs expérimentés ont mené une expérience en se faisant passer pour des contributeurs anonymes pour voir comment leurs modifications étaient reçues. Ils ont pu constater qu’elles avaient été annulées ou supprimées même si leurs contributions étaient d’aussi bonne qualité que celles faites en leur nom. On ne prenait même, en général, pas la peine de leur expliquer pourquoi elles étaient effacées.


Gardner ajoute : « je pense que maintenant nous comprenons le problème, mais il nous reste à évaluer notre gestion des 100 premières contributions, qui sont si cruciales. ».

Ils projettent de modifier l’interface, pour la rendre plus accueillante, avec plus de messages encourageants. Contrairement à d’autres sites où le contenu est généré par les utilisateurs, Wikipédia a toujours évité de contacter ses utilisateurs par e-mail. Mais envoyer des messages comme « Untel a apporté des modifications à l’article que vous avez rédigé » ou « Vous avez édité cet article, peut-être voudriez-vous également éditer celui-ci » renforcerait peut-être l’adhésion au site des nouveaux utilisateurs.

Mais au-delà des modifications de l’interface, la communauté tente d’inciter ses contributeurs actifs à être plus accueillants. Le but est de les encourager à adopter le même comportement avec les anciens qu’avec les novices.

« On ne peut pas vous assurer de ne pas rencontrer de méchanceté sur Wikipédia, mais il nous faut encourager les discussions constructives, » nous dit Gardner.

L’un des plus gros défis de Wikimédia est d’encourager les contributions du « Sud » (au sens économique). Fruit d’une année de discussions collaboratives, la stratégie établie est de mettre l’accent sur les pays moins développés économiquement.

Actuellement, la version anglaise de Wikipédia compte le plus grand nombre d’articles (plus de 3 500 000), viennent ensuite la version allemande, puis la version française, avec plus d’un million d’articles chacune. On dénombre quasiment 300 versions de Wikipédia dans d’autres langues, qui affichent entre un et 750 000 articles. Il y a environ 67 000 articles en Hindi, 55 000 en Urdu et 21 000 en Swahili, par exemple.

2011 verra l’ouverture du premier bureau hors des États-Unis, en Inde. Ce sera la première initiative de « plusieurs tentatives d’incursion dans des parties du monde où les contributeurs et les utilisateurs potentiels sont nombreux, mais ces possibilités sont encore bridées » d’après Gardner. L’amérique latine et les pays arabophones sont les prochains sur la liste.

Wikipédia souhaite recruter de nouveaux éditeurs, mieux faire connaître ses besoins, faciliter techniquement l’édition et accélérer le site. L’idée est d’éviter que Wikipédia ne soit une encyclopédie rédigée par des gens uniquement dans les pays riches.

Pour corriger ce déséquilibre géographique, il faudra travailler sur l’énorme barrière que représente l’interface pour mobiles. Dans les pays en voie de développement, la majorité des personnes accède au Web grâce à leur mobile. Même si Wikipédia est optimisée pour être lue sur un téléphone portable, contribuer à l’encyclopédie à partir d’un mobile reste très difficile. Il y a bien une éditrice de la version indonésienne de Wikipédia qui y parvient grâce à un clavier externe connecté à son téléphone, mais « ça à l’air extrêmement laborieux », d’après Gardner.

Elle s’interroge : « La question préalable demeure : est-il possible de créer une interface d’édition ergonomique sur téléphone portable ? »

Une autre menace se fait de plus en plus sentir : l’instabilité des lois. Actuellement, aux États-Unis, Wikipédia est protégée des poursuites si un contributeur met en ligne quelque chose de diffamatoire par le Communications Decency Act. Sans ce régime de responsabilité favorable, il serait presque impossible pour Wikipédia de maintenir son modèle d’encyclopédie rédigée par les utilisateurs.

Gardner dit : « Nous devons sans cesse nous faire entendre pour définir ce qu’Internet doit être à nos yeux. Dans les premières années, le pouvoir législatif s’est contenté d’observer son développement, mais maintenant il veut de plus en plus avoir son mot à dire. »

Elle se dit inquiète des interventions de plus en plus fréquentes des gouvernements qui censurent le Web à l’échelle nationale, comme l’Australie qui a mis en place une liste noire des sites interdits à ses concitoyens ou encore comme le Royaume-Uni, en la personne de Ed Vaizey, qui demande aux fournisseurs d’accès de se montrer plus stricts sur le pornographie pour combattre l’exposition trop précoce des enfants au sexe (NdT : Elle aurait également pu citer la France avec sa loi LOPPSI 2 !).

« Au début, on pensait qu’Internet ne connaîtrait pas de frontières. Mais on se rend de plus en plus compte que d’un pays à l’autre, la manière de l’utiliser diffère fortement. J’aimerais vraiment que les Wikipédiens aient voix au chapitre sur ce point ». Elle cite l’expérience d’eBay Main Street Initiative, le volet « local » du site d’e-commerce qui informe les vendeurs des projets législatifs qui pourraient les concerner, comme modèle à imiter. Ils encouragent ainsi les vendeurs sur eBay à faire pression sur le gouvernement lorsque leurs intérêts sont menacés. Ils les incitent à écrire des lettres, à envoyer des e-mails ou encore à appeler leurs élus lors des débats importants.

« J’aimerais que les Wikipédiens s’engagent de cette manière afin d’influencer le développement d’Internet. » ajoute-t-elle.

À quoi donc ressemblera Wikipédia dans 10 ans ? « J’aimerais qu’elle soit plus complète, qu’elle soit plus dense. La version anglaise est vraiment impressionnante, mais la variété de son contenu réflète malheureusement la catégorie sociale prédominante des éditeurs. J’aimerais au contraire que, pour toutes les langues, le contenu bénéficie des connaissances et du savoir de toute la population. »

Notes

[1] Crédit photo : Enokson (Creative Commons By)




Wikipédia fête ses 10 ans !

C’est fou ça, demain 15 janvier 2011 « le plus beau projet du XXIe siècle » fête ses dix ans d’existence ! C’est si loin et si proche en même temps…

Wikipédia ne manque jamais de reconnaître ce qu’il doit au logiciel libre. Aujourd’hui la réciproque est tout aussi vraie.

Quant à nous, nous avons modestement mis à contribution nos traducteurs de Framalang pour sous-titrer ci-dessous l’annonce de son fondateur Jimbo Wales.

Bon anniversaire et grand merci, et plutôt dix fois qu’une !

—> La vidéo au format ogv
—> Le fichier de sous-titres

Transcript du sous-titrage

URL d’origine du document

Bonjour. Je m’appelle Jimmy Wales, je suis le fondateur de Wikipédia, et aujourd’hui, nous célébrons le dixième anniversaire de Wikipédia.

Difficile d’imaginer que cela fait déjà dix ans que j’ai lancé ce projet.

Je me rappelle le premier jour : j’ai cliqué sur « Modifier » et écrit « Bonjour le monde », et c’était le début de Wikipédia et de tout ce qui a suivi.

Désormais, nous avons des millions d’articles dans des centaines de langues. Environ 400 millions de personnes visitent le site chaque mois et c’est quelque chose de tout simplement stupéfiant. Si vous songez à l’impact sur notre culture, c’est renversant… et c’est entièrement grâce à vous.

Je veux remercier tous ceux qui ont aidé. Je veux remercier ceux qui ont édité Wikipédia, contribuant à cette formidable base de connaissances. Je veux remercier tous ceux qui consultent Wikipédia, qui se soucient des idées et de la connaissance.

Nous l’avons créée pour ça. Pour que vous l’utilisiez.

J’ai une petite requête à adresser à chacun de vous. Même si nous avons des millions d’articles, même si nous existons dans des centaines de langues, il reste beaucoup de travail à accomplir. C’est pourquoi j’aimerais que ceux qui n’y ont jamais contribué essayent. Cliquez sur « Modifier ». Vous voyez des erreurs ? Corrigez-les. Rien ne nous fait plus plaisir.

Et donc… Bon anniversaire Wikipédia.

Wikipédia : 10 années de partage de la somme de nos connaissances.




Ce que pense Stallman de Chrome OS et du Cloud Computing

Jean-Baptiste Paris - CC by-saIl y a un mois Google annonçait la sortie du Cr 48, premier prototype de netbook tournant sous Chrome OS. Avec cet OS d’un nouveau genre vos applications, vos fichiers, vos données, etc. sont déplacés sur le Web, votre ordinateur n’est plus qu’un terminal permettant d’y avoir accès. C’est en apparence fort pratique (et c’est de qualité Google) mais il y a un réel risque de sacrifier sa liberté, individuelle et collective, sur l’autel de notre confort.

Du coup le Guardian en profita pour demander son avis au gardien du temple qu’est Richard Stallman[1].

Tout comme la critique de Facebook, ce qui se cache derrière Google Chrome OS, c’est le cloud computing, c’est-à-dire, d’après Wikipédia, le « concept de déportation sur des serveurs distants des traitements informatiques traditionnellement localisés sur le poste utilisateur ».

D’autres appellent cela « l’informatique dans les nuages » mais Stallman nous invite ici à prendre garde à cette appellation trompeuse que l’on a trop vite fait de connoter positivement (et d’évoquer alors plutôt une « careless computing », c’est-à-dire une informatique negligente ou imprudente).

Son point de vue sera-t-il partagé, en paroles et en actes, au delà des initiés du réseau ? Le doute est malheureusement permis. Et tout comme Facebook, il y a de bonnes chances pour que les ordinateurs Google Chrome OS soient bien le succès annoncé.

Lire aussi la suite de ce billet : Ce que pensent les internautes de ce que pense Stallman sur le Cloud Computing.

Embrasser ChromeOS, c’est accepter de perdre le contrôle de ses données, nous avertit Richard Stallman, fondateur de GNU

Google’s ChromeOS means losing control of data, warns GNU founder Richard Stallman

Charles Arthur – 14 décembre 2010 – The Guardian (Blog Technology)
(Traduction Framalang : Olivier Rosseler)

Le nouveau système d’exploitation dans les nuages de Google, ChromeOS, va « entraîner les gens à utiliser l’informatique imprudemment » en les forçant à stocker leurs données dans les nuages plutôt que sur leur machine. Telle est la mise en garde de Richard Stallman, fondateur de la Free Software Foundation et créateur du système d’exploitation GNU.

Il y a deux ans, Stallman, un vieux de la veille dans le domaine de l’informatique, et un ardent défenseur des logiciels libres à travers sa Free Software Foundation, prévenait qu’utiliser intensivement l’informatique dans les nuages était « pire que stupide », car alors l’utilisateur perd le contrôle de ses données.

Il se dit maintenant de plus en plus inquiet à cause de la sortie de ChromeOS, le nouveau système d’exploitation de Google, basé sur GNU/Linux, pensé pour stocker le moins possible de données localement. Il s’en remet plutôt à une connexion permanente avec le nuage de serveurs de Google, éparpillé dans le monde, pour assurer le stockage des informations sur les machines de l’entreprise plutôt que sur la vôtre.

Stallman ajoute : « Aux États-Unis, vous perdez vos droits sur vos données si vous les confiez aux machines d’une entreprise plutôt qu’à la vôtre. La police doit vous présenter un mandat pour saisir vos données, mais si elles sont hébergées sur le serveur d’une entreprise, la police peut y accéder sans rien vous demander. Ils peuvent même le faire sans présenter de mandat à l’entreprise. »

Google a entrepris un lancement en douceur de ChromeOS la semaine dernière, en présentant quelques fonctionnalités du système d’exploitation et en fournissant des machines de test à certains développeurs et journalistes tout en précisant que le lancement officiel n’aurait pas lieu avant le deuxième semestre 2011.

Eric Schmidt, patron de Google, en fait l’éloge sur son blog : « Ces annonces sont à mes yeux les plus importantes de toute ma carrière, c’est l’illustration du potentiel qu’a l’informatique de changer la vie des gens. Il est fascinant de voir à quel point des systèmes complexes peuvent produire des solutions simples comme Chrome et ChromeOS, adaptées à tout public. » Puis il poursuit : « À mesure que les développeurs se familiarisent avec notre ordinateur de démonstration, le Cr-48, ils découvriront que malgré sa jeunesse, il fonctionne incroyablement bien. Vous retrouverez toutes vos habitudes, mais avec des logiciels clients qui vous permettront de pleinement profiter de la puissance du Web. »

Mais Stallman reste de glace. « Je crois que informatique dans les nuages ça plaît aux marketeux, parce que ça ne veut tout simplement rien dire. C’est plus une attitude qu’autre chose au fond : confions nos données à Pierre, Paul, Jacques, confions nos ressources informatiques à Pierre, Paul, Jacques (et laissons-les les contrôler). Le terme « informatique imprudente » conviendrait peut-être mieux. »

Il voit un problème rampant : « Je suppose que beaucoup de gens vont adopter l’informatique imprudente, des idiots naissent chaque minute après tout. Le gouvernement américain pourrait encourager les gens à stocker leurs données là où ils peuvent les saisir sans même leur présenter de mandat de perquisition, plutôt que chez eux. Mais tant que nous serons suffisamment nombreux à conserver le contrôle de nos données, personne ne nous empêchera de le faire. Et nous avons tout intérêt à le faire, de peur que ce choix ne nous soit un jour totalement retiré. »

La responsabilité des fournisseurs de services dans les nuages a bénéficié d’un gros coup de projecteur durant la dernière quinzaine lorsqu’Amazon a banni Wikileaks de son service d’informatique dans les nuages EC2, invoquant, unilatéralement et sans proposer de médiation, le non respect des conditions d’utilisation par le site.

Le seul point positif de ChromeOS pour Stallman est sa base : GNU/Linux. « Au fond, ChromeOS est un système d’exploitation GNU/Linux. Mais il est livré sans les logiciels habituels, et il est truqué pour vous décourager de les installer ». Il poursuit : « c’est le but dans lequel ChromeOS a été créé qui me dérange : vous pousser à confier vos données à un tiers et accomplir vos tâches ailleurs que sur votre propre ordinateur ».

Stallman met de plus en garde les hackers en herbe contre le logiciel LOIC, présenté comme un moyen d’exprimer sa colère contre les sites ayant pris des mesures contre Wikileaks, non pas car il est contre ces actions, mais parce que le code source de l’outil n’est pas ouvert aux utilisateurs. « Pour moi, utiliser LOIC sur le réseau c’est pareil que descendre dans la rue pour protester contre les boutiques qui pratiquent l’évasion fiscale à Londres. Il ne faut accepter aucune restriction au droit de protester » note-t-il. « (Mais) si les utilisateurs ne peuvent pas compiler eux-même le logiciel, alors ils ne devraient pas lui faire confiance. »

Mise à jour : Richard Stallman nous écrit : « Un article de la BBC rapportait que quelqu’un de chez Sophos disait que LOIC est un « logiciel inconnu », et j’ai cru qu’il entendait par là « propriétaire », mais je me suis trompé. En fait, LOIC est un logiciel libre, et donc les utilisateurs ont accès au code source et peuvent le modifier. Ses rouages ne sont pas obscurs comme ceux de Windows, de MacOS ou d’Adobe Flash Player, et personne ne peut y cacher de fonctionnalités malicieuses, comme c’est le cas pour ces programmes. »

Lire aussi la suite de ce billet : Ce que pensent les internautes de ce que pense Stallman sur le Cloud Computing

Notes

[1] Crédit photo : Jean-Baptiste Paris (Creative Commons By-Sa)




Où est le bouton « J’aime pas » Facebook ?

ZuckRépondons sans attendre à la question du titre. Vous trouverez la version française du bouton « J’aime pas » Facebook, ci-dessous, sur le Framablog ! Explications…

Il aurait pu faire comme Le Monde et désigner Julian Assange mais non, le célèbre hebdomadaire américain Time Magazine a choisi le fondateur de Facebook Mark Zuckerberg comme Personnalité de l’année 2010.

Et cette décision est restée un peu en travers de la gorge de la Free Software Foundation, qui du coup vous propose une contre-offensive en détournant ce pernicieux espion traceur que représente le bouton Facebook « J’aime », qui pullule déjà sur d’aussi naïfs que nombreux sites.

Bouton que notre ami Poupoul2 s’est fait un plaisir d’adapter à notre langue et que vous trouverez en pièce-jointe (au format .SVG) à la fin de la traduction du billet de la FSF expliquant et justifiant cette action.

À partager et diffuser sans modération si affinités dans la démarche.

J'aime pas Facebook

Mark Zuckerberg, personnalité de l’année selon TIME Magazine ? Où est le bouton « J’aime pas » ?

Mark Zuckerberg is TIME Magazine’s Person of the Year? Where’s the “dislike” button?

Matt Lee et John Sullivan – 4 janvier 2011 – FSF.org
(Traduction Framalang : Julien et Antistress)

TIME Magazine fait l’éloge de Mark Zuckenberg pour avoir créé un système qui a interconnecté les gens du monde entier.

Malheureusement, les conditions sous lesquelles il prétend avoir réalisé cela a créé un épouvantable précédent pour notre avenir — s’agissant de la maîtrise des logiciels que nous utilisons pour interagir avec les autres, du contrôle de nos données et de notre vie privée. Les dégâts ne sont pas limités aux utilisateurs de Facebook. Parce que tant de sites — y Compris TIME — utilisent le bouton Facebook « J’aime » de traçage des internautes, Zuckerberg, est capable de collecter des informations sur des personnes qui ne sont même pas utilisatrices de son site. Ce sont des précédents qui entravent notre capacité à nous connecter librement les uns aux autres. Il a créé un réseau qui est avant tout une mine d’or pour la surveillance gouvernementale et les annonceurs publicitaires.

Tout cela est bien connu s’agissant du comportement du site Facebook lui-même et de ses relations avec l’extérieur — mais les choses pourraient s’avérer en fait bien pires. Les utilisateurs de Facebook ne se connectent pas directement entre eux. Ils parlent à M. Zuckenberg qui commence par enregistrer et stocker tout ce qui est dit, et, alors seulement, le transmet éventuellement à l’utilisateur destinataire, si ce qui est dit lui convient. Dans certains cas, il ne le fait pas — comme en sont témoins les récents comptes-rendus montrant que le service de messagerie de Facebook bloque des messages en se basant sur les mots et liens qu’ils contiennent, parce que ces liens pointent vers des services que Facebook préférerait que l’on évite de mentionner.

Heureusement, il y a de nombreux efforts en cours pour fournir des services distribués, contrôlés par l’utilisateur, permettant de faciliter la mise en relation entre les gens, dont GNU social, status.net, Crabgrass, Appleseed et Diaspora. Ces services n’auront pas les mêmes types de problèmes parce qu’à la fois le code permettant le fonctionnement du réseau et les données échangées seront entre les mains des gens qui communiquent.

Ces efforts finiront par être couronnés de succès. Nous espérons que, lorsque ce sera le cas, TIME réparera son erreur d’appréciation en décernant le titre de la Personnalité de l’année avec plus de discernement.

Not Facebooked Me - FSF

Copiez et collez ce code dans votre propre site :

<a href="http://www.fsf.org/fb"><img src="http://static.fsf.org/nosvn/no-facebook-me.png" alt="Not f'd — you won't find me on Facebook" /></a>

En attendant, vous pouvez encourager les gens à ne pas se connecter à Zuckenberg lorsqu’ils croient qu’ils se mettent en rapport avec vous, en plaçant ce bouton sur votre blogue ou site web, avec un lien vers la méthode que vous préférez qu’ils utilisent pour vous contacter directement — peut-être votre compte sur identi.ca ou tout autre serveur status.net.

Sinon, vous pouvez faire pointer un lien vers ce billet ou tout autre article qui souligne les problèmes avec Facebook, tel que « Des amis tels que ceux-ci… » (NdT : dont il existe une traduction en français) de Tom Hodgkinson, ou les ressources disponibles sur http://autonomo.us — en particulier la « Déclaration sur la Liberté et les Services Réseaux de Franklin Street » (NdT : nommée d’après l’adresse des bureaux de la FSF à Boston).

Notre bouton n’est évidemment pas relié à une quelconque base de données de surveillance ou autre système de traçage.

Téléchargez notre bouton « J’aime pas » et ajoutez le à votre site web, ou imprimez vos propres autocollants.

Tous les boutons sont mis à disposition sous la licence Creative Commons Paternité – Partage des Conditions Initiales à l’Identique (CC BY SA).

Vous êtes libre de modifier les boutons, mais veuillez garder la mention des créateurs originaux intacte, et assurez-vous que vos boutons soient sous la même licence.

Vous ne me trouverez pas sur Facebook




Longue vie au Web, par Tim Berners-Lee

Neal Fowler - CC By « Sir » Tim Berners-Lee, le père du Web, a livré ce week-end au magazine Scientific American, une analyse complète lucide et accessible des menaces qui pèsent aujourd’hui sur ce curieux phénomène qui depuis vingt ans a changé la face du monde : Internet.

En termes simples, Berners-Lee revient sur l’universalité de ce réseau, qui n’a pu se développer que grâces à des conditions initiales propices :

  • Une technique simple et libre, donc bidouillable par chacun dans son coin;
  • Une conception décentralisée, permettant une croissance tous azimuts;
  • Le principe de neutralité du réseau, qui permet à tous de proposer du contenu.

Or, force est de constater que ces conditions, qui ont démarqué ce que nous appelons aujourd’hui « Internet » des autres tentatives de mise en réseau à grande échelle d’ordinateurs de par le monde, sont attaquées et mises en péril par de grandes entreprises, et, presque comme une conséquence par de nombreux gouvernements. [1]

À la lecture de ce texte, on peut également se rendre compte que la France est malheureusement en bonne position parmi les gouvernements les plus hostiles au réseau, et que la HADOPI, comme un pavé jeté dans la mare, éclabousse effectivement de honte le pays des droits de l’Homme face à ses voisins. Contrastant par exemple clairement avec le droit au haut débit pour tous mis en place par la Finlande et lui aussi mentionné par Berners-Lee.

Toutefois, la principale qualité de cette riche synthèse est son ton résolument grand public, qui a mobilisé l’équipe Framalang tout un week-end pour venir à bout de la traduction des 6 pages de l’article original en moins de 48h.

Longue vie au Web ! Un appel pour le maintien des standards ouverts et de la neutralité

Long Live the Web, A Call for Continued Open Standards and Neutrality

Tim Berners-Lee – lundi 22 novembre – ScientificAmerican.com
Traduction Framalang : Goofy, Pablo, Seb seb, Misc, Siltaar

Le Web est un enjeu crucial non seulement pour la révolution numérique mais aussi pour notre prospérité — et même pour notre liberté. Comme la démocratie elle-même, il doit être défendu.

Le world wide web est venu au monde, concrètement, sur mon ordinateur de bureau à Genève en Suisse en décembre 1990. Il était composé d’un site Web et d’un navigateur, qui d’ailleurs se trouvaient sur la même machine. Ce dispositif très simple faisait la démonstration d’une idée fondamentale : n’importe qui pouvait partager des informations avec n’importe qui d’autre, n’importe où. Dans cet esprit, le Web s’est étendu rapidement à partir de ces fondations. Aujourd’hui, à son 20ème anniversaire, le Web est intimement mêlé à notre vie de tous les jours. Nous considérons qu’il va de soi, nous nous attendons à ce qu’il soit disponible à chaque instant, comme l’électricité.

Le Web est devenu un outil puissant et omniprésent parce qu’il a été conçu suivant des principes égalitaires et parce que des milliers d’individus, d’universités et d’entreprises ont travaillé, à la fois indépendamment et ensemble en tant que membres du World Wide Web Consortium, pour étendre ses possibilités en se fondant sur ces principes.

Le Web tel que nous le connaissons, cependant, est menacé de diverses façons. Certains de ses plus fameux locataires ont commencé à rogner sur ses principes. D’énormes sites de réseaux sociaux retiennent captives les informations postées par leurs utilisateurs, à l’écart du reste du Web. Les fournisseurs d’accés à Internet sans fil sont tentés de ralentir le trafic des sites avec lesquels ils n’ont pas d’accords commerciaux. Les gouvernements — qu’ils soient totalitaires ou démocratiques — surveillent les habitudes en ligne des citoyens, mettant en danger d’importants droits de l’Homme.

Si nous, les utilisateurs du Web, nous permettons à ces tendances et à d’autres encore de se développer sans les contrôler, le Web pourrait bien se retrouver fragmenté en archipel. Nous pourrions perdre la liberté de nous connecter aux sites Web de notre choix. Les effets néfastes pourraient s’étendre aux smartphones et aux tablettes, qui sont aussi des portails vers les nombreuses informations fournies par le Web.

Pourquoi est-ce votre affaire ? Parce que le Web est à vous. C’est une ressource publique dont vous, vos affaires, votre communauté et votre gouvernement dépendent. Le Web est également vital pour la démocratie, en tant que canal de communication qui rend possible une conversation globale permanente. Le Web est désormais plus crucial pour la liberté d’expression que tout autre média. Il transpose à l’âge numérique les principes établis dans la constitution des États-Unis, dans la Magna Carta britannique et d’autres textes fondateurs : la liberté de ne pas être surveillée, filtrée, censurée ni déconnectée.

Pourtant les gens semblent penser que le Web est en quelque sorte un élément naturel, et que s’il commence à dépérir, eh bien, c’est une de ces choses malheureuses contre lesquelles on ne peut rien faire. Or il n’en est rien. Nous créons le Web, en concevant les protocoles pour les ordinateurs et les logiciels. Ce processus est entièrement entre nos mains. C’est nous qui choisissons quelles caractéristiques nous voulons qu’il ait ou non. Il n’est absolument pas achevé (et certainement pas mort). Si nous voulons contrôler ce que fait le gouvernement, ce que font les entreprises, comprendre dans quel état exact se trouve la planète, trouver un traitement à la maladie d’Alzheimer, sans parler de partager nos photos avec nos amis, nous le public, la communauté scientifique et la presse, nous devons nous assurer que les principes du Web demeurent intacts — pas seulement pour préserver ce que nous avons acquis mais aussi pour tirer profit des grandes avancées qui sont encore à venir.

L’universalité est le principe fondateur

Il existe des principes-clés pour s’assurer que le Web devienne toujours plus précieux. Le premier principe de conception qui sous-tend l’utilité du Web et son développement, c’est l’universalité. Lorsque vous créez un lien, vous pouvez le diriger vers n’importe quoi. Cela signifie que chacun doit être capable de mettre tout ce qu’il veut sur le Web, quel que soit l’ordinateur, le logiciel utilisé ou la langue parlée, peu importe qu’on ait une connexion avec ou sans wifi. Le Web devrait être utilisable par des personnes handicapées. Il doit fonctionner avec n’importe quelle information, que ce soit un document ou un fragment de données, quelle que soit la qualité de l’information — du tweet crétin à la thèse universitaire. Et il devrait être accessible avec n’importe quel type de matériel connectable à Internet : ordinateur fixe ou appareil mobile, petit ou grand écran.

Ces caractéristiques peuvent paraître évidentes, allant de soi ou simplement sans importance, mais ce sont grâce à elles que vous pourrez voir apparaître sur le Web, sans aucune difficulté, le site du prochain film à succès ou la nouvelle page d’accueil de l’équipe locale de foot de votre gamin. L’universalité est une exigence gigantesque pour tout système.

La décentralisation est un autre principe important de conception. Vous n’avez nul besoin de l’approbation d’une quelconque autorité centrale pour ajouter une page ou faire un lien. Il vous suffit d’utiliser trois protocoles simples et standards : écrire une page en HTML (langage de balisage hypertextuel), de la nommer selon une norme d’URI (identifiant uniforme de ressource), et de la publier sur Internet en utilisant le protocole HTTP (protocole de transfert hypertexte). La décentralisation a rendu possible l’innovation à grande échelle et continuera de le faire à l’avenir.

L’URI est la clé de l’universalité (à l’origine j’ai appelé le procédé de nommage URI, Universal Resource Identifier – Identifiant Universel de Ressource ; par la suite il est devenu URL, Uniform Resource Locator – Localisateur Uniforme de Ressource). L’URI vous permet de suivre n’importe quel lien, indépendamment du contenu vers lequel il pointe ou de qui publie ce contenu. Les liens transforment le contenu du Web en quelque chose de plus grande valeur : un espace d’information inter-connecté.

Plusieurs menaces à l’encontre de l’universalité du Web sont apparues récemment. Les compagnies de télévision par câble qui vendent l’accès à Internet se demandent s’il faut pour leurs clients limiter le téléchargement à leurs seuls contenus de divertissement. Les sites de réseaux sociaux présentent un problème différent. Facebook, LinkedIn, Friendster et d’autres apportent essentiellement une valeur en s’emparant des informations quand vous les saisissez : votre date de naissance, votre adresse de courriel, vos centres d’intérêts, et les liens qui indiquent qui est ami avec qui et qui est sur quelle photo. Les sites rassemblent ces données éparses dans d’ingénieuses bases de données et réutilisent les informations pour fournir un service à valeur ajoutée — mais uniquement sur leurs sites. Une fois que vous avez saisi vos données sur un de ces services, vous ne pouvez pas facilement les utiliser sur un autre site. Chaque site est un silo, séparé des autres par une cloison hermétique. Oui, vos pages sur ces sites sont sur le Web, mais vos données n’y sont pas. Vous pouvez accéder à une page Web contenant une liste de gens que vous avez rassemblée au même endroit, mais vous ne pouvez pas envoyer tout ou partie de cette liste vers un autre site.

Cette compartimentation se produit parce que chaque élément d’information est dépourvu d’URI. L’interconnexion des données existe uniquement à l’intérieur d’un même site. Ce qui signifie que plus vous entrez de données, et plus vous vous enfermez dans une impasse. Votre site de réseau social devient une plateforme centrale — un silo de données fermé, qui ne vous donne pas le plein contrôle sur les informations qu’il contient. Plus ce genre d’architecture se répand, plus le Web se fragmente, et moins nous profitons d’un unique espace d’information universel.

Un effet pervers possible est qu’un site de réseau social — ou un moteur de recherche, ou un navigateur — prenne une telle ampleur qu’il devienne hégémonique, ce qui a tendance à limiter l’innovation. Comme cela s’est produit plusieurs fois depuis les débuts du Web, l’innovation permanente du plus grand nombre peut être la meilleure réponse pour contrer une entreprise ou un gouvernement quelconque qui voudrait saper le principe d’universalité. GnuSocial et Diaspora sont des projets sur le Web qui permettront à chacun de créer son propre réseau social sur son propre serveur, et de se connecter à d’autres sur leur site. Le projet Status.net, qui fait tourner des sites comme Identi.ca, vous permet de monter votre propre réseau de micro-blogage à la manière de Twitter mais sans la centralisation induite par Twitter.

Les standards ouverts sont le moteur de l’innovation

Permettre à chaque site d’être lié à n’importe quel autre est nécessaire mais pas suffisant pour que le Web ait une armature solide. Les technologies de base du Web, dont les particuliers et les entreprises ont besoin pour développer des services avancés, doivent être gratuites et sans redevance. Amazon.com, par exemple, est devenu une gigantesque librairie en ligne, puis un disquaire, puis un immense entrepôt de toutes sortes de produits, parce que l’entreprise avait un accès libre et gratuit aux standards techniques qui sous-tendent le Web. Amazon, comme tout usager du Web, a pu utiliser le HTML, l’URI et le HTTP sans avoir à en demander l’autorisation à quiconque et sans avoir à payer pour cela. La firme a pu également bénéficier des améliorations de ces standards développées par le World Wide Web Consortium, qui permettent aux clients de remplir un bon de commande virtuel, de payer en ligne, d’évaluer les marchandises achetées et ainsi de suite.

Par « standards ouverts » je veux dire des standards à l’élaboration desquels peuvent participer tous les spécialistes, pourvu que leur contribution soit largement reconnue et validée comme acceptable, qu’elle soit librement disponible sur le Web et qu’elle soit gratuite (sans droits à payer) pour les développeurs et les utilisateurs. Des standards ouverts, libres de droits et faciles à utiliser génèrent l’extraordinaire diversité des sites Web, depuis les grands noms tels qu’Amazon, Craigslist et Wikipédia jusqu’aux blogs obscurs maintenus par des passionnés, en passant par les vidéos bricolées à la maison et postées par des ados.

La transparence signifie aussi que vous pouvez créer votre site Web ou votre entreprise sans l’accord de qui que ce soit. Au début du Web, je ne devais pas demander de permission ni payer de droits d’auteur pour utiliser les standards ouverts propres à Internet, tels que le célèbre protocole de contrôle de transmission (TCP) et le protocole Internet (IP). De même, la politique de brevets libres de droits du W3C (World Wide Web Consortium) dit que les entreprises, les universités et les individus qui contribuent au développement d’un standard doivent convenir qu’ils ne feront pas payer de droits d’auteur aux personnes qui pourraient l’utiliser.

Les standards libres de droits et ouverts ne signifient pas qu’une entreprise ou un individu ne peut pas concevoir un blog ou un programme de partage de photos et vous faire payer son utilisation. Ils le peuvent. Et vous pourriez avoir envie de payer pour ça, si vous pensez que c’est « mieux » que le reste. L’important est que les standards ouverts permettent un grand nombre d’options, gratuites ou non.

En effet, de nombreuses entreprises dépensent de l’argent pour mettre au point des applications extraordinaires précisément parce qu’elles sont sûres que ces applications vont fonctionner pour tout le monde, sans considération pour le matériel, le système d’exploitation ou le fournisseur d’accés internet (FAI) que les gens utilisent — tout ceci est rendu possible par les standards ouverts du Web. La même confiance encourage les scientifiques à passer des centaines d’heures à créer des bases de données incroyables sur lesquelles ils pourront partager des informations sur, par exemple, des protéines en vue de mettre au point des remèdes contre certaines maladies. Cette confiance encourage les gouvernements des USA ou du Royaume-Uni à mettre de plus en plus de données sur le réseau pour que les citoyens puissent les inspecter, rendant le gouvernement de plus en plus transparent. Les standards ouverts favorisent les découvertes fortuites : quelqu’un peut les utiliser d’une façon que personne n’a imaginée avant. Nous le voyons tous les jours sur le Web.

Au contraire, ne pas utiliser les standards ouverts crée des univers fermés. Par exemple, le systéme iTunes d’Apple identifie les chansons et les vidéos par des URI que l’on ouvre. Mais au lieu d’« http: », les adresses commencent par « itunes: » qui est propriétaire. Vous ne pouvez accéder à un lien « itunes: » qu’en utilisant le logiciel propriétaire iTunes d’Apple. Vous ne pouvez pas faire un lien vers une information dans l’univers iTunes, comme une chanson ou une information sur un groupe. L’univers iTunes est centralisé et emmuré. Vous êtes piégés dans un seul magasin, au lieu d’être sur une place ouverte. Malgré toutes les fonctionnalités merveilleuses du magasin, leurs évolutions sont limitées par ce qu’une seule entreprise décide.

D’autres entreprises créent aussi des univers fermés. La tendance des magazines, par exemple, de produire des « applis » pour smartphone plutôt que des applications Web est inquiétante, parce que ce contenu ne fait pas partie du Web. Vous ne pouvez pas le mettre dans vos signets, ni envoyer par email un lien vers une page pointant dessus. Vous ne pouvez pas le « tweeter ». Il est préférable de créer une application Web qui fonctionnera aussi sur les navigateurs des smartphones et les techniques permettant de le faire s’améliorent en permanence.

Certaines personnes pourraient penser que les univers fermés ne sont pas un problème. Ces univers sont faciles à utiliser et peuvent donner l’impression de leur apporter tout ce dont elles ont besoin. Mais comme on l’a vu dans les années 1990 avec le système informatique bas débit d’AOL, qui vous donnait un accès restreint à un sous-ensemble du Web, ces « jardins emmurés », qu’importe qu’ils soient agréables, ne peuvent rivaliser en diversité, en profusion et en innovation avec l’agitation démente du Web à l’extérieur de leurs portes. Toutefois, si un « clôt » a une emprise trop importante sur un marché cela peut différer sa croissance extérieure.

Garder la séparation entre le Web et l’Internet

Conserver l’universalité du Web et garder ses standards ouverts aide tout le monde à inventer de nouveaux services. Mais un troisième principe — la séparation des couches — distingue la conception du Web de celle de l’Internet.

Cette séparation est fondamentale. Le Web est une application tournant sur Internet, qui n’est autre qu’un réseau électronique transmettant des paquets d’information entre des millions d’ordinateurs en suivant quelques protocoles ouverts. Pour faire une analogie, le Web est comme un appareil électroménager qui fonctionne grâce au réseau électrique. Un réfrigérateur ou une imprimante peut fonctionner tant qu’il utilise quelques protocoles standards — aux États-Unis, on fonctionne sur du 120 volts à 60 hertz. De la même façon, chaque application — parmi lesquelles le Web, les courriels ou la messagerie instantanée — peut fonctionner sur Internet tant qu’elle suit quelques protocoles standards d’Internet, tels que le TCP et l’IP.

Les fabricants peuvent améliorer les réfrigérateurs et les imprimantes sans transformer le fonctionnement de l’électricité, et les services publics peuvent améliorer le réseau électrique sans modifier le fonctionnement des appareils électriques. Les deux couches de technologie fonctionnent en même temps mais peuvent évoluer indépendamment. C’est aussi valable pour le Web et Internet. La séparation des couches est cruciale pour l’innovation. En 1990 le Web se déploie sur Internet sans le modifier, tout comme toutes les améliorations qui ont été faites depuis. À cette période, les connexions Internet se sont accélérées de 300 bits par seconde à 300 millions de bits par seconde (Mbps) sans qu’il ait été nécessaire de repenser la conception du Web pour tirer profit de ces améliorations.

Les droits de l’homme à l’âge électronique

Bien qu’Internet et les principes du Web soient distincts, un utilisateur du Web est aussi un utilisateur d’Internet et par conséquent il compte sur un réseau dépourvu d’interférences. Dans les temps héroïques du Web, il était techniquement trop difficile pour une entreprise ou un pays de manipuler le Web pour interférer avec un utilisateur individuel. La technologie nécessaire a fait des bonds énormes, depuis. En 2007, BitTorrent, une entreprise dont le protocole de réseau « peer to peer » permet de partager les musiques, les vidéos et d’autres fichiers directement sur Internet, a déposé une plainte auprès de la FCC (commission fédérale des communications) contre le géant des fournisseurs d’accès Comcast qui bloquait ou ralentissait le trafic de ceux qui utilisaient l’application BitTorrent. La FCC a demandé à Comcast de cesser ces pratiques, mais en avril 2010 la cour fédérale a décidé que la FCC n’avait pas le droit de contraindre Comcast. Un bon FAI (Fournisseur d’Accès Internet) qui manque de bande passante s’arrangera souvent pour délester son trafic de moindre importance de façon transparente, de sorte que les utilisateurs soient au courant. Il existe une différence importante entre cette disposition et l’usage du même moyen pour faire une discrimination.

Cette différence met en lumière le principe de la neutralité du réseau. La neutralité du réseau garantit que si j’ai payé pour une connexion d’une certaine qualité, mettons 300 Mbps, et que vous aussi vous avez payé autant, alors nos communications doivent s’établir à ce niveau de qualité. Défendre ce principe empêcherait un gros FAI de vous transmettre à 300 Mbps une vidéo venant d’une société de média qu’il posséderait, tandis qu’il ne vous enverrait la vidéo d’une société concurrente qu’à une vitesse réduite. Cela revient à pratiquer une discrimination commerciale. D’autres situations complexes peuvent survenir. Que se passe-t-il si votre FAI vous rend plus facile l’accès à une certaine boutique en ligne de chaussures et plus difficile l’accès à d’autres ? Ce serait un moyen de contrôle puissant. Et que se passerait-il si votre FAI vous rendait difficile l’accès à des sites Web de certains partis politiques, de groupes à caractère religieux, à des sites parlant de l’évolution ?

Hélas, en août Google et Verizon ont suggéré pour diverses raisons que la neutralité ne doit pas s’appliquer aux connexions des téléphones portables. De nombreuses personnes dans des zones rurales aussi bien dans l’Utah qu’en Ouganda n’ont accés à l’Internet que par leur téléphone mobile. Exclure les accès sans fil du principe de neutralité laisserait ces utilisateurs à la merci de discriminations de service. Il est également bizarre d’imaginer que mon droit fondamental d’accés à la source d’information de mon choix s’applique quand je suis sur mon ordinateur en WiFi à la maison, mais pas quand j’utilise mon téléphone mobile.

Un moyen de communication neutre est la base d’une économie de marché juste et compétitive, de la démocratie et de la science. La polémique est revenue à l’ordre du jour l’année dernière pour savoir s’il est nécessaire qu’une législation gouvernementale protège la neutralité du réseau. C’est bien le cas. Même si généralement Internet et le Web se développent grâce à une absence de régulation, quelques principes fondamentaux doivent être protégés légalement.

Halte à l’espionnage

D’autres menaces envers le web résultent d’indiscrétions touchant Internet, ce qui inclut l’espionnage. En 2008, une entreprise du nom de Phorm a mis au point un moyen pour un FAI de fouiner dans les paquets d’informations qu’il envoie. Le fournisseur peut alors déterminer chaque URI sur laquelle un de ses clients a surfé, et ensuite créer un profil des sites que l’utilisateur a visités afin de produire des publicités ciblées.

Accéder à l’information contenue dans un paquet Internet est équivalent à mettre un téléphone sur écoute ou ouvrir le courrier postal. Les URI que les gens utilisent révèlent beaucoup de choses sur eux. Une entreprise ayant acheté les profils URI de demandeurs d’emploi pourrait les utiliser pour faire de la discrimination à l’embauche sur les idées politiques des candidats par exemple. Les compagnies d’assurance-vie pourraient faire de la discrimination contre les personnes qui ont fait des recherches concernant des symptômes cardiaques sur le Web. Des personnes mal intentionnées pourraient utiliser les profils pour traquer des individus. Nous utiliserions tous le Web de façon très différente si nous savions que nos clics pouvaient être surveillés et les données ainsi obtenues partagées avec des tierces personnes.

La liberté d’expression devrait être elle aussi protégée. Le Web devrait être semblable à une feuille de papier blanche : disponible pour y écrire, sans qu’on puisse contrôler ce qui y est écrit. Au début de cette année Google a accusé le gouvernement chinois d’avoir piraté ses bases de données pour récupérer les courriels des dissidents. Ces intrusions supposées ont fait suite au refus de Google d’obéir aux exigences du gouvernement, qui demandait à l’entreprise de censurer certains documents sur son moteur de recherche en langue chinoise.

Les régimes totalitaires ne sont pas les seuls qui violent les droits du réseau de leurs citoyens. En France une loi créée en 2009, appelée HADOPI, autorise une administration du même nom à déconnecter un foyer pendant un an si quelqu’un dans la maison est accusé par une compagnie de distribution de médias d’avoir téléchargé de la musique ou des vidéos. Suite à une forte opposition, en octobre le Conseil constitutionnel français a demandé qu’un juge soit saisi du dossier avant que l’accès à Internet ne soit coupé, mais si le juge l’accepte, le foyer familial pourra être déconnecté sans procédure légale digne de ce nom. Au Royaume-Uni, le Digital Economy Act, hâtivement voté en avril, autorise le gouvernement à demander à un FAI (Fournisseur d’Accès Internet) d’interrompre la connexion de quiconque figure dans une liste d’individus soupçonnés de violation de copyright. En septembre, le Sénat des États-Unis a introduit le Combating Online Infringement and Counterfeits Act (loi pour lutter contre la délinquance en ligne et la contrefaçon), qui devrait permettre au gouvernement de créer une liste noire de sites Web — qu’ils soient ou non hébergés aux USA — accusés d’enfreindre la loi, et d’obliger tous les FAI à bloquer l’accès des-dits sites.

Dans de tels cas de figure, aucune procédure légale digne de ce nom ne protège les gens avant qu’ils ne soient déconnectés ou que leurs sites soient bloqués. Compte-tenu des multiples façons dont le Web s’avère essentiel pour notre vie privée et notre travail, la déconnexion est une forme de privation de notre liberté. En s’inspirant de la Magna Carta, nous pourrions maintenant proclamer :

« Aucun individu ni organisation ne pourra être privé de la possibilité de se connecter aux autres sans une procédure légale en bonne et due forme qui tienne compte de la présomption d’innocence. »

Lorsque nos droits d’accès au réseau sont violés, un tollé général est déterminant. Les citoyens du monde entier se sont opposés aux exigences de la Chine envers Google, à tel point que la Secrétaire d’état Hillary Clinton a déclaré que le gouvernement des États-Unis soutenait la résistance de Google et que la liberté de l’Internet — et avec elle celle du Web — allait devenir une pièce maîtresse de la politique étrangère américaine. En octobre, la Finlande a fait une loi qui donne le droit à chaque citoyen d’avoir une connexion à haut débit de 1 Mbps.

Connexion vers l’avenir

Tant que les principes fondamentaux du Web seront maintenus, son évolution ultérieure ne dépendra d’aucun individu ni d’aucune organisation particulière — ni de moi, ni de personne d’autre. Si nous pouvons en préserver les principes, le Web est promis à un avenir extraordinaire.

La dernière version du HTML par exemple, intitulée HTML5, n’est pas simplement un langage de balisage mais une plateforme de programmation qui va rendre les applications Web encore plus puissantes qu’elles ne le sont aujourd’hui. La prolifération des smartphones va mettre le Web encore plus au cœur de nos vies. L’accès sans fil donnera un avantage précieux aux pays en développement, où beaucoup de gens n’ont aucune connexion filaire ou par câble mais peuvent en avoir sans fil. Il reste encore beaucoup à faire, bien sûr, y compris en termes d’accessibilité pour les personnes handicapées, et pour concevoir des pages qui s’afficheront aussi bien sur tous les écrans, depuis le mur d’images géantes en 3D jusqu’à la taille d’un cadran de montre.

Un excellent exemple de futur prometteur, qui exploite la puissance conjuguée de tous ces principes, c’est l’interconnexion des données. Le Web d’aujourd’hui est relativement efficace pour aider les gens à publier et découvrir des documents, mais nos programmes informatiques ne savent pas lire ni manipuler les données elles-mêmes au sein de ces documents. Quand le problème sera résolu, le Web sera bien plus utile, parce que les données concernant presque chaque aspect de nos vies sont générées à une vitesse stupéfiante. Enfermées au sein de toutes ces données se trouvent les connaissances qui permettent de guérir des maladies, de développer les richesses d’un pays et de gouverner le monde de façon plus efficace.

Les scientifiques sont véritablement aux avants-postes et font des efforts considérables pour inter-connecter les données sur le Web. Les chercheurs, par exemple, ont pris conscience que dans de nombreux cas un unique laboratoire ou un seul dépôt de données en ligne s’avèrent insuffisants pour découvrir de nouveaux traitements. Les informations nécessaires pour comprendre les interactions complexes entre les pathologies, les processus biologiques à l’œuvre dans le corps humain, et la gamme étendue des agents chimiques sont dispersées dans le monde entier à travers une myriade de bases de données, de feuilles de calcul et autres documents.

Un expérience réussie est liée à la recherche d’un traitement contre la maladie d’Alzheimer. Un grand nombre de laboratoires privés ou d’état ont renoncé à leur habitude de garder secrètes leurs données et ont créé le projet Alzheimer’s Disease Neuroimaging. Ils ont mis en ligne une quantité phénoménale d’informations inter-connectées sur les patients, ainsi que des scanners cérébraux, une base dans laquelle ils ont puisé à maintes reprises pour faire progresser leurs recherches. Au cours d’une démonstration dont j’ai été témoin, un scientifique a demandé : « quelles protéines sont impliquées dans la transduction des signaux et sont liées aux neurones pyramidaux ? ». En posant la question avec Google, on obtenait 233 000 résultats — mais pas une seule réponse. En demandant aux bases de données inter-connectées du monde entier pourtant, on obtenait un petit nombre de protéines qui répondaient à ces critères.

Les secteurs de l’investissement et de la finance peuvent bénéficier eux aussi des données inter-connectées. Les profits sont générés, pour une grande part, par la découverte de modèles de recherche dans des sources d’informations incroyablement diversifiées. Les données sont également toutes liées à notre vie personnelle. Lorsque vous allez sur le site de votre réseau social et que vous indiquez qu’un nouveau venu est votre ami, vous établissez une relation. Et cette relation est une donnée.

Les données inter-connectées suscitent un certains nombre de difficultés que nous devrons affronter. Les nouvelles possibilités d’intégration des données, par exemple, pourraient poser des problèmes de respect de la vie privée qui ne sont pratiquement pas abordés par les lois existantes sur le sujet. Nous devrions examiner les possibilités légales, culturelles et techniques qui préserveront le mieux la vie privée sans nuire aux possibilités de bénéfices que procure le partage de données.

Nous sommes aujourd’hui dans une période enthousiasmante. Les développeurs Web, les entreprises, les gouvernements et les citoyens devraient travailler ensemble de façon collaborative et ouverte, comme nous l’avons fait jusqu’ici, pour préserver les principes fondamentaux du Web tout comme ceux de l’Internet, en nous assurant que les processus techniques et les conventions sociales que nous avons élaborés respectent les valeurs humaines fondamentales. Le but du Web est de servir l’humanité. Nous le bâtissons aujourd’hui pour que ceux qui le découvriront plus tard puissent créer des choses que nous ne pouvons pas même imaginer.

Notes

[1] Crédit photo : Neal Fowler – Creative Commons By




Rap News sur WikiLeaks, une improbable conscience ?

TheJuiceMedia CC-By-NC-SALes jours fériés, on les consacre à ses passions non ? Alors après le rap militant de Dan Bull contre ACTA, laissez moi vous présenter Rap News [1], ce journal vidéo reprenant les codes du JT pour diffuser, en rythme et en rimes, de l’actualité comme on en voit rarement à la télé.

En effet, pour accompagner les deux dernières publications massives de télégrammes américains des guerres en Afghanistan et en Irak par WikiLeaks, le collectif TheJuiceMedia, un média australien indépendant, a réalisé deux vidéos pertinentes et humoristiques, plantant le décor politique de ces fuites, sur fond de défense de la neutralité du net [2].

Bourrées de références [3], ces vidéos valent autant par les prouesses de l’acteur que la finesse des textes, et c’est pourquoi, avec l’ami Koolfy de la Nurpa.be, croisé sur le canal IRC de La Quadrature du Net [4], nous avons souhaité offrir une version sous-titrée de ces vidéos pour les francophones de tous pays (même la Belgique !).

Après plusieurs heures de temps libre [5] bien employé, nous proposions donc nos sous-titres à l’adresse de contact du collectif TheJuiceMedia qui les accueillit avec enthousiasme et les ajouta directement aux vidéos « officielles », déjà visionnées respectivement plus de 80 000 et 100 000 fois sur YouTube [6].

Toutefois, les voici reproduites ici pour vous avec l’accord des auteurs, servies et sous-titrées librement, stockées dans Framatube, et passées à travers Universal Subtitles. Ne manquez pas l’invité de prestige dans la deuxième vidéo.

Rap News contre le Pentagon

Rap News vs The Pentagon

—> La vidéo au format webm
—> Le fichier de sous-titres

Rap News contre Nouvelles Ordre Mondial

Rap News vs News World Order

—> La vidéo au format webm
—> Le fichier de sous-titres

Notes

[1] Travail copyrighté pour l’instant, mais sûrement dû à un « choix » par défaut. Je viens d’écrire aux auteurs sur ce sujet et vous tiendrai informés. Édition le 12/11/2010 à 1:52 : Leur réponse est à la hauteur de leur travail, ils me prient de considérer leur travail comme étant couvert par une CC-By-NC-SA. Seul le design du site web de thejuicemedia.com est sous Copyright de la conceptrice graphique.

[2] Rien à voir, dans ce contexte, avec le FDNN que vous avez croisé si vous soutenez, comme moi, la Quadrature du Net 😉

[3] Notamment cet extrait de JT présenté par Bill O’Reilly sur les télé. américaines.

[4] Et cet été à Bordeaux aux RMLL 2010.

[5] C’est une notion assez vague pour un Framaslave 🙂

[6] Et nous sommes fiers de constater que des collègues allemands, brésiliens et grecs nous ont rejoint dans cette initiative.




TF1 réclame (sans rien risquer) Google censure (sans vérifier)

Vidberg © LeMonde.fr Sur le Framablog, on ne manque pas une occasion d’agir contre la censure, ou de publier le témoignage d’un citoyen s’élevant contre les menaces et restrictions faites à nos libertés fondamentales [1]. Parce qu’après tout, et comme me le fit un soir remarquer Benjamin Bayart, qu’est-ce qui nous motive tous dans le mouvement du Logiciel Libre ? Et dans la défense de la neutralité du réseau qui lui est indispensable ? Qu’est-ce qui nous réunit, si ce n’est la liberté d’expression ? Cette petite flamme fragile et dangereuse qui vacille au souffle du pouvoir et nécessite, pour être entretenue, notre attention constante.

Le témoignage que nous vous proposons aujourd’hui est celui de Theocrite, un « administrateur système » engagé pour le Logiciel Libre, qui nous explique comment TF1 [2] a silencieusement fait censurer par Google un extrait vidéo de débat à l’Assemblée Nationale.

On savait déjà que certains n’hésitent pas à attaquer, en vertu du Copyright de sa bande son, une vidéo compromettante, au mépris du « fair-use » largement accordé aux vidéos de lolcats. Mais cet extrait, posté par La Quadrature du Net, n’a lui pour seule bande son que le discours à l’Assemblée des députés de la République. Cela n’a pourtant pas arrêté TF1 [3] dans son coup de poker, son nouveau coup de poignard dans le dos de l’éthique et de notre liberté d’information.

Cette vidéo, c’est celle du rejet intégral par l’Assemblée Nationale du projet de loi HADOPI 1 le 9 avril 2009, et, pour illustrer le principe selon lequel une tentative de censure s’avère toujours contre-productive pour le censeur, la voici, archivée dans notre collection Framatube :

—> La vidéo au format webm

TF1 censure des vidéos HADOPI sur YouTube

Et Google ne vérifie pas la véracité des accusations

Theocrite – 1er novembre 2010

En me promenant sur le compte YouTube de la Quadrature du Net, j’ai découvert récemment dans les paramètres du compte que certaines vidéos étaient listées comme pouvant « comporter un contenu appartenant à un tiers ».

Theocrite - CC By Sa

Hm, c’est possible… Intrigué, je clique sur le lien proposé et je m’aperçois que la vidéo en question est la vidéo du rejet de la loi HADOPI l’Assemblée Nationale.

Theocrite - CC By Sa

Bigre ! Voilà que des vidéos contenant des discours « prononcés dans les assemblées politiques » serait en contradiction avec le droit d’auteur. Voilà qui est bien étrange.

Pour en savoir plus, je clique sur « Afficher les informations sur les droits d’auteur ».

Theocrite - CC By Sa

On y apprend des choses très intéressantes… Comme le fait que les vidéos produites dans l’hémicycle seraient la propriété de « lgl_tf1 ». Un peu présomptueux de la part de la vieille chaîne qui descend.

Bon, portons réclamation. Après avoir lu une page chiante à mourir, on accède à un formulaire de réclamation, fortement limité, mais je suis décidé à faire avec.

Theocrite - CC By Sa

Theocrite - CC By Sa

Je fais alors subtilement remarquer que dans la législation française, les débats politiques sont publics… Puis je valide l’envoi du formulaire.

Theocrite - CC By Sa

Le lendemain, je constate que j’ai obtenu gain de cause : la vidéo est débloquée. Mais pour combien de temps ? Google n’a pas pris la peine de nous notifier que la vidéo était à nouveau disponible. On pouvait toujours attendre en relevant notre boîte mail.

Theocrite - CC By Sa

Bilan

Google est réactif, mais pas spécialement poli. Pas de notifications lors du blocage de la vidéo, ni lors du déblocage.

La vidéo a été bloquée pendant un certain temps. Combien de temps ? Aucune idée. Mais TF1 a tenté et a réussi à faire censurer la vidéo, peu importe combien de temps, et ce sans rien risquer. C’est un jeu permanent dans lequel les plaignants ne peuvent pas perdre et les internautes ne peuvent pas gagner.

Ce n’est pas une nouvelle, pour TF1 quand il s’agit d’HADOPI, tous les moyens sont bons pour supporter la loi. Que ce soit en inventant un plébiscite lors d’un vote, en censurant son rejet comme nous venons de le voir ou encore en s’occupant des « salariés qui, manifestement, aiment tirer contre leur camp. »

Mais sur YouTube, TF1 ne s’arrête pas à HADOPI. TF1 sort le bulldozer. Je vous invite à rechercher lgl_tf1 dans un moteur de recherche. Celui de nos amis possesseurs de YouTube par exemple, ou bien sur un moteur de recherche libre, vous y trouverez des réactions unanimes d’Internautes énervés, soit parce que lgl_tf1 a bloqué des vidéos de France 2. Soit parce que TF1 a bloqué des vidéos sur lesquelles elle a acquis les droits de diffusions pour une certaine partie du monde, et se passe de demander aux auteurs s’ils autorisent cette rediffusion.

Notes

[1] Telles que garanties par la déclaration des droits de l’Homme et du citoyen, et rappelées par le « considérant n°12 » de la décision n°2009-580 DC du 10 juin 2009 du Conseil Constitutionnel concernant HADOPI 1 par exemple.

[2] Crédit première illustration : Vidberg © LeMonde.fr, reproduite avec l’aimable autorisation de l’auteur. Licence équivalente à une CC-By-NC-ND avec autorisation préalable requise.

[3] Ou peut-être un imposteur, que le chaîne laisserait agir « en son nom » depuis plus de deux ans.