Un cas d’école : Quand trois étudiants de l’université Yale résistent à Google

Law Keven - CC by-saSi il y a bien une constante lorsqu’une décision est prise dans l’éducation autour des nouvelles technologies, c’est de rarement prendre la peine de consulter les principaux intéressés, c’est-à-dire les élèves et les étudiants eux-mêmes !

C’est ce que nous rappelle en creux cette intervention de trois étudiants de la prestigieuse Université Yale, surpris à juste titre de voir arriver, sans la moindre concertation, la messagerie Gmail de Google dans leur établissement.

L’annonce en a été faite le 9 février dernier sur le site d’actualité de l’université : Google to run Yale e-mail.

Mais deux jours plus tard, paraissait sur le même site la réaction de nos étudiants, traduite ci-dessous, dont le titre est un malicieux clin d’œil à la devise de leur université : Lux et Veritas (Lumière et Vérité).

Saluons au passage l’existence de ce site d’actualités Yale Daily News qui ouvre ses colonnes au débat et à la contestation (cf les nombreux commentaires sous le billet d’origine). Les universités françaises s’honoreraient de s’en inspirer.

Ils n’en appelaient pas forcément à rejeter le projet. Juste à plus de transparence, en se posant ensemble en amont quelques légitimes questions lorsqu’il s’agit de confier nos données à Google et à ses serveurs dans les nuages.

Je ne sais si cette opportune intervention est directement à l’origine de la décision, mais toujours est-il que l’Université a accepté peu de temps après de retarder la migration, annoncé dans un nouvel article également traduit ci-dessous, validant par là-même leurs doutes et leurs arguments.

Nous ne manquerons pas de vous tenir au courant de la décision finale de l’Université.

Si tous les étudiants ressemblaient à nos trois compères, nul doute que l’on serait plus vigilant face aux risques des marchandisation de l’école. Nul doute également que le logiciel libre et sa culture seraient plus souvent évalués, encouragés et adoptés[1].

Lux et Veritas et Gmail, par Csar, Kamdar et Slade

Csar, Kamdar and Slade: Lux et Veritas et Gmail

Christian Csar, Adi Kamdar et Francesca Slade – 11 février 2010 – Yale Daily News
(Traduction Framalang : Barbidule et Quentin)

Nous dépendons de l’e-mail pour à peu près tout. c’est le moyen idéal pour organiser des évènements, sensibiliser les gens, diffuser des annonces officielles. Le mail est constamment présent dans la vie de tous les membres de Yale. A ce titre, toute modification radicale dans la manière dont fonctionne ce système – comme le possible passage à un système hébergé par Google – mérite un débat approfondi. Bien que le système basé sur Gmail possède de nombreux avantages, cela n’excuse pas l’opacité qui a entouré le processus de transition jusqu’ici. Le degré de frustration envers le service e-mail actuel est indéniablement haut – beaucoup d’étudiants veulent quelque chose de mieux, et Gmail est une possibilité. La substantielle fraction d’étudiants qui transfèrent leur e-mail de leur boîtes Yale vers leur compte Gmail verraient d’un bon oeil une transition vers Gmail. Et même si de nombreux étudiants se réjouiront de l’arrivée de Gmail, un tel changement ne devrait résulter que d’un processus transparent avec un dialogue ouvert entre toutes les parties prenantes.

La transition telle qu’elle est envisagée aujourd’hui laisse sans réponses plusieurs questions fondamentales.

Nous avons cru comprendre que Google ne facturerait rien à l’université, par exemple, et nous nous interrogeons sur ce que Google retire de cette générosité – hormis bien évidemment l’accès à nos mails. Sans un processus de planification transparent, au cours duquel les étudiants ont la possibilité de poser ce genre de questions, il est difficile de ne pas être un minimum méfiant.

Les étudiants qui utilisent Gmail pour leur e-mail de Yale font pour le moment un choix individuel, ils sont libres d’arbitrer entre les indéniables avantages de Gmail et leurs propres inquiétudes. Ainsi, nous sommes en train d’écrire cet article sur Google docs. Cependant, quand l’ensemble du système de mails bascule sur Gmail, ces inquiétudes ne sont plus seulement l’affaire de quelques individus, elles concernent l’institution elle-même. Les problèmes collectifs de la faculté, de l’équipe et des étudiants doivent par conséquent être étudiés avant que Yale change pour Gmail.

Car malgré tous les avantages de Gmail, il subsiste quelques réelles inquiétudes. En tant qu’étudiants, nous avons besoins d’être assurés que Yale a signé un contrat avec Google garantissant un certain nombre de points. Pour l’instant, le passage à Gmail repose sur la générosité de Google, qui fournit un service gratuitement et sans publicité. Si à l’avenir Google décide de facturer ce service, quelles seront les conséquences pour Yale ? Nous ignorons quel contrôle la Direction des Systèmes Informatiques (DSI) et l’Université auront sur les données, leur sauvegarde, leur sécurité et leur migration. Nous ignorons où les serveurs Gmail seront situés, et quelles dispositions légales sur la protection des données personnelles s’appliqueront dans cette juridiction. A Brown, par exemple, d’après le site de l’Université, les mails peuvent être stockés « dans des datacenters situés hors des États-Unis ». De plus, personne n’a précisé quel sera l’accès que Google, avec ses algorithmes de data-mining, aura aux mails de Yale. Même si Google et la DSI ont toutes les réponses, nous avons au moins le droit de nous poser ces questions.

Enfin, Google n’est pas infaillible. Au cours des huit derniers mois, Gmail a connu six coupures, dont certaines prolongées. Et la seule compensation qu’offre Google – y compris aux clients qui paient – ce sont des jours gratuits. Quels sont les mécanismes mis en place par Yale en cas de coupure ? Comment pouvons-nous être sûrs que Gmail ne délivrera pas accidentellement des mails aux mauvaises personnes, comme ce fut le cas lors de la transition vers Gmail à l’université de Brown ?

Seul un processus de décision transparent permettra de répondre à ces questions que posent les étudiants. C’est pourquoi nous demandons à l’administration d’ouvrir un large dialogue avant que la DSI ne s’engage dans une démarche de sous-traitance du mail des étudiants actuels et futurs. Même si la décision de basculer est déjà arrêtée, il n’y a aucune raison valable pour dissimuler les choses et refuser d’entendre les préoccupations de ceux qui utiliseront quotidiennement le système. Le mail est trop important pour que son fonctionnement soit secret. Avec comme devise Lux et Veritas, Yale devrait comprendre la nécessité d’éclairer les conséquences de ce changement.

Christian Csar et Francesca Slade sont co-président du Club d’Informatique des Etudiants de Yale et sont étudiants l’un à l’Université Silliman, et l’autre à l’Université Pierson. Adi Kamdar est étudiant en deuxième année à l’Université Calhoun, il est également président des Etudiants de Yale pour une Culture Libre.

Le service informatique repousse le passage à Gmail

ITS delays switch to Gmail

David Tidmarsh – 30 mars 2010 – Yale Daily News
(Traduction Framalang : Quentin)

Le passage vers Google comme fournisseur de courriels de l’Université Yale est suspendu à une date ultérieure.

La migration de la messagerie de l’université de l’ancien Horde vers Gmail (et la suite de services de communication et de collaboration Google Apps Education) est suspendue, en attendant les résultats d’une étude impliquant davantage la participation des professeurs et des étudiants. En effet, après une série de réunions entre les étudiants, leurs professeurs et les administrateurs en février dernier, les officiels du département informatique ont décidé de mettre ce changement en attente, a dit le doyen adjoint pour les sciences et la technologie, Steven Girvin.

« Il y avait suffisamment de préoccupations exprimées pour que la consultation et la participation de la communauté deviennent nécessaires », dit-il dans un email envoyé au site d’actualités de l’université.

L’idée de passer à Google Apps Education – incluant des programmes populaires tels que Gmail, Google Calendar et Google Docs – résulte de réunions internes au service informatique qui se sont déroulées cet hiver, a dit le professeur d’informatique Michael Fischer. Mais lorsque le service informatique a notifié ce changement aux représentants des professeurs et aux administrateurs en février, des réserves ont été exprimées, et les officiels du département informatique ont décidé d’organiser un comité pour discuter de cette situation.

« De nombreux membres de ce comité ont pensé que le service informatique avait pris une décision trop hâtive sans l’approbation globale de l’université », a dit Fischer.

« Les gens se sont principalement intéressés à des questions techniques sur la conduite du changement en se demandant Comment pouvons-nous faire ? » dit-il. « Mais personne ne s’est réellement demandé : Devons-nous le faire ? ».

Fischer classe les inquiétudes à propos du passage à Gmail en trois catégories : les problèmes liés au cloud computing (le transfert des informations des serveurs de l’université vers Internet), les risques et les inconvénients technologiques, et les problèmes idéologiques.

Google enregistre toutes les données dans trois datacenters choisis aléatoirement, parmi les nombreux dont il dispose à travers le monde, de façon à garantir leur accès et à pouvoir continuer à travailler si l’un d’entre eux tombe en panne. La problème c’est que ces données sont alors théoriquement soumises aux lois des pays qui les hébergent. Il a ajouté que Google n’est pas prêt de fournir au service informatique la liste de pays susceptibles d’héberger ces données, il ne consent qu’à donner une liste d’une quinzaine de pays où les données ne seront pas stockées.

« Yale est une communauté internationale et multiculturelle d’étudiants », a-t-il dit. « Les étudiants devraient avoir le droit de savoir ce qu’il advient de leurs données tant qu’ils sont sur notre campus. »

« Quand bien même toutes les données soient stockées sur le sol américain, la taille et la visibilité de Google la rend plus susceptible d’être attaqué par des individus malintentionnés », a déclaré Fischer.

Avec cette décision et ce partenariat, Yale va peut-être perdre le contrôle de ses données et donner l’impression d’approuver la politique de Google (dont les gros datacenters laissent une grande empreinte carbone). « De plus », poursuit Fischer, « Google Apps est proposé dans une taille unique pour toute sa clientèle, avec tous les risques inhérents à cette monoculture Google ».

Le doyen adjoint Vharles Long a dit mercredi dernier qu’il ne connaissait pas la décision du comité mais qu’elle serait annotée par de nombreux membres de l’université concernés par la sécurité des communications à l’intérieur du système Google.

« J’ai entendu dire que les étudiants sont déjà tous sur Gmail » a t-il dit, « mais ils sont également concernés par le devenir de leurs données personnelles dans le respect des législations en vigueur ».

« Le service informatique met en place des propositions de procédures afin d’obtenir des retours de la communauté et pouvoir ainsi prendre une décision plus avertie dans les mois à venir », ajoute Fischer.

Au départ, le service informatique avait planifié une transition par étapes depuis Horde vers Gmail à partir de l’été prochain, en faisant passer directement les nouveaux et les étudiants en première année sur Gmail tout en offrant aux autres la possibilité de rester sur Horde si ils le désirent.

A ce stade, Fischer estime que le passage à Google Apps Education ne se fera pas avant l’été de l’année suivante, avec une promotion 2015 qui sera la première à adopter le nouveau système dès le début de leur première année.

Google a été récemment au centre de nombreuses controverses concernant les problèmes de vie privée, de sécurité et de propriété intellectuelle. Ainsi l’introduction récente de Google Buzz autorisait automatiquement les utilisateurs de Gmail à voir les contacts des membres de leur carnet d’adresses. La société a également été critiquée pour sa censure des résultats de recherche en coopération avec le gouvernement chinois, même si Google a récemment inversé cette politique en fermant son site Web chinois.

Notes

[1] Crédit photo : Law Keven (Creative Commons By-Sa)




Geektionnerd : Quand Ubuntu cristallise la guerre des moteurs de recherche

Sans fournir de réelle explication, l’équipe d’Ubuntu a décidé de revenir sur sa décision d’adopter Yahoo! comme moteur de recherche par défaut du Firefox de sa nouvelle et toute fraîche nouvelle version de sa distribution (Lucid Lynx 10.04). On conservera donc Google.

Il faut dire que l’accord existant entre Yahoo! et Microsoft avait ému certains ubunteros qui se demandaient si on n’allait pas finalement se retrouver avec Bing sous la capot de Yahoo!

Du Microsoft au pays d’Ubuntu !

De quoi réveiller tous les trolls tapis au fond des bois…

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Google prends les ARM pour défendre Theora

Titlap - CC byComme vous le savez, HTML5 est la cinquième version du langage utilisé pour concevoir les pages Web, qui propose enfin aux développeurs le moyen d’afficher directement et simplement les vidéos dans la page, de la même façon qu’il est déjà possible de le faire pour des images. C’est à dire de façon simple, ouverte et puissante, sans la contrainte de recourir à un plugin propriétaire comme Flash.

Mais la taille des vidéos doit être réduite pour pouvoir être diffusées sur Internet, et comme il a déjà été dit dans ces colonnes, HTML5 est muet quant au format à utiliser pour compresser ces vidéos (on parle aussi de codec). Aujourd’hui, deux codecs peuvent techniquement assumer ce rôle clé : Theora et H264 (en attendant une possible libération du codec VP8 racheté par Google). Mais alors que le premier est entièrement libre et utilisable sans aucune restriction, le deuxième est breveté et son usage est rigoureusement encadré et soumis à redevance.

On comprend alors que l’affrontement de ces deux codecs n’est que la traduction de l’affrontement de deux visions : tandis que Theora doit permettre de maintenir un Web ouvert où chacun serait libre de publier du contenu ou de créer des applications innovantes, H264 permettra à quelques entreprises privées de faire main basse sur le Web.

À côté de l’avènement de HTML5, un autre facteur est en train de rebattre les cartes : il s’agit du nombre grandissant d’appareils mobiles reliés à Internet[1].

Pour ces appareils mobiles, la question de la puissance processeur et de la consommation électrique se pose de manière nouvelle : ces appareils sacrifient souvent la première au profit de la seconde.

Ainsi, à l’inverse de ce qui se passe dans le monde des micro-ordinateurs de bureau, où l’architecture x86 développée par Intel domine, l’univers des appareils ultra mobiles est dominé par une architecture concurrente : ARM.

Les processeurs ARM (pour Advanced Risc Machine) sont des processeurs fabriqués sous licence par différentes sociétés de par le monde à partir des travaux de la société anglaise ARM. Cette société conçoit des processeurs consommant peu d’énergie qui se retrouvent ensuite dans la plupart des appareils mobiles : des sociétés comme Nokia, Google (Nexus One), HTC, Samsung, Apple (Iphone/iPad), Sony Ericsson, Palm (Plam Pre), Siemens, LG, ou encore Motorola l’utilisent dans leurs smartphones.

Dans la mesure où l’on retrouve souvent le codec H264 dans les vidéos en Flash et où le format H264 exige d’importantes ressources processeur pour être décodé, de nombreux appareils mobiles ont été optimisés pour aider au décodage du H264.

De fait, ce handicap initial est devenu paradoxalement un avantage pour le H264 : bien que Theora demande beaucoup moins de ressources pour être décodé et soit ainsi plus adapté aux appareils mobiles, certains lui opposent le fait qu’il ne bénéficie pas du même support matériel que le H264.

Heureusement la situation n’est pas figée et de nombreux développeurs sont à pied d’œuvre pour permettre à Theora de tirer parti de ces optimisations matérielles (en attendant que les fabricants implémentent eux-même leurs optimisations pour Theora).

C’est le cas notamment de Google qui investit dans le développement de theorARM, une version de Theora optimisée pour les processeurs ARM, comme l’explique Robin Watts sur le blog « des projets Open Source » de Google dans le billet traduit ci-après.

Avant de laisser la parole à Robin Watts, remarquons que, depuis que Theora est pressenti comme codec possible pour la vidéo sur le Web, celui-ci s’améliore de manière constante. Tous les défauts relevés à l’encontre de Theora sont en passe d’être corrigés grâce aux efforts conjugués de toute une communauté de développeurs talentueux regroupée derrière la fondation Xiph.Org (qui développe Theora) dont Red Hat, les fondations à but non lucratif Wikimédia et Mozilla, et à présent Google.

H264, de son côté, reste irrémédiablement entravé par son péché originel : celui d’être breveté jusqu’à l’os. Et les meilleurs développeurs du monde n’y pourront rien changer.

Bref, là où Theora promet le meilleur, à tous points de vue, H264 n’annonce que le pire.

Ça bouge du côté de la vidéo sur le Web

Interesting times for Video on the Web

Robin Watts – 9 avril 2010 – Google Open Source Blog (Traduction Framalang : Olivier Rosseler et Goofy)

Si je vous disais que Google a participé au financement d’une version du codec Theora optimisée pour les processeurs ARM, vous seriez nombreux à passer directement au billet suivant de ce blog. Personne ne se soucie des codecs audio ou vidéo, du moins tant qu’ils fonctionnent.

Demandez à la plupart des utilisateurs d’ordinateurs quel est leur codec favori et ils vous regarderont comme si vous aviez demandé leur moteur de machine à laver préféré. « On veut juste que ça marche ! » vous répondront-ils. C’est exactement la même chose pour ceux qui créent et publient du contenu sur le Web. À chaque fois qu’une vidéo est inaccessible au visiteur d’un site Web, c’est un message qui n’atteint pas sa cible. Peu importe la qualité du message et le temps passé à le peaufiner, ou les techniques virales employées pour attirer les visiteurs ; si la page Web n’affiche qu’un beau rectangle vide à l’endroit du contenu, tous ces efforts auront été vains.

Publiez la vidéo afin qu’elle soit lisible partout

L’idée est bonne, mais sa mise en pratique est loin d’être simple. Il n’existe aucun standard vidéo actuellement sur le Web. Certains sites utilisent la technologie Flash, restreignant ainsi leur auditoire aux utilisateurs disposant d’un lecteur Flash et excluant de fait la plupart des téléphones. Certains se servent de lecteurs Java intégrés, mais l’auditoire se limite alors au seul public disposant de machines suffisamment puissantes pour décoder l’audio et la vidéo dans une machine virtuelle, ce qui exclut tout ce qui est plus lent qu’un ordinateur portable. D’autres encore se reposent sur les lecteurs natifs à telle plateforme (comme Windows Media Player) et se coupent ainsi de toutes les autres plateformes. D’autres enfin ne proposent que le lien vers la vidéo et s’en remettent au lecteur vidéo que l’utilisateur a pu éventuellement installer.

On est bien loin du « ça marche, tout simplement », et aucune de ces solutions ne semble en prendre le chemin. Que ça vous plaise ou non, avec la multiplication des appareils connectés, ce Graal va être de plus en plus difficile à atteindre. À une époque, il suffisait de s’assurer que la vidéo était lisible sur PC et sur Mac. Maintenant il faut jongler entre Android, ChromeOS, iPhoneOS, Linux, Maemo, Symbian et plein d’autres systèmes encore. Et ce n’est pas tout, puisqu’il faut prendre en compte toute une gamme de processeurs de puissances différentes, depuis les ordinateurs de bureaux aux téléphones en passant par les ordinateurs portables, les netbooks et les PDA. Le problème est loin d’être résolu, bien au contraire.

Heureusement, HTML5 nous apporte de l’espoir. Cette nouvelle version d’HTML (le langage de base utilisé pour écrire les pages Web) introduit un élément video.

Un standard existe maintenant pour que les gens spécifient dans le code de la page l’intégration d’une vidéo. À chaque navigateur, ensuite, d’implémenter la lecture des vidéos : soit qu’il lise lui-même la vidéo soit qu’il délègue cette tâche à un lecteur incorporé ou externe. Dans tous les cas, la décision appartient à l’utilisateur au lieu d’être imposée par le créateur du contenu. Le plus génial dans tout cela, c’est que cette fonction est déjà supportée : Firefox, Opera, Chrome et Safari prennent déjà en charge le HTML5 et les autres navigateurs suivront rapidement.

Alors, problème réglé ?

À vrai dire, non. Il existe désormais un langage commun pour publier des vidéos, c’est un bon début, mais la question du format n’est pas résolue. Là, il n’y a pas de « taille unique ». La vidéo est-elle visionnée sur un téléphone avec un petit écran, sur un netbook, sur un PC de bureau, ou sur un écran LED 3D de 150 pouces à la résolution quatre fois supérieure à celle de la TVHD ? La taille de l’écran, la connectique et la puissance de calcul jouent chacune un rôle ici. Un peu comme la transition de la VHS au DVD puis au BluRay pour les vidéos télévisées, la vidéo sur le Web va s’améliorer au fur et à mesure. Et c’est très bien ainsi : la technologie des serveurs Web permet d’adapter la vidéo au navigateur et à l’appareil utilisés.

En revanche, il nous faut assurément nous accorder sur un plus petit dénominateur commun, un format standard qui servira de format par défaut si tout le reste échoue. Ça ne doit pas nécessairement être le format le plus complexe, ou le plus marketé, ni même celui créé par l’union du plus grand nombre d’entreprises. Il doit simplement être disponible, partout. Le codec le plus adapté actuellement est Ogg Theora, dérivé du codec VP3 libéré par On2 il y a quelques années. Il se débrouille plutôt bien en termes de qualité et de compression, et il n’a pas à rougir face à ses rivaux plus populaires comme le MPEG4, tout en étant bien plus simple à décoder. Mais surtout, il se démarque de ses concurrents par le fait qu’il est libre. Vraiment libre. Pas seulement « libre d’utilisation dans les décodeurs » ou « libre d’utilisation si vous signez cet accord de licence compliqué », mais vraiment, honnêtement, authentiquement, 100% libre. Les spécifications du flux et le code source de l’encodeur/décodeur sont accessibles publiquement et peuvent être librement utilisées/modifiées par n’importe qui. Theora a toujours été développé avec comme objectif premier d’éviter les brevets. Aucun autre codec que Theora ne peut se targuer de n’enfreindre aucun brevet et de n’être soumis à aucune redevance tout en tenant malgré tout la dragée haute à ses concurrents.

Alors, qu’est-ce qu’on attend ?

Décoder une vidéo demande beaucoup de ressources au processeur. Un important travail reste à accomplir avant de réaliser le rêve de lire une vidéo sur n’importe quel appareil. Theora est bien moins complexe que bon nombre de ses concurrents : les autres codecs nécessitent souvent du matériel dédié pour atteindre des performances décentes, alors que, bien programmé, Theora peut être décodé sans aide extérieure. En fait, sur les ordinateurs portables ou de bureau, le décodage à la volée est possible dans un lecteur Java intégré (comme par exemple l’excellent Cortado, lui aussi libre), ce qui permet la lecture de vidéos dans les navigateurs ne prenant pas encore en compte l’élément video. Mais ça n’est pas envisageable pour les appareils comme les PDA, les téléphones, les netbooks, les tablettes ou les lecteurs portables. Ces engins reposent souvent sur des processeurs ARM qui sont bien moins énergivores que les processeurs qui équipent habituellement les micro-ordinateurs. Malgré les gains de puissance continus réalisés au cours de ces dernières années, ils ne rivalisent pas encore avec leurs cousins plus costauds pour ce qui est de la puissance pure. Cette gamme très importante d’appareils construits autour de processeurs ARM représente le dernier défi pour un décodage fluide de Theora. Tout progrès d’efficacité réalisé se traduit par davantage d’autonomie ou des écrans plus grands.

C’est là que l’aide financière de Google intervient. En subventionnant le développement de TheorARM (une version libre de Theora optimisée pour les processeurs ARM), ils nous aident à nous rapprocher du jour où la vidéo fonctionnera partout sur le Web, pour tout le monde. Ça serait plutôt pas mal, non ? Ça y est, maintenant vous pouvez passer au billet suivant du blog.

Notes

[1] Crédit photo : Titlap (Creative Commons By)




Mozilla, le H264 ne doit pas passer par toi !

CBS Fan - CC by-saOn l’a évoqué longuement dans un précédent billet, l’avenir de la vidéo en lecture continue sur le Web est à un tournant de son histoire. Mais plus encore que le logiciel libre, il est fort difficile de sensibiliser le grand public sur ce sujet il est vrai technique et complexe.

L’évènement qui redistribue les cartes est le passage progressif de tous les navigateurs à la nouvelle version 5 du HTML permettant de lire directement une vidéo. C’est une bonne nouvelle parce que nous allons enfin pouvoir nous affranchir du format Flash qui était fermé et nécessitait l’installation d’un plugin propriétaire dédié (et mal supporté sur des OS libres comme GNU/Linux).

Mais si le HTML5 autorise donc les navigateurs à lire directement une vidéo, elle ne dit rien sur le format (ou le codec) dans lequel doit être publiée cette vidéo. Or aujourd’hui deux formats bien différents font acte de candidature : le format Ogg Theora et le format H.264.

Le premier problème c’est que si le Ogg Theora est libre (et gratuit), le H.264 est breveté et demande plusieurs millions par an aux navigateurs qui voudraient l’inclure et le supporter[1].

Le second problème c’est qu’à l’heure actuelle la balance penche nettement en faveur du H.264 qui, avec la future version 9 d’Internet Explorer sera lu par tous les navigateurs sauf Mozilla et Opera.

Il y a alors un double risque. Celui de quitter un format breveté (Flash) pour un autre format breveté (H.264) et celui d’ostraciser les navigateurs Opera et surtout Firefox (qui a déjà fort à faire actuellement avec la concurrence inavouée mais bien réelle de Chrome).

La pression est alors clairement sur les épaules de Mozilla. La fondation va-t-elle persister à refuser le H.264 pour des raisons économiques mais surtout éthiques, en devenant en quelque sorte le porte-drapeau de l’Ogg Theora ? Ou bien va-t-elle abdiquer pour ne pas voir ses parts de marché grignoter par d’autres navigateurs, et c’en sera alors fini des espoirs suscités par le Ogg Theora ?

On sait que l’on peut compter sur Wikimedia (qui a ouvert tout récemment le très opportun site Let’s get video on Wikipedia). Mais qu’adviendra-t-il de Google qui a pour le moment adopté le H.264 pour YouTube alors que la firme peut potentiellement mettre tout le monde d’accord en proposant un troisième format issu d’une récente acquisition ?

Dans l’article traduit ci-dessous, le journaliste Thom Holwerda ne cache pas sa préférence : il souhaite voir Mozilla résister. Mais il nous rappelle fort justement que la décision est également suspendue au choix du format des utilisateurs et développeurs Web lorsqu’ils mettront en ligne leurs futures vidéos.

Au nom du « pragmatisme », certains voudraient privilégier le H.264 ? N’oublions pas que pour les mêmes raisons nous nous enchainâmes à Internet Explorer 6 qui fit stagner pendant de longues années le Web tout entier.

Mozilla : reste fidèle à tes idéaux, tiens-toi à l’écart de H264

Mozilla: Stick to Your Ideals, Shun H264

Thom Holwerda – 19 mars 2010 – OSNews.com
(Traduction Framalang : Antistress, Goofy et Quentin)

A présent que les caractéristiques d’Internet Explorer 9 ont été rendues publiques, nous connaissons mieux la position de Microsoft quant au codec vidéo à associer à la balise video de HTML5. Microsoft a choisi H264, un codec qu’il fournit déjà avec Windows de toute façon. Cela signifie que, Firefox et Opera mis à part, tous les principaux navigateurs prendront en charge le H264. D’aucuns y voient une raison pour que Mozilla abandonne ses idéaux et ajoute le support de H264. Je dis : Mozilla, reste fidèle à tes idéaux. Les dernières personnes à écouter en cette matière sont les développeurs Web.

« Mozilla devrait souscrire une licence d’utilisation de H264 »

Nous connaissons tous la situation de la vidéo via HTML5. Nous avons cette solution merveilleuse – une balise pour la vidéo aussi simple que pour les images – qui permet à chacun d’intégrer facilement des séquences vidéo sur son site Web sans avoir à recourir à la technologie propriétaire Flash. Il y a toutefois un problème.

Le problème est qu’il n’y a pas de codec standard pour HTML5. Les principaux compétiteurs sont H264 et Theora et il semble que ce dernier l’emporte pour le moment du côté des navigateurs. Une vidéo encodée avec Theora peut être vue à la fois des utilisateurs de Firefox, Chrome et Opera alors qu’avec H264 il vous manque les utilisateurs de Firefox et Opera. Si l’on considère que Firefox est, de loin, le plus répandu des navigateurs implémentant HTML5, encoder votre vidéo exclusivement en H264 revient à vous tirer une balle dans le pied.

Il y a une raison simple qui explique que Mozilla soit vent debout contre H264 : le codec est criblé de brevets. Cela signifie que, si vous utilisez le codec dans certaines parties du monde, vous vous exposez à devoir verser une redevance à la MPEG-LA qui gère les brevets de H264 (entre autres). Et, en effet, la MPEG-LA a clairement indiqué fin janvier que les utilisateurs finaux pouvaient eux aussi être la cible de contentieux relatifs aux brevets.

« J’aimerais aussi préciser que, bien que nos licences ne soient pas souscrites par les utilisateurs finaux, toute personne de la chaîne d’utilisation est responsable si un produit est utilisé sans licence » explique Allen Harkness, en charge des licences pour la MPEG-LA. « En conséquence, la redevance acquittée par le fournisseur d’un produit couvre l’utilisateur final, mais, lorsque la redevance n’a pas été acquittée, le produit est utilisé sans autorisation et toute personne de la chaîne (fournisseur ou utilisateur) peut en être tenue pour responsable ».

Étant donné que H264 est clairement incompatible avec les idéaux du logiciel libre, Mozilla a décidé de s’y opposer farouchement. Le refus d’Opera de souscrire une licence pour H264 n’a, de toute évidence, rien à voir avec un quelconque idéal (Opera étant un logiciel propriétaire après tout) mais la société norvégienne considère que le montant de la redevance est simplement trop élevé.

Apple pousse depuis longtemps H264 dans l’ensemble de ses logiciels et produits tandis que, du point de vue de Google, la redevance à acquitter pour avoir le droit d’utiliser H264 représente des clopinettes. Le dernier grand acteur à ne pas s’être prononcé était Microsoft qui, comme on pouvait s’y attendre, vient de choisir H264 simplement parce que la licence et le codec sont déjà inclus dans Windows. Le fait que des processeurs spécialisés dans le décodage de H264 soient disponibles sur les appareils portables constitue un autre atout tandis que Theora (ainsi que tout autre codec libre de brevet comme Dirac) ne peut se permettre ce luxe.

Du coup, des développeurs Web et autres pontes commencent à soutenir que Mozilla devrait rentrer dans le rang et souscrire une licence pour H264 sinon ils risquent de tuer la vidéo via HTML5. « J’ai des raisons de croire que la décision de Mozilla de ne pas prendre en charge les vidéos encodées en H264 dans la balise video de HTML5 à cause des nombreux brevets de ce codec est une mauvaise décision qui, à moins qu’ils ne changent d’avis, détruira tout espoir d’inaugurer une nouvelle ère où la vidéo serait accessible en ligne sans plugin » écrit Brian Crescimanno, un développeur Web qui est dans le métier depuis 1997.

Il explique qu’en campant sur ses positions, Mozilla va obliger les gens à continuer à utiliser Flash pour la vidéo vu que personne ne va encoder la vidéo deux fois uniquement pour qu’elle soit lue aussi par Firefox et Opera ; ils vont juste proposer aux utilisateurs de Firefox et Opera la vidéo encodée en H264 via Flash au lieu de ré-encoder la vidéo en Theora. Il fait remarquer également que Mozilla prenait en charge le format GIF du temps où il était propriétaire.

« Je conteste l’idée que être idéaliste soit votre raison d’être », écrit Crescimanno. « Je crois que votre responsabilité première en tant qu’éditeur d’un navigateur Web est de rendre le Web meilleur. C’est certainement ce que vous pensez sincèrement faire mais honnêtement, soyons réaliste, la seule chose que vous allez réussir c’est rendre la balise video de HTML5 inutilisable ».

Le billet de Crescimanno a été repris par John Gruber qui, rien de surprenant, abonde dans son sens : « par conséquent même ceux qui utilisent la dernière version de Firefox seront traités comme s’ils utilisaient un navigateur antique » explique Gruber. « L’intransigeance au nom de l’ouverture aura pour résultat que les utilisateurs de Firefox se verront proposer de la vidéo au moyen du plugin fermé Flash tandis qu’en coulisses la vidéo sera de toutes façons encodée en H264 ».

Gruber et Crescimanno soutiennent en fait que Mozilla devrait laisser son idéal de côté et se montrer pragmatique en implémentant le H264.

Au nom du pragmatisme

Petit retour en arrière. Il y dix ans de cela, le Web n’était pas encore la formidable source d’informations et de divertissements que nous connaissons aujourd’hui, il était à peine en train d’émerger. C’est ce moment qu’ont choisi les développeurs Web pour prendre au nom du « pragmatisme » une série de décisions d’une stupidité monumentale, décisions dont nous payons encore le prix une décennie plus tard.

Quand les développeurs Web se sont retrouvés face aux gigantesques parts de marché d’Internet Explorer 6, ils ne sont soucié de rien d’autre que de rendre les sites visibles pour cette triste version du navigateur, en faisant fi des standards au nom du « pragmatisme ». À cause de cette attitude, les autres navigateurs ont éprouvé les pires difficultés à concurrencer IE6, simplement parce que leurs utilisateurs ne pouvaient consulter leurs sites préférés optimisés pour IE6.

Dix ans plus tard, nous en voulons encore à Microsoft pour son Internet Explorer 6 qui aura rendu le Web dépendant à son égard (le nombre de sites spécifiques à IE est aujourd’hui devenu très faible mais pas nul) alors que la véritable raison pour laquelle IE est devenu si dominant et difficile à renverser est que les développeurs ne se sont pas donnés la peine de penser au delà du « pragmatisme » et de coder pour autre chose qu’IE.

Puis il y a eu Flash. Est-ce Microsoft qui nous a imposé Flash ? Est-ce Adobe qui nous a mis un revolver sur la tempe pour nous forcer à télécharger le plugin ? Non. Là encore ce sont les développeurs Web qui l’ont déployé partout sur le Web au nom du pragmatisme. Nous, les utilisateurs, ne décidons pas de télécharger Flash : nous y sommes forcés parce que les développeurs Web utilisent Flash pour tout et n’importe quoi, depuis les boutons jusqu’au lettres capitales illustrées.

Dix ans plus tard, Flash est devenu lui aussi un boulet qui entrave le Web. Les plateformes minoritaires comme Linux et Mac OS X n’ont pas suffisamment d’importance aux yeux d’Adobe pour l’inciter à développer correctement Flash dessus, sans parler de plateformes plus confidentielles encore, comme Syllable ou Haiku, qui n’ont pas du tout accès à Flash, rendant ainsi des sites aussi populaires que YouTube complètement inutilisables.

Qui allons-nous blâmer cette fois ? Je vois des développeurs Web et des blogueurs de renom comme Gruber s’en prendre à Adobe alors qu’en réalité ce sont les développeurs Web qui ont choisi Flash et l’ont rendu omniprésent sur le Web.

Et nous voilà à nouveau devant un problème similaire. Nous avons le choix pour le codec vidéo de HTML5 : l’un est libre, gratuit et n’est pas soumis à brevet, l’autre est breveté jusqu’à l’os et est tout sauf libre ou gratuit. Il y beaucoup de discussions pour savoir lequel des deux est de meilleure qualité, et vous trouverez des gens intelligents détaillant tests et arguments en faveur de l’un ou l’autre des deux codecs. Le seul avantage du H264 est, de toute évidence, le support matériel.

Et tandis que nous nous tenons à la croisée des chemins, ce sont encore les développeurs Web qui veulent faire le mauvais choix simplement parce qu’ils sont incapables de voir plus loin que le bout de leur nez. Ils se fichent de savoir à quoi ressemblera le Web dans dix ou même seulement cinq ans (quand la période d’essai gratuite sur le Web de H264 aura expiré), ils ne sont intéressés que par le présent. Ils ont fait des choix plus désastreux les uns que les autres, des choix qui ont gravement nuit au Web, et, pourtant, il faudrait que nous les écoutions encore ?

Cher Mozilla, contemple l’histoire du Web et vois l’impact désastreux d’Internet Explorer et de Flash. Regarde bien ensuite qui a fait en sorte que ces technologies nous soient imposées. Alors, et seulement alors, prends en compte à leur juste valeur leur opinion sur cette question.

A défaut, je prédis de quoi nous discuterons dans cinq ou dix ans : les développeurs Web et les pontes comme Gruber se lamenteront en se demandant comment le Web a pu embrasser sans restriction H264 à présent que la MPEG-LA a décidé de faire respecter ses brevets. Ils trouveront quelqu’un à blâmer : Microsoft, Adobe ou la lune, et, encore une fois, ils refuseront d’assumer leurs responsabilités.

L’heure du bain

Parfois il faut se jeter à l’eau. Bien sûr la transition vers un codec libre et gratuit sera difficile, mais les bénéfices escomptés le justifient amplement. Je préfère avoir affaire à une situation compliquée maintenant plutôt que de devoir faire face dans cinq ou dix ans à une situation aussi inextricable que celle engendrée par IE6 et Flash.

Notes

[1] Crédit photo : CBS Fan (Creative Commons By-Sa)




Quand Google fait l’ange avec nos données

The Data Liberation Front - GoogleGoogle fait peur et Google le sait. Alors Google fait de gros efforts pour tenter de nous rassurer.

Mais cela sera-t-il suffisant ? Google n’est-il pas devenu intrinsèquement trop gros, quelle que soit la manière dont il brasse nos nombreuses données personnelles, quelle que soit l’indéniable qualité de sa myriade de services et de produits ?

Telle est la vaste question du jour, tapie derrière notre traduction évoquant leur projet du « Front de Libération des Données ».

La page d’accueil Google propose depuis peu un petit lien Confidentialité en bas du champ de recherche. Il vous mènera au portail google.fr/privacy qui a pour titre Centre de confidentialité : Transparence et liberté de choix.

Chez Google, nous sommes parfaitement conscients de la confiance que vous nous accordez, ainsi que de notre devoir de protéger la confidentialité de vos données. À cette fin, vous êtes informé des données qui sont collectées lorsque vous utilisez nos produits et services. Nous vous indiquons en quoi ces informations nous seront utiles et comment elles nous permettront d’améliorer les services que nous vous proposons.

On y décline alors la philosophie Google résumée en « cinq principes de confidentialité » et illustrée par cette vidéo que je vous invite à parcourir et qui témoigne une fois de plus de la maîtrise didactique de Google dans sa communication.

Du lard ou du cochon ? De l’art de faire l’ange quand on fait la bête ? Les commentaires accueilleront peut-être certaines de vos réactions.

En attendant la vidéo fait référence à un récent service, le Google Dashboard, qui est censé vous permettre de « savoir ce que Google sait de vous » en centralisant en un unique endroit toutes les informations collectées associées à votre compte Google (Gmail, Google Docs, Agenda, Maps, etc.) et à ses services connexes (YouTube, Picasa, etc.). Pour en avoir un bref aperçu, là encore, nouvelle et toujours efficace vidéo dédiée.

Cette initiative est louable parce qu’elle vous expose à priori la situation en vous facilitant la modification des paramétrages. Mais elle est à double tranchant parce que vous vous rendez compte d’un coup d’un seul de l’étendu de la pieuvre Google et de la quantité impressionnante de vos données que Google peut potentiellement manipuler. Et puis n’oublions jamais la force d’inertie du paramétrage par défaut.

La vidéo nous parle également du « Data Liberation Front », ou « Front de Libération des Données » en français, dont le logo ouvre ce billet. Ce n’est pas un nouveau mouvement révolutionnaire mais un projet interne qui œuvre à ce que l’assertion suivante devienne réalité :

Nous voulons que nos utilisateurs restent chez nous parce qu’ils le souhaitent, non parce qu’ils ne peuvent plus en sortir.

Il s’agit donc en théorie de pouvoir facilement quitter Google en listant sur un site, service par service, les procédures à suivre pour exporter nos fichiers et nos données depuis les serveurs de Google vers notre disque dur local dans des formats standards et ouverts. Les manipulations à réaliser ne sont pas toujours des plus simples (quand elles existent effectivement), mais le projet nous dit qu’il travaille justement à constamment améliorer cela.

On retrouve cette idée, lorsque Google nous affirme que « Competition is just one click away », autrement dit que tout est fait pour qu’il suffise d’un clic de souris pour s’en aller chez un concurrent, et que les autres devraient en faire autant pour que s’établisse une saine compétition. Pas sûr que Microsoft soit sensible à l’argument.

Centre de confidentialité, Google Dashboard, Data Liberation Front, One click away, Sens de l’ouverture… il n’y a pas à dire, Google met les bouchées doubles pour ne pas se mettre en porte-à-faux avec son fameux slogan « Don’t be evil ».

Alors, convaincu ?

Dans l’affirmative, remercions Google pour son souci de transparence et continuons à lui faire confiance, sachant alors que le futur et novateur système d’exploitation Google Chrome OS vous tend les bras. Point trop d’inquiétudes mal placées, vos données sont bien au chaud dans les nuages.

Dans le cas contraire, c’est plutôt un « Google Liberation Front » qu’il va falloir songer à créer !

Pourquoi Google vous laisse facilement quitter Google

Why Google makes it easy to leave Google

Nate Anderson – 1 mars 2010 – Ars Technica
(Traduction Framalang : Goofy et Don Rico)

Nous avons déjà évoqué le Front de Libération des Données de Google (FLD) l’année dernière, lorsque ce projet a été rendu public, mais depuis, qu’a fait l’équipe interne de Google qui se consacre à l’exportation des données ? Eh bien… elle a créé des autocollants, pour commencer.

« DONNÉES ÉLEVÉES EN PLEIN AIR », proclament-ils, ce qui résume en quelques mots les efforts du Front de Libération des Données. L’objectif de l’équipe n’est rien moins que de permettre aux utilisateurs de quitter plus facilement Google et ses multiples services, en emportant avec eux leurs courriels, leurs photos et tous leurs documents.

Les travaux les plus récents concernaient Google Docs, qui propose désormais une option pour télécharger en masse. Sélectionnez les documents que vous désirez, cliquez sur un bouton, Google les archive en un seul fichier .zip (jusqu’à 2Go) et vous les envoie par e-mail.

Au cours d’une récente visite aux bureaux de Google à Chicago, où le FLD est basé, nous avons discuté avec Brian Fitzpatrick, qui dirige l’équipe, pour savoir plus en détail pourquoi il souhaite que l’on puisse s’affranchir facilement des services Google, et comment il compte s’y prendre.

Empêcher l’inertie

Il est certain que lancer cette initiative estampillée « ne faites pas le mal » au sein de l’entreprise est une bonne manœuvre de communication, mais le FLD ne découle pas d’une décision prise au sommet de la hiérarchie. Fitzpatrick déclare qu’en ce qui le concerne, il a « commencé en toute naïveté ». Après avoir écouté pendant des années le président Eric Schmidt déployer son éloquence pour expliquer combien il est important de ne pas enfermer les utilisateurs, Fitzpatrick a remarqué que certains produits Google compliquaient l’application de cette politique.

Le FLD est l’émanation de son travail de réflexion. L’équipe existe depuis deux ans maintenant, et depuis les choses ont changé : à ses débuts, c’est elle qui allait trouver les autres équipes d’ingénieurs, mais à présent, selon Fitzpatrick, ce sont ces dernières qui « viennent nous consulter » pour savoir comment elles s’en tirent.

La rétention des données n’est pas mauvaise que pour les utilisateurs ; Fitzpatrick estime qu’elle est aussi mauvaise pour Google. « Si l’on crée une base d’utilisateurs verrouillée, avance-t-il, on devient forcément complaisant avec soi-même ».

Rendre aussi facile l’abandon de Google Docs que celui du moteur de recherche de Google force Google à cultiver un de ses points forts : engager des collaborateurs brillants. Le travail du FLD « met en effervescence les équipes d’ingénieurs », explique Fitzpatrick, puisque les ingénieurs doivent satisfaire les utilisateurs en innovant, et non en les mettant en cage.

The Data Liberation Front - Google - Sticker

Les utilisateurs se préoccupent-ils vraiment de la libération de leurs données ? Certains, oui, mais l’utilisation des fonctions d’exportation demeure limitée. Google enregistre « un niveau constamment faible de l’usage de ces fonctions », déclare un ingénieur de l’équipe, particulièrement quand le géant de la recherche choisit d’abandonner des services peu performants.

Disposer d’outils d’exportation facilite également de telles interruptions de services ; souvenez-vous des problèmes rencontrés par les sites de vente de musique bardés de DRM, lorsqu’ils ont finalement tenté de fermer leurs serveurs de DRM. Grâce à l’ouverture des données de Google, l’entreprise évite ce genre de critiques publiques quand survient une fermeture de service, comme lorsque Google Notebook a été mis au rebut.

Nicole Wong, conseillère juridique adjointe de Google, nous a confié que Google prend le FLD au sérieux pour deux raisons : d’abord, il donne le contrôle aux utilisateurs, et ensuite, « quand nous déclarons qu’il suffit d’un clic pour passer à la concurrence, des initiatives telles que le FLD le prouvent ».

Ce dernier commentaire nous rappelle que l’ouverture représente un réel bénéfice stratégique pour l’entreprise qui va bien au-delà de la conception des produits et du pouvoir accordé à l’utilisateur. Google est de plus en plus en ligne de mire des investigations antitrust, de la part du ministère de la Justice américain, et subit déjà des enquêtes en Europe au nom de la lutte antitrust. Le FLD est ainsi un argument de plus que Google peut employer pour démontrer qu’il n’est pas un Cerbère pour usagers captifs.

Il arrive que l’équipe du FLD affronte les critiques de ceux qui accusent Google de ne rendre « libres » et exportables que les données à faible valeur marchande pour l’entreprise (voyez par exemple ce commentaire du chercheur Ben Edelman à propos de la récupération des données Adwords). Mais depuis sa création, le FLD a travaillé avec plus de vingt-cinq équipes de Google pour faciliter l’exportation des données, et nul doute que ses efforts concernant les applications comme Google Docs sont une bonne nouvelle pour les utilisateurs.

« Nous nous efforçons de provoquer une plus grande prise de conscience au sein de l’entreprise, » déclare Fitzpatrick, tout en admettant avec une petite grimace qu’il n’a aucun « pouvoir » réel sur les décisions des différents chefs de projet.

On peut toujours aller plus loin. L’équipe surveille la page du modérateur Google, sur laquelle les utilisateurs peuvent soumettre des suggestions – et elles sont nombreuses. « Mes contacts Gmail — pouvoir les exporter, et ré-importer une version modifiée, sans copier chaque élément un à un » propose l’un d’eux. « Ajouter les microformats hCalendar à l’agenda Google, pour pouvoir réutiliser partout ailleurs les rendez-vous enregistrés » suggère un autre. « Je veux récupérer l’historique de mon tchat avec Gmail », réclame un troisième.

Fitzpatrick promet que d’autres avancées vont suivre, bien qu’il ne puisse pas parler des projets qui sont dans les incubateurs. Ce qu’il peut faire, pour l’instant, c’est vous envoyer un autocollant.




Si Google is not evil alors qu’il le prouve en libérant le format vidéo du Web !

Diegosaldiva - CC byQuel sera le futur format vidéo du Web ? Certainement plus le Flash dont les jours sont comptés. Mais quel nouveau format va alors s’imposer, un format ouvert au bénéfice de tous ou un format fermé dont le profit à court terme de quelques-uns se ferait au détriment des utilisateurs ?

Un acteur, à lui seul, possède semble-t-il la réponse ! Et c’est une fois encore de Google qu’il s’agit. Une réponse que la Free Software Foundation attend au tournant car elle en dira long sur les réelles intentions de la firme de Moutain View.

Tentative de résumé de la situation.

Faute de mieux, et alors qu’il n’avais pas été spécialement conçu pour jouer les premiers rôles, le format Flash Video d’Adobe (.flv) s’est imposé pendant des années comme format standard de fait de la vidéo en lecture continue (ou streamée) sur Internet, comme par exemple sur le site emblématique YouTube.

Pour le lire il nécessitait la présence d’un player Flash sur son ordinateur, ce qui a toujours posé problème aux Linuxiens puisque la technologie Flash est propriétaire et (en partie) fermée et qu’il n’est donc pas possible de l’inclure dans les distributions libres de GNU/Linux (ceux qui juste après une installation ont recherché comment lire ce satané format comprendront fort bien ce que je veux dire). Un problème si important que la FSF n’a pas hésité à le placer au top de ses priorités logicielles avec son projet de lecteur libre Gnash (juste en dessous d’un lecteur alternatif pour le format PDF, autre format problématique).

Mais tout ceci sera bientôt du passé car la nouvelle version du format des pages Web, le HTML5, est en train de changer la donne avec l’introduction de la balise <video> (cf cet article du Framablog pour en savoir plus : Building the world we want, not the one we have).

Exit le Flash donc dans nos vidéos du Web. D’ailleurs, coup de grâce, il ne figurera pas dans l’iPad et Steve Jobs aurait déclaré « ne pas vouloir perdre du temps sur une technologie dépassée aussi ringarde que les disquettes » !

Conséquence et grand progrès, on peut donc potentiellement lire directement les vidéos sur tout navigateur qui implémente le HTML5 (actuellement Firefox 3.5+, Safari 4+, Chrome 3+). Plus besoin de télécharger de plugins (Flash, QuickTime ou autre). Sauf que comme le dit Tristan Nitot « la spécification HTML5 précise comment un navigateur doit interpréter l’élément video, mais pas sur le format dans lequel doit être publiée la vidéo en question ».

Or justement deux formats sont les principaux candidats à la succession, l’un ouvert, que nous connaissons bien, le Ogg Theora (adopté notamment sur les projets Wikimedia), et l’autre fermé le H.264. Tristan Nitot expose avec la clarté qu’on lui connaît, la situation, ses contraintes et ses menaces, dans son billet Vidéo dans le navigateur : Theora ou H.264 ?.

Il en rajoute une couche sur Rue89 dans Firefox refuse que YouTube devienne « un club de riches » :

« Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

En effet, il en coûterait plusieurs millions par an à Mozilla si elle voulait intégrer le H.264 dans Firefox. Ce qu’elle ne pourrait pas se permettre et du coup si YouTube adoptait définitivement ce format (que la célèbre plate-forme teste actuellement), nous serions face à un choix cornélien : Firefox sans YouTube (et tous les autres sites de vidéos qui auront alors suivi YouTube, gageons qu’ils seront nombreux) ou YouTube sans Firefox.

Ceux qui pensent, comme Stallman, qu’on « ne brade pas sa liberté pour de simples questions de convenances » feront peut-être le premier choix. Mais pour le grand public, rien n’est moins sûr (c’est même sûr qu’il fera le choix inverse).

Or c’est un feuilleton à épisodes car un tout dernier évènement est venu semer le trouble en apportant son lot de spéculations. Un évènement passé un peu inaperçu à cause du buzz (négatif) engendré par la sortie simultanée de Google Buzz : le rachat par Google de la société On2 Technologies pour un peu plus de cent millions de dollars.

On2 Technologies est justement spécialisée dans la création de formats vidéos, dont un, le VP3, a d’ailleurs été libéré et est directement à l’origine de l’Ogg Theora. Mais c’est le tout dernier de la gamme, le VP8 qui focalise l’attention de par ses qualités (cf présentation et comparaison sur le site d’On2).

Ce rachat a quelque peu atténué les craintes des observateurs, à commencer par Mozilla (cf cet article de Numerama : Codec vidéo : Google rachète On2 et rassure Mozilla). Pourquoi en effet débourser une telle somme puisque le H.264 est là ? Peut-être pour le remplacer par le VP8. Mais alors aura-t-on un VP8 également fermé (et peut-être aussi payant) ou bien ouvert pour l’occasion ?

La balle est dans le camp de Google.

Soit la société fait le choix du H.264. Firefox ne peut pas suivre et alors il y a fort à parier que cela profitera au navigateur Google Chrome (nombre d’utilisateurs ne pouvant désormais concevoir le Web sans YouTube). Comme de plus l’essentiel des revenus de Mozilla provient de l’accord avec Google sur le moteur de recherche par défaut de Firefox, et que cet accord ne court que jusqu’en 2011, on voit bien que Google peut en théorie si ce n’est tuer Firefox, tout du moins participer directement à freiner son ascension.

Soit la société oublie le H.264 en optant pour le VP8 d’On2. Mais reste alors à savoir quelle sera la nature de ce format. Si Google décide de le libérer en donnant le la en l’installant sur YouTube, c’est non seulement Firefox qui en profitera mais le Web tout entier.

Le choix est important, parce qu’au-delà de l’avenir de la vidéo sur le Web, c’est l’avenir de Google dont il est question. Et aujourd’hui, qu’on le veuille ou non, l’avenir de Google rejoint souvent l’avenir du Web tout court, ce qui en dit long sur sa puissance et son influence actuelles sur le réseau.

Il est bien évident que le H.264 ou le VP8 fermé serait à priori la meilleure option pour Google en tant que multinationale cotée en bourse avec des actionnaires qui réclament leurs dividendes. Mais ce serait la plus mauvaise pour les partisans d’un Web libre et ouvert. « Google is not evil » nous dit le slogan, alors qu’elle le prouve en faisant le bon choix, celui de l’intérêt des utilisateurs. Google en tirerait alors l’avantage de conserver une image positive de plus en plus écornée ces derniers temps. Dans le cas contraire le masque serait définitivement levé[1] et le bénéfice du doute ne serait plus permis.

Tel est en substance le message lancé par la FSF que nous avons traduit ci-dessous.

Lettre ouverte à Google : libérez le VP8, et utilisez-le sur YouTube

Open letter to Google: free VP8, and use it on YouTube

Holmes – 19 février 2010 – FSF Blogs
(Traduction Framalang : Don Rico et Goofy)

Après son acquisition d’On2, entreprise spécialisée en technologie de compression vidéo, le 16 février 2010, Google est à présent en position de standardiser les formats vidéo libres et ainsi libérer le Web à la fois du Flash et du codec propriétaire H.264.

Cher Google,

Après votre rachat d’On2, vous possédez désormais le plus important site de vidéos au monde (YouTube) et tous les brevets déposés pour un nouveau codec vidéo de haute performance, le VP8. Imaginez ce que vous pouvez accomplir si vous rendez disponible, de façon irrévocable, le codec VP8 sous une licence libre de royalties, et le proposez aux utilisateurs de YouTube ? Vous pouvez mettre un terme à la dépendance du Web aux formats vidéo criblés de brevets et aux logiciels propriétaires tel que Flash.

Garder le secret sur les spécifications de cette technologie ou ne l’utiliser que comme levier de négociation desservirait le monde du Libre, en n’apportant dans le meilleur des cas que des bénéfices à court terme à votre entreprise. Libérer le code du VP8 sans recommander ce format aux utilisateurs de YouTube constituerait une occasion manquée et nuirait au navigateurs libres tel que Firefox. Nous voulons tous que vous fassiez le bon choix. Libérez le code de VP8, et utilisez-le pour YouTube !

Pourquoi ce serait un immense bond en avant

Le monde disposerait alors d’un nouveau format libre affranchi de brevets logiciels. Internautes, créateurs de vidéo, développeurs de logiciels libres, constructeurs de matériel informatique, tout le monde pourrait distribuer de la vidéo sans se soucier des brevets, des droits d’utilisation et des restrictions. Le format vidéo libre Ogg Theora est au moins aussi performant pour la vidéo sur le web (voir comparatif) que son concurrent fermé, le H.264, et jamais nous n’avons approuvé les objections que vous opposiez à son utilisation. Puisque vous avez pris la décision d’acquérir le VP8, on peut néanmoins supposer que ce format ne soulève pas selon vous les mêmes objections, et que l’implémenter dans YouTube est un jeu d’enfant.

Vous avez le pouvoir de faire de ce format libre un standard planétaire. Si YouTube, qui héberge la quasi totalité des vidéos numériques jamais conçues, proposait un format libre en option, ce simple changement vous vaudrait le soutien d’une pléthore de fabricants d’appareils et d’applications numériques.

Cette capacité à proposer un format libre sur YouTube n’est toutefois qu’une partie infime de votre véritable pouvoir. On passera aux choses sérieuses quand vous encouragerez les navigateurs des utilisateurs à prendre en charge les formats libres. Il existe un tas de moyens de s’y prendre. La meilleure, à nos yeux, serait que YouTube abandonne le Flash au profit des formats libres et du HTML, et propose à ses utilisateurs équipés de navigateurs obsolètes un plug-in ou un navigateur moderne (un logiciel libre, bien sûr). Apple a eu le cran de mettre au rebut le Flash pour l’iPhone et l’iPad (même si leurs raisons sont suspectes et leurs méthodes détestables les DRM), et cette décision pousse les développeurs Web à créer des alternatives sans Flash de leurs pages. Vous pourriez faire de même avec YouTube, pour des raisons plus nobles, ce qui porterait un coup fatal à la prédominance de Flash dans le secteur des vidéos en ligne.

Même des actions de moindre envergure porteraient leur fruits. Vous pourriez par exemple susciter l’intérêt des utilisateurs avec des vidéos HD disponibles sous format libre, ou inciter fortement les utilisateurs à mettre à niveau leur navigateur (plutôt que de mettre Flash à jour). De telles mesures sur YouTube porteraient la prise en charge des formats libres par les navigateurs à un niveau de 50% et plus, et elles augmenteraient lentement le nombre d’internautes qui ne prendraient pas la peine d’installer un plug-in Flash.

Si le logiciel libre et l’internet libre vous tiennent à cœur (un mouvement et un médium auxquels vous devez votre réussite), vous devez prendre des mesures drastiques pour remplacer Flash par des standards ouverts et des formats libres. Les codecs vidéo brevetés ont déjà fait un tort immense au Web et à ses utilisateurs, et cela continuera tant que nous n’y mettrons pas un terme. Parce qu’il était coûteux d’implémenter des standards bardés de brevets dans les navigateurs, un logiciel privateur aussi lourd qu’inadapté (le Flash) est devenu le standard de facto pour la vidéo en ligne. Tant que nous ne passerons pas aux formats libres, la menace des actions en justice pour violation de brevet et des royalties à verser pèsera sur tous les développeurs de logiciel, les créateurs de vidéo, les fabricants de matériel informatique, les sites Internet et les entreprises du Web, vous y compris.

Vous pouvez utiliser votre acquisition d’On2 comme simple levier de négociation pour apporter votre propre solution au problème, mais ce serait à la fois un faux-fuyant et une erreur stratégique. Si vous ne faites pas du VP8 un format libre, ce ne sera jamais qu’un codec vidéo de plus. À quoi servirait un énième format vidéo souffrant d’une compatibilité avec les navigateurs limitée par des brevets ? Vous devez au public et à l’Internet de résoudre ce problème ; vous le devez à nous tous, et pour toujours. Des organisation telles que Xiph, Mozilla, Wikimedia, la FSF et On2 elle-même mettent l’accent sur la nécessité d’imposer les formats libres et se battent corps et âme pour rendre cela possible. À votre tour, maintenant. Si vous en décidez autrement, nous saurons que vous avez à cœur non pas la liberté des utilisateurs mais seulement le règne sans partage de Google.

Nous voulons tous que vous preniez la bonne décision. Libérez le code du VP8 et utilisez-le sur Youtube !

Notes

[1] Crédit photo : Diegosaldiva (Creative Commons By)




L’Éclaternet ou la fin de l’Internet tel que nous le connaissons ?

Raúl A. - CC byUne fois n’est pas coutume, nous vous proposons aujourd’hui une traduction qui non seulement ne parle pas de logiciel libre mais qui en plus provient de CNN, et même pire que cela, de sa section Money !

Et pourtant il nous semble pointer du doigt une possible évolution d’Internet, celle de son éclatement sous la pression des smartphones et autres objets connectés tels ces nouvelles liseuses et tablettes dont on vante tant les futurs mérites.

Une évolution possible mais pas forcément souhaitable car c’est alors toute la neutralité du Net qui vacille puisque les trois couches qui définissent le réseau d’après Lessig se trouvent ensemble impactées.

l’iPad ou le Kindle en sont des exemples emblématiques car ce sont des ordinateurs (la couche « physique ») dont Apple et Amazon contrôlent à priori les protocoles et les applications (la couche « logique ») et peuvent filtrer à leur guise les fichiers (la couche des « contenus »).

L’article s’achève sur une note optimiste quant au HTML5 et au souci d’interopérabilité. Encore faudrait-il avoir affaire à des utilisateurs suffisamment sensibilisés sur ces questions[1].

Hier encore on nous demandait : T’es sous quel OS, Windows, Mac ou Linux ? Aujourd’hui ou tout du moins demain cela pourrait être : T’es sous quel navigateur, Firefox, Internet Explorer ou Chrome ?

Et après-demain on se retrouvera à la terrasse des cafés wi-fi, on regardera autour de nous et on constatera, peut-être un peu tard, qu’à chaque objet différent (netbook, smartphone, iPad, Kindle et leurs clones…) correspond un Internet différent !

La fin de l’Internet tel que nous le connaissons, grâce à l’iPad et aux autres

End of the Web as we know it, thanks to iPad and others

Julianne Pepitone – 3 février 2010 – CNNMoney.com
(Traduction Framalang : Martin et Goofy)

Pendant plusieurs années, l’Internet a été relativement simple : tout le monde surfait sur le même réseau.

Plus on s’avance vers 2010, plus l’idée d’un même Internet « taille unique » pour tous devient un souvenir lointain, à cause de l’arrivée de l’iPhone, du Kindle, du BlackBerry, d’Android, et bien sûr du fameux iPad.

La multiplication des gadgets mobiles allant sur Internet s’accompagne à chaque fois d’un contenu spécifique pour chaque appareil. Par exemple, l’application populaire pour mobile Tweetie permettant de se connecter à Twitter n’est disponible que pour l’iPhone, alors que l’application officielle pour Gmail ne l’est que pour Android. Et si vous achetez un e-book pour le Kindle d’Amazon, vous ne pourrez pas forcément le lire sur d’autres lecteurs électroniques.

En même temps de plus en plus de contenus en ligne sont protégés par un mot de passe, comme la plupart des comptes sur Facebok et certains articles de journaux.

C’est un Internet emmêlé qui est en train de se tisser. Simplement, le Web que nous connaissions est en train d’éclater en une multitude de fragments. C’est la fin de l’âge d’or, selon l’analyste de Forrester Research Josh Bernoff, qui a récemment formulé le terme de « éclaternet » pour décrire ce phénomène (NdT : the splinternet).

« Cela me rappelle au tout début d’Internet la bataille de fournisseurs d’accès entre AOL et CompuServe » dit Don More, du fond de capital risque Updata, une banque d’investissement conseillère dans les technologies émergentes de l’information. « Il y aura des gagnants et des perdants ».

Dans ces premiers temps du Web, les utilisateurs accédaient aux contenus en utilisant des systèmes spécifiques ; ainsi les abonnés de chez AOL ne pouvaient voir que les contenus AOL. Puis le World Wide Web est devenu une plateforme ouverte. Maintenant les appareils nomades sont à noueau en train de morceler le Web.

D’après Bernoff, « Vous ne pouvez plus recoller les morceaux, la stabilité qui a aidé le Web à prendre forme s’en est allée, et elle ne reviendra plus ».

Des angles morts

Quand les utilisateurs d’appareils mobiles choisissent d’acheter un iPhone, un Motorola avec Android, un BlackBerry ou d’autres, ils sont effectivement en train d’opter pour certains types de contenus ou au contraire d’en abandonner d’autres, puisque toutes les applications ne sont pas disponibles sur tous ces gadgets.

D’après Don More de Updata, ce phénomène est en train de mettre le contenu dans des « communautés fermés ». Les fabricants de ces appareils peuvent (et ils le font) prendre et choisir quelles applications fonctionneront avec leur machine, en rejetant celles qui pourraient être en concurrence avec leurs propre produits, ou bien celles qu’ils estiment n’être pas à la hauteur.

Par exemple, Apple a rejeté l’application Google Voice sur l’iPhone, qui aurait permis aux utilisateurs d’envoyer gratuitement des messages et d’appeler à l’étranger à faible coût.

Et les limitations ne s’arrêtent pas seulement aux applications. Une affaire d’actualité : Le nouvel iPad ne prend pas en charge le lecteur Flash d’Adobe, ce qui empêchera les utilisateurs d’accéder à de nombreux sites.

Bernoff ajoute : « bien que (cette tendance) ne soit pas nécessairement mauvaise pour les consommateurs, ils devraient prendre conscience qu’ils sont en train de faire un choix. Quoi qu’ils choisissent, certains contenus ne leur seront pas disponibles ».

Des choix difficiles

Les entreprises qui créent les applications sont maintenant confrontées à des choix difficiles. Quels appareils choisiront-elles de prendre en charge ? Combien d’argent et de temps devront-elles prendre pour que leurs contenus fonctionnent sur ces gadgets ?

Quel que soit le choix des développeurs, il leur manquera toujours une partie des consommateurs qu’ils pouvaient auparavant toucher lorsque le Web était un seul morceau.

Sam Yagan, co-fondateur du site de rencontres OKCupid.com, ajoute : « quand nous avons commencé notre projet, jamais nous avons pensé que nous aurions à faire face à un tel problème. Réécrire un programme pour un téléphone différent c’est une perte de temps, d’argent, et c’est un vrai casse-tête ».

D’après Yagan, OkCupid emploie 14 personnes, et son application pour l’iPhone a nécessité 6 mois de travail pour être développée. L’entreprise envisage de créer une application pour Android, ce qui prendra environ 2 mois.

« C’est un énorme problème de répartition des ressources, surtout pour les petites entreprises », explique Yagan, « Nous n’avons tout simplement pas assez de ressources pour mettre 5 personnes sur chaque appareil qui sort ».

Chris Fagan, co-fondateur de Froogloid, une société qui propose un comparateur pour le commerce électronique, dit que son entreprise a choisi de se spécialiser sur Android, car il marche avec plusieurs téléphones comme le Droid, Eris, ou G1.

Selon Fagan « les consommateurs sont en train de perdre des choix possibles, et les entreprises sont en train de souffrir de ces coûts supplémentaires ». Mais il ajoute que la popularité en plein essor des applications signifie que les entreprises continueront à en concevoir malgré leur coût.

Et après ?

Comme un Internet plus fragmenté devient chose courante, Bernoff de Forrester pense qu’il y aura un contrecoup : une avancée pour rendre le contenu sur mobile plus uniforme et interopérable.

La solution pourrait bien être la nouvelle version du langage Web qui arrive à point nommé, le HTML5, qui d’après Bernoff pourrait devenir un standard sur les appareils nomades dans quelques années. Par exemple, le HTML5 permet de faire fonctionner des animations sur les sites Web sans utiliser le Flash.

Mais l’arrivée de n’importe quelle nouvelle technologie déclenchera une lutte pour la contrôler. Don More de Updata s’attend à voir « une bataille sans merci entre les entreprises (pas seulement Apple et Google, mais aussi Comcast, Disney et tous ceux qui s’occupent des contenus). Que ce soit les applications, les publicités, les appareils… tout le monde est en train d’essayer de contrôler ces technologies émergentes ».

Évidemment, personne ne peut prévoir le futur du Web. Mais Bernoff est au moins sûr d’une chose.

« Nous ne connaissons pas ce que seront les tous nouveaux appareils en 2011. Mais ce qui est certain, c’est que l’Internet ne fonctionnera plus comme on l’a connu. »

Notes

[1] Crédit photo : Raúl A. (Creative Commons By)




Google, Apple et l’inexorable déclin de l’empire Microsoft

Seanmcgrath - CC byQuel est le dénominateur commun des récents évènements qui ont défrayé la chronique du Web ? L’absence de Microsoft.

On peut à juste titre critiquer Google, et son jeu du chat et de la souris avec nos données personnelles. Dernier exemple en date : Google Buzz.
On peut en faire de même avec Apple, qui prend un malin plaisir à enfermer les utilisateurs dans son écosystème. Dernier exemple en date : l’iPad.

Il n’empêche que ces deux géants innovent en permanence et se détachent chaque jour un peu plus d’un Microsoft visiblement trop lourd pour suivre le rythme[1].

C’est ce que nous rappelle Glyn Moody dans ce très intéressant article qui vient piocher dans la toute fraîche actualité des arguments de son édifiante conclusion.

Il note au passage que contrairement à Microsoft, Google (beaucoup) et Apple (avec parcimonie) utilisent des technologies open source. Ceci participe aussi à expliquer cela.

Il s’est passé quelque chose, mais où est passé Microsoft ?

Something Happened: Where’s Microsoft?

Glyn Moody – 15 février 2010 – ComputerWorld.uk
(Traduction Framalang : Goofy)

Vous en avez probablement entendu parler, la semaine dernière il y a eu tout un pataquès à propos de Google Buzz et de ses conséquences sur le respect de la vie privée. Et voici ce que Google a répondu :

Nous avons bien reçu votre réaction, cinq sur cinq, et depuis que nous avons lancé Google Buzz il y a quatre jours, nous avons travaillé 24h sur 24 pour dissiper les inquiétudes que vous avez exprimées. Aujourd’hui, nous voulons vous informer que nous avons fait ces derniers jours une quantité de modifications en tenant compte des réactions que nous avons reçues.

D’abord, l’ajout automatique des contact suivis. Avec Google Buzz, nous avons voulu faire en sorte que les premiers pas soient aussi rapides et aisés que possible, et donc nous ne voulions pas que vous ayez à reconstruire manuellement votre réseau social depuis zéro. Cependant, beaucoup de gens voulaient juste essayer Google Buzz pour voir en quoi il pouvait leur être utile, et ils n’ont pas été contents de voir qu’ils avaient déjà une liste de contacts suivis. Ce qui a soulevé une énorme vague de protestations et incité les gens à penser que Buzz affichait automatiquement et de façon publique ceux qu’ils suivaient, avant même d’avoir créé un profil.

Jeudi dernier, nous avons entendu dire que les gens trouvaient que la case à cocher pour choisir de ne pas afficher publiquement telle ou telle information était difficile à trouver, nous avons aussitôt rendu cette option nettement plus repérable. Mais ce n’était évidemment pas suffisant. Donc, à partir de cette semaine, au lieu d’un modèle autosuiveur, avec lequel Buzz vous donne automatiquement à suivre des gens avec lesquels vous échangez le plus sur le chat ou par email, nous nous orientons vers un modèle autosuggestif. Vous ne serez pas voué à suivre quiconque avant d’avoir parcouru les suggestions et cliqué sur « Suivez les contacts sélectionnés et commencez à utiliser Buzz ».

Le plus intéressant dans cette histoire c’est que 1. Google aurait pu prévoir un problème aussi évident et crucial et 2. ils ont réagi non pas une mais deux fois en quelques jours à peine. C’est ce qui s’appelle vivre à l’heure d’Internet, et démontre à quel point les choses ont changé depuis le « bon vieux temps » – disons il y a quelques années – où les erreurs pouvaient mariner plusieurs mois dans un logiciel avant qu’on prenne la peine de s’en occuper.

Mais ce n’est pas le seul évènement qui s’est produit la semaine dernière. Relativement masquée par l’excitation autour de Buzz, voici une autre annonce de Google :

Nous avons le projet de réaliser un réseau à large bande ultra-rapide dans quelques localités tests aux États-Unis. Nous fournirons un accès à Internet par fibre optique à 1 gigabit par seconde, soit cent fois plus rapide que ce que connaissent aujourd’hui la plupart des Américains connectés. Nous avons l’intention de procurer ce service à un prix concurrentiel à au moins 50 000 personnes, et potentiellement jusqu’à 500 000.

Notre objectif est d’expérimenter de nouvelles façons d’aider chacun à accéder à un Internet plus rapide et meilleur. Voici en particulier ce que nous avons en tête :

Les applications du futur : nous voulons voir ce que les développeurs et les utilisateurs peuvent faire avec des vitesses ultra-rapides, que ce soit des applications révolutionnaires ou des services utilisant beaucoup de bande passante, ou d’autres usages que nous ne pouvons même pas encore imaginer.

Nouvelles techniques de déploiement : nous testerons de nouvelles façons de construire des réseaux de fibre optique, et pour aider à l’information et au support de déploiement partout ailleurs, nous partagerons avec le monde entier les leçons que nous en aurons tirées.

Le choix et l’ouverture : nous allons organiser un réseau en « accès ouvert », qui donnera aux usagers le choix parmi de multiples prestataires de services. Et en cohérence avec nos engagements passés, nous allons gérer notre réseau d’une façon ouverte, non-discriminatoire et transparente.

Google a démarré, souvenez-vous, comme un projet expérimental sur la recherche : en arriver à déployer chez un-demi million d’utilisateurs finaux des connexions par fibre optique à 1 gigabit, voilà qui en dit long sur le chemin parcouru par Google. Tout aussi impressionnante dans le même genre, l’irruption de Google dans monde des mobiles avec Android. Là encore, le lien avec le moteur de recherche n’est peut-être pas évident à première vue, mais tout cela revient à essayer de prédire le futur en l’inventant : Google veut s’assurer que quel que soit le chemin que prendra le développement d’Internet, il sera bien placé pour en bénéficier, que ce soit par la fibre à débit ultrarapide ou par des objets intelligents et communicants que l’on glisse dans sa poche.

Google n’est pas la seule entreprise qui se réinvente elle-même en permanence. C’est peut-être Apple qui en donne l’exemple le plus frappant, c’était pourtant loin d’être prévisible il y a quelques années. Mais au lieu de disparaître, l’entreprise Apple a colonisé la niche lucrative des produits informatiques sophistiqués, en particulier les portables, et a fini par remodeler non seulement elle-même mais aussi deux marchés tout entiers.

Le premier a été celui de la musique numérique, qui se développait bien mollement sous les attaques répétées d’une industrie du disque à courte vue, qui pensait pouvoir conserver le rôle qu’elle jouait dans le monde de l’analogique, celui d’intermédiaire obligé entre les artistes et leur public. En utilisant ses pouvoirs quasi hypnotiques, Steve Jobs s’est arrangé pour faire avaler à l’industrie du disque le lot iTunes + iPod, et la musique numérique a décollé comme jamais auparavant pour toucher l’ensemble de la population.

Tout aussi significative a été la décision de Jobs d’entrer dans le monde des téléphones portables. Le iPhone a redéfini ce que devait être un smartphone aujourd’hui, et a accéléré la convergence croissante entre l’ordinateur et le téléphone. Beaucoup pensent qu’avec son iPad Apple est sur le point de transformer la publication numérique aussi radicalement qu’il a déjà bouleversé la musique numérique.

Quoi que vous pensiez de ces récents évènements, une chose est parfaitement claire : pas un seul des événements les plus excitants du monde de l’informatique – Buzz, le réseau par fibre à 1 gigabit, le iPad, Android et tout le reste – n’est venu de chez Microsoft. La façon dont Google et Apple ont complètement masqué les nouveautés de Microsoft pendant des mois est sans précédent, et je pense, représente un tournant décisif.

Parce que nous assistons à la fin du règne de Microsoft en tant que roi de l’informatique – sans fracas, mais avec un petit gémissement. Bien sûr, Microsoft ne va pas disparaître – je m’attends vraiment à ce qu’il soit là encore pour des décennies, et qu’il distribue de jolis dividendes à ses actionnaires – mais Microsoft sera tout simplement dépourvu d’intérêt dans tous les domaines-clés.

Ils se sont plantés en beauté sur le marché de la recherche en ligne ; mais, d’une façon plus générale, je ne connais pas un seul service en ligne lancé par Microsoft qui ait eu un impact quelconque. Et ça n’est pas mieux côté mobile : bien que Windows Mobile ait encore des parts de marché pour des raisons historiques, je pense que personne, nulle part, ne se lève le matin en se disant « Aujourd’hui il faut que je m’achète un Windows Mobile », comme le font manifestement les gens qui ont envie d’un iPhone d’Apple ou d’un des derniers modèles sous Android comme Droid de Motorola ou Hero de HTC (même moi j’ai acheté ce dernier modèle il y a quelques mois).

Quant au marché de la musique numérique, le Zune de Microsoft est pratiquement devenu le nom générique de la confusion électronique, tant le système est mauvais et mal-aimé. Et même dans le secteur où la part de marché de Microsoft est davantage respectable – celui des consoles de jeu – le problème de l’infâmant « cercle rouge de la mort » menace là encore de ternir sa réputation.

Tout cela nous laisse l’informatique grand public comme dernier bastion de Microsoft. Malgré des tentatives constamment renouvelées de la part des experts (dont votre serviteur) pour proclamer « l’année des ordinateurs GNU/Linux », Windows donne peu de signes qu’il lâche prise sur ce segment. Mais ce qui est devenu de plus en plus flagrant, c’est que les tâches informatisées seront menées soit à travers le navigateur (porte d’accès à l’informatique dans les nuages) soit à travers les smartphones tels que que le iPhone ou les mobiles sous Android. Les uns comme les autres rendent indifférent le choix du système d’exploitation de l’ordinateur de bureau (d’autant que Firefox tend de plus en plus à faire jeu égal avec Internet Explorer sur beaucoup de marchés nationaux), donc savoir si l’on trouve Windows ou GNU/Linux à la base de tout ça est une question vraiment sans intérêt.

Mais vous n’êtes pas obligés de me croire. Dick Brass est bien mieux placé que moi pour en parler, il a été vice-président de Microsoft de 1997 à 2004. Voici ce qu’il a écrit récemment dans le New York Times :

Microsoft est devenu empoté et peu compétitif dans l’innovation. Ses produits sont décriés, souvent injustement mais quelquefois à juste titre. Son image ne s’est jamais remise du procès pour abus de position dominante des années 90. Sa stratégie marketing est inepte depuis des années ; vous vous souvenez de 2008 quand Bill Gates s’est laissé persuader qu’il devait littéralement se trémousser face à la caméra ?

Pendant qu’Apple continue à gagner des parts de marché sur de nombreux produits, Microsoft en perd sur le navigateur Web, le micro portable haut de gamme et les smartphones. Malgré les milliards investis, sa gamme de Xbox fait au mieux jeu égal avec ses concurrents du marché des consoles de jeu. Du côté des baladeurs musicaux, ils ont d’abord ignoré le marché puis échoué à s’y implanter, jusqu’à ce qu’Apple le verrouille.

Les énormes bénéfices de Microsoft – 6,7 milliards de dollars au trimestre dernier – viennent presque entièrement de Windows et de la suite Office qui ont été développés il y a des décennies (NdT : cf ce graphique révélateur). Comme General Motors avec ses camions et ses SUV, Microsoft ne peut pas compter sur ces vénérables produits pour se maintenir à flot éternellement. Le pire de tout ça d’ailleurs, c’est que Microsoft n’est plus considéré comme une entreprise attractive pour aller y travailler. Les meilleurs et les plus brillants la quittent régulièrement.

Que s’est-il passé ? À la différence d’autres entreprises, Microsoft n’a jamais développé un authentique processus d’innovation. Certains de mes anciens collègues prétendent même qu’elle a développé en fait un processus de frein à l’innovation. Bien qu’elle dispose des laboratoires les plus vastes et les meilleurs du monde, et qu’elle se paie le luxe d’avoir non pas un mais trois directeurs de recherches technologiques, l’entreprise s’arrange habituellement pour réduire à néant les efforts de ses concepteurs les plus visionnaires.

Il y a quelque chose de profondément ironique dans cet échec à innover, parce que Microsoft n’a pas cessé d’invoquer l’innovation comme argument principal pour n’être pas frappé par la loi anti-trust aux États-Unis comme en Europe, et pour justifier notre « besoin » de brevets logiciels. La déconfiture de cette argumentation est maintenant rendue cruellement flagrante par l’échec de l’entreprise à innover dans quelque secteur que ce soit.

Je dirais que le plus grand échec à ce titre a été de refuser de reconnaître que la manière la plus rapide et la plus facile d’innover c’est de commencer à partir du travail des autres en utilisant du code open source. Le succès de Google est presque entièrement dû à son développement de logiciels libres à tous les niveaux. Ce qui a permis à l’entreprise d’innover en plongeant dans l’immense océan du code librement disponible pour l’adapter à des applications spécifiques, que ce soit pour les gigantesques datacenters épaulant la recherche, ou pour la conception d’Android pour les mobiles – dans les deux cas à partir de Linux.

Même Apple, le champion du contrôle total du produit par l’entreprise, a reconnu qu’il était cohérent d’utiliser des éléments open source – par exemple, FreeBSD et WebKit – et s’en servir comme fondation pour innover frénétiquement au dernier étage. Refuser de le reconnaître aujourd’hui est aussi aberrant que refuser d’utiliser le protocole TCP/IP pour les réseaux.

Quelque chose s’est passé – pas juste cette semaine, ni la semaine dernière, ni même durant les derniers mois, mais au cours de ces dix dernières années. Le logiciel libre s’est développé au point de devenir une puissance considérable qui influe sur tout ce qui est excitant et innovateur en informatique ; et Microsoft, l’entreprise qui a reconnu le moins volontiers son ascendant, en a payé le prix ultime qui est son déclin.

Notes

[1] Crédit photo : Seanmcgrath (Creative Commons By)