Google Chrome OS ou l’ordinateur de moins en moins personnel

Doug Siefken - CC byReposant sur le véloce navigateur Chrome et un noyau Linux, Chrome OS est le très original système d’exploitation de Google qui devrait voir officiellement le jour avant la fin de l’année.

Si le succès est au rendez-vous, il révolutionnera notre perception même de l’informatique et de l’ordinateur (victimes collatérales : Microsoft mais aussi le logiciel libre).

Et puisque cela ne pose aucun problème à la majorité de nos concitoyens de confier leurs données personnelles dans les nuages de Facebook[1] sans se soucier le moins du monde des termes du contrat, il en ira de même avec Google. Je lève donc l’incertitude du paragraphe précédent : le succès sera au rendez-vous et, autant s’y préparer dès maintenant, la petite révolution aura bien lieu.

Un ordinateur moins personnel

A Less Personal Computer

Simson L. Garfinkel – Mai 2010 – Technology Review
(Traduction Framalang : Olivier Rosseler)

Le futur système d’exploitation de Google sera rapide et sécurisé. Mais en retour il exploitera vos données personnelles.

Dans le jargon du Web, est dit chrome tout ce qui, dans la navigateur, encadre la page : la barre d’adresse, le bouton Précédent et les fameux marques pages. Chrome, c’est aussi le nom du navigateur lancé par Google en septembre 2008, et, loin de simplifier les choses, Chrome OS est le nom du système d’exploitation annoncé par Google en juillet 2009 et qui devrait sortir avant la fin de cette année.

La confusion des noms est tout sauf fortuite. Elle reflète l’ambition de Google de créer un système d’exploitation fondu dans le navigateur. Adieu fichiers, répertoires et programmes. Chrome OS permettra à Google de mettre son infrastructure dans les nuages, des services et des applications en ligne hébergés sur leurs fermes de serveurs, au cœur de quasiment toutes vos activités. En quelques années, Chrome OS pourrait devenir l’environnement le plus simple, le plus rapide et le plus sûr pour l’informatique personnelle. Mais tout n’est pas rose : il fera de Google le dépositaire de toutes vos informations personnelles. C’est la possibilité pour Google d’exploiter encore un peu plus vos données pour rendre plus lucrative encore sa vente de publicité.

Chrome OS représente un virage important dans notre manière de concevoir l’informatique. Les principaux systèmes d’exploitation aujourd’hui, Windows, Mac OS et Linux, reposent toujours sur le modèle de la station de travail hérité des années 80. Ils sont fait pour tourner sur du matériel puissant, le stockage des données personnelles et des programmes se faisant sur un disque dur local. Même le Web, inventé en 1989 par Tim Berners-Lee, n’est qu’une simple extension de ce modèle, un outil plus performant pour trouver des informations sur le réseau et les rapatrier sur votre ordinateur. Mais plus personne n’utilise son ordinateur ainsi de nos jours. En tout cas, pas ceux qui usent et abusent des populaires applications Web que sont Facebook, Gmail ou Youtube. Avec ces applications, vos données sont stockées dans un ou plusieurs datacenters quelque part dans le monde, décomposées dans le nuage et copiée momentanément sur votre ordinateur seulement pour les lire.

Vous pouvez télécharger le navigateur Chrome et le faire fonctionner sur Mac, Windows ou Linux. Si vous le faites, vous remarquerez qu’il est visiblement plus rapide que Safari d’Apple, Internet Explorer de Microsoft ou Firefox de Mozilla. Chrome intègre moins de chrome que ces navigateurs : pas de bordure épaisse, pas de barre de boutons ou de ligne de statut. Pour Google, le navigateur doit se faire oublier pour vous rapprocher de vos données. le Chrome OS pousse le concept plus loin. Il s’agira d’un navigateur Web et un noyau Linux pour contrôler toute la partie matérielle, pas grand chose de plus. Chrome OS ne devrait pas dépasser le gigaoctet sur le disque dur et le système d’exploitation démarrera en quelques secondes. Il n’y aura pas de bouton Démarrer, seulement la page d’accueil de Google et les liens vers vos applications Internet favorites. Des panneaux s’ouvriront sur les côtés de la page principale lorsque vous branchez un appareil photo numérique ou qu’un réseau sans-fil est détecté.

L’apparence minimaliste de Chrome OS en fait le système d’exploitation idéal pour les netbooks aux spécifications modestes. Certains d’entre eux sont déjà livrés avec un système d’exploitation léger centré sur le navigateur qui peut être utilisé en lieu et place de Windows. Chrome OS est similaire, mais il sera intimement lié aux services dans les nuages de Google. Après avoir entré votre nom d’utilisateur et votre mot de passe Google pour vous connecter à Chrome OS, Google Docs vous permettra d’éditer et de sauvegarder vos documents et Gmail se chargera de vos e-mails.

Vous pouvez déjà télécharger et faire fonctionner Chromium OS pour obtenir un avant-goût de ce qu’il sera dans quelque mois. Mais je ne vous le conseille pas : Chromium OS n’est pas encore prêt. Mais plusieurs fabricants d’ordinateurs, dont Samsung et Acer, prévoient de mettre sur le marché des netbooks sous Chrome OS et Google pourrait même sortir son propre netbook sous Chrome OS construit, un peu comme le smartphone Nexus One, autour de spécifications matérielles déterminées par l’entreprise.

D’après les ingénieurs de Google, Chrome OS utilisera le disque dur de votre ordinateur comme un simple cache où il stockera des copies de ce sur quoi vous travaillez afin de ne pas communiquer sans arrêt avec les serveurs et ainsi épargner votre abonnement 3G (et accessoirement votre batterie). Toutes ces données personnelles seront chiffrées, pas de risque en cas de perte de votre machine. Et si pour une raison ou une autre votre ordinateur était corrompu, par exemple par un virus, vous pourrez le remettre à 0 et recommencer votre travail sans rien perdre, puisque vos données sont dans les nuages.

Si vous faites parti des fans de Google, ou des employés ou encore des actionnaires de la firme, Chrome OS représente alors pour vous la dernière innovation de Google pour améliorer l’expérience utilisateur. Si vous êtes un concurrent, vous ne verrez pas forcément d’un bon œil le nouveau tentacule de Google s’étendre vers les systèmes d’exploitation. Et si vous êtes pour la défense de la vie privée, comme moi, voilà qui devrait renforcer vos inquiétudes les plus profondes quant au géant de l’Internet : en cohérence avec ses déclarations, il cherche vraiment à répertorier toutes les informations du monde.

Souvenez-vous de la tentative de Microsoft de s’appuyer sur sa position de plus grand fournisseur de logiciel au monde pour s’accaparer le marché des navigateurs Internet, des serveurs Web et des services Internet dans les années 1990. L’histoire pourrait bien se répéter, mais dans l’autre sens. Google, roi de la recherche et de la publicité sur Internet pourrait s’appuyer sur la force de ses applications Internet pour se faire une place sur votre prochain netbook et, de là, sur votre ordinateur de bureau. Tous les services Google fonctionneront mieux avec Chrome OS, pas à cause d’un abus de position dominante de la part de Google, mais parce que le système aura été construit spécialement pour faire fonctionner des applications Web complexes. Et si tous vos besoins sont couverts par un navigateur Web, pourquoi devriez-vous payer pour un ordinateur plus gros, plus lent et qui demande une maintenance importante ?

La convergence entre Chrome, Chrome OS et les services dans les nuages représente aussi un grand chamboulement dans le monde de la vie privée. Cela fait maintenant 20 ans que je m’intéresse à ce sujet ; à l’origine des plus grandes menaces sur notre vie privée, on retrouve toujours les grandes entreprises qui essaient de collecter et de revendre des données personnelles et les gouvernements qui tentent d’y accéder. Chrome OS modifie largement les paramètres de l’équation. Pour la première fois, les utilisateurs seront encouragés à confier leurs données personnelles à une seule et même entreprise, une entreprise qui génère de l’argent en disséquant ces données. Et toutes ces informations ne seront protégées que par un identifiant et un mot de passe unique. Si tant est qu’elles soient véritablement protégées : après tout, Google a bien décidé d’inscrire des millions d’utilisateurs de Gmail à Google Buzz sans leur permission, rendant public une grande partie de leurs contacts par la même occasion. Enregistrer, ranger ou sauvegarder ses données ne sera bientôt plus qu’un lointain souvenir pour les utilisateurs de Chrome OS. Mais qu’adviendra-t-il si les banques de données de Google sont piratées, révélées accidentellement ou partagées avec un gouvernement pernicieux ?

On pense en général, à tort, que l’activité principale de Google est la recherche et que nous sommes les clients de l’entreprise. Mais en fait, du chiffre d’affaire de 23,7 milliards de dollars réalisé en 2009 par Google, 22,9 milliards proviennent de la vente de publicité. Google enregistre et exploite le comportement de ses utilisateurs pour cibler plus efficacement les publicités. Google produit des clics de souris et ses clients sont les publicitaires. Chrome et Chrome OS inciteront plus encore les utilisateurs à fournir leurs données personnelles au Googleplex, pour enrichir l’inventaire de Google et augmenter son taux de clics. Ces informations personnelles permettront à Google de mieux cibler encore les publicités pour des utilisateurs qui seront encore plus enclins à cliquer.

Les vrais clients de Google, vous savez, ces entreprises qui sont prêtes à dépenser des milliards tous les mois pour utiliser ses services de placement de publicité, seront heureux, soyez en sûrs. Plus d’espace et de visibilité pour afficher des publicités se traduit par un coût au clic plus faible. Mais pour les utilisateurs ordinaires, ça n’est pas forcément bon. Aujourd’hui, il vous est toujours possible de lancer une application sur votre ordinateur et conserver vos données exactement où vous le souhaitez. Dans le futur, si vous décidez de prendre part à la révolution de l’informatique personnelle selon la vision de Google, vous n’aurez peut-être plus ce choix.

Simson L. Garfinkel est chercheur et auteur, il habite en Californie. Ses sujets de recherches incluent des travaux en informatique légale, sur la vie privée et la gestion des informations personnelles.

Notes

[1] Crédit photo : Doug Siefken (Creative Commons By-Sa)




Google prends les ARM pour défendre Theora

Titlap - CC byComme vous le savez, HTML5 est la cinquième version du langage utilisé pour concevoir les pages Web, qui propose enfin aux développeurs le moyen d’afficher directement et simplement les vidéos dans la page, de la même façon qu’il est déjà possible de le faire pour des images. C’est à dire de façon simple, ouverte et puissante, sans la contrainte de recourir à un plugin propriétaire comme Flash.

Mais la taille des vidéos doit être réduite pour pouvoir être diffusées sur Internet, et comme il a déjà été dit dans ces colonnes, HTML5 est muet quant au format à utiliser pour compresser ces vidéos (on parle aussi de codec). Aujourd’hui, deux codecs peuvent techniquement assumer ce rôle clé : Theora et H264 (en attendant une possible libération du codec VP8 racheté par Google). Mais alors que le premier est entièrement libre et utilisable sans aucune restriction, le deuxième est breveté et son usage est rigoureusement encadré et soumis à redevance.

On comprend alors que l’affrontement de ces deux codecs n’est que la traduction de l’affrontement de deux visions : tandis que Theora doit permettre de maintenir un Web ouvert où chacun serait libre de publier du contenu ou de créer des applications innovantes, H264 permettra à quelques entreprises privées de faire main basse sur le Web.

À côté de l’avènement de HTML5, un autre facteur est en train de rebattre les cartes : il s’agit du nombre grandissant d’appareils mobiles reliés à Internet[1].

Pour ces appareils mobiles, la question de la puissance processeur et de la consommation électrique se pose de manière nouvelle : ces appareils sacrifient souvent la première au profit de la seconde.

Ainsi, à l’inverse de ce qui se passe dans le monde des micro-ordinateurs de bureau, où l’architecture x86 développée par Intel domine, l’univers des appareils ultra mobiles est dominé par une architecture concurrente : ARM.

Les processeurs ARM (pour Advanced Risc Machine) sont des processeurs fabriqués sous licence par différentes sociétés de par le monde à partir des travaux de la société anglaise ARM. Cette société conçoit des processeurs consommant peu d’énergie qui se retrouvent ensuite dans la plupart des appareils mobiles : des sociétés comme Nokia, Google (Nexus One), HTC, Samsung, Apple (Iphone/iPad), Sony Ericsson, Palm (Plam Pre), Siemens, LG, ou encore Motorola l’utilisent dans leurs smartphones.

Dans la mesure où l’on retrouve souvent le codec H264 dans les vidéos en Flash et où le format H264 exige d’importantes ressources processeur pour être décodé, de nombreux appareils mobiles ont été optimisés pour aider au décodage du H264.

De fait, ce handicap initial est devenu paradoxalement un avantage pour le H264 : bien que Theora demande beaucoup moins de ressources pour être décodé et soit ainsi plus adapté aux appareils mobiles, certains lui opposent le fait qu’il ne bénéficie pas du même support matériel que le H264.

Heureusement la situation n’est pas figée et de nombreux développeurs sont à pied d’œuvre pour permettre à Theora de tirer parti de ces optimisations matérielles (en attendant que les fabricants implémentent eux-même leurs optimisations pour Theora).

C’est le cas notamment de Google qui investit dans le développement de theorARM, une version de Theora optimisée pour les processeurs ARM, comme l’explique Robin Watts sur le blog « des projets Open Source » de Google dans le billet traduit ci-après.

Avant de laisser la parole à Robin Watts, remarquons que, depuis que Theora est pressenti comme codec possible pour la vidéo sur le Web, celui-ci s’améliore de manière constante. Tous les défauts relevés à l’encontre de Theora sont en passe d’être corrigés grâce aux efforts conjugués de toute une communauté de développeurs talentueux regroupée derrière la fondation Xiph.Org (qui développe Theora) dont Red Hat, les fondations à but non lucratif Wikimédia et Mozilla, et à présent Google.

H264, de son côté, reste irrémédiablement entravé par son péché originel : celui d’être breveté jusqu’à l’os. Et les meilleurs développeurs du monde n’y pourront rien changer.

Bref, là où Theora promet le meilleur, à tous points de vue, H264 n’annonce que le pire.

Ça bouge du côté de la vidéo sur le Web

Interesting times for Video on the Web

Robin Watts – 9 avril 2010 – Google Open Source Blog (Traduction Framalang : Olivier Rosseler et Goofy)

Si je vous disais que Google a participé au financement d’une version du codec Theora optimisée pour les processeurs ARM, vous seriez nombreux à passer directement au billet suivant de ce blog. Personne ne se soucie des codecs audio ou vidéo, du moins tant qu’ils fonctionnent.

Demandez à la plupart des utilisateurs d’ordinateurs quel est leur codec favori et ils vous regarderont comme si vous aviez demandé leur moteur de machine à laver préféré. « On veut juste que ça marche ! » vous répondront-ils. C’est exactement la même chose pour ceux qui créent et publient du contenu sur le Web. À chaque fois qu’une vidéo est inaccessible au visiteur d’un site Web, c’est un message qui n’atteint pas sa cible. Peu importe la qualité du message et le temps passé à le peaufiner, ou les techniques virales employées pour attirer les visiteurs ; si la page Web n’affiche qu’un beau rectangle vide à l’endroit du contenu, tous ces efforts auront été vains.

Publiez la vidéo afin qu’elle soit lisible partout

L’idée est bonne, mais sa mise en pratique est loin d’être simple. Il n’existe aucun standard vidéo actuellement sur le Web. Certains sites utilisent la technologie Flash, restreignant ainsi leur auditoire aux utilisateurs disposant d’un lecteur Flash et excluant de fait la plupart des téléphones. Certains se servent de lecteurs Java intégrés, mais l’auditoire se limite alors au seul public disposant de machines suffisamment puissantes pour décoder l’audio et la vidéo dans une machine virtuelle, ce qui exclut tout ce qui est plus lent qu’un ordinateur portable. D’autres encore se reposent sur les lecteurs natifs à telle plateforme (comme Windows Media Player) et se coupent ainsi de toutes les autres plateformes. D’autres enfin ne proposent que le lien vers la vidéo et s’en remettent au lecteur vidéo que l’utilisateur a pu éventuellement installer.

On est bien loin du « ça marche, tout simplement », et aucune de ces solutions ne semble en prendre le chemin. Que ça vous plaise ou non, avec la multiplication des appareils connectés, ce Graal va être de plus en plus difficile à atteindre. À une époque, il suffisait de s’assurer que la vidéo était lisible sur PC et sur Mac. Maintenant il faut jongler entre Android, ChromeOS, iPhoneOS, Linux, Maemo, Symbian et plein d’autres systèmes encore. Et ce n’est pas tout, puisqu’il faut prendre en compte toute une gamme de processeurs de puissances différentes, depuis les ordinateurs de bureaux aux téléphones en passant par les ordinateurs portables, les netbooks et les PDA. Le problème est loin d’être résolu, bien au contraire.

Heureusement, HTML5 nous apporte de l’espoir. Cette nouvelle version d’HTML (le langage de base utilisé pour écrire les pages Web) introduit un élément video.

Un standard existe maintenant pour que les gens spécifient dans le code de la page l’intégration d’une vidéo. À chaque navigateur, ensuite, d’implémenter la lecture des vidéos : soit qu’il lise lui-même la vidéo soit qu’il délègue cette tâche à un lecteur incorporé ou externe. Dans tous les cas, la décision appartient à l’utilisateur au lieu d’être imposée par le créateur du contenu. Le plus génial dans tout cela, c’est que cette fonction est déjà supportée : Firefox, Opera, Chrome et Safari prennent déjà en charge le HTML5 et les autres navigateurs suivront rapidement.

Alors, problème réglé ?

À vrai dire, non. Il existe désormais un langage commun pour publier des vidéos, c’est un bon début, mais la question du format n’est pas résolue. Là, il n’y a pas de « taille unique ». La vidéo est-elle visionnée sur un téléphone avec un petit écran, sur un netbook, sur un PC de bureau, ou sur un écran LED 3D de 150 pouces à la résolution quatre fois supérieure à celle de la TVHD ? La taille de l’écran, la connectique et la puissance de calcul jouent chacune un rôle ici. Un peu comme la transition de la VHS au DVD puis au BluRay pour les vidéos télévisées, la vidéo sur le Web va s’améliorer au fur et à mesure. Et c’est très bien ainsi : la technologie des serveurs Web permet d’adapter la vidéo au navigateur et à l’appareil utilisés.

En revanche, il nous faut assurément nous accorder sur un plus petit dénominateur commun, un format standard qui servira de format par défaut si tout le reste échoue. Ça ne doit pas nécessairement être le format le plus complexe, ou le plus marketé, ni même celui créé par l’union du plus grand nombre d’entreprises. Il doit simplement être disponible, partout. Le codec le plus adapté actuellement est Ogg Theora, dérivé du codec VP3 libéré par On2 il y a quelques années. Il se débrouille plutôt bien en termes de qualité et de compression, et il n’a pas à rougir face à ses rivaux plus populaires comme le MPEG4, tout en étant bien plus simple à décoder. Mais surtout, il se démarque de ses concurrents par le fait qu’il est libre. Vraiment libre. Pas seulement « libre d’utilisation dans les décodeurs » ou « libre d’utilisation si vous signez cet accord de licence compliqué », mais vraiment, honnêtement, authentiquement, 100% libre. Les spécifications du flux et le code source de l’encodeur/décodeur sont accessibles publiquement et peuvent être librement utilisées/modifiées par n’importe qui. Theora a toujours été développé avec comme objectif premier d’éviter les brevets. Aucun autre codec que Theora ne peut se targuer de n’enfreindre aucun brevet et de n’être soumis à aucune redevance tout en tenant malgré tout la dragée haute à ses concurrents.

Alors, qu’est-ce qu’on attend ?

Décoder une vidéo demande beaucoup de ressources au processeur. Un important travail reste à accomplir avant de réaliser le rêve de lire une vidéo sur n’importe quel appareil. Theora est bien moins complexe que bon nombre de ses concurrents : les autres codecs nécessitent souvent du matériel dédié pour atteindre des performances décentes, alors que, bien programmé, Theora peut être décodé sans aide extérieure. En fait, sur les ordinateurs portables ou de bureau, le décodage à la volée est possible dans un lecteur Java intégré (comme par exemple l’excellent Cortado, lui aussi libre), ce qui permet la lecture de vidéos dans les navigateurs ne prenant pas encore en compte l’élément video. Mais ça n’est pas envisageable pour les appareils comme les PDA, les téléphones, les netbooks, les tablettes ou les lecteurs portables. Ces engins reposent souvent sur des processeurs ARM qui sont bien moins énergivores que les processeurs qui équipent habituellement les micro-ordinateurs. Malgré les gains de puissance continus réalisés au cours de ces dernières années, ils ne rivalisent pas encore avec leurs cousins plus costauds pour ce qui est de la puissance pure. Cette gamme très importante d’appareils construits autour de processeurs ARM représente le dernier défi pour un décodage fluide de Theora. Tout progrès d’efficacité réalisé se traduit par davantage d’autonomie ou des écrans plus grands.

C’est là que l’aide financière de Google intervient. En subventionnant le développement de TheorARM (une version libre de Theora optimisée pour les processeurs ARM), ils nous aident à nous rapprocher du jour où la vidéo fonctionnera partout sur le Web, pour tout le monde. Ça serait plutôt pas mal, non ? Ça y est, maintenant vous pouvez passer au billet suivant du blog.

Notes

[1] Crédit photo : Titlap (Creative Commons By)




Quand Google fait l’ange avec nos données

The Data Liberation Front - GoogleGoogle fait peur et Google le sait. Alors Google fait de gros efforts pour tenter de nous rassurer.

Mais cela sera-t-il suffisant ? Google n’est-il pas devenu intrinsèquement trop gros, quelle que soit la manière dont il brasse nos nombreuses données personnelles, quelle que soit l’indéniable qualité de sa myriade de services et de produits ?

Telle est la vaste question du jour, tapie derrière notre traduction évoquant leur projet du « Front de Libération des Données ».

La page d’accueil Google propose depuis peu un petit lien Confidentialité en bas du champ de recherche. Il vous mènera au portail google.fr/privacy qui a pour titre Centre de confidentialité : Transparence et liberté de choix.

Chez Google, nous sommes parfaitement conscients de la confiance que vous nous accordez, ainsi que de notre devoir de protéger la confidentialité de vos données. À cette fin, vous êtes informé des données qui sont collectées lorsque vous utilisez nos produits et services. Nous vous indiquons en quoi ces informations nous seront utiles et comment elles nous permettront d’améliorer les services que nous vous proposons.

On y décline alors la philosophie Google résumée en « cinq principes de confidentialité » et illustrée par cette vidéo que je vous invite à parcourir et qui témoigne une fois de plus de la maîtrise didactique de Google dans sa communication.

Du lard ou du cochon ? De l’art de faire l’ange quand on fait la bête ? Les commentaires accueilleront peut-être certaines de vos réactions.

En attendant la vidéo fait référence à un récent service, le Google Dashboard, qui est censé vous permettre de « savoir ce que Google sait de vous » en centralisant en un unique endroit toutes les informations collectées associées à votre compte Google (Gmail, Google Docs, Agenda, Maps, etc.) et à ses services connexes (YouTube, Picasa, etc.). Pour en avoir un bref aperçu, là encore, nouvelle et toujours efficace vidéo dédiée.

Cette initiative est louable parce qu’elle vous expose à priori la situation en vous facilitant la modification des paramétrages. Mais elle est à double tranchant parce que vous vous rendez compte d’un coup d’un seul de l’étendu de la pieuvre Google et de la quantité impressionnante de vos données que Google peut potentiellement manipuler. Et puis n’oublions jamais la force d’inertie du paramétrage par défaut.

La vidéo nous parle également du « Data Liberation Front », ou « Front de Libération des Données » en français, dont le logo ouvre ce billet. Ce n’est pas un nouveau mouvement révolutionnaire mais un projet interne qui œuvre à ce que l’assertion suivante devienne réalité :

Nous voulons que nos utilisateurs restent chez nous parce qu’ils le souhaitent, non parce qu’ils ne peuvent plus en sortir.

Il s’agit donc en théorie de pouvoir facilement quitter Google en listant sur un site, service par service, les procédures à suivre pour exporter nos fichiers et nos données depuis les serveurs de Google vers notre disque dur local dans des formats standards et ouverts. Les manipulations à réaliser ne sont pas toujours des plus simples (quand elles existent effectivement), mais le projet nous dit qu’il travaille justement à constamment améliorer cela.

On retrouve cette idée, lorsque Google nous affirme que « Competition is just one click away », autrement dit que tout est fait pour qu’il suffise d’un clic de souris pour s’en aller chez un concurrent, et que les autres devraient en faire autant pour que s’établisse une saine compétition. Pas sûr que Microsoft soit sensible à l’argument.

Centre de confidentialité, Google Dashboard, Data Liberation Front, One click away, Sens de l’ouverture… il n’y a pas à dire, Google met les bouchées doubles pour ne pas se mettre en porte-à-faux avec son fameux slogan « Don’t be evil ».

Alors, convaincu ?

Dans l’affirmative, remercions Google pour son souci de transparence et continuons à lui faire confiance, sachant alors que le futur et novateur système d’exploitation Google Chrome OS vous tend les bras. Point trop d’inquiétudes mal placées, vos données sont bien au chaud dans les nuages.

Dans le cas contraire, c’est plutôt un « Google Liberation Front » qu’il va falloir songer à créer !

Pourquoi Google vous laisse facilement quitter Google

Why Google makes it easy to leave Google

Nate Anderson – 1 mars 2010 – Ars Technica
(Traduction Framalang : Goofy et Don Rico)

Nous avons déjà évoqué le Front de Libération des Données de Google (FLD) l’année dernière, lorsque ce projet a été rendu public, mais depuis, qu’a fait l’équipe interne de Google qui se consacre à l’exportation des données ? Eh bien… elle a créé des autocollants, pour commencer.

« DONNÉES ÉLEVÉES EN PLEIN AIR », proclament-ils, ce qui résume en quelques mots les efforts du Front de Libération des Données. L’objectif de l’équipe n’est rien moins que de permettre aux utilisateurs de quitter plus facilement Google et ses multiples services, en emportant avec eux leurs courriels, leurs photos et tous leurs documents.

Les travaux les plus récents concernaient Google Docs, qui propose désormais une option pour télécharger en masse. Sélectionnez les documents que vous désirez, cliquez sur un bouton, Google les archive en un seul fichier .zip (jusqu’à 2Go) et vous les envoie par e-mail.

Au cours d’une récente visite aux bureaux de Google à Chicago, où le FLD est basé, nous avons discuté avec Brian Fitzpatrick, qui dirige l’équipe, pour savoir plus en détail pourquoi il souhaite que l’on puisse s’affranchir facilement des services Google, et comment il compte s’y prendre.

Empêcher l’inertie

Il est certain que lancer cette initiative estampillée « ne faites pas le mal » au sein de l’entreprise est une bonne manœuvre de communication, mais le FLD ne découle pas d’une décision prise au sommet de la hiérarchie. Fitzpatrick déclare qu’en ce qui le concerne, il a « commencé en toute naïveté ». Après avoir écouté pendant des années le président Eric Schmidt déployer son éloquence pour expliquer combien il est important de ne pas enfermer les utilisateurs, Fitzpatrick a remarqué que certains produits Google compliquaient l’application de cette politique.

Le FLD est l’émanation de son travail de réflexion. L’équipe existe depuis deux ans maintenant, et depuis les choses ont changé : à ses débuts, c’est elle qui allait trouver les autres équipes d’ingénieurs, mais à présent, selon Fitzpatrick, ce sont ces dernières qui « viennent nous consulter » pour savoir comment elles s’en tirent.

La rétention des données n’est pas mauvaise que pour les utilisateurs ; Fitzpatrick estime qu’elle est aussi mauvaise pour Google. « Si l’on crée une base d’utilisateurs verrouillée, avance-t-il, on devient forcément complaisant avec soi-même ».

Rendre aussi facile l’abandon de Google Docs que celui du moteur de recherche de Google force Google à cultiver un de ses points forts : engager des collaborateurs brillants. Le travail du FLD « met en effervescence les équipes d’ingénieurs », explique Fitzpatrick, puisque les ingénieurs doivent satisfaire les utilisateurs en innovant, et non en les mettant en cage.

The Data Liberation Front - Google - Sticker

Les utilisateurs se préoccupent-ils vraiment de la libération de leurs données ? Certains, oui, mais l’utilisation des fonctions d’exportation demeure limitée. Google enregistre « un niveau constamment faible de l’usage de ces fonctions », déclare un ingénieur de l’équipe, particulièrement quand le géant de la recherche choisit d’abandonner des services peu performants.

Disposer d’outils d’exportation facilite également de telles interruptions de services ; souvenez-vous des problèmes rencontrés par les sites de vente de musique bardés de DRM, lorsqu’ils ont finalement tenté de fermer leurs serveurs de DRM. Grâce à l’ouverture des données de Google, l’entreprise évite ce genre de critiques publiques quand survient une fermeture de service, comme lorsque Google Notebook a été mis au rebut.

Nicole Wong, conseillère juridique adjointe de Google, nous a confié que Google prend le FLD au sérieux pour deux raisons : d’abord, il donne le contrôle aux utilisateurs, et ensuite, « quand nous déclarons qu’il suffit d’un clic pour passer à la concurrence, des initiatives telles que le FLD le prouvent ».

Ce dernier commentaire nous rappelle que l’ouverture représente un réel bénéfice stratégique pour l’entreprise qui va bien au-delà de la conception des produits et du pouvoir accordé à l’utilisateur. Google est de plus en plus en ligne de mire des investigations antitrust, de la part du ministère de la Justice américain, et subit déjà des enquêtes en Europe au nom de la lutte antitrust. Le FLD est ainsi un argument de plus que Google peut employer pour démontrer qu’il n’est pas un Cerbère pour usagers captifs.

Il arrive que l’équipe du FLD affronte les critiques de ceux qui accusent Google de ne rendre « libres » et exportables que les données à faible valeur marchande pour l’entreprise (voyez par exemple ce commentaire du chercheur Ben Edelman à propos de la récupération des données Adwords). Mais depuis sa création, le FLD a travaillé avec plus de vingt-cinq équipes de Google pour faciliter l’exportation des données, et nul doute que ses efforts concernant les applications comme Google Docs sont une bonne nouvelle pour les utilisateurs.

« Nous nous efforçons de provoquer une plus grande prise de conscience au sein de l’entreprise, » déclare Fitzpatrick, tout en admettant avec une petite grimace qu’il n’a aucun « pouvoir » réel sur les décisions des différents chefs de projet.

On peut toujours aller plus loin. L’équipe surveille la page du modérateur Google, sur laquelle les utilisateurs peuvent soumettre des suggestions – et elles sont nombreuses. « Mes contacts Gmail — pouvoir les exporter, et ré-importer une version modifiée, sans copier chaque élément un à un » propose l’un d’eux. « Ajouter les microformats hCalendar à l’agenda Google, pour pouvoir réutiliser partout ailleurs les rendez-vous enregistrés » suggère un autre. « Je veux récupérer l’historique de mon tchat avec Gmail », réclame un troisième.

Fitzpatrick promet que d’autres avancées vont suivre, bien qu’il ne puisse pas parler des projets qui sont dans les incubateurs. Ce qu’il peut faire, pour l’instant, c’est vous envoyer un autocollant.




Si Google is not evil alors qu’il le prouve en libérant le format vidéo du Web !

Diegosaldiva - CC byQuel sera le futur format vidéo du Web ? Certainement plus le Flash dont les jours sont comptés. Mais quel nouveau format va alors s’imposer, un format ouvert au bénéfice de tous ou un format fermé dont le profit à court terme de quelques-uns se ferait au détriment des utilisateurs ?

Un acteur, à lui seul, possède semble-t-il la réponse ! Et c’est une fois encore de Google qu’il s’agit. Une réponse que la Free Software Foundation attend au tournant car elle en dira long sur les réelles intentions de la firme de Moutain View.

Tentative de résumé de la situation.

Faute de mieux, et alors qu’il n’avais pas été spécialement conçu pour jouer les premiers rôles, le format Flash Video d’Adobe (.flv) s’est imposé pendant des années comme format standard de fait de la vidéo en lecture continue (ou streamée) sur Internet, comme par exemple sur le site emblématique YouTube.

Pour le lire il nécessitait la présence d’un player Flash sur son ordinateur, ce qui a toujours posé problème aux Linuxiens puisque la technologie Flash est propriétaire et (en partie) fermée et qu’il n’est donc pas possible de l’inclure dans les distributions libres de GNU/Linux (ceux qui juste après une installation ont recherché comment lire ce satané format comprendront fort bien ce que je veux dire). Un problème si important que la FSF n’a pas hésité à le placer au top de ses priorités logicielles avec son projet de lecteur libre Gnash (juste en dessous d’un lecteur alternatif pour le format PDF, autre format problématique).

Mais tout ceci sera bientôt du passé car la nouvelle version du format des pages Web, le HTML5, est en train de changer la donne avec l’introduction de la balise <video> (cf cet article du Framablog pour en savoir plus : Building the world we want, not the one we have).

Exit le Flash donc dans nos vidéos du Web. D’ailleurs, coup de grâce, il ne figurera pas dans l’iPad et Steve Jobs aurait déclaré « ne pas vouloir perdre du temps sur une technologie dépassée aussi ringarde que les disquettes » !

Conséquence et grand progrès, on peut donc potentiellement lire directement les vidéos sur tout navigateur qui implémente le HTML5 (actuellement Firefox 3.5+, Safari 4+, Chrome 3+). Plus besoin de télécharger de plugins (Flash, QuickTime ou autre). Sauf que comme le dit Tristan Nitot « la spécification HTML5 précise comment un navigateur doit interpréter l’élément video, mais pas sur le format dans lequel doit être publiée la vidéo en question ».

Or justement deux formats sont les principaux candidats à la succession, l’un ouvert, que nous connaissons bien, le Ogg Theora (adopté notamment sur les projets Wikimedia), et l’autre fermé le H.264. Tristan Nitot expose avec la clarté qu’on lui connaît, la situation, ses contraintes et ses menaces, dans son billet Vidéo dans le navigateur : Theora ou H.264 ?.

Il en rajoute une couche sur Rue89 dans Firefox refuse que YouTube devienne « un club de riches » :

« Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

En effet, il en coûterait plusieurs millions par an à Mozilla si elle voulait intégrer le H.264 dans Firefox. Ce qu’elle ne pourrait pas se permettre et du coup si YouTube adoptait définitivement ce format (que la célèbre plate-forme teste actuellement), nous serions face à un choix cornélien : Firefox sans YouTube (et tous les autres sites de vidéos qui auront alors suivi YouTube, gageons qu’ils seront nombreux) ou YouTube sans Firefox.

Ceux qui pensent, comme Stallman, qu’on « ne brade pas sa liberté pour de simples questions de convenances » feront peut-être le premier choix. Mais pour le grand public, rien n’est moins sûr (c’est même sûr qu’il fera le choix inverse).

Or c’est un feuilleton à épisodes car un tout dernier évènement est venu semer le trouble en apportant son lot de spéculations. Un évènement passé un peu inaperçu à cause du buzz (négatif) engendré par la sortie simultanée de Google Buzz : le rachat par Google de la société On2 Technologies pour un peu plus de cent millions de dollars.

On2 Technologies est justement spécialisée dans la création de formats vidéos, dont un, le VP3, a d’ailleurs été libéré et est directement à l’origine de l’Ogg Theora. Mais c’est le tout dernier de la gamme, le VP8 qui focalise l’attention de par ses qualités (cf présentation et comparaison sur le site d’On2).

Ce rachat a quelque peu atténué les craintes des observateurs, à commencer par Mozilla (cf cet article de Numerama : Codec vidéo : Google rachète On2 et rassure Mozilla). Pourquoi en effet débourser une telle somme puisque le H.264 est là ? Peut-être pour le remplacer par le VP8. Mais alors aura-t-on un VP8 également fermé (et peut-être aussi payant) ou bien ouvert pour l’occasion ?

La balle est dans le camp de Google.

Soit la société fait le choix du H.264. Firefox ne peut pas suivre et alors il y a fort à parier que cela profitera au navigateur Google Chrome (nombre d’utilisateurs ne pouvant désormais concevoir le Web sans YouTube). Comme de plus l’essentiel des revenus de Mozilla provient de l’accord avec Google sur le moteur de recherche par défaut de Firefox, et que cet accord ne court que jusqu’en 2011, on voit bien que Google peut en théorie si ce n’est tuer Firefox, tout du moins participer directement à freiner son ascension.

Soit la société oublie le H.264 en optant pour le VP8 d’On2. Mais reste alors à savoir quelle sera la nature de ce format. Si Google décide de le libérer en donnant le la en l’installant sur YouTube, c’est non seulement Firefox qui en profitera mais le Web tout entier.

Le choix est important, parce qu’au-delà de l’avenir de la vidéo sur le Web, c’est l’avenir de Google dont il est question. Et aujourd’hui, qu’on le veuille ou non, l’avenir de Google rejoint souvent l’avenir du Web tout court, ce qui en dit long sur sa puissance et son influence actuelles sur le réseau.

Il est bien évident que le H.264 ou le VP8 fermé serait à priori la meilleure option pour Google en tant que multinationale cotée en bourse avec des actionnaires qui réclament leurs dividendes. Mais ce serait la plus mauvaise pour les partisans d’un Web libre et ouvert. « Google is not evil » nous dit le slogan, alors qu’elle le prouve en faisant le bon choix, celui de l’intérêt des utilisateurs. Google en tirerait alors l’avantage de conserver une image positive de plus en plus écornée ces derniers temps. Dans le cas contraire le masque serait définitivement levé[1] et le bénéfice du doute ne serait plus permis.

Tel est en substance le message lancé par la FSF que nous avons traduit ci-dessous.

Lettre ouverte à Google : libérez le VP8, et utilisez-le sur YouTube

Open letter to Google: free VP8, and use it on YouTube

Holmes – 19 février 2010 – FSF Blogs
(Traduction Framalang : Don Rico et Goofy)

Après son acquisition d’On2, entreprise spécialisée en technologie de compression vidéo, le 16 février 2010, Google est à présent en position de standardiser les formats vidéo libres et ainsi libérer le Web à la fois du Flash et du codec propriétaire H.264.

Cher Google,

Après votre rachat d’On2, vous possédez désormais le plus important site de vidéos au monde (YouTube) et tous les brevets déposés pour un nouveau codec vidéo de haute performance, le VP8. Imaginez ce que vous pouvez accomplir si vous rendez disponible, de façon irrévocable, le codec VP8 sous une licence libre de royalties, et le proposez aux utilisateurs de YouTube ? Vous pouvez mettre un terme à la dépendance du Web aux formats vidéo criblés de brevets et aux logiciels propriétaires tel que Flash.

Garder le secret sur les spécifications de cette technologie ou ne l’utiliser que comme levier de négociation desservirait le monde du Libre, en n’apportant dans le meilleur des cas que des bénéfices à court terme à votre entreprise. Libérer le code du VP8 sans recommander ce format aux utilisateurs de YouTube constituerait une occasion manquée et nuirait au navigateurs libres tel que Firefox. Nous voulons tous que vous fassiez le bon choix. Libérez le code de VP8, et utilisez-le pour YouTube !

Pourquoi ce serait un immense bond en avant

Le monde disposerait alors d’un nouveau format libre affranchi de brevets logiciels. Internautes, créateurs de vidéo, développeurs de logiciels libres, constructeurs de matériel informatique, tout le monde pourrait distribuer de la vidéo sans se soucier des brevets, des droits d’utilisation et des restrictions. Le format vidéo libre Ogg Theora est au moins aussi performant pour la vidéo sur le web (voir comparatif) que son concurrent fermé, le H.264, et jamais nous n’avons approuvé les objections que vous opposiez à son utilisation. Puisque vous avez pris la décision d’acquérir le VP8, on peut néanmoins supposer que ce format ne soulève pas selon vous les mêmes objections, et que l’implémenter dans YouTube est un jeu d’enfant.

Vous avez le pouvoir de faire de ce format libre un standard planétaire. Si YouTube, qui héberge la quasi totalité des vidéos numériques jamais conçues, proposait un format libre en option, ce simple changement vous vaudrait le soutien d’une pléthore de fabricants d’appareils et d’applications numériques.

Cette capacité à proposer un format libre sur YouTube n’est toutefois qu’une partie infime de votre véritable pouvoir. On passera aux choses sérieuses quand vous encouragerez les navigateurs des utilisateurs à prendre en charge les formats libres. Il existe un tas de moyens de s’y prendre. La meilleure, à nos yeux, serait que YouTube abandonne le Flash au profit des formats libres et du HTML, et propose à ses utilisateurs équipés de navigateurs obsolètes un plug-in ou un navigateur moderne (un logiciel libre, bien sûr). Apple a eu le cran de mettre au rebut le Flash pour l’iPhone et l’iPad (même si leurs raisons sont suspectes et leurs méthodes détestables les DRM), et cette décision pousse les développeurs Web à créer des alternatives sans Flash de leurs pages. Vous pourriez faire de même avec YouTube, pour des raisons plus nobles, ce qui porterait un coup fatal à la prédominance de Flash dans le secteur des vidéos en ligne.

Même des actions de moindre envergure porteraient leur fruits. Vous pourriez par exemple susciter l’intérêt des utilisateurs avec des vidéos HD disponibles sous format libre, ou inciter fortement les utilisateurs à mettre à niveau leur navigateur (plutôt que de mettre Flash à jour). De telles mesures sur YouTube porteraient la prise en charge des formats libres par les navigateurs à un niveau de 50% et plus, et elles augmenteraient lentement le nombre d’internautes qui ne prendraient pas la peine d’installer un plug-in Flash.

Si le logiciel libre et l’internet libre vous tiennent à cœur (un mouvement et un médium auxquels vous devez votre réussite), vous devez prendre des mesures drastiques pour remplacer Flash par des standards ouverts et des formats libres. Les codecs vidéo brevetés ont déjà fait un tort immense au Web et à ses utilisateurs, et cela continuera tant que nous n’y mettrons pas un terme. Parce qu’il était coûteux d’implémenter des standards bardés de brevets dans les navigateurs, un logiciel privateur aussi lourd qu’inadapté (le Flash) est devenu le standard de facto pour la vidéo en ligne. Tant que nous ne passerons pas aux formats libres, la menace des actions en justice pour violation de brevet et des royalties à verser pèsera sur tous les développeurs de logiciel, les créateurs de vidéo, les fabricants de matériel informatique, les sites Internet et les entreprises du Web, vous y compris.

Vous pouvez utiliser votre acquisition d’On2 comme simple levier de négociation pour apporter votre propre solution au problème, mais ce serait à la fois un faux-fuyant et une erreur stratégique. Si vous ne faites pas du VP8 un format libre, ce ne sera jamais qu’un codec vidéo de plus. À quoi servirait un énième format vidéo souffrant d’une compatibilité avec les navigateurs limitée par des brevets ? Vous devez au public et à l’Internet de résoudre ce problème ; vous le devez à nous tous, et pour toujours. Des organisation telles que Xiph, Mozilla, Wikimedia, la FSF et On2 elle-même mettent l’accent sur la nécessité d’imposer les formats libres et se battent corps et âme pour rendre cela possible. À votre tour, maintenant. Si vous en décidez autrement, nous saurons que vous avez à cœur non pas la liberté des utilisateurs mais seulement le règne sans partage de Google.

Nous voulons tous que vous preniez la bonne décision. Libérez le code du VP8 et utilisez-le sur Youtube !

Notes

[1] Crédit photo : Diegosaldiva (Creative Commons By)




Google, Apple et l’inexorable déclin de l’empire Microsoft

Seanmcgrath - CC byQuel est le dénominateur commun des récents évènements qui ont défrayé la chronique du Web ? L’absence de Microsoft.

On peut à juste titre critiquer Google, et son jeu du chat et de la souris avec nos données personnelles. Dernier exemple en date : Google Buzz.
On peut en faire de même avec Apple, qui prend un malin plaisir à enfermer les utilisateurs dans son écosystème. Dernier exemple en date : l’iPad.

Il n’empêche que ces deux géants innovent en permanence et se détachent chaque jour un peu plus d’un Microsoft visiblement trop lourd pour suivre le rythme[1].

C’est ce que nous rappelle Glyn Moody dans ce très intéressant article qui vient piocher dans la toute fraîche actualité des arguments de son édifiante conclusion.

Il note au passage que contrairement à Microsoft, Google (beaucoup) et Apple (avec parcimonie) utilisent des technologies open source. Ceci participe aussi à expliquer cela.

Il s’est passé quelque chose, mais où est passé Microsoft ?

Something Happened: Where’s Microsoft?

Glyn Moody – 15 février 2010 – ComputerWorld.uk
(Traduction Framalang : Goofy)

Vous en avez probablement entendu parler, la semaine dernière il y a eu tout un pataquès à propos de Google Buzz et de ses conséquences sur le respect de la vie privée. Et voici ce que Google a répondu :

Nous avons bien reçu votre réaction, cinq sur cinq, et depuis que nous avons lancé Google Buzz il y a quatre jours, nous avons travaillé 24h sur 24 pour dissiper les inquiétudes que vous avez exprimées. Aujourd’hui, nous voulons vous informer que nous avons fait ces derniers jours une quantité de modifications en tenant compte des réactions que nous avons reçues.

D’abord, l’ajout automatique des contact suivis. Avec Google Buzz, nous avons voulu faire en sorte que les premiers pas soient aussi rapides et aisés que possible, et donc nous ne voulions pas que vous ayez à reconstruire manuellement votre réseau social depuis zéro. Cependant, beaucoup de gens voulaient juste essayer Google Buzz pour voir en quoi il pouvait leur être utile, et ils n’ont pas été contents de voir qu’ils avaient déjà une liste de contacts suivis. Ce qui a soulevé une énorme vague de protestations et incité les gens à penser que Buzz affichait automatiquement et de façon publique ceux qu’ils suivaient, avant même d’avoir créé un profil.

Jeudi dernier, nous avons entendu dire que les gens trouvaient que la case à cocher pour choisir de ne pas afficher publiquement telle ou telle information était difficile à trouver, nous avons aussitôt rendu cette option nettement plus repérable. Mais ce n’était évidemment pas suffisant. Donc, à partir de cette semaine, au lieu d’un modèle autosuiveur, avec lequel Buzz vous donne automatiquement à suivre des gens avec lesquels vous échangez le plus sur le chat ou par email, nous nous orientons vers un modèle autosuggestif. Vous ne serez pas voué à suivre quiconque avant d’avoir parcouru les suggestions et cliqué sur « Suivez les contacts sélectionnés et commencez à utiliser Buzz ».

Le plus intéressant dans cette histoire c’est que 1. Google aurait pu prévoir un problème aussi évident et crucial et 2. ils ont réagi non pas une mais deux fois en quelques jours à peine. C’est ce qui s’appelle vivre à l’heure d’Internet, et démontre à quel point les choses ont changé depuis le « bon vieux temps » – disons il y a quelques années – où les erreurs pouvaient mariner plusieurs mois dans un logiciel avant qu’on prenne la peine de s’en occuper.

Mais ce n’est pas le seul évènement qui s’est produit la semaine dernière. Relativement masquée par l’excitation autour de Buzz, voici une autre annonce de Google :

Nous avons le projet de réaliser un réseau à large bande ultra-rapide dans quelques localités tests aux États-Unis. Nous fournirons un accès à Internet par fibre optique à 1 gigabit par seconde, soit cent fois plus rapide que ce que connaissent aujourd’hui la plupart des Américains connectés. Nous avons l’intention de procurer ce service à un prix concurrentiel à au moins 50 000 personnes, et potentiellement jusqu’à 500 000.

Notre objectif est d’expérimenter de nouvelles façons d’aider chacun à accéder à un Internet plus rapide et meilleur. Voici en particulier ce que nous avons en tête :

Les applications du futur : nous voulons voir ce que les développeurs et les utilisateurs peuvent faire avec des vitesses ultra-rapides, que ce soit des applications révolutionnaires ou des services utilisant beaucoup de bande passante, ou d’autres usages que nous ne pouvons même pas encore imaginer.

Nouvelles techniques de déploiement : nous testerons de nouvelles façons de construire des réseaux de fibre optique, et pour aider à l’information et au support de déploiement partout ailleurs, nous partagerons avec le monde entier les leçons que nous en aurons tirées.

Le choix et l’ouverture : nous allons organiser un réseau en « accès ouvert », qui donnera aux usagers le choix parmi de multiples prestataires de services. Et en cohérence avec nos engagements passés, nous allons gérer notre réseau d’une façon ouverte, non-discriminatoire et transparente.

Google a démarré, souvenez-vous, comme un projet expérimental sur la recherche : en arriver à déployer chez un-demi million d’utilisateurs finaux des connexions par fibre optique à 1 gigabit, voilà qui en dit long sur le chemin parcouru par Google. Tout aussi impressionnante dans le même genre, l’irruption de Google dans monde des mobiles avec Android. Là encore, le lien avec le moteur de recherche n’est peut-être pas évident à première vue, mais tout cela revient à essayer de prédire le futur en l’inventant : Google veut s’assurer que quel que soit le chemin que prendra le développement d’Internet, il sera bien placé pour en bénéficier, que ce soit par la fibre à débit ultrarapide ou par des objets intelligents et communicants que l’on glisse dans sa poche.

Google n’est pas la seule entreprise qui se réinvente elle-même en permanence. C’est peut-être Apple qui en donne l’exemple le plus frappant, c’était pourtant loin d’être prévisible il y a quelques années. Mais au lieu de disparaître, l’entreprise Apple a colonisé la niche lucrative des produits informatiques sophistiqués, en particulier les portables, et a fini par remodeler non seulement elle-même mais aussi deux marchés tout entiers.

Le premier a été celui de la musique numérique, qui se développait bien mollement sous les attaques répétées d’une industrie du disque à courte vue, qui pensait pouvoir conserver le rôle qu’elle jouait dans le monde de l’analogique, celui d’intermédiaire obligé entre les artistes et leur public. En utilisant ses pouvoirs quasi hypnotiques, Steve Jobs s’est arrangé pour faire avaler à l’industrie du disque le lot iTunes + iPod, et la musique numérique a décollé comme jamais auparavant pour toucher l’ensemble de la population.

Tout aussi significative a été la décision de Jobs d’entrer dans le monde des téléphones portables. Le iPhone a redéfini ce que devait être un smartphone aujourd’hui, et a accéléré la convergence croissante entre l’ordinateur et le téléphone. Beaucoup pensent qu’avec son iPad Apple est sur le point de transformer la publication numérique aussi radicalement qu’il a déjà bouleversé la musique numérique.

Quoi que vous pensiez de ces récents évènements, une chose est parfaitement claire : pas un seul des événements les plus excitants du monde de l’informatique – Buzz, le réseau par fibre à 1 gigabit, le iPad, Android et tout le reste – n’est venu de chez Microsoft. La façon dont Google et Apple ont complètement masqué les nouveautés de Microsoft pendant des mois est sans précédent, et je pense, représente un tournant décisif.

Parce que nous assistons à la fin du règne de Microsoft en tant que roi de l’informatique – sans fracas, mais avec un petit gémissement. Bien sûr, Microsoft ne va pas disparaître – je m’attends vraiment à ce qu’il soit là encore pour des décennies, et qu’il distribue de jolis dividendes à ses actionnaires – mais Microsoft sera tout simplement dépourvu d’intérêt dans tous les domaines-clés.

Ils se sont plantés en beauté sur le marché de la recherche en ligne ; mais, d’une façon plus générale, je ne connais pas un seul service en ligne lancé par Microsoft qui ait eu un impact quelconque. Et ça n’est pas mieux côté mobile : bien que Windows Mobile ait encore des parts de marché pour des raisons historiques, je pense que personne, nulle part, ne se lève le matin en se disant « Aujourd’hui il faut que je m’achète un Windows Mobile », comme le font manifestement les gens qui ont envie d’un iPhone d’Apple ou d’un des derniers modèles sous Android comme Droid de Motorola ou Hero de HTC (même moi j’ai acheté ce dernier modèle il y a quelques mois).

Quant au marché de la musique numérique, le Zune de Microsoft est pratiquement devenu le nom générique de la confusion électronique, tant le système est mauvais et mal-aimé. Et même dans le secteur où la part de marché de Microsoft est davantage respectable – celui des consoles de jeu – le problème de l’infâmant « cercle rouge de la mort » menace là encore de ternir sa réputation.

Tout cela nous laisse l’informatique grand public comme dernier bastion de Microsoft. Malgré des tentatives constamment renouvelées de la part des experts (dont votre serviteur) pour proclamer « l’année des ordinateurs GNU/Linux », Windows donne peu de signes qu’il lâche prise sur ce segment. Mais ce qui est devenu de plus en plus flagrant, c’est que les tâches informatisées seront menées soit à travers le navigateur (porte d’accès à l’informatique dans les nuages) soit à travers les smartphones tels que que le iPhone ou les mobiles sous Android. Les uns comme les autres rendent indifférent le choix du système d’exploitation de l’ordinateur de bureau (d’autant que Firefox tend de plus en plus à faire jeu égal avec Internet Explorer sur beaucoup de marchés nationaux), donc savoir si l’on trouve Windows ou GNU/Linux à la base de tout ça est une question vraiment sans intérêt.

Mais vous n’êtes pas obligés de me croire. Dick Brass est bien mieux placé que moi pour en parler, il a été vice-président de Microsoft de 1997 à 2004. Voici ce qu’il a écrit récemment dans le New York Times :

Microsoft est devenu empoté et peu compétitif dans l’innovation. Ses produits sont décriés, souvent injustement mais quelquefois à juste titre. Son image ne s’est jamais remise du procès pour abus de position dominante des années 90. Sa stratégie marketing est inepte depuis des années ; vous vous souvenez de 2008 quand Bill Gates s’est laissé persuader qu’il devait littéralement se trémousser face à la caméra ?

Pendant qu’Apple continue à gagner des parts de marché sur de nombreux produits, Microsoft en perd sur le navigateur Web, le micro portable haut de gamme et les smartphones. Malgré les milliards investis, sa gamme de Xbox fait au mieux jeu égal avec ses concurrents du marché des consoles de jeu. Du côté des baladeurs musicaux, ils ont d’abord ignoré le marché puis échoué à s’y implanter, jusqu’à ce qu’Apple le verrouille.

Les énormes bénéfices de Microsoft – 6,7 milliards de dollars au trimestre dernier – viennent presque entièrement de Windows et de la suite Office qui ont été développés il y a des décennies (NdT : cf ce graphique révélateur). Comme General Motors avec ses camions et ses SUV, Microsoft ne peut pas compter sur ces vénérables produits pour se maintenir à flot éternellement. Le pire de tout ça d’ailleurs, c’est que Microsoft n’est plus considéré comme une entreprise attractive pour aller y travailler. Les meilleurs et les plus brillants la quittent régulièrement.

Que s’est-il passé ? À la différence d’autres entreprises, Microsoft n’a jamais développé un authentique processus d’innovation. Certains de mes anciens collègues prétendent même qu’elle a développé en fait un processus de frein à l’innovation. Bien qu’elle dispose des laboratoires les plus vastes et les meilleurs du monde, et qu’elle se paie le luxe d’avoir non pas un mais trois directeurs de recherches technologiques, l’entreprise s’arrange habituellement pour réduire à néant les efforts de ses concepteurs les plus visionnaires.

Il y a quelque chose de profondément ironique dans cet échec à innover, parce que Microsoft n’a pas cessé d’invoquer l’innovation comme argument principal pour n’être pas frappé par la loi anti-trust aux États-Unis comme en Europe, et pour justifier notre « besoin » de brevets logiciels. La déconfiture de cette argumentation est maintenant rendue cruellement flagrante par l’échec de l’entreprise à innover dans quelque secteur que ce soit.

Je dirais que le plus grand échec à ce titre a été de refuser de reconnaître que la manière la plus rapide et la plus facile d’innover c’est de commencer à partir du travail des autres en utilisant du code open source. Le succès de Google est presque entièrement dû à son développement de logiciels libres à tous les niveaux. Ce qui a permis à l’entreprise d’innover en plongeant dans l’immense océan du code librement disponible pour l’adapter à des applications spécifiques, que ce soit pour les gigantesques datacenters épaulant la recherche, ou pour la conception d’Android pour les mobiles – dans les deux cas à partir de Linux.

Même Apple, le champion du contrôle total du produit par l’entreprise, a reconnu qu’il était cohérent d’utiliser des éléments open source – par exemple, FreeBSD et WebKit – et s’en servir comme fondation pour innover frénétiquement au dernier étage. Refuser de le reconnaître aujourd’hui est aussi aberrant que refuser d’utiliser le protocole TCP/IP pour les réseaux.

Quelque chose s’est passé – pas juste cette semaine, ni la semaine dernière, ni même durant les derniers mois, mais au cours de ces dix dernières années. Le logiciel libre s’est développé au point de devenir une puissance considérable qui influe sur tout ce qui est excitant et innovateur en informatique ; et Microsoft, l’entreprise qui a reconnu le moins volontiers son ascendant, en a payé le prix ultime qui est son déclin.

Notes

[1] Crédit photo : Seanmcgrath (Creative Commons By)




iPad is iBad for freedom

iPad is iBad for freedomLa présentation de l’iPad par Steve Jobs le 27 janvier dernier à San Fransisco a fait grand bruit dans la presse.

Personne n’a évoqué les quelques hurluberlus du groupe Defective by Design qui sont venus, pancartes à la main, sur le perron de la conférence pour tenter, non pas de perturber la grand-messe, mais d’alerter les invités sur les dangers du modèle Apple.

C’était peine perdue mais c’était courageux. En cliquant sur l’image ci-contre vous aurez un agrandissement de cette pancarte.

« Vous entrez dans une zone restreinte contrôlée par Apple où le logiciel libre, le partage et l’installation libre d’applications depuis Internet n’existent pas, sachant de plus qu’Apple peut à tout moment décider de modifier ou supprimer le contenu de votre appareil. Votre ordinateur est notre ordinateur. »

Tel était en substance le message.

Un message corroboré par ce communiqué de la Free Software Foundation que nous vous proposons traduit ci-dessous et dont on peut retenir la citation suivante : « C’est un énorme pas en arrière dans l’histoire de l’informatique ».

iPad’libertés pour les utilisateurs

iPad is iBad for freedom

John Sullivan – 27 janvier 2010 – Communiqué de la FSF
(Traduction Framalang : Olivier)

Avec sa nouvelle tablette tactile, Apple profite de la sortie d’un nouveau type d’appareil pour verrouiller plus que jamais un ordinateur grand public.

iPad is iBad for freedomAu moment où Steve Jobs et Apple s’apprêtaient à présenter leur tablette, des activistes opposés aux Mesures Techniques de Privations (MTP)[1] du groupe Defective by Design tentaient eux d’attirer l’attention des médias sur les restrictions toujours plus contraignantes qu’Apple impose sur ses produits grand public. Le groupe avait mis en place des « Périmètres de restriction Apple » sur le chemin menant au Yerba Buena Center for Arts à San Francisco, informant les journalistes, sur le point de pénétrer dans la salle de conférence, des concessions qu’ils devaient accepter au nom d’Apple.

Apple utilise les MTP pour restreindre les libertés des utilisateurs de diverses manières. Ainsi, pour ne citer que deux exemples, il est impossible d’installer un logiciel ne provenant pas de l’App Store officiel et l’usage que vous faites des films achetés sur iTunes est surveillé. Et, qui plus est, Apple affirme que le contournement de ces restrictions est un acte criminel, même à des fins légales au regard du droit d’auteur.

Organisateur de la manifestation, John Sullivan, responsable des opérations à la Free Software Foundation (FSF) déclarait : « Notre campagne Defective by Design n’en est pas à son coup d’essai contre Apple et elle a déjà porté ses fruits. Nous avons déjà organisé des actions à l’extérieur des Apple Stores pour protester contre les MTP limitant la musique sur iTunes et sous la pression Steve Jobs a abandonné les MTP sur la musique. Aujourd’hui, nous sommes présents pour répéter le même message concernant les autres restrictions qu’Apple impose sur les logiciels, les livres électroniques et les films. Si créativité, liberté et individualité signifient quelque chose pour Jobs et Apple, ils devraient le prouver en abandonnant les restrictions qui rendent la créativité et la liberté illégales.»

Le groupe fait signer une pétition aux citoyens pour pousser Steve Jobs a retirer les MTP des appareils Apple.
Vous pouvez trouver cette pétition à l’adresse http://www.defectivebydesign.org/ipad.

Myuibe - CC by« Notre société est de plus en plus dépendante de son infrastructure informatique, nous nous devons d’être vigilant. Par le passé, nous avons vu comment des défenseurs des Droits de l’Homme et de la démocratie se sont fait piéger par les sociétés qui fournissent les biens et les services dont ils dépendent. Vous seul devriez avoir le contrôle de votre ordinateur. Avec ces restrictions, Steve Jobs établit un précédent dangereux pour notre liberté au nom de ses profits.» poursuit Peter Brown, directeur exécutif de la FSF[2].

D’autres opposants des MTP ont soutenu qu’Apple n’est pas seul responsable, que ce sont les éditeurs qui imposent ces restrictions. Pourtant, sur son iPhone et sur sa nouvelle tablette, Apple n’offre pas aux éditeurs le choix d’appliquer ou non ces restrictions, idem pour les auteurs de logiciels libres ou de culture libre qui auraient désiré donner la permission légale aux utilisateurs de partager leurs travaux.

« C’est un énorme pas en arrière dans l’histoire de l’informatique » conclut Holmes Wilson, de la FSF. « Si les premiers ordinateurs personnels avaient dépendu de l’autorisation du constructeur pour chaque nouveau programme ou chaque nouvelle fonctionnalité, l’histoire de l’informatique serait aussi lamentablement totalitaire que l’image qu’en renvoyait la célèbre publicité[3] Apple du Superbowl ».

Notes

[1] NdT : Les fameux DRM qui de Digital Rights Management deviennent les Digital Restrictions Management.

[2] Crédit photo : Myuibe (Creative Commons By)

[3] NdT : Pour mémoire, la vidéo en question sur YouTube.




Microsoft en Afrique : Un véritable système d’exploitation ?

OLPC - CC byDans un récent billet nous évoquions la stratégie planétaire de Microsoft dans le secteur éducatif en nous focalisant sur une école française prise consciemment ou non dans les mailles du filet.

Voici que le blog d’André Cotte apporte de l’eau à notre moulin, en signalant et hébergeant un document intéressant rédigé par Marc-Antoine Daneau, étudiant québécois en économie et politique.

Son article évoque en effet les comportements et agissements de la société dans cette région du monde[1]. Un altruisme de façade dont s’accommode souvent fort bien les hommes au pouvoir qui ont du mal à voir plus loin que le court terme. L’état des caisses de l’État faisant le reste…

Et ce n’est pas seulement le logiciel libre qui s’en trouve bloqué mais peut-être aussi le continent tout entier.

Vous trouverez dans le document d’origine une bibliographie non reproduite ici.

L’imposition d’une dépendance : les actions de Microsoft en Afrique

URL d’origine du document (pdf)

Marc-Antoine Daneau – 24 novembre 2009
GNU Free Documentation License

Avec la bulle internet de 1995 à 2000, les technologies de l’information sont entrées de plein fouet dans la culture des pays développés. D’un réseau militaire à un réseau de recherche universitaire, l’internet s’est imposé dans les années 90 telle une révolution informationnelle encore plus rapide que celle imposée par la télévision.

Tout maintenant se trouve et se fait en ligne. Le changement a été tellement rapide qu’on ne conçoit plus la vie sociale et économique sans ce formidable moyen de communication, pis encore, moins d’une génération est passée entre l’apparition des premiers hackers[2] de Berkeley et la normalisation de l’internet en occident.

Cependant et sans grande surprise, ce qui fut une révolution dans les pays développés fut l’établissement d’un retard technologique dans les pays qui le sont moins ou ne le sont tout simplement pas.

La fracture numérique

Le territoire le plus en retard au niveau des technologies de communication est bien évidemment l’Afrique. Dans ce continent où il n’y a rien, tout est à construire, tellement que dans le domaine de la technologie informatique, on y parle de fracture numérique[3]. À propos de l’informatique et d’internet précisément, l’Afrique est terriblement en retard[4][5]. Ce problème se conçoit de deux façons, pour les Africains, il importe de réduire cette fracture numérique pour profiter de la technologie existante; pour les pays développés, il convient de voir l’Afrique comme un marché à développer.

Plus précisément, ce texte porte sur les actions la firme américaine Microsoft en Afrique. Est-ce le fait que Microsoft veuille conquérir le marché africain est à l’avantage des Africains eux-mêmes ou s’agit-il de l’exploitation classique du nord envers le sud ? Ce texte tentera de démontrer qu’agissant ainsi, une firme très importante d’un pays riche tente d’exporter une vieille et désuète technologie dans des pays pauvres.

Logiciels libres versus logiciels propriétaires

Avant d’entrer dans le vif du sujet, il convient de présenter les deux modèles économiques existant actuellement en informatique.

Le premier modèle économique est celui qui domine actuellement le marché résidentiel et commercial, soit celui du logiciel propriétaire à code source fermé. Le code source, ce qui est écrit par les programmeurs, n’est pas disponible et gardé secret, ce qui permet aux fabricants de logiciels de vendre des exécutables, des logiciels d’installation autrement dit. La logique de cette mise en marché sous-tend une affirmation générale que l’acheteur doit avoir une confiance absolue envers le fabricant de logiciels. Ce dernier affirmera, à tort ou à raison, que son logiciel est le meilleur du marché, le plus sécuritaire, le plus efficace, le moins gourmand en ressource informatique, etc. La frontière entre la véracité de ces affirmations et la publicité est bien mince et en pratique souvent impossible à déterminer. Le plus gros fabricant de logiciels au monde est Microsoft, que ce soit par son système d’exploitation, le très populaire Windows ou par sa suite bureautique aussi très populaire, Office. Il est à noter que la structure de prix des produits Microsoft maximise leur marge de profits, en étant en situation de quasi-monopole, ils vendent une trop petite quantité trop cher en plus de faire de la discrimination par les prix.

Le modèle économique[6] opposé est celui du logiciel libre, à code source ouvert, ou Linux[7]. Il est reconnu que le logiciel libre est plus stable, plus rapide et plus sécuritaire que les logiciels propriétaires du type de ceux fournis par Microsoft, en plus d’être gratuit et modifiable. Ce que vendent les compagnies qui travaillent avec du logiciel libre, c’est le service. Ce qui différencie les deux modèles au niveau de leur conception est que quand le code source est confidentiel, il est produit par une petite équipe, quand il est ouvert, tout le monde peut l’améliorer ou y ajouter des fonctions, ce qui fait que la progression du logiciel libre est beaucoup plus rapide que celle du logiciel propriétaire.

Ce sont ces deux modèles économiques qui s’affrontent pour le marché africain, d’un côté une firme américaine devenue un monstre multinational qui voit dans le lent développement de l’Afrique une occasion à ne pas manquer pour placer les Africains en position de dépendance informatique[8] s’assurant ainsi un profit maximum à long terme, de l’autre un modèle axé sur l’indépendance informatique, gratuit et adaptable selon les divers besoins. Ce qui revient à la phrase célèbre de Conficius : « Quand un homme a faim, mieux vaut lui apprendre à pêcher que de lui donner un poisson ».

Un patrimoine de l’humanité fragile

Depuis 1998, l’UNESCO supportait les logiciels libres et en 2003 lui octroya ses titres de noblesse en les classant patrimoine mondial de l’humanité[9]. Néanmoins, le principal intéressé de ce progrès, Richard Stallman et la Free Software Foundation, mettait en garde contre la perte de liberté, du combat à mener pour l’indépendance logicielle dans une lettre adressée à l’Unesco :

But our freedom is not permanently assured. The world does not stand still, and we cannot count on having freedom five years from now, just because we have it today. Free software faces difficult challenges and dangers. It will take determined efforts to preserve our freedom, just as it took to obtain freedom in the first place[10].

Malheureusement, Stallman avait raison, mais en ayant surestimé le temps de réponse de l’industrie du logiciel propriétaire, la charge vint le 17 novembre 2004. En cette date, Microsoft devint un partenaire de l’Unesco, ce qui allait en direction opposée du constat émis par la Cnuced dans un rapport parut en 2003 qui conseillait : « aux pays en développement d’envisager d’adopter les logiciels libres en tant que moyen de combler le fossé numérique »[11].

Avec la signature de cet accord, « Microsoft va ainsi contribuer à la réduction de la fracture numérique » de quatre manières : recyclage de vieux ordinateurs personnels, formation d’enseignants en informatique dans les pays en voie de développement, ouverture d’un centre de ressources informatiques dans le Maghreb et la mise en place d’une « plate-forme pour le partage de contenus numériques ».

Avec cet accord, Microsoft s’engageait aussi à livrer des ordinateurs dans tous les pays d’Afrique, l’Unesco, toujours selon cet accord ferait en sorte que Microsoft en livre partout en Afrique même là où son intérêt économique serait diminué[12].

Il importe ici d’apporter une nuance essentielle, les enseignants qui seront formés par Microsoft le seront en fonction des produits de cette même firme, pas en fonction de l’informatique ou du fonctionnement d’un ordinateur en soit. Ainsi, quand ces enseignants feront leur boulot, ils enseigneront le fonctionnement des produits Microsoft, ils agiront comme formateurs bénévoles au profit de Microsoft et transmettront leur dépendance informatique à leurs élèves.

Cette même date, lors d’une conférence de presse à Paris, Koïchito Matsuura, directeur général de l’Unesco, affirma que « l’ONU avait reconnu le rôle du secteur privé pour lutter contre la fracture numérique »[13]. Loin de nous ici de douter des mauvaises intentions de l’ONU dans ce dossier, l’Unesco est tributaire des fonds qu’on daigne bien lui alouer, sans plus. Cependant, il est raisonnable de penser que les Africains qui voyaient dans le logiciel libre une façon de se défaire de la dépendance de ce continent sous-développé envers la monde industrisé y ont vu au pire une défaite dans ce combat de la part de leur allié que devrait être l’Unesco, au mieux une instrumentalisation de l’Unesco par Microsoft[14].

Le point de vue des activistes du logiciel libre

Cet accord ne tarda pas à faire réagir. Un peu plus d’une semaine après l’accord parait sur internet un article sur les réactions des activistes du logiciel libre à l’endroit de l’accord. Benoît Sibaud, président de l’April[15], affirmait que l’Unesco « sous-traite ses valeurs au secteur privée » et que « Microsoft détient là une bonne manière de s’infiltrer dans les pays en voie développement. Et ça ne lui coûte pas grand-chose, car il peut se rattraper sur la marge qu’il réalise sur le prix de ses licences dans les pays du Nord »[16]. L’article se termine sur l’affirmation que tant l’April que l’Unesco « s’accordent à dire que si les logiciels propriétaires peuvent aider au développement, ils ne contribuent certainement pas au développement durable ».

C’est bien là tout le problème, qu’un organisme de la trempe de l’Unesco soit pret à permettre un développement qu’il sait voué à l’échec à long terme puisque n’étant pas durable. Janvier 2005, une lettre d’opinion scandalisée est publiée par Benoît Sibaud, Frédéric Couchet[17] et Sergio Amadeu da Silveira[18] dans Libération. Ceux-ci affirment qu’« en faisant le choix du logiciel propriétaire, un État se limite à louer une technologie » au lieu de se l’approprier et de la développer. Ces 3 spécialistes et militants en faveur des logiciels libres mentionnent les spécificités linguistiques de l’Afrique et de ses multiples langues. À titre d’exemple, les auteurs de la lettre d’opinion mentionnent que le navigateur internet Mozilla Firefox a été traduit en luganda[19] « par une petite équipe de huit … utilisateurs motivés … sans financement et sans organisation formelle »[20].

En matière de sécurité informatique, les trois spécialistes cités ci-haut mentionnent que les États qui se fient à Microsoft vont même jusqu’à abdiquer une partie de leur souveraineté étant donné le caractère fermé du code de Microsoft. En effet, comme il est impossible de savoir ce qu’il contient, la sécurité et l’intégrité des données sont remises entre les mains de Microsoft à qui il faut faire confiance[21]. Il apparaît en effet inconcevable qu’un continent qui essaie de se sortir du sous-développement, et donc qui veut prendre la place qui lui revient sur les marchés, et donc dans le domaine de la recherche et du développement (R&D) puissent penser sérieusement pouvoir le faire avec des outils informatiques qui n’assurent en rien la confidentialité ou même l’intégrité de leurs données. Il est clair que d’un point de vue de la sécurité, les pays africains qui font ou feront confiance à Microsoft ouvre la porte à l’espionnage économique.

À ce sujet, la ville de Munich a parfaitement compris et mis en application ce principe, parut en 2008 sur papier, mais se préparant depuis 2001, elle a émis une “Declaration of Independence” informatique, “rather than lowering the IT costs, the main motive is the desire for stratregic independence from software suppliers”[22].

Toujours au niveau de la sécurité informatique, l’affirmation la plus surprennante arrive de la NSA : “Unfortunately, existing mainstream operating systems lack the critical security feature required for enforcing separation: mandatory access control”[23].

C’est dans cette optique qu’il est possible de conclure qu’un pays développé exporte ses vieilles technologies désuètes dans les pays en développement. Les éléments stratégiques de la sécurité nationale américaine sont protégés autant que possible par Linux, mais en même temps, une entreprise de ce même pays exporte dans des pays déjà en difficulté un produit, Microsoft Windows, qui officiellement selon le gouvernement américain n’est pas sécuritaire. Combiné à la publicité de Microsoft et d’un point de vue stratégique, il s’agit de leur vendre un produit qu’on affirme miraculeux, mais qui est dans les faits déficient et dangereux[24].

Ce qui revient à faire payer les Africains pour qu’ils obtiennent le droit à une position de faiblesse au niveau de l’espionnage économique, scientifique et politique.

Le point de vue de Microsoft

La réponse de Microsoft aux accusations d’impérialisme fut pour le moins douteuse, publiée sur le réputé site de nouvelles informatiques Zdnet.com. Le responsable de Microsoft Nigéria, Gerald Ilukwe, affirmait sans gène que le “cost is not important” pour les gouvernements africains, tout en reconnaissant que le salaire moyen d’une Africain résidant dans l’ouest du continent est de 160 dollars américains par année.

Tout comme Neil Holloway, président de Microsoft en Europe, M.Ilukwe maintient que le problème est la connaissance des technologies, et donc implicitement, que la propriété des outils de l’information est accessoire. Tel un missionnaire généreux baignant dans l’altruisme, M.Holloway affirmait “It’s not about the cost of software, it’s about how you take your expertise to people. We are sharing our expertise…”[25].

La campagne de marketing de Microsoft continua inexorablement, toujours avec le même message, Cheick Diarra, responsable des opérations de la firme en Afrique, affirma pour répondre à ses détracteurs que “I try to advise Microsoft, as an ambassador from Africa…”[26], donc, de la manière la plus sérieuse possible, le responsable des opérations africaines de Microsoft affirma être l’ambassadeur des Africains en matière de besoin informatique auprès de la firme qui le rémunère justement pour extraire de l’Afrique le peu de profit, à court terme, qu’il soit économiquement possible d’en tirer.

L’affirmation de M.Diarra dépasse largement le stade du sophisme par l’absence de logique circulaire de son affirmation. L’image que Microsoft veut avoir en Afrique est celle d’une multinationale qui agit pour le bien et le progrès de l’humanité, sans égards à sa marge de profit. Comme si l’entreprise avait une conscience morale, qui en plus d’exister, serait tournée vers l’humanitaire.

Un article du Wall Street Journal qui donne le ton

S’il y a lieu de douter des bonnes intentions de Microsoft, encore faut-il le prouver. Malheureusement, les faits sont récents, les soupçons généreux et cette firme n’ira pas tout bonnement avouer dans un communiqué qu’elle a le comportement colonial et qu’elle tente par la fourberie d’acquérir le marché[27] africain du logiciel.

Néanmoins, un article paru dans le prestigieux Wall Street Journal sous la plume de Steve Stecklow le 28 octobre 2008[28] nous en apprend beaucoup sur les méthodes et les agissements de Microsoft en Afrique.

Premièrement illustration la plus grossière, ils ont embauché des gens bien placés en Namibie. Ils ont engagé Sean Nicholson, auparavant “adviser to Namibia’s Ministry of Education, promoting open-source software” et toujours en ce même pays, Kerii Tjitendero “as a contractor to help in (the) process”. Cependant, M.Tjitendero est le fils de Mose Tjitendero, “formerly speaker of Namibia’s national assembly, who signed the government’s Pathfinder agreement with Microsoft”. Malgré une telle proximité qui serait bannie de facto dans les pays développés, Microsoft affirma que “Kerii had the professional background that made him a good fit for this role”.

Toujours du même article, Microsoft tenta au Nigéria d’acheter pour 400 000 dollars[29] le remplacement de Linux sur les ordinateurs portables des écoles par des produits Microsoft.

Au sujet du Pathfinder, le plan d’action de Microsoft en Afrique, l’article de Stecklow nous apprend que dans une école de Namibie en 2004, à Katima Mulilo, Eric Kouskalis, alors étudiant à Harvard, était enseignant pour l’organisation WorldTeach. Il affirma des ordinateurs fournis par Microsoft qu’ils “weren’t being used at all” bien qu’il “spent weeks fixing software and hardware problems”. Et il en rajoute, si plus d’un étudiant voulait accéder à l’encyclopédie de Microsoft, Encarta, “everything would freeze up”.

Donc, de cette expérience, deux constats peuvent être tirés, soit qu’en fournissant sa propre Encyclopédie aux Africains, Microsoft leur fourni la vision américaine de l’histoire mondiale et des connaissances en général, et aussi que les problèmes logiciels que les produits Microsoft font subir aux consommateurs occidentaux sont les mêmes éprouvés par les Africains, soit l’instabilité et la médiocrité naturelle et intrinsèque de leurs produits. Quant bien même Microsoft leur vendrait un “special $3 Windows package”[30][31], avoir des ordinateurs, mais être bloqué par les logiciels ne vaut pas 3 dollars.

Néanmoins, en juin 2005, Microsoft déclara que Pathfinder était “a success” pour par la suite promettre 4000 ordinateurs usagés à la Namibie, sur ce nombre, 1300 ont été livrés. L’école de Katima Mulilo en reçut 20, le directeur de l’école, Fias Geel, affirma au sujet des ordinateurs reçus que “all but four were broken”. Un autre directeur d’école de la région, Paul Damaseb, affirma qu’aucun de ses 565 étudiants ne pouvait utiliser les ordinateurs “because of a server crash”. Par la suite, Microsoft admit que l’expérience de PathFinder était un processus d’apprentissage “valuable”, ce qui n’empêcha pas le gouvernement de la Namibie de stopper l’action des professeurs de ses écoles qui installaient Linux pour promettre 200 ordinateurs et finalement n’en livrer que 55, “all containing Microsoft software, says a person familiar with the matter”.

PathFinder et Unlimited Potential

Depuis, avec le succès limité, aux yeux de Microsoft, de PathFinder, la firme a lancé un autre programme à la conquête du marché africain, Unlimited Potential. Bien que trop récent pour pouvoir le juger, notons cependant que les éléments avec lesquels Microsoft présente Unlimited Potential sont fondamentalement les mêmes qu’avec Pathfinder, soit à l’aide d’un vocabulaire positif portant sur les engagements Microsoft à l’égard de l’avancement des Africains ou encore des phrases creuses comme “training to its next generation of citizens”, pour être bien certains qu’ils ne connaissent de l’informatique que les produits Windows. La seule différence entre les deux programmes de mise en marché est que maintenant Microsoft légitimise son action avec l’appui reçu par l’Onu[32] et l’Unesco.

La firme clame en effet qu’elle veut “supports and accelerates Africa’s progress toward the Millennium Development Goals”[33]. Quand Microsoft affirme : “… we are working to enable sustained social and economic opportunity for everyone”[34], il serait plus juste de lire qu’ils travaillent pour le profit, comme n’importe quelle entreprise privée, la satisfaction des clients ou la fonctionnalité des produits n’a pas d’importance, pour autant que les clients paient.

Cela dit, face à la critique, Microsoft par l’intermédiaire de son responsable pour le continent africain, M.Diarra, tente de faire croire qu’il ne s’agit que d’un problème de communication, “… it’s sad that sometimes reality has a hard time catching up with perception … we are competing respectfully and openly; you can verify that everywhere”, il rajoute comme pour marteler le message à propos des actions de Microsoft en Afrique “we always try to empower those communities”[35].

Cela dit, en plus de ce qui est documenté, comme la corruption en Namibie, ce qui est douteux comme le fait qu’une entreprise affirme avoir à coeur le bien-être des plus exploités de la planète au cours des derniers siècles, comme si Microsoft n’agissait pas accord avec la continuité historique des rapports nord-sud, il y a ce qui est étrangement circonstanciel. Par exemple, en recoupant les informations vagues[36] disponibles sur le site de la Bill & Melinda Gates Foundation et les pays dans lesquels il y a moyen de savoir avec assurance que Microsoft travaille[37], on arrive à la conclusion qu’environ le deux tiers des pays où la fondation est active sont des pays où Microsoft l’est aussi.

Conclusion

En 2007, l’ampleur du désastre se mesurait, selon les affirmations officielles de Microsoft, par la conquête de “15 African countries: Angola, Burkina Faso, Gabon, Ghana, Kenya, Madagascar, Mozambique, Namibia, Nigeria, Rwanda, Senegal, Seychelles, Uganda, Botswana and South Africa, and to date has trained 200,000 teachers and reached 21 million students”[38]. C’est 21 millions de personnes, en plus des fonctionnaires des différentes administrations publiques africaines, que Microsoft a placées sous son contrôle. Il s’agit ici d’une forme lourde de dépendance au sentier, un sentier par ailleurs, sombre, sinueux et vaseux, où s’en sortir requière pour une société des coûts supérieurs à ce qu’aurait été l’investissement initial de l’éviter.

En faisant le choix des logiciels propriétaires de Microsoft au détriment des logiciels libres et gratuits GNU/Linux, les pays africains choisissent de payer pour un produit dont la qualité est plus que douteuse au niveau de l’efficacité informatique et carrément incertaine en ce qui a trait à la sécurité des informations gérées. De plus, ces pays n’auront pas le choix de payer pour les autres logiciels, comme des antivirus qui sont nécessaires avec Windows, ou payeront en temps, puisque Windows est impérativement plus lent que Linux, et ainsi de suite.

Bref, les logiciels propriétaires ne peuvent qu’être un mauvais choix pour toutes les administrations publiques et spécialement pour celles des pays en voie de développement, qui n’ont pas d’argent. Selon la formule rependue sur les blogues portant sur le sujet, « l’Afrique a déjà assez de problèmes comme ça, n’y ajoutez pas Microsoft” »[39]. Clairement, entre la dépendance que leur offre Microsoft et l’indépendance que leur offre Linux, les Africains et leurs gouvernements auraient tout avantage à choisir l’indépendance.

En conclusion, quand Microsoft parle de Windows comme d’un système d’exploitation, la firme a entièrement raison et est pour une fois honnête, car c’est tout ce que c’est : un système d’exploitation.

Notes

[1] Crédit photo : One Laptop per Child (Creative Commons By)

[2] Le terme hacker a une connotation négative depuis le milieu des années 80. Le terme se référait plutôt à ce qu’il est convenu d’appeler un bidouilleur. L’industrie informatique en générale doit beaucoup à ses hackers, que l’on pense seulement aux fondateurs de Apple ou au célèbre Captain Crunch. Ce dernier, John Drapper de son vrai nom, découvrit qu’un jouet contenu dans une boite de céréales émettait exactement la même fréquence que celle utilisée par AT&T pour indiquer qu’une ligne de téléphone est disponible, ce qui lui permit de faire des appels sans payer. Il inventa par après la blue box, un générateur de fréquences avec laquelle il testa les limites du système téléphonique de AT&T. Résultat, les compagnies de téléphone durent revoir à la hausse la sécurité de leurs réseaux de télécommunications.

[3] La définition de Statitics Canada au sujet de la fracture numérique, parue dans l’introduction d’un document de recherche intitulé The Digital Divide in Canada, est particulièrement pertinente : “Commonly understood as the gap between ICT ‘haves’ and ‘have-nots’, it serves as an umbrella term for many issues, including infrastructure and access to ICTs, use and impediments to use, and the crucial role of ICT literacy and skills to function in an information society.” ICT réfère à “information and communications technologies”.

[4] Les statistiques de l’ONU sont à ce sujet très claires. Aucun calcul n’est nécessaire pour constater qu’il y avait plus d’ordinateurs par 100 habitants aux États-Unis ou au Canada il y a 20 ans qu’il y en a maintenant par 100 habitants dans les pays africains. Concernant le nombre d’habitants qui accèdent à internet, les données de l’ONU, toujours par 100 habitants, nous indiquent que le niveau d’accès à internet est actuellement en Afrique ce qu’il était il y a 15 ans aux États-Unis et au Canada. Voir Millennium Development Golas Indicators, Internet users per 100 population et Personal computers per 100 population.

[5] En septembre dernier, une compagnie sud-africaine, Durban IT a testé la vitesse du réseau de Telkom, le plus gros fournisseur d’accès internet en Afrique du Sud. Ils ont, au même moment, lancé un transfert de 4Gb sur le réseau ADSL de Telkom tout en relâchant un pigeon sur lequel était attaché une clé usb de 4Gb. “Winston the pigeon took two hours to carry the data 60 miles – in the same time the ADSL had sent 4% of the data”. Source : BBC, 10 septembre 2009.

[6] Le Rapport sur le commerce électronique et le développement de la Cnuced en 2003 nuance avec les propos suivants : « Les logiciels libres ne devraient pas différent. Ils sont un moyen différent d’élaborer, de préserver et de modifier les règles qui régissent les flux d’information. Ils bouleversent la conception que l’on a de l’écriture de logiciels ? des personnes habilitées à les modifier et sous quelles conditions ? ainsi que des libertés et des responsabilités y afférentes. Ils donnent aux peuples et aux nations non seulement la possibilité, mais aussi, de manière plus importante, le pouvoir de gérer eux-mêmes le développement des TIC. » p.21.

[7] Il est nécessaire ici de noter, sans entrer dans les détails, qu’il existe plusieurs types de licences concernant les logiciels libres. Autrement dit, il y a des schismes au sein de la communauté des logiciels libres concernant certaines nuances à propos des droits d’auteurs des logiciels libres. Loin de nous l’idée d’entrer dans ce débat, la définition des logiciels libres qui sera utilisée est celle qui est la moins restrictive possible, soit tout ce qui est disponible sans payer ou enfreindre les droits d’auteurs des fabricants de logiciels. À titre d’exemple seulement, il est impossible d’écouter un fichier mp3 ou d’écrire ce texte en Times New Roman, comme le requière le Département de science politique, sur Linux sans enfreindre des lois de propriétés intellectuelles. La définition orthodoxe du logiciel libre définit par Richard Stallman et la Free Software Foundation se lit comme suit : « L’expression « Logiciel libre » fait référence à la liberté pour les utilisateurs d’exécuter, de copier, de distribuer, d’étudier, de modifier et d’améliorer le logiciel ». La définition complète est disponible à http://www.gnu.org/philosophy/free-sw.fr.html.

[8] Le phénomène de l’enfermement propriétaire est bien connu et pas seulement dans le domaine informatique. Dans ce domaine précis, l’UNESCO définie le mécanisme du Vendor Lock-In comme étant le fait que “While the software industry will continue to innovate, some product categories are reaching maturity and users should not be driven to pay for new features and product versions that have minimal impact on their needs”.

[9] Cette année là, le logiciel libre est devenu pour l’UNESCO une partie du patrimoine mondial : “Moreover, free software gives independence, from governments, from companies, from political groups, etc. And better, an economical independence: it isn’t plagued by compulsory profit. In fact, Free software is already the heritage of mankind, in the common sense”.

[10] Richard Stallman, 2003. UNESCO and Free Software. Disponible dans les archives des communications de l’UNESCO.

[11] Conférence des Nations Unies sur le Commerce et le Développement (CNUCED), 2003. Rapport sur le commerce électronique et le développement. p.21.

[12] Citations et information depuis un article de Marc Cherki, parut dans Le Figaro le 17 novembre 2004, Microsoft devient partenaire de l’Unesco.

[13] Citation depuis un article de Capucine Cousin, parut dans Les Echos le 17 novembre 2004, L’Unesco compte sur le privé pour former les enseignants aux nouvelles technologies.

[14] À ce sujet, on peut prendre pour exemple le fait que les documents statistiques de l’ONU soient disponibles en 3 formats Microsoft Office Excel, XML et CVS. Les deux derniers sont des formats textes standards, mais qui ne peuvent être lus sans quelques contorsions ou connaissances informatiques précises. Le format Excel quant à lui est propriétaire, c’est-à-dire qu’il faut avoir acheté un programme pour le lire les informations qu’il contient. L’ONU ne fournit malheureusement rien en format OpenOffice, qui aurait le mérite de pouvoir être lu correctement, facilement et sans devoir payer pour le logiciel. Il n’y a bien sûr pas de lien direct entre cette observation et les liens qui unissent Microsoft et l’Unesco depuis 2004, cependant, ça permet de constater l’incompréhension de la question des logicielles de la part de l’ONU.

[15] April, acronyme de l’Association pour la Promotion et la Recherche en Informatique Libre.

[16] Selon un article d’Yves Drothier, dans le Journal du Net, 26 novembre 2004.

[17] Fondateur de l’April et président de la Fondation des logiciels libres (Free Software Foundation, branche française) de 2004 à 2007.

[18] Président de l’Institut national de technologie et de l’information du Brésil.

[19] Langue parlée par 10 millions de personnes en Ouganda.

[20] Sérgio Amadeu da Silveira, Benoît Sibaud et Frédéric Couchet. 5 janvier 2005, La Libération. Bill Gates à la conquête du sud : Le partenariat entre Microsoft et l’Unesco risque d’assujetir les pays en développement.

[21] Les auteurs mentionnent sur ce point qu’en 2000, un rapport de la Délégation des affaires stratégiques du ministère français des Armées mentionnait, prudemment et sans accusé directement, la collusion entre la National Security Agency (NSA) et Microsoft. Aussi en 2004, un « rapport parlementaire sur l’intelligence stratégique … soulignait les mêmes dangers attachés au logiciel propriétaire en matière de dépendance informationnelle ».

[22] Declaration of Independence: The LiMux Project in Munich. Ville de Munich, 2008.

[23] Citation complète : “End systems must be able to enforce the separation of information based on confidentiality and integrity requirements to provide system security. Operating system securitymechanisms are the foundation for ensuring such separation. Unfortunately, existing mainstream operating systems lack the critical security feature required for enforcing separation: mandatory access control. As a consequence, application security mechanisms are vulnerable to tampering and bypass, and malicious or flawed applications can easily cause failures in system security”. Depuis le site de la National Security Agency, http://www.nsa.gov/research/selinux/.

[24] Il est de notoriété publique que des agents de la NSA travaillent chez Microsoft, eux affirment que c’est pour renforcer la sécurité des produits de Microsoft, il y a naturellement lieu d’en douter. L’affaire éclata en septembre 1999, quand une mystérieuse clé de cryptage nommé _NSAKEY fut découverte dans Windows NT4, puis dans Windows 95, 98 et 2000. On peut lire sur le site de CNN “Microsoft operating systems have a backdoor entrance for the National Security Agency, a cryptography expert said … but the software giant denied the report and other experts differed on it”. Il n’y a donc rien de certain en ce sens, mais Microsoft a par la suite été incapable d’expliquer de manière convaincante ce qu’était cette _NSAKEY.

[25] Ingrid Marson, 18 octobre 2005, Microsoft: Africa doesn’t need free software.

[26] Nancy Gohring, 25 septembre 2008, PC World, Microsoft’s Africa Chairman Tackles Access Problems.

[27] À titre indicatif, rappelons que Microsoft a été condamnée par l’Union européenne en février 2008 à payer 899 millions d’euros, qui « s’ajoutent à une première amende de 497 millions d’euros donnée à Microsoft en mars 2004 pour « abus de position dominante » ». Selon un article parut dans Branchez-Vous!, le site qui s’occupe des nouvelles technologiques pour Le Devoir. Si Microsoft agit de telle manière dans un marché lourdement réglementé, il est possible d’imaginer ce qu’il fait sur un continent comme l’Afrique où les États sont faibles.

[28] Microsoft Battles Low-Cost Rival for Africa, 28 octobre 2008, The Wall Street Journal.

[29] Extrait de l’article : “In Nigeria, Microsoft proposed paying $400,000 last year under a joint-marketing agreement to a government contractor it was trying to persuade to replace Linux with Windows on thousands of school laptops. The contractor’s former chief executive describes the proposal as an incentive to make the switch – an interpretation Microsoft denies.”

[30] Toujours du même article de Stecklow : “Some of Africa’s poorest countries also have discovered that they can’t meet the terms of a special $3 Windows package for "underserved" students around the world, announced last year by Microsoft Chairman Bill Gates.”

[31] Pour 3$, les étudiants africains obtiennent les logiciels suivants Microsoft Learning Essential 2.0, Microsoft Math 3.0, Microsoft Office, Windows Live Mail, qui est en fait Hotmail et Windows XP Starter Edition. Cette version de Windows est conçue pour les ordinateurs peu puissants et limite plus que ne le fait la version normale de Windows XP ce que les utilisateurs peuvent faire avec leurs ordinateurs. Autrement dit, c’est le meilleur moyen d’handicaper un étudiant, surtout que le terme “Starter” signifie implicitement que ce n’est qu’un début, qu’une fois formés avec les produits Microsoft et en fonction de ceux-ci, ils devront payer pour obtenir la version normale des systèmes d’exploitation de Microsoft. Il est à noter que des distributions Linux spécialisées dans l’éducation existent, par exemple EduLinux conçue entièrement au Québec, à l’Université de Sherbrooke. Plus populaire, il y a Edubuntu, qui est disponible dans de multiples langues. Edubuntu est devenue la norme dans tous les ordinateurs des écoles primaires et secondaires de la République de Macédoine, cette distribution Linux serait définitivement meilleure pour les étudiants africains que Windows XP Starter Edition.

[32] United Nations Press Release  : United Nations hosts launch of Microsoft Programmes. Extrait  : “Amir Dossal, Executive Director of the United Nations Office for Partnerships, and Akhtar Badshah, Senior Director of Community Affairs, Microsoft Corp., welcomed participants. Mr. Dossal underscored that public-private partnerships were the key to the achievement of the Millennium Development Goals.”

[33] Microsoft, Realizing Unlimited Potential in Africa, 2009.

[34] Microsoft, Microsoft Unlimited Potential Enables Social and Economic Opportunity, 2009.

[35] Alka Marwaha, BBC News, The hi-tech battle for Africa, 2009.

[36] La plupart des liens sur la carte de l’Afrique ne fonctionnent pas, de plus les liens sont parfois situés sur des frontières. http://www.gatesfoundation.org/regions/Pages/default.aspx?4#/?action=region&id=africa

[37] Angola, Burkina Faso, Gabon, Ghana, Égypte, Kenya, Madagascar, Mozambique, Namibie, Nigeria, Rwanda, Sénégal, Seychelles, Ouganda, Botswana et Afrique du Sud.

[38] Microsoft, Unlimited Potential Engagement in Africa, 2007.

[39] J’ignore de qui est cette citation, elle se retrouve en anglais avec quelques variantes sur plusieurs blogues et forums de discussion. Il s’agit cependant de ma traduction.




Ubuntu et Mozilla : l’inévitable alliance pour résister à Google ?

Jane Rahman - CC byJe suis de ceux qui pensent que le futur Chrome OS de Google est susceptible de bousculer les hiérarchies établies.

Pour rappel Chrome OS sera un système d’exploitation reposant uniquement sur le navigateur Chrome. Tout se fera en ligne, dans les nuages, et si vous n’allumez plus votre machine que pour aller sur Gmail, Reader, Twitter ou Facebook, alors vous êtes une cible toute indiquée.

Imaginons en effet que les premiers ordinateurs Chrome OS, prévus pour la fin de l’année 2010, soient un succès. Hypothèse plausible parce qu’un netbook sexy, peu cher, rapide au boot (on parle de 5 secondes) et rapide à la navigation (et encore plus rapide sur les services Google : Gmail, Docs, YouTube, Maps,etc), ça peut tenter même les plus rétifs.

Si le succès est donc au rendez-vous alors vous pourrez toujours arriver avec vos beaux (mais anciens) discours de migration vers des alternatives libres (change ton Internet Explorer pour Firefox, change ton Windows pour GNU/Linux), les gens s’en foutront complètement. Cela n’aura aucune prise sur eux, s’ils ont déjà entre les mains ce nouveau terminal véloce et sécurisé, qui se met à jour tout seul, et qui ne demande aucune installation classique du moindre logiciel (du reste la notion même de logiciel disparait, quant à nos bons vieux fichiers ils ne se portent guère mieux).

D’ailleurs si on se regarde un peu le nombril, c’en est également fini du service global que rend le réseau Framasoft, mais j’y reviendrai dans un futur billet[1].

La menace est réelle (d’autant que Google met le paquet comme jamais niveau marketing pour le faire connaître). Il eut été rassurant qu’elle vienne du Grand Méchant Microsoft, mais c’est ici bien plus complexe que ça, puisque c’est du plus grand contributeur mondial open source qu’il s’agit. Et pour couronner le tout il existe une version libre du navigateur Chrome et de Chrome OS avec la sous-couche Chromium.

Certes, en terme de parts de marché, le navigateur Chrome tient toujours une place modeste. Mais comparons les statistiques du Framablog il y a un an : Firefox 68%, Internet Explorer 21% et Chrome 1% à celles d’aujourd’hui : Firefox 66%, Internet Explorer 14% et Chrome 7%. La croissance est significative. Bien sûr c’est avant tout Internet Explorer qui en a pâti, mais Firefox a stagné et même, pour la première fois, un peu baissé.

Or le public de ce blog est un public disons… « averti ». Il est sensibilisé au Libre et compte aujourd’hui, parmi ses visiteurs, 32% de GNU/Linux. Comment expliquer cette forte avancée de Chrome au détriment de Firefox ? J’ai un peu peur d’en connaître la raison : bien que fort jeune Chrome est déjà un excellent navigateur qui dépasse techniquement et ergonomiquement Firefox dans bien des domaines (surtout ne l’essayez pas sous Linux avec la rapidité de Firefox en tête !). D’accord, le panda roux vient de sortir en version 3.6 mais Chrome n’est pas en reste puisque son nouveau millésime 4.0 vient faire tomber l’un des dernières barrières que constituait l’absence d’extensions.

Donc la qualité est là. Et puisque nos usages informatiques se concentrent désormais presque exclusivement sur Internet, la situation est mûre pour que Chrome OS vienne se faire rapidement une place au soleil, en court-circuitant complètement le parcours balisé qui souhaitait inciter les utilisateurs à substituer leur Windows pour du GNU/Linux. Comme dans le même temps Mac OS X continue sa progression (10% sur le Framablog), on pourrait bien se retrouver à terme avec une situation où les trois géants que sont Microsoft, Apple et Google se partagent le marché des OS grand public en laissant totalement à la marge GNU/Linux.

GNU/Linux abandonnerait alors son ambition grand public pour revenir à la case départ des serveurs et n’être plus qu’un OS pour « experts bidouilleurs », ce qu’il avait un peu cessé d’être pourtant avec l’avènement de la populaire distribution Ubuntu.

C’est pourquoi non seulement Firefox est en danger mais également Ubuntu. Du coup, l’article ci-dessous tire le bilan de la nouvelle donne et suggère fortement une association Mozilla Ubuntu pour tenter de contrarier la marche triomphante de Google (on aurait pu s’attendre à une association Mozilla Canonical plutôt, soit dit en passant).

Ce n’est pas idiot. Pour Mozilla et Ubuntu d’abord, mais aussi pour le logiciel libre dans son ensemble qui a beaucoup à perdre dans l’histoire. Parce qu’au final quelle est la plus grande différence entre Mozilla et Google ? Comparer Le Manifeste de l’un et Les conditions d’utilisation de l’autre vous donnera peut-être un début de réponse…

Ubuntu et Mozilla : L’inévitable alliance

Ubuntu and Mozilla: The inevitable alliance

Ronnie Whisler – décembre 2009 – Buntufu.com
(Traduction Framalang : Olivier et Goofy)

Les spéculations sont au journalisme technique ce que sont les prophéties à la religion. Elles n’ont d’importance, de crédibilité ou de génie que si elles se révèlent exactes. Il ne nous viendrait toutefois pas à l’idée de publier un article technique sans y risquer quelques spéculations. Spéculez sur quelques idées folles, c’est l’étincelle qui enflammera la créativité de certains individus ou de certaines entreprises. Vous voyez où je veux en venir ? Tant mieux, parce que cet article est entièrement conçu à partir de cela. En d’autres termes, tout ce que vous trouverez dans cet article n’est que pure spéculation, je n’ai aucune preuve pour étayer mes dires.

Commençons par une revue des forces en présence. À ma droite, vous avez Mozilla qui nous a prouvé que la guerre des navigateurs n’est pas terminée et que Microsoft n’est pas intouchable. À ma gauche, vous avez Ubuntu qui nous a prouvé que Linux sur l’ordinateur personnel n’est pas une utopie, qu’il peut être simple et populaire. Et finalement, il y a Google qui s’est inspiré des succès des deux autres protagonistes et qui travaille sur son propre système d’exploitation basé sur Linux, dont la pièce maîtresse est le navigateur Chrome.

Certains vous diront que c’est l’évolution. J’appelle plutôt ça tacler ses concurrents en s’appuyant sur leurs points forts et en insistant bien sur le fait que c’est un système d’exploitation tourné vers le Web dédié aux netbooks. Ça n’est, pour moi, rien d’autre qu’un stratagème pour éviter que la concurrence ne réagisse en formant des alliances avant que Chrome OS ne dévoile tout son potentiel.

Est-ce à dire que je pense que Google c’est le mal ? Non. Cependant, un grand pouvoir implique de lourdes responsabilités, mais leur puissance est telle que céder à la tentation serait facile. La tentation étant ici de tuer toute compétition pour faire rentrer plus d’argent plus facilement et faire gonfler les bénéfices. Dieu seul sait le retard qu’a pris l’Ère du Numérique parce que les hommes et les femmes à la tête de certaines grosses entreprises ont cédé à la tentation. Honte à vous tous.

Ceci étant dit, considérons les points de friction qui pourraient naître entre Google d’un côté et Mozilla et Ubuntu de l’autre si le système d’exploitation Chrome OS devenait populaire. On pense évidemment en premier lieu aux revenus de Mozilla, dont Google est la principale source. Google pourrait commencer à réduire sa rétribution au clic ou à la recherche. Google pourrait étoffer les fonctionnalités de Google search et réserver ses innovations à son navigateur pour vous pousser à utiliser Chrome, etc. On pourrait encore spéculer longtemps comme ça. Mais on a mieux à faire, non ?

La situation entre Google et Ubuntu me rappelle celle de Microsoft et Sega. Vous souvenez-vous de ce qui s’est passé quand Microsoft a aidé Sega à créer la Dreamcast ? Moi je m’en souviens ! Sega n’a pas tenu longtemps et Microsoft a lancé la Dreamcast 2… pardon, la Xbox. Quelque chose me dit que ce scénario pourrait bien se reproduire ici. Canonical devrait rester sur ses gardes. Rien n’empêcherait Google de racheter Ubuntu/Canonical évidemment. Ça ne serait pas si surprenant, après tout, si Mark Shuttleworth sait faire quelque chose, c’est bien créer une société avec le vent en poupe et la revendre avec un joli profit.

Maintenant, si Mozilla et Ubuntu/Canonical venaient à s’allier, ils devraient avoir le poids pour rivaliser avec Google ou n’importe qui d’autre. De toutes façons face aux autres grosses entreprises, ils ne peuvent pas se contenter d’être passifs au risque de se faire écarter du marché qu’ils ont aidé à créer. Fini le temps des « On verra ». L’heure est venue de se préparer pour le futur et de choisir des alliés solides.

Notes

[1] Crédit photo : Jane Rahman (Creative Commons By)