Hacker le vote électronique américain ? Un jeu d’enfants !

Nous imaginant technophiles béats, les gens sont souvent surpris de la prise de position de la grande majorité des partisans du logiciel libre en défaveur du vote électronique (quand bien même on ait accès au code source qui pilote la machine et le processus, ce qui semble être du bon sens mais non partagé).

Ce n’est pas l’expérience ci-dessous, au moment même où se déroulent les élections présidentielles américaines, qui risque de nous faire changer d’avis.

Steve Jurvetson - CC by

Comment j’ai hacké une machine de vote électronique

Roger Johnston (raconté par Suzanne LaBarre) – 5 novembre 2012 – PopSci.com
(Traduction : Zii, ehsavoie, plink, KoS, aKa, lgodard, MF, Ag3m, greygjhart)

How I Hacked An Electronic Voting Machine

De quoi avez-vous besoin pour truquer une élection ? Des connaissances basiques en électronique et 30 dollars d’équipement de RadioShack suffisent, révèle le hackeur professionnel Roger Johnston. La bonne nouvelle : nous pouvons empêcher cela.

Roger Johnston est à la tête de la « Vulnerability Assessment Team » au Laboratoire National d’Argonne. Récemment, lui et ses collègues ont lancé une attaque de sécurité sur des machines de vote électronique pour montrer la facilité déconcertante avec laquelle quelqu’un peut trafiquer les votes. Encore plus surprenant : les versions de ces ordinateurs seront présentes dans les bureaux de vote de toute l’Amérique ce mardi. Le magazine Harper a rapporté recemment que l’écran tactile Diebold Accuvote-TSX va être utilisé par plus de vingt-six millions de votants dans ving États et que l’ordinateur de vote à bouton pressoirs Sequoia AVC va être utilisée par presque neuf millions de votants dans quatre États. Dans cet article, Johnston révèle comment il a hacké ces machines — et que c’est à la portée du premier venu, du lycéen à la grand-mère de 80 ans.

La Vulnerability Assessment Team du Laboratoire National d’Argonne scrute une large variété d’équipements électroniques — serrures, sceaux, tags, contrôle d’accès, biometrie, sécurité des cargaisons, sécurité nucléaire — pour tenter de trouver des vulnérabilités et repérer des solutions potentielles. Malheureusement, on n’alloue pas assez de budget à l’analyse de la sécurité des élections dans ce pays. Alors nous nous sommes penchés dessus, histoire de nous occuper, un samedi après-midi.

On appelle cela une attaque de l’homme du milieu. C’est une attaque classique sur les appareils de sécurité. On implante un microprocesseur ou un autre appareil électronique dans la machine de vote, et cela vous permet de contrôler le vote et de tricher ou non. Basiquement, on interfère avec la transmission de l’intention du votant.

Nous avons utilisé un analyseur logique. La communication digitale est une série de zéros et de uns. Le voltage augmente, diminue. Un analyseur logique rassemble les voltages oscillants entre haut et bas et vous présentera ensuite les données digitales dans une variété de formats. Mais il y a plein de manières de faire. Vous pouvez utiliser un analyseur logique, un microprocesseur, un ordinateur — en gros, n’importe quoi qui vous permette de voir l’information qui est échangée et ensuite vous laisse comprendre ce qu’il faut faire pour imiter l’information.

Nous avons donc espionné les communications entre le votant et la machine. Dans un cas, le votant appuie sur des boutons (c’est une machine à voter avec des boutons poussoirs) et dans l’autre, il interagit avec un écran tactile. Puis, nous avons écouté les communications entre le logiciel de la machine et le votant. Disons que je veux que Jones gagne l’élection, et que vous votez pour Smith. Alors, mon microprocesseur va dire à la machine de voter pour Jones si vous essayez de voter pour Smith. Mais si vous votez pour Jones, je n’interviendrai pas dans les communications. Parfois on bloque les communications, parfois on les déforme, parfois on ne fait que les regarder et les laisser passer. C’est ça l’idée. Deviner quels sont les échanges en cours, puis les modifier si besoin est, y compris ce qui sera présenté au votant.

Nous pouvons faire ceci car la plupart des machines, autant que je sache, ne sont pas chiffrées. C’est simplement un format de communication standard. Il est donc très simple de deviner les informations échangées. N’importe quelle personne qui fait de l’électronique numérique — un amateur ou un fan d’électronique — peut le deviner.

Le dispositif que nous avons intégré dans la machine à écran tactile valait en gros 10 $. Si vous voulez une version de luxe où vous pouvez le contrôler à distance jusqu’à environ 800 mètres, il vous en coutera 26 $. Ce n’est pas très cher. Vous pouvez trouver ça chez RadioShack. Je suis allé à des salons scientifiques dans des lycées où les gosses avait des projets avec des processeurs plus sophistiqués que ceux nécessaires pour truquer ces machines.

Parce qu’il n’y a pas de financements pour ce genre de tests de sécurité, il faut compter sur des gens qui achètent des machines d’occasion sur eBay (dans ce cas l’écran tactile Diebold Accuvote TS Electronic Voting Machine et la machine à boutons Sequoia AVC Advantage Voting Machine). Ces deux machines étaient un peu vieilles, et nous n’avions pas de manuel ou de schéma de circuits. Mais, dans le cas du Sequoia AVC, nous avons deviné comment elle marchait en moins de deux heures. En deux heures nous avions une attaque viable. L’autre machine nous a pris un peu plus de temps car nous ne comprenions pas comment l’affichage sur un écran tactile fonctionnait. Nous avons dû donc apprendre, mais ce n’était qu’une question de jours. C’est un peu comme un tour de magie, vous devez le pratiquer beaucoup. Si nous avions pratiqué longtemps, voir mieux, si quelqu’un de très bon avait pratiqué pendant deux semaines, nous aurions mis 15 à 60 secondes pour exécuter ces attaques.

Les attaques nécessitent un accès physique à la machine. C’est facile pour les personnes en interne qui les programment pour une election ou les installent. Et nous pouvons supposer que ce n’est pas si difficile pour des personnes extérieures. Beaucoup de machines à voter gisent dans la cave de l’église, le gymnase ou le préau de l’école élémentaire, sans surveillance pendant une semaine ou deux avant l’election. Généralement elles ont des serrures très bon marché que n’importe qui peut ouvrir ; quelquefois elles n’en ont même aucune. Personne ne s’identifie auprès des machines quand il prend son poste. Personne n’est chargé de les surveiller. Leurs scellés ne sont pas si différents des dispositifs anti-fraude sur les paquets de nourriture et les médicaments en libre service. Falsifier un produit alimentaire ou un médicament, vous pensez que c’est difficile ? Ça ne l’est vraiment pas. Et un grand nombre de nos juges d’élections sont de petites vieilles à la retraite, et, Dieu les garde, c’est grâce à elles que les élections marchent, mais elles ne sont pas forcement fabuleusement efficaces pour détecter des attaques subtiles de sécurité.

Formez les personnels chargés de la vérification des scellés, et ils auront une chance de détecter une attaque raisonnablement sophistiquée. Faites des vérifications sur les personnes en interne et cette menace sera bien moins sérieuse. Dans l’ensemble il manque une bonne culture de la sécurité. Nous avons beau avoir des machines de vote avec des défauts, avec une bonne culture de la sécurité nous pouvons avoir des élections sans fraude. D’un autre côté, on peut avoir des machines fabuleuses, mais sans une culture de la sécurité à la hauteur, cela ne servira à rien. Il faut vraiment prendre du recul. Notre point de vue est qu’il sera toujours difficile d’arrêter un James Bond. Mais je veux faire avancer les choses jusqu’à un niveau où au moins ma grand-mère ne puisse pas truquer les élections, et nous en sommes encore loin.

Crédit photo : Steve Jurvetson (Creative Commons By)




Quand le gouvernement US s’arroge le droit de lire nos données personnelles

Megaupload était une système de partage de fichiers techniquement neutre. Oui, il contenait beaucoup de contenus enfreignant les lois sur le copyright. Mais il y avait également des utilisateurs qui y plaçaient leurs propres ressources dans la plus stricte légalité et qui se sont retrouvés du jour au lendemain dans l’incapacité d’y accéder lorsque le gouvernement américain a fait fermer Megaupload.

C’était le cas de Kyle Goodwin qui a déposé un recours pour tenter de les récupérer.

Mais le gouvernement américain ne l’entend pas de cette oreille en choisissant volontairement de mettre des bâtons dans les roues de la procédure. Pire encore il se permettrait d’aller fouiller sans autorisation dans le feu compte Megaupload de Kyle Goodwin afin d’y trouver d’éventuelles preuves d’une quelconque culpabilité (comme par exemple y puiser un fichier illégal).

Et ce n’est plus le seul problème de Kyle Goodwin avec Megaupload qui est en jeu ici, c’est le devenir de toutes les données personnelles que nous mettons dans le cloud computing, puisque rien ne semble empêcher demain le même gouvernement d’aller fouiller sans vous prévenir dans votre compte Google, Apple ou Amazon !

Nous devons lutter contre ces agissements brutaux et dangereux du gouvernement américain. Mais nous devons aussi nous interroger quant au devenir de nos données que nous laissons, parfois naïvement, dans le cloud, a fortiori si derrière ce cloud se cachent des serveurs sur territoire américain (et donc juridiction américaine).

Fernando - CC by-sa

Megaupload et l’attaque du cloud computing par le gouvernement Américain

Megaupload and the Government’s Attack on Cloud Computing

Cindy Cohn et Julie Samuels – 31 octobre 2012 – EFF.org
(Traduction : Zii, Husi10, A-xis, KoS, lgodard, Ag3m, Maxauvy, Ryoanji, 3josh)

Hier, EFF (Electronic Frontier Fondation), pour le compte de son client Kyle Goodwin, a déposé un recours en justice dans l’affaire Megaupload afin de rendre le gouvernement responsable des actions entreprises (et celles qu’il n’a pas reussi à entreprendre) lorsqu’il a fermé le service de Megaupload et ainsi empêché des tiers comme M. Goodwin d’accèder à leurs biens. Le gouvernement a également déposé son propre recours, imposant la mise en place d’un long et difficile processus qui demanderait à des tiers (souvent des anonymes ou des petites entreprises) de voyager jusqu’à de lointains tribunaux et de participer à de multiples audiences, uniquement pour récupérer ce qui leur revient de droit.

Pire, le gouvernement a reconnu avoir eu accès au compte Megaupload de M. Goodwin et en avoir examiné le contenu. En agissant ainsi, le gouvernement a franchi une étape significative et quelque peu effrayante. Il a apparemment fouillé les données saisies dans un but précis alors que sa cible était Megaupload, afin d’utiliser les preuves éventuellement découvertes contre M. Goodwin, qui a été atteint par ces actions mais qui n’est clairement pas l’objet d’une quelconque enquête criminelle, et encore moins concerné par celle visant Megaupload. Il s’agit bien sûr d’une vaine tentative pour attaquer M. Goodwin, en essayant de détourner l’attention de la presse et de la Cour de l’incapacité du gouvernement à prendre des mesures, et encore moins les mesures raisonnables requises par la loi, afin de protéger les droits de propriété des tiers, que ce soit avant ou après l’exécution d’un mandat. Et bien entendu, si le gouvernement est si bien placé qu’il peut fouiller dans les fichiers de M. Goodwin et donner son avis sur leur contenu (et il n’est pas certain que cette seconde fouille ait jamais été autorisée), il peut a priori trouver un moyen de les lui restituer.

Mais, en plus de cela, l’approche du gouvernement devrait terrifier tous les utilisateurs de services de cloud, sans compter les fournisseurs de ces services. Le gouvernement maintient que M. Goodwin a perdu ses droits de propriété sur ses données en les stockant sur un service de cloud computing. Spécifiquement, le gouvernement argumente qu’à la fois le contrat entre Megaupload et M. Goodwin (un contrat standard de cloud computing) et le contrat entre Megaupload et son hébergeur Carpathia (un accord standard également), « limite tout intérêt de propriété qu’il pourrait avoir » dans ses données. (Page 4). Si le gouvernement a raison, aucun fournisseur ne peut plus se protéger contre des pertes soudaines (comme celles dues à un ouragan), ni promettre à leurs clients que leurs droits de propriété seront maintenus en utilisant le service. Ils ne peuvent non plus garantir que leurs fichiers ne risquent pas de disparaître soudainement, sans aucun moyen raisonnable de les récupérer si le gouvernement décide de les saisir avec un mandat. Apparemment, vos droits de propriété « deviennent sévèrement limités » si vous autorisez une tierce personne à héberger vos données sous couvert d’un accord standard de cloud computing. Cet argument n’est aucunement limité à Mégaupload, il s’appliquerait aussi si la tierce partie était le S3 d’Amazon, Google Apps ou Apple iCloud.

La tactique du gouvernement nous démontre une chose effrayante : si les utilisateurs essaient d’obtenir leurs biens, le gouvernement n’hésitera pas à les passer au peigne fin afin d’essayer de trouver une preuve à utiliser contre eux. Le gouvernement cherche également à imposer un fardeau quasi insurmontable aux utilisateurs en demandant au tribunal d’avancer lentement et d’utiliser un processus à plusieurs étapes qui aurait lieu dans un tribunal éloigné. La plupart des personnes utilisant le service de cloud computing pour stocker leurs documents commerciaux ou personnels ne sont pas en mesure d’assister à une seule comparution devant le tribunal de Virginie, et encore moins aux multiples autres que le gouvernement envisage de soumette à la Cour.

Finalement, si le gouvernement ne ressent pas l’obligation de respecter le droit des utilisateurs de Megaupload, et c’est vraiment le cas, il ne va pas changer d’avis si la cible de sa prochaine investigation est un service de partage encore plus populaire. La portée de cette saisie a été sans précédent et ils n’ont pas engagé un processus que la loi nomme « minimisation », que ce soit en amont ou après coup, en faisant en sorte de rendre leurs données aux utilisateurs du cloud et ce en mesurant bien les dégâts. Et maintenant le gouvernement est en train d’essayer d’utiliser les clauses des contrats standards pour vendre le fait que les utilisateurs d’un service de cloud ont au mieux, « sévèrement limité » leurs droits de propriété sur leur propres données.

Tous ceux qui ont réfléchi sur ce qu’impliquent les problèmes soulevés par ce procès ont raison de penser que l’affaire Megaupload va bien au delà de Megaupload.

Crédit photo : Fernando (Creative Commons By-Sa)




Je ne sais plus ce que « J’aime » si ce n’est de moins en moins Facebook

Oui, c’est mal : Framasoft a une page Facebook !

Mon falacieux argument, sujet à caution et non partagé par tous en interne (et je vous attends dans les commentaires), est le suivant : en l’an 2000 nous n’avions pas de scrupule à aller chercher les utilisateurs sur Windows pour leur parler du Libre. Windows étant au système d’exploitation ce que Facebook est aujourd’hui à Internet, pourquoi en aurions-nous davantage 10 ans plus tard ?

Bon, ceci étant dit, cette page Facebook a toujours été en mode passif de chez passif. On a fait en sorte que, via les flux RSS, les billets de ce blog et nos gazouillis Identica/Twitter soient relayés automatiquement dessus et c’est tout.

Sauf que pas mal de choses ont changé dernièrement selon le bon vouloir du paramétrage des maîtres du lieu. La syndication automatique a semble-t-il été supprimée (je suis preneur d’une solution pour faire apparaître à nouveau les billets). Et pire encore, lorsque vous postez quelque chose sur votre page, vos fans (c’est-à-dire ceux qui ont cliqué benoîtement sur « J’aime » votre page) ne reçoivent plus l’information. Ou alors quelques uns oui, mais pas tous. Enfin c’est le bordel quoi !

Pour résumé, le « J’aime » d’avant n’est plus du tout le « J’aime » de maintenant. Heurement qu’il n’en va pas de même dans la vraie vie

C’est fâcheux je vous l’accorde. Mais ouf, pour ce qui nous concerne on a d’autres canaux d’information. Je connais cependant des associations (de bénévoles) qui avaient tout misé (ou presque) sur Facebook et qui se retrouvent bien em…bêtée parce que maintenant il faut passer à la caisse des « billets sponsorisés » si vous souhaitez à nouveau toucher tout le monde d’un coup.

C’est ce qui est arrivé à l’auteur du blog Dangerous minds ci-dessous. Ayant l’habitude de poster beaucoup, et donc de relayer beaucoup sur Facebook, il a calculé que pour atteindre tous ces fans, il lui faudrait désormais payer 672 000 $ pour quelque chose qui était totalement gratuit quelques jours auparavant !

Tout ceci porte un nom simple : capitalisme. A fortiori lorsqu’on s’appelle Facebook, qu’on a raté son entrée en bourse et qu’on se retrouve sous la pression de ses actionnaires.

Et la trappe est en train de se refermer sur nous. Tout le monde est coincé. Car tout le monde a accepté volontairement d’aller s’enferrer et s’enfermer sur Facebook. Combien de structures ne prennent même plus la peine désormais d’indiquer l’adresse de leur site Web pour préférer signaler leur page Facebook dans leur communication ? (d’autres vont encore plus loin dans l’intégration comme La Poste avec cette publicité tellement emblématique de mon propos, photographiée d’ailleurs ci-dessous).

Les gros vont peut-être accepter de régler la nouvelle note mais pas les petits, créant un service à deux vitesses qui n’est pas dans les saines et ouvertes habitudes d’Internet.

Sauf à vivre dans le monde des bisounours, n’oubliez jamais qu’un certain gratuit se paye tôt ou tard…

N’oubliez pas non plus, si tout ceci vous fatigue, vous étouffe ou vous exaspère, que le Libre vous accueille en toute confiance à bras ouverts. Vous y perdrez sûrement quelques fans au début mais y gagnerez peut-être une communauté dans lequel votre « J’aime » sera actif et engagé en prenant du sens et de l’authenticité.

En réponse aux critiques, Facebook ajoute un moyen de vraiment, vraiment « aimer » quelque chose

Responding to criticism, Facebook adds a way for you to really, really ‘like’ something

Joel Johnson – 2 novembre 2011 – NBC
(Traduction : GPif, KoS, Yuston, RN, Robin Dupret, Gatitac, LuD-up, PM, bashr, RN, Tchevengour)

Richard Metzger n’est pas très content de Mark Zuckerberg.

Fondateur de Dangerous minds, un blog culturel peu connu au départ, Metzger a rassemblé plus de 50 000 fans sur sa page Facebook au cours de ces trois dernières années. Mais depuis l’introduction en bourse de Facebook en mai dernier, les changements d’algorithme du géant des réseaux sociaux ont rendu l’apparition du contenu publié par Dangerous Minds dans les fils d’actualités de ses fans de plus en plus rare.

Quand vous cliquez sur « J’aime » telle ou telle page, vous pensez peut-être que cela veut dire que votre « journal » recevra toutes les mises à jour postées par le détenteur de cette page. Et c’est bien ce que cela faisait avant. Mais dans sa tentative de soit-disant améliorer l’utilité des informations affichées sur votre journal, par exemple en masquant le contenu qui ne vous intéresse pas, Facebook a aussi semé le trouble chez les utilisateurs et les fournisseurs de contenu quant à la signification du « J’aime ». Pour essayer de clarifier cela, Facebook a ajouté un menu déroulant sous le bouton « J’aime », avec « Recevoir les notifications » et « Afficher dans le fil d’actualité », nécessitant maintenant que les utilisateurs modifient un à un les paramètres de ce qu’ils avaient déjà « aimé ».

Dans un billet passionné et public, Metzger a accusé Facebook d’avoit conçu « le plus gros leurre de l’histoire » en introduisant les « publications sponsorisées ». En somme, Facebook demande aujourd’hui à Dangerous Minds de payer pour mettre en avant ses billets auprès de ses propres fans, pour un montant pouvant dépasser 672 000 $ par an selon Metzger — alors que la même chose était totalement gratuite auparavant.

Metzer détaille son calcul :

Chez Dangerous Minds, on propose entre 10 et 16 publications chaque jour, un peu moins les week-ends. Pour atteindre 100% de nos plus de 50 000 fans (c’est-à-dire l’affichage de l’information sur leur « journal »], Facebook demanderait désormais 200 $ par publication. Ce qui nous coûterait entre 2 000 $ et 3 200 $ par jour, mais retenons uniquement la fourchette basse, plus facile à multiplier. On publie du contenu tous les jours de la semaine, soit 14 000$ par semaine, 56 000$ par mois… pour un total de 672 000 $ par an ! Pour quelque chose que nous pouvions faire gratuitement avant que Facebook ne ferme les vannes cet automne, comme par hasard juste au moment de leur entrée en bourse mal gérée !

Selon Metzger, Dangerous Minds a perdu ainsi entre la moitié et les deux tiers des visites provenant de Facebook, avec pour seul recours apparent de payer Facebook pour promouvoir les messages destinés aux fans. Un porte-parole de Facebook a déclaré à NBC News que Metzger a « mal interprété » l’idée sous-jacente de billets sponsorisés : ils concernent la qualité des billets, et non leur quantité.

« Nous continuons à améliorer le fil d’actualité pour mettre en avant les messages que les fans sont les plus enclins à consulter activement, de manière à leur assurer qu’ils lisent les nouvelles les plus intéressantes » a ajouté le porte-parole. « Cela coïncide avec notre vision que tout contenu publié devrait être aussi attrayant que les messages provenant de la famille ou des amis. »

Le sponsoring réalisé par Facebook est conçu — et tarifé — de manière à ce que « le contenu le plus attractif » soit promu, mais pas de la manière qu’on imagine : plus « l’activité naturelle » du contenu est importante (le temps effectif durant lequel les utilisateurs le consultent, le commentent, ou cliquent sur « J’aime ») moins Facebook facture le promoteur du message pour le mettre en évidence.

Le fait qu’un utilisateur clique sur « J’aime » sur une page ne signifie pas que cette personne, cet éditeur, cette organisation ou cette marque puisse envoyer ses infos sans entrave sur le « journal » de l’utilisateur (même s’il n’ y a pas si longtemps, c’est plus ou moins ainsi que Facebook fonctionnait).

Et cela est donc déroutant aujourd’hui pour des utilisateurs ou des éditeurs qui avaient pris l’habitude d’utiliser les précédentes versions de Facebook un peu comme Twitter ou comme un flux RSS, en montrant l’intégralité du contenu publié par les éditeurs ou les marques « aimées » dans le « journal » personnel.

Mais alors que peut bien signifier ce« J’aime » fluctuant ? Comme me le disait Allen Tingley sur Twitter, « le simple fait que « J’aime » quelque chose ne veut pas dire je veux votre publicité (de merde) à longueur de journée dans mon fil d’actualité. L’aspect « social » du réseau ne signifiant pas publicité gratuite ». Mais pour d’autres utilisateurs, cliquer sur « j’aime » peut signifier qu’ils veulent recevoir autant de mises à jour que possible de la part de la page choisie.

Cette confusion ne vient pas uniquement d’une nouvelle perception des utilisateurs de ce que signifie cliquer sur « J’aime », mais aussi des modifications que Facebook a faites ces dernières années (et continue de faire), sur le fonctionnement de l’algorithme qui fait apparaître les contenus sur le « journal » des utilisateurs.

Cliquer sur « J’aime », représente seulement « un dixième de ce qui est compté comme de l’engagement » selon Facebook (la seule façon de compter les désengagements pour ainsi dire, c’est de cliquer sur le bouton qui masque les publications de votre « journal »).

Ecrire une publication sur un mur, marquer une photo, commenter une page, toutes ces choses s’additionnent dans les coulisses pour informer Facebook de ce qu’il devrait ou ne devrait pas poster sur votre « journal ». Il tente alors de vous présenter en théorie le contenu qu’il estime le plus pertinent à vos yeux.

Plus vous vous engagez auprès d’une marque, une organisation, ou une personne, plus il est probable que vous voyiez son contenu dans votre « journal » (malheureusement, c’est un à peu près le seul contrôle que vous ayez sur votre journal puisqu’il n’existe pas de fonction « Tout voir de Untel ou Untel »).

À moins, bien sûr, qu’un annonceur, de la grande marque au petit éditeur comme Metzger en passant par l’un des vos amis, ne paie pour faire apparaître certains contenus sur votre « journal ». Comme Google, Facebook est fondamentalement une régie publicitaire. Ou du moins, tel semble être le désir des actionnaires qui veulent leur retour sur investissement.

Pour un petit éditeur comme Metzger, qui a passé des années à investir temps et ressources pour construire sur Facebook une communauté qui engendrait en retour du trafic vers son site, la récente commercialisation par Facebook de son travail sonne comme une trahison. « L’idée que la direction générale de Facebook n’ait pas prévu cela — une réaction très négative de ses utilisateurs les plus engagés — laisse pantois » a affirmé Metzger à NBC News. Selon lui, ces 50 000 personnes sont des amis — ou à tout le moins des « amis » — alors que Facebook les considère comme des clients partagés.

Mais, on le sait, Facebook ne peut continuer à offrir indéfiniment des services gratuitement, du moins pas à tout le monde. Comme il est peu probable que les particuliers paient pour leurs comptes Facebook, il ne reste que les annonceurs. Même si, dans le cas de Metzger et de Dangerous Minds, le réseau social ne le considère pas comme un annonceur, mais bien comme un utilisateur lambda.

C’est une nouvelle version du vieil aphorisme « si tu ne paies pas la marchandise, c’est que tu es la marchandise ». Cette fois, Dangerous Minds est à la fois la marchandise et le client. Le blog a construit une communauté et a fourni du contenu à Facebook ; Facebook a construit un réseau social qui, en retour, fournit gratuitement du trafic et des outils à Dangerous minds, jusqu’à ce que la communauté que Metzger a construite ait pris assez de valeur pour être vendue à des publicitaires, y compris Metzger.

Alors qu’il est peu probable que Facebook ne revienne à la version précédente « partage sans entrave » de son algorithme, la société a confirmé que les utilisateurs pourraient dorénavant choisir de recevoir toutes les publications d’une page « aimée » en activant la fonction Recevoir les notifications directement sur le bouton « J’aime ». Sauf que cela nécessite que les fans se rendent une à une sur les pages « aimées » et fassent eux-mêmes le réglage, ce que la plupart ne feront probablement pas…

Metzger voit cela comme une amélioration. « Evidemment, quelle que soit la façon dont je regarde la chose, c’est tout de même un changement positif important, mais si l’algorithme de Facebook avait été conçu initialement en « opt-in » (choix d’engagement et donc de tout recevoir par défaut) et non « opt-out » (choix du refus par défaut), Facebook ne se serait pas attiré les foudres de l’opinion lors de la mise en place des billets sponsorisés. » Metzger qualifie l’implémentation originale de « vautour capitalisme amateur ».

Toujours est-il que Metzger a peut être réveillé l’attention des autres utilisateurs de Facebook, car il a affirmé à NBC News qu’en 24h son coup de gueule a été « aimé » plus de 20 000 fois sur Facebook.




Facebook : et si nous assistions au lent début de la fin ?

Ce n’est pas la première fois que nous vous proposons un témoignage raz-le-bol de Facebook qui joint la théorie à la pratique en décidant de quitter réellement le célèbre réseau social.

Après « la maman », voici « le musicien »… Et si ces deux cas isolés anticipaient un futur (et salutaire) mouvement de fond ?

Le constat va croissant, nombreux sont désormais les gens autour de moi qui n’aiment pas (ou plus) Facebook. L’attrait de la nouveauté envolé, les changement soudain de paramétrage qui désorientent et menacent notre vie privée, le temps passé dessus au détriment de « la vraie vie » (avec des morceaux de vrai(e)s ami(e)s dedans)… nombreuses sont les raisons qui font que la « douce saveur » du début a un arrière-gout de plus en plus amer.

Mais, contrairement à nos deux courageux, la grande majorité y reste pourtant, par habitude ou « parce que, vous comprenez, tout le monde est dessus ».

La parallèle est discutable mais ça me fait penser à tous ces utilisateurs, passés ou présents, enchaînés à leur système d’exploitation Windows. On finit par haïr Microsoft mais on en redemande quand même. Et cela porte un nom : addiction.

Facebook est le Windows de notre époque et il n’a toujours pas trouvé son GNU/Linux (puisqu’en l’occurrence notre musicien ne s’en va malheureusement pas beaucoup plus loin en choisissant Google+).

Phphoto2010 - CC by-nd

Facebook en voie de devenir le prochain MySpace ?

Is Facebook becoming the next MySpace?

Christian Grobmeier – 31 octobre 2012 – Blog personnel
(Traduction : lgnap, tiossanne, Yuston, ehsavoie, Yann, Gatitac, unnamed4, Naar, Damien, Maxauvy, Paul, Simon Villeneuve, 3josh)

Je suis musicien amateur. Bon, entre Time & Bill et d’autres projets me prenant tout mon temps, je suis actuellement un musicien « en pause », mais en 2005, j’étais plutôt actif et je me souviens que nous voulions sortir notre prochain CD. Tous mes amis musiciens étaient sur MySpace et nous parlaient de la pub efficace qu’ils pouvaient y faire. J’ai toujours trouvé le site laid, mais il y avait tellement de monde dessus que je m’y suis inscrit à mon tour, j’y ai déposé nos chansons et j’ai fait l’effort de construire un réseau. Ça a bien fonctionné pendant un moment. Ensuite, il est apparu qu’il y avait plus de musiciens que d’auditeurs sur le site. J’ai reçu des tonnes de messages comme « Écoute mon nouveau titre » ou « Viens à notre concert ». Les commentaires sur notre page ressemblaient à un grand mur couvert de pubs collées par d’autres musiciens. Parfois, parmi tous ces messages, on pouvait voir des femmes nues proposant leurs services. J’ai fini par fermer les commentaires. Puis MySpace a commencé à « faire mieux» (NdT : nouveau slogan du site). Ça a échoué, le site est simplement devenu plus lent, laid et inutilisable. Finalement, j’en suis parti et me suis préoccupé uniquement de notre site web. MySpace était un vrai bazar et n’avait plus aucune utilité.

Ensuite, tout le monde est passé à Facebook. J’y ai jeté un œil, sans être emballé. Il était difficile d’y mettre de la musique. Il y avait un côté restrictif et j’ai vraiment détesté l’interface utilisateur, mais bon, là encore tout le monde s’y est inscrit, et j’en ai donc fait de même. J’ai trouvé quelques applications tierces qui permettaient à mes visiteurs d’écouter ma musique. Tout allait bien. Après quelques temps, j’y ai même retrouvé avec émotion de vieux amis. Tout semblait aller pour le mieux.

C’est alors que les jeux sont arrivés. Tout à coup, ce fut le bazar. Eh, je ne veux pas gagner d’or, tuer des dragons ou cultiver des salades. Je suis juste là pour discuter avec des amis et échanger avec les fans de notre groupe. Cela empira au point de vouloir quitter Facebook lorsque j’ai découvert FBPurity. Et les choses s’arrangèrent. Quand j’ai découvert comment faire pour que Facebook arrête de m’envoyer des e-mails « Veux-tu jouer à ce jeu super ? », tout est rentré à nouveau en ordre, apparemment.

J’ai pendant longtemps ignoré toutes les discussions sur la confidentalité des données. Je ne publie rien de sensible sur Facebook. Les photos téléversées sont du tout-venant. Je ne réponds pas à toutes les questions que Facebook me pose. Ainsi, j’ai pu vivre avec le fait que Facebook fasait des choses vraiment étranges avec mon profil. À un moment, des clients m’ont ajouté à leur liste d’amis, j’ai donc dû devenir plus prudent avec mon profil. Il est probablement étrange pour mes clients de lire sur mon mur les invitations de ma maman à récolter de la salade sur Farmville, mais bon, ils doivent faire avec.

La confidentialité des données — est-ce vraiment un problème ? Parce que j’ai appris que la majeure partie du contenu sur Facebook est de la vraie foutaise. « Aïe, je me suis cassé un orteil » est l’un des messages les plus intéressants. Parfois, quelqu’un a un bébé, et si c’est un vieil ami, je le sais déjà. Si c’est une personne dont je n’ai pas entendu parler depuis des années, ce n’est pas aussi amusant que de lire les bêtises d’un autre ami dans un bar. Alors, quelles sont les « données importantes » dont nous nous préoccupons tous ? Si ce ne sont pas les absurdités que nous écrivons, c’est probablement lorsque nous cliquons sur « J’aime », parce que Facebook sait alors que nous aimons Coca-Cola et qu’il peut vendre notre profil client à n’importe qui.

Néanmoins, je peux accepter qu’ils vendent mes données pour me fournir un service apte à promouvoir mon groupe et garder contact avec avec mon réseau de relations, même si l’interface est toujours un cauchemar. Depuis le lancement de Google+, Facebook est devenu encore plus bordélique. Par exemple, il me faut toujours un temps fou pour ajouter des évènements à une page qui m’intéresse pour un ami.

Maintenant, qu’est-ce qu’on nous propose ? Des pubs partout,me forçant à utiliser AdBlock+ (j’y suis passé). Du contenu bien souvent sans intérêt et trop chronophage, je suis bien assez occupé comme ça. Mon profil est vendu à des inconnus. Ah, et au fait, j’oubliais : Facebook modifie pas mal de choses sans notification préalable.

Par exemple, vous ne pouvez plus cibler tous les fans de votre page lorsque vous postez un nouveau contenu. C’est vrai, Facebook me conseille maintenant de payer pour cela. Voici un billet intéressant à ce sujet qui décrit la situation. Après tout, il faut bien compenser la chute des actions en bourse…

À présent, Facebook a largement dépassé la moisissure qu’était Myspace. Non, je ne paierai pas pour ça, et je vais cesser de poster du contenu. Pourquoi continuerais-je à en poster si personne ne le lit ? Pourquoi paierais-je pour discuter de choses futiles et anodines avec mes amis ? Le téléphone est bien moins cher ! Pourquoi paierais-je pour la présence de mon groupe sur cette plateforme alors qu’il ne génère aucun revenu actuellement ?

Il en va souvent ainsi j’imagine, parfois, les grands réseaux sociaux oublient que les utilisateurs ne sont pas que des machines à fric, et aussi qu’ils peuvent partir. Je compte d’ailleurs quitter Facebook au profit de Google+. J’y poste déjà le contenu de tous mes blogs, si vous souhaitez me suivre. J’aime beaucoup son interface. ses bulles, ses cercles et son tchat vidéo. On y trouve du contenu de meilleure qualité que sur Facebook, et beaucoup de spécialistes sur un sujet donné.

Ce qui fait que Twitter et G+ sont désormais mes principaux canaux de communication. Du moins, jusqu’à ce qu’ils empirent. Twitter fait déjà des choses étranges, comme avec ses nouvelles modifications plus restrictives de l’API. Voyons ce que le futur nous réserve.

Enfin, je crois fermement qu’un jour, il y aura un réseau social décentralisé fondé sur des outils open source.

Adieu Facebook. Tu ne me manques pas.

Crédit photo : Phphoto2010 (Creative Commons By-Nd)




Opposons-nous aux brevets qui tuent la liberté de l’impression 3D

Notre premier billet consacré à l’impression 3D date de 2008. Depuis cette technologie a fait de gros progrès, elle frappe déjà à la porte de nos maisons pour le plus grand bénéfice de tous. Et tous les espoirs sont permis puisque l’esprit du libre s’est penché dès le départ sur son berceau.

Sauf qu’ici comme ailleurs, nous ne sommes pas au pays de bisounours et la résistance de l’ancien monde sera à n’en pas douter dure et acharnée. C’est d’ailleurs pour être prêts en amont que nous avons déjà publié ces deux articles : L’impression 3D, ce sera formidable… s’ils ne foutent pas tout en l’air ! et Ils tenteront de nous pourrir l’impression 3D avec leurs DRM.

Comme cela est déjà le cas pour le logiciel, de nombreuses attaques viendront du côté des brevets (et la récente affaire Apple Samsung n’est pas faite pour nous rassurer).

Heureusement la législation américaine a mis en place une nouvelle procédure qui permet à tout citoyen de participer au processus de validation (ou non) d’un brevet. C’est ce droit de vigilance que se propose d’exercer l’Electronic Frontier Foundation (ou EFF) avec nous.

Oui, cela ne concerne (pour le moment) que les États-Unis mais dans ce domaine on sait très bien que ce sont eux qui donnent le la au niveau mondial.

Edit : Gérald Sédrati-Dinet (alias Gibus) qui en connaît un rayon sur le sujet, lire par exemple cette excellente interview sur PCInpact, nous met en garde dans les commentaires. Cette procédure ne fait pas le jeu de ceux qui réclamment purement et simplement la suppression des brevets logiciels. Ce serait même contre-productif et l’EFF a tort de s’engager sur cette voie.

Fdecomite - CC by

Rejoignez les efforts de l’EFF pour que l’impression 3D reste libre

Join EFF’s Efforts to Keep 3D Printing Open

Julie Samuels – 24 octobre 2012 – EFF.org
(Traduction : KoS, Ward, PostBlue, tibs, Simounet, Ag3m, Damien, Jeff_, HgO, Aylham, 4nti7rust)

Grâce à la communauté « open hardware » (NdT : ou matériel libre), vous pouvez maintenant posséder une imprimante 3D pour quelques centaines de dollars, avec des douzaines de modèles disponibles. Ces imprimantes conçues par la communauté surclassent déjà les modèles propriétaires qui coûtent pourtant 30 fois plus cher. Cette innovation incroyable est possible grâce à l’expiration, il y a plusieurs années, du brevet principal couvrant les technologies de l’impression 3D, ce qui a permis à des projets comme RepRap de prouver ce que nous savions déjà, à savoir que le libre dépasse souvent le système de brevets pour stimuler l’innovation.

Les matériels d’impression libres ont déjà été utilisés pour le prototypage rapide de nouvelles inventions, pour imprimer des pièces de remplacement d’objets d’appareils domestiques, par des maîtres du bricolage pour transformer une perceuse en centrifugeuse, pour des jeux où nous pouvons créer nos propres pièces, et pour des milliers d’autres choses par des gens de tous horizons. Des projets comme MakerBot et Solidoodle ont rendu les imprimantes 3D aussi faciles d’accès qu’un dispositif plug&play, où vous n’avez même plus à souder quoi que se soit pour commencer à manufacturer des objets que vous avez dessiné ou dont vous avez téléchargé les plans sur Internet. Avec l’expiration des brevets, la communauté de l’open hardware sera en mesure de libérer son esprit créatif sur les nouvelles technologies, des technologies qui ont déjà été utilisées pour concevoir des prothèses personnalisées, des guitares, des chaussures, et plus encore. Les possibilités sont illimitées (NdT : traduit ici par le Framablog).

Le Problème

Alors que les principaux brevets restreignant l’impression 3D ont expiré ou sont sur le point de l’être, il existe un risque que les creative patent (NdT : brevets sur les idées) continuent de verrouiller les idées au-delà des 20 ans initialement prévus pour ces brevets, ou qu’ils ne restreignent les avancées futures de la communauté open source. Alors même que, nous le savons, la nature incrémentielle des innovations sur l’impression 3D la rend particulièrement inéligible pour les brevets.

Le projet

Comme nous l’avons dit précédemment , l’America Invents Act n’a pas réussi à corriger le problème de l’excessive brevetabilité. Malgré on y trouve au moins une clause récente qui, nous le pensons, pourra être utile : le Preissuance Process.

Cette procédure autorise des tiers à participer au processus de dépôt de brevets en ayant la possibilité d’informer les examinateurs de l’état antérieur de la technique en question. Nous sommes fiers de voir que le Patent Office (NdT : Bureau des Brevets) a ouvert le processus à ceux qui ne déposeront probablement pas de brevets eux-même, mais qui en seront impactés dans leur vie quotidienne. Nous sommes content de savoir que ce nouvelle procédure pourra aider à endiguer la déferlante de brevets illégitimes.

L’EFF et la Cyberlaw Clinic au Centre Berkman de Harvard pour l’Internet et la Société travaillent ensemble pour utiliser cette nouvelle procédure afin de mettre à l’épreuve les dépôts de brevets qui menacent particulièrement les technologies d’impression 3D en plein développement. En premier lieu, nous évaluons les dépôts de brevets sur l’impression 3D qui sont actuellement en cours devant le Patent Office pour identifier de potentiels dangers. Nous avons besoin de vous ! Si vous connaissez des applications qui couvrent les technologies d’impression 3D et qui selon vous devraient être contestées, faites-le nous savoir par mail à 3Dprinting@eff.org (indiquez nous également tous les précédents pertinents que vous connaîtriez).

Pour s’impliquer, il est possible de se rendre sur l’outil de recherche du USPTO (NdT : Bureau de gestion des brevets et des marques déposées des États-Unis), du PAIR (NdT : Récupération d’informations des dépôt de brevets) et/ou de Google Patents. Chacune de ces sources contient de nombreux détails sur les brevets actuellement en attente de validation au USPTO.

Voilà le problème : avec les lois en vigueur, un dépôt de brevet ne peut être contestée par la Preissuance Submission que dans les six mois suivant sa publication (ou avant la date du premier rejet, si cette action se passe après). Ce qui signifie que le compte à rebours a déjà commencé pour les rejets concernant les dépôts de brevet en cours.

Une fois les cibles identifiées, nous nous renseignerons sur les précédents pertinents. Nous vous demanderons à nouveau votre aide à ce moment là, alors, s’il vous plait, soyez vigilants. Tout document disponible publiquement avant le dépôt d’un brevet est considéré comme un précédent; cela peut inclure des e-mails sur des listes publiques, des sites internet, et même des thèses universitaires. En raison de la limite temporelle, nous devons effectuer ces recherches très rapidement.

Il est heureux d’avoir à disposition cette nouvelle façon de combattre le dépôt de brevets dangereux avant qu’ils ne deviennent réellement dangereux. Mais l’America Invents Act et les capacités de recherche du site du Patent Office ne nous rendent pas la tâche aisée. Nous avons besoin de votre aide pour pouvoir accomplir cela, alors s’il vous plaît, faites ce que vous pouvez pour aider à protéger la communauté de l’impression 3D des brevets flous et nocifs qui peuvent menacer de passionnantes innovations.

Crédit photo : Fdecomite (Creative Commons By)




The future is open et c’est Google qui le dit

Il y a 3 ans nous traduisions un article issu du blog de Google et rédigé par l’un de ses hauts gradés Jonathan Rosenberg : The meaning of open. Il y expliquait pourquoi et comment la célèbre entreprise prônait l’ouverture à tous ses étages.

Le même auteur récidive ici en dépassant la problématique Google pour affirmer non sans un certain optimisme (à l’américaine) que c’est le futur tout entier qui est désormais ouvert et que c’est très bien comme ça.

Remarque 1 : Nous avons choisi de traduire tout du long « open » par « ouverture » ou « ouvert ». L’adéquation n’est pas totalement satisfaisante, mais laisser le terme d’origine en anglais eut été selon nous plus encore source de confusion.

Remarque 2 (troll et hors-sujet ?) : À comparer avec la situation française où l’on semble actuellement beaucoup plus préoccupé de savoir ce que nous prend ou nous donne l’État que de promouvoir ou pratiquer l’ouverture. Sans oublier, évidemment, la fameuse taxe Google qui « sauvera » la presse !

John Martinez Pavliga - CC by

Le futur est ouvert

The Future Is Open

Jonathan Rosenberg – octobre 2012 – ThinkWithGoogle.com
(Traduction Framalang : nobo, peupleLa, KoS, Smonff, ehsavoie, tibs, Louson, goofy, Khyvodul, Pandark, lgodard, Kiwileaks)

Il y a trois ans, Jonathan Rosenberg, alors vice-président délégué à la gestion de la production, a écrit un mémo (NdT : que nous avions traduit) expliquant pourquoi les entreprises ouvertes seraient les gagnantes du futur. Aujourd’hui, consultant au service du management, il a vu la réalité dépasser ses rêves les plus fous.

Il y a bientôt trois ans, en décembre, j’ai envoyé un courriel à mes chers collègues de Google, pour essayer de donner une définition claire d’un terme galvaudé : Ouvert. Je trouvais gênant qu’entre nos murs, il prenne différents sens selon les personnes, et que trop de Googlers ne comprennent pas l’engagement fondamental de l’entreprise pour ce qui est ouvert. En me référant à la fois aux technologies ouvertes et aux informations ouvertes, j’ai présenté la philosophie sous-jacente à notre volonté de transparence. Rechercher des systèmes ouverts, avais-je argumenté, nous a menés, et continuera de nous mener vers deux résultats souhaitables : Google devient meilleur, et le monde avec lui.

L’argument était convaincant, et plus tard, un billet sur le blog de Google , « The Meaning of Open », permit de clarifier encore plus ce concept parfois difficile à appréhender. Dans les semaines qui ont suivi, j’ai reçu des messages pleins de profondeur de la part d’un public divers et varié : enseignants ou écrivains qui appréciaient ce point de vue de l’intérieur de Google, chefs d’entreprise qui m’expliquaient comment l’ouverture avait influencé leurs affaires, étudiants surpris d’une position qui allait entièrement à l’encontre de la stratégie de fermeture qu’on leur avait enseignée. Trois ans ont passé, et ce qui me saute aux yeux dans ce manifeste c’est que… j’avais tort !

On ne peut pas dire que le développement ouvert n’ait pas fait progresser Google et le reste du monde. Seulement c’est arrivé beaucoup plus vite que je ne l’avais imaginé. C’est au beau milieu d’un des gestes les plus banals du vingt-et-unième siècle que j’en ai pris conscience : je vérifiais mon téléphone, un Droid Razr Maxx. Je fixais la chose, et j’en voyais toute la diversité : deux douzaines d’applications, du New York Times à Flipboard, de Dialer One à OpenTable, de RunKeeper à SlingPlayer, créées par un tas de développeurs différents, sur un téléphone conçu par Motorola. Il m’est apparu que ce que je regardais n’était pas simplement un appareil mobile, mais l’incarnation physique de la façon dont un écosystème ouvert peut se disséminer à travers le monde presque du jour au lendemain.

Sans aucun doute, j’ai toujours senti que cette idée tenait debout – mais je n’avais pas anticipé l’ampleur avec laquelle les règles du jeu entre les secteurs privés et publics allaient être réécrites. C’est la conséquence de trois tendances techniques qui ont évolué à une vitesse étonnante. Premièrement : Internet rend l’information plus libre et omniprésente que ce que j’aurais pu croire ; pratiquement tout ce qui se passait hors ligne est maintenant en ligne. Deuxièmement : ce qui était une vision du potentiel des mobiles est vraiment devenu réalité, puisque les machines sont devenues plus puissantes et plus rapides que prévu, facilitant une portée globale et une connectivité sans précédent. Troisièmement : l’informatique dans le nuage (NdT : Cloud computing) a permis une puissance de calcul infinie à la demande. Et nous sommes loin d’avoir fini. Alors même que j’écris ces lignes, Google Fiber s’apprête à déployer un service à un gigabit à Kansas City, indice que la connectivité est sur le point de franchir une nouvelle limite.

La conjonction de ces progrès techniques a un effet paradoxal : aussi nouveaux soient-ils, ils finissent par ramener les entreprises aux fondamentaux. La gamme et la qualité des produits sont maintenant les facteurs les plus importants pour déterminer le succès d’une entreprise. Historiquement, les entreprises pouvaient profiter d’une pénurie d’information, de connectivité ou de puissance de calcul pour attirer et conserver leurs clients et repousser les concurrents.

De nos jours, les clients peuvent prendre des décisions bien plus éclairées en accédant aux informations des autres consommateurs. En effet, ils renforcent mutuellement leur pouvoir de décision par leurs échanges via des sites comme Yelp et toute une flopée de réseaux sociaux. Une société ne peut plus complètement contrôler l’environnement de ses clients. Au moment où les frontières de la distribution se sont effondrées – pensez aux moyens de transports mondialisés et bon marché, pensez aux étalages infinis des détaillants en ligne – les consommateurs ont de plus en plus de contrôle par eux-mêmes. Avec ce nouveau paradigme, et des marchés toujours plus compétitifs, les sociétés n’ont plus d’autre choix que de se concentrer sur la qualité et les gammes de produits. Si elles ne le font pas, une autre le fera à leur place.

Avec autant de changements en si peu de temps la nécessité de l’ouverture s’est imposée comme une tactique commerciale décisive pour atteindre à la fois l’excellence et la déclinaison des produits. Ouvrir un produit à toute une armée de créatifs est le plus court chemin pour créer de l’innovation et de la diversité, puisque cela permet à chaque contributeur de se focaliser sur ce qu’il fait le mieux et que cela encourage les contributions d’un public le plus large possible.

Chrome et Android, qui ont tous deux décollé depuis que « The Meaning of Open » a été publié, illustrent parfaitement ce principe. Avec chacun d’eux, nous avons maintenu un seul objectif simple dès le début : rendre le produit aussi robuste que possible. Comme nous l’avons appris maintes et maintes fois, il n’y a pas de route plus rapide et plus fiable qu’une route ouverte : davantage de mains travaillant sur un même produit ne peuvent que l’améliorer. L’ouverture permet de prototyper un concept, ou de le tester dans ses toutes premières étapes. Qui plus est, les systèmes ouverts tolèrent mieux les défaillances – et attirent une communauté d’utilisateurs plus fidèles. Ils savent que la motivation première d’un système ouvert est l’excellence ; si la société essaie d’imposer un autre agenda, la communauté de développeurs le repérera immédiatement et se révoltera. En proposant un produit ouvert, la société renonce à la possibilité de faire autre chose que de le rendre meilleur pour l’utilisateur.

Les résultats parlent d’eux-mêmes. Si vous possédiez un smartphone en 2006, il y a des chances pour que « Blackberry » ou « Nokia » ait été inscrit dessus. Il y a encore trois ans, Android représentait à peine 5% du marché. Aujourd’hui nous avons dépassé les 51%, et il y a de fortes chances pour que votre smartphone ait été fabriqué par Samsung, HTC, Motorola ou un autre partenaire d’Android.

Android a même débarqué dans des secteurs que nous n’avions pas anticipés, tels que les téléviseurs, les voitures, les avions, et même les appareils domestiques. (Voyez Ouya, une nouvelle console de jeux vidéo basée sur Android. Sans un Android ouvert, ce genre d’innovation n’existerait pas). Il semble clair à présent que si vous vous investissez dans un système ouvert, vous vous engagez dans une compétition perpétuelle pour garder votre place d’innovateur principal.

La question de l’ouverture n’a pas été moins opérante pour le navigateur Chrome, qui s’est construit par dessus le projet open source Chromium. Aujourd’hui, Chrome est sept fois plus rapide qu’il ne l’était lorsqu’il a été lancé il y a à peine 4 ans, et le nouveau code est disponible pour le monde entier à mesure qu’il se développe. Travailler ainsi au grand jour rend plus difficile le fait d’avoir des agendas cachés ou quoi que ce soit de dissimulé ; faites mal les choses, et une communauté mondiale de développeurs vous repérera instantanément.

Faire de l’ouverture une tactique commerciale peut nécessiter de nouvelles compétences organisationnelles. La vitesse est primordiale, comme l’est la rigueur du processus de décision. Un écosystème ouvert encourage le bouillonnement d’idées. Or trouver de bonnes idées, c’est facile ; ce qui est difficile, c’est de choisir parmi elles. L’ouverture des données peut offrir un avantage concurrentiel important aux entreprises, mais seulement si elles sont correctement positionnées pour pouvoir en profiter. L’autre tactique — qui est notamment utilisée par Apple et nos équipes de recherche — est de garder le système plus fermé, et d’y exercer un contrôle total. Cette approche nécessite son propre jeu de compétences organisationnelles, au-delà de la vitesse d’exécution, puisque l’excellence du produit et son innovation prennent leur source uniquement en interne. Les deux approches peuvent évidemment toutes les deux réussir, mais selon notre expérience, quand il s’agit de construire une plateforme entière, l’ouverture est le chemin le plus sûr vers la réussite.

Heureusement, de plus en plus d’organisations perçoivent ce message. Dans Wikinomics, les auteurs Don Tapscott et Anthony D. Williams racontent l’histoire de Goldcorp, une entreprise de mines d’or de Toronto, qui semblait sur le déclin à la fin des années 90. Face à un marché en baisse, une foule de problèmes internes et ce qui semblait être un filon épuisé, le PDG Rob McEwen fit précisément l’inverse de ce que n’importe quel livre sur le business dirait : il commença par donner le peu que l’entreprise avait encore.

Plus exactement, il publia sur le site de l’entreprise 400 Mo d’informations concernant le site minier de 220 kilomètres carrés de Goldcorp. Plutôt que de conserver jalousement ses derniers lambeaux d’information propriétaire, il offrit un prix de 500,000$ à quiconque parviendrait à utiliser ces données, afin de trouver de l’or contenu dans le sol. Ce fut un énorme succès. Plus de 80% des cibles identifiées par le public donnèrent des quantités significatives d’or. Avec ce petit investissement initial, la société tira du sol l’équivalent plus de 3 milliards de dollars en or.

Évidemment, McEwen était seulement en train de s’accorder avec les principes profonds du mouvement open source. Dans les premiers jours confus de l’internet, une éthique d’universalité et d’égalitarisme s’était propagée. « Les jardins cernés de murs (NdT : Walled gardens), tout plaisants qu’ils soient, ne pourront jamais rivaliser en diversité, en richesse et en innovation avec le marché fou et palpitant du Web de l’autre côté du mur » a écrit Tim Berners-Lee, l’inventeur du World Wide Web. Google a toujours prospéré sur cette diversité, cette richesse et cette innovation. C’est ce qui nous a permis de lancer des créations comme Chrome et Android, et c’est ce qui a permis à une entreprise d’extraction vétuste d’éblouir le monde avec des succès similaires et pour des raisons similaires.

Aussi spectaculaire que soit l’histoire de Goldcorp, c’est seulement la partie émergée de l’iceberg. En effet, ce qui avait commencé comme un concept de geek au sein de communautés scientifiques s’est propagé dans tous les domaines, des affaires à la politique, de la santé à l’éducation et bien au-delà. Chez Google, nous envisageons un certain nombre de possibilités au-delà du secteur technique, où l’ouverture pourrait amener des progrès modestes et immenses à la fois.

L’éducation

De Stanford à la Corée, des universités et des enseignants du monde entier commencent à distribuer gratuitement des contenus éducatifs de très grande qualité sous licence libre. Qui plus est, des personnes vivant dans les endroits les plus reculés ont de plus en plus accès à ces contenus. La bande passante et la connectivité ont fait sauter de nombreuses barrières de la société en matière d’éducation.

Tout au bout d’un long chemin de terre à Bombay, un étudiant muni d’un téléphone peut maintenant suivre les cours du MIT au plus haut niveau. De façon tout aussi intéressante, ce même étudiant peut devenir professeur. Grâce à des organisations véritablement démocratiques, telles que la Khan Academy, une organisation à but non lucratif, qui propose en ligne plus de 3 000 cours en vidéo. Partout dans le monde des personnes peuvent à la fois disposer de et contribuer à une bibliothèque de ressources qui ne cesse de croître, depuis des leçons de physique jusqu’à des manuels de finance. Nous savons déjà à quel point l’éducation publique a transformé la société au cours du vingtième siècle. Les possibilités offertes par une éducation ouverte et en ligne semblent tout aussi illimitées.

Les gouvernements

Prétendre à la transparence gouvernementale est une chose mais des exemples comme celui du Canada avec sa Déclaration officielle de Gouvernement Ouvert, en sont une autre. Ce document reconnaît l’ouverture comme un état actif et non passif : il ne s’agit pas seulement de donner aux citoyens un libre accès aux données chaque fois que possible, mais bien de définir une « culture active de l’engagement » comme finalité de ces mesures.

Tandis que toujours plus de villes, de régions et de gouvernements fédéraux avancent dans cette direction, il y a tout lieu de croire que cela finira par payer financièrement (au moment où les données GPS ont été mises en libre accès public à la fin des années 80, par exemple, on estime que les services commerciaux qui en ont tiré parti ont contribué à hauteur de 67.6 milliards de dollars à la valeur économique des États-Unis). À l’inverse, on pourrait dire que lorsque le régime égyptien a verrouillé Internet en janvier 2011, cela a poussé les citoyens à descendre dans la rue pour avoir plus d’informations, et à venir grossir les foules de la place Tahrir. Il est ici probable que le retour à un système plus fermé ait accéléré la chute du gouvernement.

Le système de santé

PatientsLikeMe est un site de réseautage social de santé construit sur des bases de données ouvertes du Département de la Santé des États-Unis. Il ouvre la voie à d’autres initiatives, comme procurer aux patients des moyens de partager des informations et d’apprendre entre personnes souffrant de symptômes similaires. Les chercheurs pourraient également tirer profit de plus d’ouverture dans l’industrie.

L’ouverture des données sur la santé pourrait permettre à des études épidémiologiques à grande échelle de réaliser des percées importantes tout en mettant en place des garde-fous plus forts que jamais pour assurer au patient le respect de la confidentialité. En mettant à la disposition des chercheurs son registre des malformations congénitales, la Californie a permis aux médecins d’accéder à une mine d’informations relatives à l’impact des facteurs environnementaux sur la santé. Et bien sûr, Google Flu Trends a déjà prouvé sa pertinence pour analyser et prévoir l’arrivée d’un virus particulier, tout simplement en permettant que l’information soit partagée et rassemblée.

La science

Chercheurs, institutions, et agences de financement du monde entier commencent à prendre conscience qu’un meilleur partage et une meilleure collaboration sur les résultats de recherches scientifique peuvent mener à des recherches plus rapides, plus efficaces, de meilleure qualité et d’un meilleur impact général. En tant que commissaire européen, Neelie Kroes faisait récemment remarquer dans un discours sur la science et les politiques du libre en Europe, « les chercheurs, les ingénieurs et les petites entreprises ont besoin d’accéder aux résultats scientifiques rapidement et facilement. Si ce n’est pas possible, c’est mauvais pour les affaires ».

Un meilleur accès aux recherches scientifiques peut stimuler l’innovation dans le secteur privé et aider à résoudre des défis importants auxquels le monde doit faire face (les Google ‘Fusion Tables sont un outil que les scientifiques peuvent utiliser pour partager et collaborer sur des ensembles de donnés disparates). Pendant ce temps, l’ouverture dans le domaine scientifique signifie l’ouverture à de tout nouveaux participants. Après avoir échoué pendant plus d’une décennie à résoudre la structure d’une enzyme protéase provenant d’un virus ressemblant au SIDA, les scientifiques ont proposé le défi à la communauté des joueurs. En utilisant le jeu en ligne Foldit, les joueurs ont pu résoudre ce problème en trois semaines.

Les transports

En libérant les données des transports publics, les gouvernements permettent aux entrepreneurs de créer des applications basées sur ces données, et ainsi d’améliorer l’expérience des citoyens ; ces derniers peuvent également utiliser ces données ouvertes pour signaler des problèmes d’infrastructure. Chez Google, nous avons déjà pu observer comment cela fonctionne. Lorsque nous avons commencé à organiser les informations géographiques mondiales, nous avons constaté que, pour de nombreux endroits, il n’existait tout simplement pas de carte correcte. Nous avons donc créé MapMaker, un outil de cartographie participative qui permet à chacun de créer des annotations sur Google Maps. C’est avec cela qu’un réseau de citoyens cartographes est né, traçant en deux mois plus de 25 000 kilomètres de routes précédemment non cartographiées au Pakistan.

Les tendances technologiques convergentes sont maintenant sur le point de modifier, en fait elles ont déjà commencé à le faire, les domaines historiquement fermés, secrets et dormants. « L’avenir des gouvernements, c’est la transparence,» écrivais-je il y a un an, «L’avenir du commerce, c’est la symétrie de l’information. L’avenir de la culture, c’est la liberté. L’avenir de la science et de la médecine, c’est la collaboration. L’avenir du divertissement, c’est la participation. Chacun de ces avenirs dépend d’un Internet ouvert. »

Je mettrais juste un bémol. Étant donnés les changements radicaux auxquels nous avons assisté ces trois dernières années, le défi s’est déplacé. Nous devons viser plus loin même que l’Internet ouvert. Les institutions dans leur ensemble doivent continuer à adhérer à cette philosophie. Atteindre ces futurs objectifs ne sera pas chose facile. Mais je suis content de pouvoir dire que nous en sommes plus proches que jamais.

Crédit photo : John Martinez Pavliga (Creative Commons By)




Trop bling-bling ! Critique commune d’Unity d’Ubuntu et Metro de Windows 8

S’en prendre conjointement à GNU/Linux et Microsoft, il fallait oser ! Mais en fait cela se tient et mérite peut-être débat.

Soyons plus précis. L’auteur jette ici son dévolu sur les deux nouvelles interfaces graphiques utilisateurs de l’actuelle distribution Ubuntu et de la prochaine version de Windows, à savoir respectivement Unity et Metro.

Il les met dans le même sac et y voit un changement poussé par les mêmes logiques. Un changement mais pas forcément une amélioration, surtout si l’on utilise son ordinateur pour travailler et non facebooker

Nous avions cru comprendre que le fameux « Internet 2.0 » avait fait sauter la barrière entre les consommateurs et producteurs de contenus. Est-il possible ici qu’on les sépare à nouveau ?

LGEPR - CC by

Metro et Unity sont des adolescentes aux cheveux fluos

Metro and Unity Are Teenage Girls With Fluorescent Hair

Jeremy Morgan – 23 octobre 2012 – Blog personnel
(Traduction : Yuston, ehsavoie, Thomas Dutrion, tibs, Evpok, M0tty, goofy, Maïeul, Oliv, lgodard, Kronos, peupleLa, Gaëtan)

Vous vous souvenez de ces filles ni spécialement horribles, ni particulièrement attirantes, qui voulaient être le centre de toutes les attentions ? Elles faisaient des trucs fous comme se colorer les cheveux avec des couleurs criardes et portaient des piercings partout. Elles avaient souvent beaucoup de qualités mais ne le savaient pas. Ces filles pensaient qu’elles n’avaient rien de mieux à offrir, alors elles se promenaient avec des styles provocateurs pour attirer l’attention.

Voilà précisément pourquoi je pense que Microsoft et Ubuntu imposent leurs récentes modifications de l’interface graphique malgré les retours négatifs des utilisateurs. Ce besoin pressant d’apparaître différent et d’attirer l’attention va bien au-delà de la nécessité de satisfaire leurs utilisateurs.

Que ce soit parce que notre durée d’attention est beaucoup plus courte ou parce que les systèmes d’exploitation ont perdu de leur intérêt, le changement pour le changement semble être devenu la règle du jeu. Canonical et Microsoft secouent tout pour faire différent. Pas meilleur mais différent.

Metro et Unity : vous vous y ferez

L’interface Unity fut introduite avec la version 11.04 d’Ubuntu Linux, celle de Metro sera livrée avec Windows 8 et il semble bien que toutes deux suscitent la même réaction. Toutes les deux apportent des modifications radicales de l’interface utilisateur qui arrivent pour une bonne raison : le monde s’éloigne des ordinateurs de bureau. Le monde devient mobile, c’est incontestable.

Mais plusieurs d’entre nous, assez fous pour continuer à préférer un ordinateur de bureau ou un portable (ceux qui permettent de travailler vraiment) détestent ces interfaces. Si vous utilisez une tablette pour regarder des vidéos ou jouer à Angry Birds ça va. Si vous êtes architecte, infographiste, développeur de logiciel, animateur 3D ou quelque chose du genre, vous haïssez probablement ces nouvelles interfaces.

La réponse des deux camps est la même : l’avenir est déjà là alors autant vous faire à ces changements. Vous êtes libres de remplacer le bureau Ubuntu par l’une des nombreuses alternatives, et Windows 8 a un mode bureau mais il est radicalement différent. Que vous l’aimiez ou non le standard est défini et les plaintes tombent dans l’oreille d’un sourd.

Pourquoi tous ces changements ?

Demandez à n’importe qui chez Microsoft ou Canonical pourquoi ils changent nos repères et ils avanceront probablement des arguments marketing sur les tendances émergentes et la nécessité d’aller de l’avant et autres non-sens. Je pense que la vraie raison pour laquelle ils ont fait ces changements et les verrouillent est extrêmement simple : parce que c’est nouveau. C’est changer simplement pour le plaisir de changer parce que le bureau classique n’a pas changé depuis bien longtemps.

Le bouton Démarrer a toujours été présent depuis la sortie de Windows 95, Gnome et KDE sont apparus en 1997. Depuis cette époque, nous avons fait beaucoup de modifications et bien sûr d’améliorations, mais avec du recul, elles se ressemblent toutes. Des fenêtres, des menus, des messages similaires, et ce depuis la moitié des années 90. Vous voyez le problème ?

Ils ont seulement besoin de faire évoluer l’apparence. Les fonctionnalités d’un système d’exploitation ne changent pas radicalement avec le temps, si vous voulez restez dans le coup avec des cycles de renouvellement technologique rapides, vous devez faire bouger les choses. Vous devez être innovant, pas forcément meilleur. Eh vous avez vu ? — nous n’avons plus de bouton Démarrer.

Qu’est ce qui se cache derrière ?

Vous pouvez donc vous demander : sont-ils juste en train de mettre du rouge à lèvre à un cochon ? La réponse pour les deux systèmes est non. En réalité, ils sont tous les deux meilleurs que ce qu’ils n’ont jamais été.

Ubuntu Linux est un système d’exploitation de premier ordre qui devient plus rapide, plus stable et qui prend en charge plus de matériel que jamais. La pile logicielle est super, la gestion des paquets et la sécurité… tout cela est hautement apprécié.

Windows 8 a également été remanié et cela pourrait bien être leur meilleur système d’exploitation à ce jour. Des avancées technologiques comme l’UEFI ont été introduites : un pré-système d’exploitation, le diagnostic à distance, une option « live USB », un temps de démarrage plus rapide et le support de l’USB 3.0, pour n’en citer que quelques unes. Il y a eu des améliorations au niveau du noyau et d’autres modifications qui le font tourner plus vite que Windows7 sur le même matériel. Du point de vue technique, il n’est pas à la traîne.

Ces deux systèmes d’exploitation sont au top de leur niveau, alors pourquoi développer ces interfaces flashy pour attirer l’attention ? Pourquoi ne peuvent-ils pas vendre ces systèmes d’exploitation en mettant en avant leurs propres mérites ?

Parce que plus personne ne se soucie de ces trucs-là.

La cible marketing

En tant qu’utilisateur régulier d’Ubuntu, j’aime bien lancer une petite pique par-ci par-là à Jono Bacon et sa bande, surtout lorsqu’on en vient à Unity. Je l’ai déjà dit et je le redirai : si je veux un système Ubuntu vraiment stable, j’utilise la version 10.04 et lui compile un noyau 3.6. Ça marche, tout simplement, et l’interface est facile à utiliser pour ceux qui en ont besoin. Pour mon usage, Ubuntu a atteint un sommet à la version 10.04, et moi, comme d’autres, l’avons fait savoir.

La réponse qu’on me ressort tout le temps : « tu n’es pas notre cible de toute façon ». Je le comprends et je sais que c’est vrai. Canonical ne cible plus les hackers maintenant, et Microsoft ne l’a jamais fait. Ils veulent tous les deux répondre à l’appel du marché grand public.

Quand les versions bêta d’Unity et Metro sont sorties, les hackers ont été les premiers à s’en plaindre bruyamment, mais ils ont été ignorés. Mais le plus gros problème que je vois, c’est que pratiquement tous les utilisateurs semblent les détester.

Vous ciblez Monsieur Tout-le-monde, mais c’est ça le problème : Monsieur Tout-le-monde s’adapte encore moins facilement à des interfaces déroutantes. Un geek va faire de son mieux pour apprendre quelque chose de nouveau mais si un utilisateur moyen est dérouté par une interface, il va simplement l’éviter.

Le client a toujours raison, mais on s’en fiche

Unity est sorti depuis un moment maintenant, et il y a certainement des personnes qui s’y sont habituées, et d’autres qui vont même jusqu’à le préfèrer. Quoi qu’il en soit, la plupart des personnes avec qui j’en ai parlé et 90% des commentaires que j’ai vus sur Internet suggèrent que Unity est un flop. Windows 8 n’est pas en test depuis suffisamment longtemps mais j’ai pu voir que ça partait déjà dans la même direction.

Allez vous donc rester sur votre mauvaise décision même si votre public ne l’aime pas ? Dans le cas de Canonical/Ubuntu la réponse est oui. Il semblerait que Microsoft suive le même chemin. Ils ont tous les deux une position similaire : on sait ce qui est bon pour vous et on va vous forcer à l’utiliser. Si vous ne l’aimez pas, vous allez vous habituer à l’utiliser. Ne soyez pas effrayé par le changement, ne vivez pas dans le passé.

Cette attitude arrogante est partagée par les deux camps, et c’est un pari énorme d’abandonner certains bons concepts et bonnes expériences utilisateur connues dans le but de faire différent.

Conclusion

Si vous lisez ce blog, il y a de fortes chances que vous ne correspondiez pas au type d’utilisateur que souhaitent Microsoft ou Canonical. Ils mettent en place une nouvelle interface tape-à-l’œil pour ce nouveau type d’utilisateurs. Ils veulent des gens qui consomment du contenu, pas des gens qui en produisent. La raison en est assez évidente : il y a beaucoup plus de consommateurs que de producteurs de contenus. Si vous produisez quelque chose, le système d’exploitation sera simplement un outil pour faire démarrer votre ordinateur et fonctionner votre programme. Vous n’avez pas besoin de plus, et mettre à jour tout votre système tous les ans deviendrait bête et inutile.

Si vous êtes un consommateur, vous voulez des mises à jour même si elles ne veulent pas vraiment dire grand-chose. S’ils fournissent une espèce de nouvelle fonctionnalité pour votre appareil, vous installerez joyeusement un nouveau système d’exploitation tous les six mois. Vous voulez du neuf et du tape-à-l’œil, pas du vieux et terne. Vous voulez qu’on puisse voir à dix mètres de distance que votre système est différent des autres. Si vous voulez de la stabilité et des recettes qui ont fait leurs preuves, vous prendrez un produit Apple. Voilà exactement sur quoi comptent Microsoft comme Canonical, et ils vont parier leur avenir là-dessus.

GrowDigital - CC by

Crédit photos : LGEPR et GrowDigital (Creative Commons By)




Windows 8, faux progrès et vraie menace

Windows 8, le nouveau système d’exploitation de Microsoft, qui sera le même pour PC, tablette et smartphone, devrait être lancé officiellement le 26 octobre, et on peut compter sur le puissant marketing de la multinationale pour nous abreuver d’images cool, avec des doigts qui caressent une interface tactile en tuiles sur un bureau attrayant. C’est certain, l’interface entièrement rénovée sera plus au goût du jour, maintenant que la vaste diffusion des appareils mobiles nous a accoutumés à d’autres gestes que cliquer sur des icônes…

Le libristes habitués aux versions successives plus ou moins buguées de Windows (et celle-ci promet déjà de l’être) hausseront sans doute les épaules et retourneront à leur Debian. Ils auront peut-être tort si l’on en croit Casey Muratori, qui se demande si l’impact du nouveau système ne pourrait pas être aussi décisif pour l’informatique grand public que la sortie de Windows 3.0.

En effet, derrière ce qu’on ne manquera pas de nous vendre comme un progrès, c’est une véritable régression qui va s’opérer : tous les logiciels qui tourneront avec le nouveau système devront passer obligatoirement par le Windows Store, Microsoft exercera donc un contrôle total sur son écosystème logiciel.

De plus, la compatibilité maintenue de l’ancienne interface avec la nouvelle, si elle semble assurée dans une première étape, pourrait à terme en signer la disparition pure et simple, comme le souligne l’auteur de l’article ci-dessous, qui établit judicieusement un rappel historique : souvenez-vous de la manière dont MS-DOS a progressivement été effacé du paysage après une brève période de coexistence avec Windows 3.0. Euh oui ça ne rappellera rien aux plus jeunes, mais prendre un peu de recul est ici pertinent.

La menace de Windows 8 c’est d’abord d’imposer un système fermé à tous les développeurs et bien sûr à tous les consommateurs. Mais Casey Muratori se demande in fine si la première victime ne sera pas Microsoft lui-même, tant le virage stratégique qu’il opère risque de lui coûter ses principaux soutiens. La bataille des systèmes d’exploitation est engagée, qui en sortira indemne ?

Remarque : Nous n’avons pas traduit les deux appendices qui figurent en bas de l’article d’origine mais nous serions ravis de trouver des volontaires prêts à compléter cela avec nous sur le framapad de travail.

Kiwi Flickr - CC by

Les vingt ans à venir

The Next Twenty Years

Casey Muratori – 8 octobre 2012 – MollyRocket.com
(Traduction : Genevois, Maïeul, KoS, BlackEco, mib_6025, Geekandco, FredB, goofy, Quentin)

Voici pourquoi le modèle de distribution fermé de Windows 8 doit être remis en cause dans l’intérêt des développeurs, des consommateurs et même de Microsoft lui-même.

Pour la première fois dans l’histoire du PC, Microsoft s’apprête à diffuser un nouvel écosystème Windows dont il sera le seul et unique fournisseur de logiciels. Si vous achetez Windows 8, le seul endroit où vous pourrez télécharger des logiciels qui s’intègreront à la nouvelle interface de système, ce sera le Windows Store officiel. Microsoft exercera un contrôle total sur les logiciels autorisés ou non sur son système d’exploitation.

Microsoft a déclaré que les applications destinées à l’interface plus ancienne du bureau ne seraient pas impactées par cette nouvelle politique. Tant qu’ils utiliseront seulement des applications qui tournent sur le bureau classique, les utilisateurs auront encore la possibilité d’acheter, vendre, développer et distribuer des logiciels sans que Microsoft ne s’en mêle. Beaucoup d’utilisateurs de Windows ont compris cette déclaration comme une assurance que le modèle ouvert de distribution dont ils bénéficient aujourd’hui serait encore valide dans les futures versions de Windows. Du coup beaucoup moins de gens ont réagi au problème posé par Windows 8 que si la déclaration avait été comprise différemment.

Mais est-ce bien réaliste de croire que l’ordinateur de bureau sous Windows sera encore une plateforme informatique utilisable à l’avenir ? Et quelles en seraient les conséquences si elle venait à disparaître, laissant les utilisateurs de Windows avec pour toute ressource l’écosystème cadenassé de logiciels introduit par Windows 8 ? Pour répondre à ces questions, cette édition de Critical Detail examine les effets à court et à long terme des exigences imposées par Microsoft pour obtenir sa certification. Nous explorerons en profondeur comment l’histoire permet de prédire la durée de vie du PC classique sous Windows, nous aborderons de façon pragmatique cette question : vaut-il mieux pour Microsoft en tant qu’entreprise qu’elle adopte un écosystème ouvert ou fermé ?

Le Jeu de l’Année 2032

Selon PC Gamer Magazine, et de nombreuses autres sources en accord, le jeu PC de l’année 2011 était Skyrim : Elder Scrolls V. Ce constat n’a étonné personne. Skyrim pour PC a été rendu disponible sur Windows, pas MS-DOS. Même si les développeurs le voulaient, il leur était impossible de mettre à disposition un jeu PC comme Skyrim sur DOS car aucune des innovations graphiques des 15 dernières années n’est disponible sur celui-ci. Il est même absurde de penser pouvoir vendre des applications tournant sous MS-DOS aujourd’hui.

Hypothétiquement, on peut penser autant absurde dans 20 ans de vendre des applications pour la version bureau de Windows. Il n’y aura pas de jeux vidéo PC en 2032 comme il n’y a pas de jeux sous DOS en 2012. Tout fonctionnera sous une forme redéfinie pour l’interface moderne de Windows 8.

Puisque aucune application pour cette plateforme à venir ne pourra être vendue sans passer par le Windows Store, l’équipe ayant travaillé sur Skyrim devra envoyer son application à Microsoft pour validation. C’est ensuite la firme qui jugera de la validité de l’application et de la possibilité de la vendre. Savez-vous ce que pourrait être la réponse de Microsoft ?

Moi oui. Ce serait « non ».

Ce n’est pas une spéculation, c’est une certitude. Skyrim est un jeu pour adultes. Il est certifié PEGI 18. Si vous lisez les conditions de certification Windows 8 App, vous trouverez à la section 5.1 :

Votre application ne doit pas proposer de contenu pour adulte, et les metadatas doivent être appropriés à chacun. Les applications avec une évaluation PEGI 16, ESRB ADULTE, ou qui proposent du contenu pouvant nécessiter une telle évaluation ne sont pas autorisées.

Et c’est plié. Pas de Skyrim sur le Windows Store, à moins que les développeurs ne reviennent en arrière et retirent le contenu classé PEGI-18.

C’est le Jeu de l’Année 2011, banni du Windows Store. Et à propos de 2012 ? Avec de nombreux jeux très attendus à venir, personne ne peut deviner lesquels seront sélectionnés. Mais une sélection aléatoire des prédictions actuelles que l’on retrouve sur la toile suggère comme principaux prétendants Max Payne 3, The Witcher 2, Mass Effect 3, Assassins Creed 3, Call of Duty: Black Ops 2 et Borderlands 2. Parmi les quatre de cette liste qui ont reçu une évaluation PEGI pour adultes, combien pourront être vendus sur le Windows Store ?

— Aucun.

Il y a certainement aujourd’hui de nombreuses personnes, si ce n’est la majorité, qui pensent que les jeux vidéo n’ont pas de vrai potentiel culturel. Ce ne sont pas des œuvres d’art diront certains, et ce n’est donc pas grave qu’une plateforme majeure interdise sa diffusion. Dans l’intérêt d’illustrer de manière plus étendue l’importance d’une plateforme ouverte , donnons à nos jeux un lifting culturel. Supposons que nous ayons d’un coup de baguette magique tout un lot de jeux équivalents aux meilleures séries nommées aux Emmies 2012 : Boardwalk Empire, Breaking Bad, Mad Men, Downton Abbey, Homeland et Game of Thrones.

Admettons que Downtown Abbey ait été le seul à franchir le test d’évaluation PEGI, mais même si les autres satisfaisaient plus ou moins les critères, ils auraient été exclus du magasin pour un tas d’autres raisons, telles que l’expose la section 3.5 :

Votre application ne devra pas proposer du contenu ou des fonctionnalités qui encouragent, facilitent ou glorifient des activités illégales.

Et section 5.6 :

Votre application ne devra pas proposer du contenu qui encourage, facilite, ou glorifie une utilisation excessive ou irresponsable d’alcool, de tabac, de drogues ou d’armes.

Ou section 5.8 :

Votre application ne devra pas contenir de propos blasphématoires outranciers.

Cette vision d’un futur Windows fortement censuré par Microsoft est effrayante. Mais quelles sont les risques que cela arrive ?

Pour Windows RT, la version de Windows pour les tablettes peu puissantes et les téléphones, ce futur commence le 26 octobre. Tous les appareils fonctionnant avec Windows RT ne pourront faire tourner que des logiciels venant du Windows Store, et tous les logiciels devront suivre les exigences de certification énoncées ci-dessus et des dizaines d’autres. Les utilisateurs de Windows RT n’auront pas dix ou vingt ans avant de ne plus pouvoir jouer aux jeux les plus populaires sur leurs machines. Ces jeux auront été bannis dès le premier jour.

Mais pour Windows 8 et Windows 8 Pro, les versions qui seront les plus répandues, le calendrier est encore incertain. Contrairement à Windows RT, ces versions incluent le bureau classique de Windows qui prend encore en charge la distribution ouverte. Est-il possible, alors, que les utilisateurs de la version bureau n’aient jamais à expérimenter ce futur ?

Une brève analyse de l’histoire de Microsoft suggère plutôt l’inverse.

Anatomie d’un changement de plateforme chez Microsoft

Dans la fin des années 1980 une bonne partie de l’informatique grand public utilisait déjà des interfaces graphiques. Des machines comme le Macintosh d’Apple, le Commodore d’Amiga et l’Atari ST ont eu un grand succès et chacune était livrée avec un système d’exploitation graphique moderne pré-installé. D’un autre côté, les PC tournaient essentiellement sous MS-DOS, un environnement en ligne de commande où les applications devaient implémenter leur propre interface rudimentaire.

Malgré cet inconvénient, le PC n’en était pas moins florissant. Comme c’était une plateforme matérielle ouverte et qu’elle avait été adoptée dans l’environnement professionnel, la plupart des logiciels de productivité de l’époque, comme Lotus 1-2-3 et WordPerfect – traitaient MS-DOS comme une plateforme commerciale majeure.

Puis, le 22 mai 1990, Microsoft sort Windows 3.0. Cette version de Windows peut faire quelque chose que les précédentes versions ne pouvaient pas : faire tourner des programmes MS-DOS en plus des applications graphiques natives. Pour la première fois, on pouvait faire tourner les applications de travail standards sans quitter une interface conviviale. L’interface graphique de Windows n’était peut-être pas aussi flashy que ce qui existait sur d’autres plateformes, mais cela offrait aux gens la possibilité de n’utiliser qu’un seul OS pour tout et c’est ce que les consommateurs voulaient. Le taux d’adoption monta en flèche.

Durant les cinq années suivantes, Microsoft continua à ajouter de nouvelles API à Windows. Bien que les gens aient continué à développer des programmes sous MS-DOS, il devint de plus en plus difficile de faire une application professionnelle qui n’intégrait pas des choses comme le gestionnaire de polices de Windows, les services d’impression, les boîtes de dialogue standard et les presse-papiers. Les clients s’attendaient à pouvoir utiliser ce genre de choses et les logiciels MS-DOS ne le pouvaient tout simplement pas.

La plupart des applications firent la transition vers des versions natives Windows ou disparurent, mais les jeux furent l’obstacle majeur. Ils vivaient et mouraient par la performance et ne pouvaient se permettre la surcharge induite par Windows. Mais finalement Microsoft trouva le moyen de leur fournir l’accès au hardware dont ils avaient besoin, et lentement mais sûrement les jeux natifs Windows devinrent de plus en plus communs. Lorsque Windows 2000 fut lancé le 17 février 2000, seulement dix ans après la sortie de Windows 3.0, faire tourner des programmes MS-DOS était passé du statut de principale caractéristique qui faisait de Windows ce qu’il était à un mode de compatibilité fermé destiné seulement à assurer le support des versions précédentes. MS-DOS en tant que plateforme et tous les programmes qui lui étaient liés sombrèrent dans l’obscurité.

Le 22 juillet 2009, pas loin de vingt ans après la sortie de Windows 3.0, Microsoft présenta la version de Windows la plus utilisée aujourd’hui, Windows 7 64-bits. Si vous essayez de lancer une application MS-DOS sur Windows 64 bits, vous aurez une boîte de dialogue qui dit :

win-alert.jpg

Vous pouvez toujours faire tourner ce programme, mais vous devrez installer une version 32 bits de Windows ou télécharger et installer un paquet Windows XP Mode sur le site de Microsoft.

Retour à 1990

La situation du PC en tant qu’objet informatique de consommation est très similaire aujourd’hui en 2012 à ce qu’elle était en 1990. Sur le PC, nous utilisons encore l’interface WIMP (Windows, Icônes, Menus, Pointeur) dont le standard s’est imposé depuis une trentaine d’années (seulement une vingtaine sur les seuls PC). Mais pour ce qui est de tous les autres appareils populaires aujourd’hui — les smartphones et les tablettes — les interfaces WIMP n’existent plus. Les systèmes d’exploitation comme iOS et Android ont remplacé le WIMP par des interfaces tactiles, exactement comme les Macintosh et Amiga ont fait disparaître la ligne de commande des interfaces utilisateurs dans les années 80.

Mais voilà que le 26 octobre, Microsoft va lancer son premier système d’exploitation tactile, Windows 8. Plutôt que d’abandonner carrément le WIMP, ils ont choisi de l’inclure comme sous-ensemble de leur nouvelle interface tactile. Tout comme l’interface de Windows 3.0 coexistait avec MS-DOS, la nouvelle interface de Windows 8 sera disponible avec un bureau traditionnel Windows 7.

Comme c’était déjà le cas pour Windows 3.0 et DOS, l’intégration d’une interface dans l’autre est tout à fait superficielle. Certaines parties sont bien intégrées mais la plupart ne le sont pas. Vous pouvez créer des tuiles dans la nouvelle interface utilisateur pour lancer des programmes dans l’ancienne, tout comme dans Windows 3.0 vous aviez des icônes qui permettaient de lancer des programmes sous DOS. Mais exactement comme les programmes DOS tournaient dans un conteneur spécial, et rendaient impossibles des opérations comme l’ouverture d’autres fenêtres, de boîtes de dialogue, l’usage de fontes différentes ou le transfert d’images vers le bureau, les applications de bureau classiques sont contingentées dans un conteneur spécial du bureau de Windows 8 et ne pourront accéder à la plupart des nouvelles fonctionnalités de nouvelle interface Windows 8.

Bref, le bureau sous Windows 8 en est au point où se trouvait MS-DOS sous Windows 3.0. Ce qui nous amène à la question cruciale?: si Microsoft est aussi attentif à la nouvelle interface utilisateur de Windows 8 qu’il l’a été à celle de Windows 3.0, à quoi va ressembler le support du bureau Windows classique à l’avenir ? Si vous pensez que l’histoire se répète, la réponse est sans ambiguïté : il sera relégué dans l’oubli d’ici dix ans et cessera d’exister dans vingt sauf si on assure la rétro-compatibilité manuellement.

Maintenant, nul ne peut prédire l’avenir avec certitude. Beaucoup d’entre vous ne sont probablement pas convaincus le moins du monde que l’avenir du bureau sera inspiré par une version plus élaborée et affinée de la nouvelle interface de Windows 8. Mais si vous jetez un coup d’œil en arrière vous prendrez conscience que beaucoup de gens pensaient exactement ainsi quand Windows 3.0 est sorti, j’espère que vous mesurez à quel point il est possible que nous soyons dans une situation similaire.

L’avenir mort-né de Windows 8

Pour les développeurs aujourd’hui, le monde de l’informatique de grande consommation avant l’arrivée de Windows 8 est un peu chaotique. Il y a iOS, une plateforme sur laquelle vous ne pouvez publier aucune application native sans la permission aléatoire et arbitraire d’Apple. Il y a Android, une plateforme agréablement ouverte mais qui est en proie à une gestion catastrophique des spécifications du matériel, qui manque d’implication pour le support de code natif et qui est menacée d’être sérieusement mise en péril par des poursuites judiciaires qui bloqueraient tout au nom des brevets logiciels. Et puis il y a les plateformes comme Blackberry, WebOS, Kindle Fire (basée sur Android) et Nook, qui sont encore en quête d’une adoption plus consistante par des utilisateurs.

Entre en scène Windows 8. Il est conçu pour une interaction tactile, a de spécifications matérielles bien définies, est doté d’une interface dont le code natif est bien documenté, peut être utilisé directement comme environnement de développement sans nécessiter de compilation sur un autre système — et oui, il est soutenu par une entreprise notoire pour sa sournoiserie, qui détient un portefeuille de brevets cinq fois plus épais que celui d’Apple. Donc si jamais Apple essayait d’entreprendre une action litigieuse contre Windows 8 similaire à celle qu’il a menée contre Android, nous verrions se déclencher en représailles un tir nourri de plaintes pour violation de brevets qui atteindrait un tel niveau que le chouette immeuble flambant neuf du quartier général d’Apple serait submergé par des tonnes de paperasses rédigées en une obscure langue juridique.

On en est aujourd’hui à un tel point de confusion dans le paysage du développement en informatique que cela pourrait effectivement être un pas en avant pour les développeurs. En supposant que le développement du nouvel écosystème de Windows 8 suivra les mêmes règles que le développement de l’ancien, n’importe quel développeur pourrait simplement installer Windows 8, développer des logiciels ciblant le marché du tactile, puis le distribuer gratuitement ou en le monnayant via son site web ou un distributeur tiers. Moins de prises de têtes avec la diversité des plateformes, pas d’exigences incertaines à satisfaire préalablement pour tester, pas de frais de développement bizarres ou de souscription obligatoire — et plus important encore, pas de puissance hégémonique d’Apple s’interposant entre les développeurs et leurs clients.

Mais voilà, il y a un petit problème. Microsoft a décidé de ne pas suivre, pour le nouvel écosystème de Windows 8, les mêmes règles qu’avec les éditions précédentes de Windows. À la différence de la transition entre MS-DOS et Windows 3.0, Microsoft ne prévoit pas d’étendre l’écosystème de Windows. Ils veulent lui faire prendre une tout autre voie.

Monopole

Le problème commence avec le Windows Store. Si le nom vous rappelle le App Store d’Apple, c’est parce qu’effectivement c’est l’App Store d’Apple. C’est une plateforme de distribution centralisée que Microsoft contrôle, qui permet aux utilisateurs finaux d’acheter des logiciels à partir d’un catalogue de titres explicitement approuvés par Microsoft.

Ce qui, en soi, pourrait ne pas être aussi mauvais. Il y a des arguments valables contre le fait que le propriétaires d’une plateforme contrôle le marketplace par défaut pour cette plateforme, mais si la plateforme permet aux personnes de développer et de distribuer des logiciels gratuitement en-dehors du marketplace, alors d’autres entreprises peuvent aussi bien contourner/se passer du/ le magasin. Les développeurs peuvent distribuer leurs logiciels par d’autres canaux, ou même fournir des magasins alternatifs, réduisant par une saine concurrence le danger d’abus ou d’obstruction de la part du propriétaire de la plateforme.

Toutefois, il est très clair en parcourant les publications de Microsoft sur Windows 8 que pour avoir le droit de bénéficier de la nouvelle interface utilisateur, vous devrez distribuer votre application dans le Windows Store. Cela veut dire qu’en octobre, Microsoft lui-même sera devenu l’unique source de logiciels pour tout ce que vous voudrez faire tourner sur une machine Windows qui ne serait pas relégué au vieil écosystème précédent. À la différence de la transition historique entre MS-DOS et l’interface utilisateur de Windows, et même si la précédente version restera probablement disponible, la nouvelle (celle de Windows 8) sera bel et bien fermée. Ce qui placera Microsoft dans une position de monopole totalement nouvelle : celle d’un distributeur exclusif de logiciels pour la majeure partie des ordinateurs du monde entier.

Maintenant, il existe apparemment un point qui fait controverse. Peut-être parce que Microsoft n’en a pas fait état de façon très importante dans ses communiqués de presse, certains doutent que pour distribuer des logiciels destinés à la nouvelle interface utilisateur, il faudra nécessairement que les développeurs obtiennent la permission de Microsoft. Mais ils ont tort. Afin de mettre les choses au clair une fois pour toutes, une analyse complète et des recherches approfondies sur les publications officielles de Microsoft sur le sujet figurent en annexe B de l’article d’origine. Il démontre qu’il n’y aura aucun moyen pour les développeurs de distribuer sur Internet des applications compatibles avec l’interface utilisateur moderne, sans avoir reçu une approbation explicite de la part de Microsoft.

Donc, en gardant cela à l’esprit, il est grand temps de se poser la question cruciale : si l’interface du nouveau Windows 8 en vient à remplacer complètement le bureau classique, et que Microsoft exerce désormais un contrôle total sur les logiciels qui seront autorisés ou non pour cette nouvelle interface, dans quelle mesure l’avenir de Windows sera-t-il spectaculairement affecté ? Est-ce que les jeux conçus pour les adultes seront les seules victimes de ce changement ou bien l’enjeu est-il beaucoup plus important ?

L’avenir pourrait être n’importe où

Bannir la plateforme de jeux la plus populaire du tout nouvel écosystème Windows 8 – qui est aussi le seul écosystème accessible aux utilisateurs de Windows RT – est l’une des conséquences négatives des directives de certification des applications par Microsoft. D’autres parties de ces directives auraient empêché l’existence de choses comme Flash, JavaScript et le Web dynamique, l’app store lui-même, s’ils n’existaient pas encore et donc d’être inclus à la plateforme de Microsoft elle-même. Il est donc clair que Microsoft s’est assuré que le nouvel écosystème Windows n’hébergerait jamais plus que les quelques applications que Microsoft considère comme importantes.

Mais simplement parce que Microsoft a fait un travail épouvantable en définissant les limites du nouvel écosystème, est-ce que cela signifie que la seule alternative est de réaliser un écosystème complètement ouvert ? Microsoft ne pourrait-il par définir de nouvelles et meilleures directives ?

La réponse étant pas tant qu’ils ne connaissent pas l’avenir. Et pas dans un sens général, mais littéralement le voir en pleine résolution/*lumière*/, et chaque détail avec clarté. En l’absence de telles prévisions idéales, comment une entreprise pourrait-elle dicter des règles pour des logiciels futurs sans interdire accidentellement des choses sur lesquelles de nouveaux logiciels révolutionnaires pourraient se fonder ?

La réalité est que même les entreprises les plus prospères sont rarement capables de prédire le futur avec précision. L’histoire de l’informatique regorge d’exemples. Digital Equipment Corporation, qui a été un certain temps la seconde plus grande entreprise d’informatique, n’a pas réussi à prévoir la révolution de l’informatique personnelle et son nom lui-même n’existe plus maintenant. Silicon Graphics, qui a été le leader du matériel d’imagerie 3D, n’a pas prévu la popularisation de ce matériel et à finalement été contraint de se déclarer en faillite.

Bien qu’étant très loin de connaître un sort aussi affreux, le passé de Microsoft montre qu’ils ne sont pas meilleurs prophètes. Bill Gates a ainsi déclaré à la fin des années 1990 :

« On se fait parfois surprendre. Par exemple, quand Internet est arrivé, c’était notre cinquième ou sixième priorité. »
– Bill Gates, lors d’un discours à l’Université de Washington en 1998

Et le changement de barreur sur le navire Microsoft n’a pas apporté d’amélioration :

« Il n’y a aucune chance que l’iPhone s’attribue une part de marché significative. Aucune chance. »
– Steve Ballmer, dans une entrevue avec USA Today en 2007, dans laquelle il a prédit que l’iPhone ne prendrait que « 2 ou 3% » du marché du smartphone.

Sans connaissance précise du futur, la seule manière d’éviter de bloquer l’innovation sans le vouloir est par définition de ne rien interdire de manière significative. Les seules exigences de certification que Microsoft pourrait choisir et qui soutiendraient complètement le futur seraient celles qui permettraient de certifier tout ce que des développeurs pourraient créer.

C’est la définition la plus épurée d’un écosystème ouvert.

Une maigre concession

Pour n’importe quel développeur désireux de créer le logiciel innovant du futur, il devrait être extrêmement clair que la nature fermée du nouvel écosystème de Windows 8 sera catastrophique pour la plateforme. La question ne se pose même pas, elle devrait être ouverte. Mais les développeurs ne sont pas les personnes chargées des politiques de Windows 8.

Donc la question plus pertinente pourrait être : est-ce que Microsoft peut se permettre de changer de cap et autoriser la distribution des applications Windows 8 par n’importe qui, et non pas seulement sur le Windows Store! ?

En prenant en compte le long terme, Microsoft ne peut pas se permettre de ne pas changer de cap. Ils sont déjà en retard sur tous les segments du marché de la consommation en-dehors du PC, par conséquent ils n’ont pas le droit à l’erreur. Si une nouvelle innovation logicielle arrive et considère qu’Android est sa plateforme primaire/de prédilection parce qu’elle a un système ouvert de distribution, cela pourrait facilement conduire à une nouvelle “décennie perdue” pour Microsoft, lorsqu’ils devront à nouveau rattraper leur retard.

Mais aujourd’hui les entreprises ne regardent généralement pas sur le long terme. Les profits à court terme et les besoins des actionnaires constituent des préoccupations immédiates et impératives ; et Microsoft est un compagnie notoire, contrainte par des nombreux intérêts externes. La question se pose donc en ces termes : l’entreprise Microsoft peut-elle autoriser un système de distribution ouvert avec Windows 8 sans nuire à son chiffre d’affaires ?

De manière surprenante, la réponse est qu’il y aura peu ou pas de pertes de revenus en autorisant un système ouvert de distribution dans Windows 8. Cela peut sembler absurde, mais si vous lisez attentivement les publications de Microsoft, vous verrez que c’est vrai. Bien que Microsoft ait fermé le système de distribution à l’intérieur du nouvel écosystème de Windows 8, ils n’ont pas fermé le système de paiement. Extrait de l’agrément développeur de Microsoft lui-même :

« En ce qui concerne le commerce d’applications. Vous pouvez choisir de proposer des options d’achat à l’intérieur même de votre application. Il n’est pas requis que vous utilisiez le moteur de commerce de Microsoft pour proposer ces achats. Si vous choisissez d’utiliser le moteur d’achat commercial de Microsoft, les achats seront soumis à l’Agrément/*, y compris, mais pas seulement, les frais de magasin et les exigences de licence et de transfert. »

Aussi étrange que cela puisse sembler, si un développeur propose une application limitée dans sa version gratuite sur le Windows Store, il pourrait alors vendre, directement dans l’application, une mise à niveau ou un déverrouillage vers la version complète pour laquelle il pourrait accepter un paiement direct. Ils n’ont pas besoin de verser 20 ou 30% de royalties comme c’est le cas avec une transaction sur le Windows Store. La seule chose qu’ils ne peuvent pas faire c’est utiliser un système de distribution non-Microsoft, tel que leur propre site web ou leur propre « boutique » en ligne.

Ainsi, il est presque impossible de concevoir une situation où Microsoft perdrait des revenus significatifs en ouvrant le système de distribution, puisqu’il a déjà ouvert le système de paiement, et que pratiquement tous les revenus proviennent du système de paiement. Le seul revenu que Microsoft continuera à obtenir du store pour une application qui n’utiliserait pas leur moteur de commerce serait les frais variables d’application, d’un montant de 100 $ par application (et non pas par achat). Le Windows Store devra perdre 10.000 – 20.000 applications avec la distribution ouverte chaque jour pour atteindre l’équivalent de 1% du revenu de Microsoft. Pour référence, l’app store le plus populaire au monde, celui d’Apple, en reçoit moins de 500 par jour.

De plus, le potentiel de migration des utilisateurs du Windows Store depuis Microsoft vers des fournisseurs tiers ne serait pas aussi important avec un système ouvert de distribution. N’importe quel utilisateur du Windows Store tel qu’il est actuellement décrit pourrait ouvrir un compte pour un autre système de paiement, pour une application qui proposerait l’achat en son sein. Une fois qu’il a décidé de créer un compte de ce type, rien ne l’empêche d’utiliser ce compte de façon triviale pour acheter n’importe quelle autre application qui serait disponible par le même processus de paiement. L’inertie de l’achat via un tiers n’est présente que la toute première fois qu’on l’utilise. Une distribution ouverte ne fonctionnerait pas différemment. Le Windows Store resterait la source par défaut des applications pour Windows 8, et c’est seulement quand l’utilisateur pourrait créer un compte pour une distribution externe que le Windows Store perdrait l’avantage de l’inertie.

Ainsi donc, Microsoft n’a quasiment aucun intérêt financier à ne pas autoriser un système ouvert de distribution. On peut supposer qu’il y a d’autres raisons sous-jacentes à leur décision de garder fermé le système de distribution. Est-ce pour limiter la menace de malware ? Est-ce pour prévenir le piratage ? Est-ce pour mieux gérer leur image de marque ? Tant que Microsoft ne sera pas explicite quant à ses objectifs, sa décision pourra être portée contre elle, nous pouvons seulement spéculer sur les motivations ; tous les autres candidats similaires proposent des solutions simples qui n’impliquent nullement une politique draconienne, comme forcer les utilisateurs à installer seulement des logiciels approuvés par Microsoft.

Et maintenant que fait-on ?

Les expériences sur les plateformes ouvertes sont l’une des sources premières d’innovation dans l’industrie informatique. Il n’y a pas deux manières de voir les choses. Les écosystèmes logiciels ouverts sont ce qui nous a donné la plupart des produits que nous utilisons aujourd’hui, qu’il s’agisse de logiciels d’entreprise tels que les feuilles de calculs, de logiciels de divertissement comme ceux de tir à la première personne, ou les paradigmes révolutionnaires qui changent le monde, comme le World Wide Web. Le monde sera bien meilleur pour tout le monde si ce type d’innovation continue.

Les développeurs, les consommateurs et même Microsoft devraient souhaiter que les vingt prochaines années ressemblent aux vingt dernières : année après année des nouvelles choses auparavant inimaginables, vous ont été apportées par des développeurs motivés et créatifs qui étaient libres d’aller là où leur vision les conduisait, sachant très bien que s’ils produisaient quelque chose de grand, il n’y aurait pas de barrière entre eux et la diffusion de leur création dans la monde entier.

Avec Windows 8, Microsoft est dans une position pivot pour aider à faire de ce futur une réalité. Ils pourraient devenir l’une des principales forces luttant pour permettre le développement pour tablette aussi ouvert que l’était le développement pour ordinateurs de bureau avec le Windows traditionnel. Ils pourraient prendre des parts de marché à l’iPad, complètement fermé (et totalement d hégémonique), et aider à restaurer dans ce domaine la liberté d’innover que les développeurs ont perdue lorsque Apple a imposé ses politiques restrictives.

Ou bien Microsoft peut lancer Windows RT, Windows 8 et Windows 8 Pro avec leur politiques actuellement en place, et se contenter d’être un autre acteur du marché de l’appareil tactile, avec leur propre jeu d’obstacles ridicules qui restreignent considérablement les possibilités de logiciel et font perdre leur temps aux développeurs avec leurs processus mal conçus de certification.

Pourquoi prendre ce risque ? Pourquoi pas ne pas se mettre en quatre pour fournir aux développeurs une plateforme ouverte, afin que tous et chacun d’entre eux ne soient pas seulement des soutiens, mais vraiment des personnes enthousiastes pour aider Windows à débarquer dans le monde des tablettes ?

Le succès de Windows 8 sur le marché des tablettes et des smartphones est loin, très loin d’être garanti. Est-ce que Microsoft veut véritablement se lancer dans la bataille sans l’appui de ses plus importants atouts ? Veulent-ils qu’une entreprise comme Valve, qui contrôle plus de 50% des ventes de jeux pour PC, décide de porter tout son effort vers Linux, compte-tenu que l’écosystème de Windows 8 interdit les plateformes de distribution tierces comme son fleuron Steam ? Veulent-ils vraiment que le lancement de Windows 8 soit pourri par une cascade de déclarations de développeurs de premier plan prenant position contre la nouvelle plateforme ? Et surtout, vont-ils délibérément courir le risque de s’attirer l’hostilité des développeurs au point de les voir promouvoir activement et développer leurs propres plateformes comme leur produit phare, puisque Windows ne leur offrira plus la liberté de développer et distribuer leurs logiciels à leur gré ?

Espérons, dans l’intérêt de tous, qu’ils prendront conscience que la seule réponse sensée à toutes ces questions est « NON ».

Crédit photo : Kiwi Flickr (Creative Commons By)