The future is open et c’est Google qui le dit

Il y a 3 ans nous traduisions un article issu du blog de Google et rédigé par l’un de ses hauts gradés Jonathan Rosenberg : The meaning of open. Il y expliquait pourquoi et comment la célèbre entreprise prônait l’ouverture à tous ses étages.

Le même auteur récidive ici en dépassant la problématique Google pour affirmer non sans un certain optimisme (à l’américaine) que c’est le futur tout entier qui est désormais ouvert et que c’est très bien comme ça.

Remarque 1 : Nous avons choisi de traduire tout du long « open » par « ouverture » ou « ouvert ». L’adéquation n’est pas totalement satisfaisante, mais laisser le terme d’origine en anglais eut été selon nous plus encore source de confusion.

Remarque 2 (troll et hors-sujet ?) : À comparer avec la situation française où l’on semble actuellement beaucoup plus préoccupé de savoir ce que nous prend ou nous donne l’État que de promouvoir ou pratiquer l’ouverture. Sans oublier, évidemment, la fameuse taxe Google qui « sauvera » la presse !

John Martinez Pavliga - CC by

Le futur est ouvert

The Future Is Open

Jonathan Rosenberg – octobre 2012 – ThinkWithGoogle.com
(Traduction Framalang : nobo, peupleLa, KoS, Smonff, ehsavoie, tibs, Louson, goofy, Khyvodul, Pandark, lgodard, Kiwileaks)

Il y a trois ans, Jonathan Rosenberg, alors vice-président délégué à la gestion de la production, a écrit un mémo (NdT : que nous avions traduit) expliquant pourquoi les entreprises ouvertes seraient les gagnantes du futur. Aujourd’hui, consultant au service du management, il a vu la réalité dépasser ses rêves les plus fous.

Il y a bientôt trois ans, en décembre, j’ai envoyé un courriel à mes chers collègues de Google, pour essayer de donner une définition claire d’un terme galvaudé : Ouvert. Je trouvais gênant qu’entre nos murs, il prenne différents sens selon les personnes, et que trop de Googlers ne comprennent pas l’engagement fondamental de l’entreprise pour ce qui est ouvert. En me référant à la fois aux technologies ouvertes et aux informations ouvertes, j’ai présenté la philosophie sous-jacente à notre volonté de transparence. Rechercher des systèmes ouverts, avais-je argumenté, nous a menés, et continuera de nous mener vers deux résultats souhaitables : Google devient meilleur, et le monde avec lui.

L’argument était convaincant, et plus tard, un billet sur le blog de Google , « The Meaning of Open », permit de clarifier encore plus ce concept parfois difficile à appréhender. Dans les semaines qui ont suivi, j’ai reçu des messages pleins de profondeur de la part d’un public divers et varié : enseignants ou écrivains qui appréciaient ce point de vue de l’intérieur de Google, chefs d’entreprise qui m’expliquaient comment l’ouverture avait influencé leurs affaires, étudiants surpris d’une position qui allait entièrement à l’encontre de la stratégie de fermeture qu’on leur avait enseignée. Trois ans ont passé, et ce qui me saute aux yeux dans ce manifeste c’est que… j’avais tort !

On ne peut pas dire que le développement ouvert n’ait pas fait progresser Google et le reste du monde. Seulement c’est arrivé beaucoup plus vite que je ne l’avais imaginé. C’est au beau milieu d’un des gestes les plus banals du vingt-et-unième siècle que j’en ai pris conscience : je vérifiais mon téléphone, un Droid Razr Maxx. Je fixais la chose, et j’en voyais toute la diversité : deux douzaines d’applications, du New York Times à Flipboard, de Dialer One à OpenTable, de RunKeeper à SlingPlayer, créées par un tas de développeurs différents, sur un téléphone conçu par Motorola. Il m’est apparu que ce que je regardais n’était pas simplement un appareil mobile, mais l’incarnation physique de la façon dont un écosystème ouvert peut se disséminer à travers le monde presque du jour au lendemain.

Sans aucun doute, j’ai toujours senti que cette idée tenait debout – mais je n’avais pas anticipé l’ampleur avec laquelle les règles du jeu entre les secteurs privés et publics allaient être réécrites. C’est la conséquence de trois tendances techniques qui ont évolué à une vitesse étonnante. Premièrement : Internet rend l’information plus libre et omniprésente que ce que j’aurais pu croire ; pratiquement tout ce qui se passait hors ligne est maintenant en ligne. Deuxièmement : ce qui était une vision du potentiel des mobiles est vraiment devenu réalité, puisque les machines sont devenues plus puissantes et plus rapides que prévu, facilitant une portée globale et une connectivité sans précédent. Troisièmement : l’informatique dans le nuage (NdT : Cloud computing) a permis une puissance de calcul infinie à la demande. Et nous sommes loin d’avoir fini. Alors même que j’écris ces lignes, Google Fiber s’apprête à déployer un service à un gigabit à Kansas City, indice que la connectivité est sur le point de franchir une nouvelle limite.

La conjonction de ces progrès techniques a un effet paradoxal : aussi nouveaux soient-ils, ils finissent par ramener les entreprises aux fondamentaux. La gamme et la qualité des produits sont maintenant les facteurs les plus importants pour déterminer le succès d’une entreprise. Historiquement, les entreprises pouvaient profiter d’une pénurie d’information, de connectivité ou de puissance de calcul pour attirer et conserver leurs clients et repousser les concurrents.

De nos jours, les clients peuvent prendre des décisions bien plus éclairées en accédant aux informations des autres consommateurs. En effet, ils renforcent mutuellement leur pouvoir de décision par leurs échanges via des sites comme Yelp et toute une flopée de réseaux sociaux. Une société ne peut plus complètement contrôler l’environnement de ses clients. Au moment où les frontières de la distribution se sont effondrées – pensez aux moyens de transports mondialisés et bon marché, pensez aux étalages infinis des détaillants en ligne – les consommateurs ont de plus en plus de contrôle par eux-mêmes. Avec ce nouveau paradigme, et des marchés toujours plus compétitifs, les sociétés n’ont plus d’autre choix que de se concentrer sur la qualité et les gammes de produits. Si elles ne le font pas, une autre le fera à leur place.

Avec autant de changements en si peu de temps la nécessité de l’ouverture s’est imposée comme une tactique commerciale décisive pour atteindre à la fois l’excellence et la déclinaison des produits. Ouvrir un produit à toute une armée de créatifs est le plus court chemin pour créer de l’innovation et de la diversité, puisque cela permet à chaque contributeur de se focaliser sur ce qu’il fait le mieux et que cela encourage les contributions d’un public le plus large possible.

Chrome et Android, qui ont tous deux décollé depuis que « The Meaning of Open » a été publié, illustrent parfaitement ce principe. Avec chacun d’eux, nous avons maintenu un seul objectif simple dès le début : rendre le produit aussi robuste que possible. Comme nous l’avons appris maintes et maintes fois, il n’y a pas de route plus rapide et plus fiable qu’une route ouverte : davantage de mains travaillant sur un même produit ne peuvent que l’améliorer. L’ouverture permet de prototyper un concept, ou de le tester dans ses toutes premières étapes. Qui plus est, les systèmes ouverts tolèrent mieux les défaillances – et attirent une communauté d’utilisateurs plus fidèles. Ils savent que la motivation première d’un système ouvert est l’excellence ; si la société essaie d’imposer un autre agenda, la communauté de développeurs le repérera immédiatement et se révoltera. En proposant un produit ouvert, la société renonce à la possibilité de faire autre chose que de le rendre meilleur pour l’utilisateur.

Les résultats parlent d’eux-mêmes. Si vous possédiez un smartphone en 2006, il y a des chances pour que « Blackberry » ou « Nokia » ait été inscrit dessus. Il y a encore trois ans, Android représentait à peine 5% du marché. Aujourd’hui nous avons dépassé les 51%, et il y a de fortes chances pour que votre smartphone ait été fabriqué par Samsung, HTC, Motorola ou un autre partenaire d’Android.

Android a même débarqué dans des secteurs que nous n’avions pas anticipés, tels que les téléviseurs, les voitures, les avions, et même les appareils domestiques. (Voyez Ouya, une nouvelle console de jeux vidéo basée sur Android. Sans un Android ouvert, ce genre d’innovation n’existerait pas). Il semble clair à présent que si vous vous investissez dans un système ouvert, vous vous engagez dans une compétition perpétuelle pour garder votre place d’innovateur principal.

La question de l’ouverture n’a pas été moins opérante pour le navigateur Chrome, qui s’est construit par dessus le projet open source Chromium. Aujourd’hui, Chrome est sept fois plus rapide qu’il ne l’était lorsqu’il a été lancé il y a à peine 4 ans, et le nouveau code est disponible pour le monde entier à mesure qu’il se développe. Travailler ainsi au grand jour rend plus difficile le fait d’avoir des agendas cachés ou quoi que ce soit de dissimulé ; faites mal les choses, et une communauté mondiale de développeurs vous repérera instantanément.

Faire de l’ouverture une tactique commerciale peut nécessiter de nouvelles compétences organisationnelles. La vitesse est primordiale, comme l’est la rigueur du processus de décision. Un écosystème ouvert encourage le bouillonnement d’idées. Or trouver de bonnes idées, c’est facile ; ce qui est difficile, c’est de choisir parmi elles. L’ouverture des données peut offrir un avantage concurrentiel important aux entreprises, mais seulement si elles sont correctement positionnées pour pouvoir en profiter. L’autre tactique — qui est notamment utilisée par Apple et nos équipes de recherche — est de garder le système plus fermé, et d’y exercer un contrôle total. Cette approche nécessite son propre jeu de compétences organisationnelles, au-delà de la vitesse d’exécution, puisque l’excellence du produit et son innovation prennent leur source uniquement en interne. Les deux approches peuvent évidemment toutes les deux réussir, mais selon notre expérience, quand il s’agit de construire une plateforme entière, l’ouverture est le chemin le plus sûr vers la réussite.

Heureusement, de plus en plus d’organisations perçoivent ce message. Dans Wikinomics, les auteurs Don Tapscott et Anthony D. Williams racontent l’histoire de Goldcorp, une entreprise de mines d’or de Toronto, qui semblait sur le déclin à la fin des années 90. Face à un marché en baisse, une foule de problèmes internes et ce qui semblait être un filon épuisé, le PDG Rob McEwen fit précisément l’inverse de ce que n’importe quel livre sur le business dirait : il commença par donner le peu que l’entreprise avait encore.

Plus exactement, il publia sur le site de l’entreprise 400 Mo d’informations concernant le site minier de 220 kilomètres carrés de Goldcorp. Plutôt que de conserver jalousement ses derniers lambeaux d’information propriétaire, il offrit un prix de 500,000$ à quiconque parviendrait à utiliser ces données, afin de trouver de l’or contenu dans le sol. Ce fut un énorme succès. Plus de 80% des cibles identifiées par le public donnèrent des quantités significatives d’or. Avec ce petit investissement initial, la société tira du sol l’équivalent plus de 3 milliards de dollars en or.

Évidemment, McEwen était seulement en train de s’accorder avec les principes profonds du mouvement open source. Dans les premiers jours confus de l’internet, une éthique d’universalité et d’égalitarisme s’était propagée. « Les jardins cernés de murs (NdT : Walled gardens), tout plaisants qu’ils soient, ne pourront jamais rivaliser en diversité, en richesse et en innovation avec le marché fou et palpitant du Web de l’autre côté du mur » a écrit Tim Berners-Lee, l’inventeur du World Wide Web. Google a toujours prospéré sur cette diversité, cette richesse et cette innovation. C’est ce qui nous a permis de lancer des créations comme Chrome et Android, et c’est ce qui a permis à une entreprise d’extraction vétuste d’éblouir le monde avec des succès similaires et pour des raisons similaires.

Aussi spectaculaire que soit l’histoire de Goldcorp, c’est seulement la partie émergée de l’iceberg. En effet, ce qui avait commencé comme un concept de geek au sein de communautés scientifiques s’est propagé dans tous les domaines, des affaires à la politique, de la santé à l’éducation et bien au-delà. Chez Google, nous envisageons un certain nombre de possibilités au-delà du secteur technique, où l’ouverture pourrait amener des progrès modestes et immenses à la fois.

L’éducation

De Stanford à la Corée, des universités et des enseignants du monde entier commencent à distribuer gratuitement des contenus éducatifs de très grande qualité sous licence libre. Qui plus est, des personnes vivant dans les endroits les plus reculés ont de plus en plus accès à ces contenus. La bande passante et la connectivité ont fait sauter de nombreuses barrières de la société en matière d’éducation.

Tout au bout d’un long chemin de terre à Bombay, un étudiant muni d’un téléphone peut maintenant suivre les cours du MIT au plus haut niveau. De façon tout aussi intéressante, ce même étudiant peut devenir professeur. Grâce à des organisations véritablement démocratiques, telles que la Khan Academy, une organisation à but non lucratif, qui propose en ligne plus de 3 000 cours en vidéo. Partout dans le monde des personnes peuvent à la fois disposer de et contribuer à une bibliothèque de ressources qui ne cesse de croître, depuis des leçons de physique jusqu’à des manuels de finance. Nous savons déjà à quel point l’éducation publique a transformé la société au cours du vingtième siècle. Les possibilités offertes par une éducation ouverte et en ligne semblent tout aussi illimitées.

Les gouvernements

Prétendre à la transparence gouvernementale est une chose mais des exemples comme celui du Canada avec sa Déclaration officielle de Gouvernement Ouvert, en sont une autre. Ce document reconnaît l’ouverture comme un état actif et non passif : il ne s’agit pas seulement de donner aux citoyens un libre accès aux données chaque fois que possible, mais bien de définir une « culture active de l’engagement » comme finalité de ces mesures.

Tandis que toujours plus de villes, de régions et de gouvernements fédéraux avancent dans cette direction, il y a tout lieu de croire que cela finira par payer financièrement (au moment où les données GPS ont été mises en libre accès public à la fin des années 80, par exemple, on estime que les services commerciaux qui en ont tiré parti ont contribué à hauteur de 67.6 milliards de dollars à la valeur économique des États-Unis). À l’inverse, on pourrait dire que lorsque le régime égyptien a verrouillé Internet en janvier 2011, cela a poussé les citoyens à descendre dans la rue pour avoir plus d’informations, et à venir grossir les foules de la place Tahrir. Il est ici probable que le retour à un système plus fermé ait accéléré la chute du gouvernement.

Le système de santé

PatientsLikeMe est un site de réseautage social de santé construit sur des bases de données ouvertes du Département de la Santé des États-Unis. Il ouvre la voie à d’autres initiatives, comme procurer aux patients des moyens de partager des informations et d’apprendre entre personnes souffrant de symptômes similaires. Les chercheurs pourraient également tirer profit de plus d’ouverture dans l’industrie.

L’ouverture des données sur la santé pourrait permettre à des études épidémiologiques à grande échelle de réaliser des percées importantes tout en mettant en place des garde-fous plus forts que jamais pour assurer au patient le respect de la confidentialité. En mettant à la disposition des chercheurs son registre des malformations congénitales, la Californie a permis aux médecins d’accéder à une mine d’informations relatives à l’impact des facteurs environnementaux sur la santé. Et bien sûr, Google Flu Trends a déjà prouvé sa pertinence pour analyser et prévoir l’arrivée d’un virus particulier, tout simplement en permettant que l’information soit partagée et rassemblée.

La science

Chercheurs, institutions, et agences de financement du monde entier commencent à prendre conscience qu’un meilleur partage et une meilleure collaboration sur les résultats de recherches scientifique peuvent mener à des recherches plus rapides, plus efficaces, de meilleure qualité et d’un meilleur impact général. En tant que commissaire européen, Neelie Kroes faisait récemment remarquer dans un discours sur la science et les politiques du libre en Europe, « les chercheurs, les ingénieurs et les petites entreprises ont besoin d’accéder aux résultats scientifiques rapidement et facilement. Si ce n’est pas possible, c’est mauvais pour les affaires ».

Un meilleur accès aux recherches scientifiques peut stimuler l’innovation dans le secteur privé et aider à résoudre des défis importants auxquels le monde doit faire face (les Google ‘Fusion Tables sont un outil que les scientifiques peuvent utiliser pour partager et collaborer sur des ensembles de donnés disparates). Pendant ce temps, l’ouverture dans le domaine scientifique signifie l’ouverture à de tout nouveaux participants. Après avoir échoué pendant plus d’une décennie à résoudre la structure d’une enzyme protéase provenant d’un virus ressemblant au SIDA, les scientifiques ont proposé le défi à la communauté des joueurs. En utilisant le jeu en ligne Foldit, les joueurs ont pu résoudre ce problème en trois semaines.

Les transports

En libérant les données des transports publics, les gouvernements permettent aux entrepreneurs de créer des applications basées sur ces données, et ainsi d’améliorer l’expérience des citoyens ; ces derniers peuvent également utiliser ces données ouvertes pour signaler des problèmes d’infrastructure. Chez Google, nous avons déjà pu observer comment cela fonctionne. Lorsque nous avons commencé à organiser les informations géographiques mondiales, nous avons constaté que, pour de nombreux endroits, il n’existait tout simplement pas de carte correcte. Nous avons donc créé MapMaker, un outil de cartographie participative qui permet à chacun de créer des annotations sur Google Maps. C’est avec cela qu’un réseau de citoyens cartographes est né, traçant en deux mois plus de 25 000 kilomètres de routes précédemment non cartographiées au Pakistan.

Les tendances technologiques convergentes sont maintenant sur le point de modifier, en fait elles ont déjà commencé à le faire, les domaines historiquement fermés, secrets et dormants. « L’avenir des gouvernements, c’est la transparence,» écrivais-je il y a un an, «L’avenir du commerce, c’est la symétrie de l’information. L’avenir de la culture, c’est la liberté. L’avenir de la science et de la médecine, c’est la collaboration. L’avenir du divertissement, c’est la participation. Chacun de ces avenirs dépend d’un Internet ouvert. »

Je mettrais juste un bémol. Étant donnés les changements radicaux auxquels nous avons assisté ces trois dernières années, le défi s’est déplacé. Nous devons viser plus loin même que l’Internet ouvert. Les institutions dans leur ensemble doivent continuer à adhérer à cette philosophie. Atteindre ces futurs objectifs ne sera pas chose facile. Mais je suis content de pouvoir dire que nous en sommes plus proches que jamais.

Crédit photo : John Martinez Pavliga (Creative Commons By)




Trop bling-bling ! Critique commune d’Unity d’Ubuntu et Metro de Windows 8

S’en prendre conjointement à GNU/Linux et Microsoft, il fallait oser ! Mais en fait cela se tient et mérite peut-être débat.

Soyons plus précis. L’auteur jette ici son dévolu sur les deux nouvelles interfaces graphiques utilisateurs de l’actuelle distribution Ubuntu et de la prochaine version de Windows, à savoir respectivement Unity et Metro.

Il les met dans le même sac et y voit un changement poussé par les mêmes logiques. Un changement mais pas forcément une amélioration, surtout si l’on utilise son ordinateur pour travailler et non facebooker

Nous avions cru comprendre que le fameux « Internet 2.0 » avait fait sauter la barrière entre les consommateurs et producteurs de contenus. Est-il possible ici qu’on les sépare à nouveau ?

LGEPR - CC by

Metro et Unity sont des adolescentes aux cheveux fluos

Metro and Unity Are Teenage Girls With Fluorescent Hair

Jeremy Morgan – 23 octobre 2012 – Blog personnel
(Traduction : Yuston, ehsavoie, Thomas Dutrion, tibs, Evpok, M0tty, goofy, Maïeul, Oliv, lgodard, Kronos, peupleLa, Gaëtan)

Vous vous souvenez de ces filles ni spécialement horribles, ni particulièrement attirantes, qui voulaient être le centre de toutes les attentions ? Elles faisaient des trucs fous comme se colorer les cheveux avec des couleurs criardes et portaient des piercings partout. Elles avaient souvent beaucoup de qualités mais ne le savaient pas. Ces filles pensaient qu’elles n’avaient rien de mieux à offrir, alors elles se promenaient avec des styles provocateurs pour attirer l’attention.

Voilà précisément pourquoi je pense que Microsoft et Ubuntu imposent leurs récentes modifications de l’interface graphique malgré les retours négatifs des utilisateurs. Ce besoin pressant d’apparaître différent et d’attirer l’attention va bien au-delà de la nécessité de satisfaire leurs utilisateurs.

Que ce soit parce que notre durée d’attention est beaucoup plus courte ou parce que les systèmes d’exploitation ont perdu de leur intérêt, le changement pour le changement semble être devenu la règle du jeu. Canonical et Microsoft secouent tout pour faire différent. Pas meilleur mais différent.

Metro et Unity : vous vous y ferez

L’interface Unity fut introduite avec la version 11.04 d’Ubuntu Linux, celle de Metro sera livrée avec Windows 8 et il semble bien que toutes deux suscitent la même réaction. Toutes les deux apportent des modifications radicales de l’interface utilisateur qui arrivent pour une bonne raison : le monde s’éloigne des ordinateurs de bureau. Le monde devient mobile, c’est incontestable.

Mais plusieurs d’entre nous, assez fous pour continuer à préférer un ordinateur de bureau ou un portable (ceux qui permettent de travailler vraiment) détestent ces interfaces. Si vous utilisez une tablette pour regarder des vidéos ou jouer à Angry Birds ça va. Si vous êtes architecte, infographiste, développeur de logiciel, animateur 3D ou quelque chose du genre, vous haïssez probablement ces nouvelles interfaces.

La réponse des deux camps est la même : l’avenir est déjà là alors autant vous faire à ces changements. Vous êtes libres de remplacer le bureau Ubuntu par l’une des nombreuses alternatives, et Windows 8 a un mode bureau mais il est radicalement différent. Que vous l’aimiez ou non le standard est défini et les plaintes tombent dans l’oreille d’un sourd.

Pourquoi tous ces changements ?

Demandez à n’importe qui chez Microsoft ou Canonical pourquoi ils changent nos repères et ils avanceront probablement des arguments marketing sur les tendances émergentes et la nécessité d’aller de l’avant et autres non-sens. Je pense que la vraie raison pour laquelle ils ont fait ces changements et les verrouillent est extrêmement simple : parce que c’est nouveau. C’est changer simplement pour le plaisir de changer parce que le bureau classique n’a pas changé depuis bien longtemps.

Le bouton Démarrer a toujours été présent depuis la sortie de Windows 95, Gnome et KDE sont apparus en 1997. Depuis cette époque, nous avons fait beaucoup de modifications et bien sûr d’améliorations, mais avec du recul, elles se ressemblent toutes. Des fenêtres, des menus, des messages similaires, et ce depuis la moitié des années 90. Vous voyez le problème ?

Ils ont seulement besoin de faire évoluer l’apparence. Les fonctionnalités d’un système d’exploitation ne changent pas radicalement avec le temps, si vous voulez restez dans le coup avec des cycles de renouvellement technologique rapides, vous devez faire bouger les choses. Vous devez être innovant, pas forcément meilleur. Eh vous avez vu ? — nous n’avons plus de bouton Démarrer.

Qu’est ce qui se cache derrière ?

Vous pouvez donc vous demander : sont-ils juste en train de mettre du rouge à lèvre à un cochon ? La réponse pour les deux systèmes est non. En réalité, ils sont tous les deux meilleurs que ce qu’ils n’ont jamais été.

Ubuntu Linux est un système d’exploitation de premier ordre qui devient plus rapide, plus stable et qui prend en charge plus de matériel que jamais. La pile logicielle est super, la gestion des paquets et la sécurité… tout cela est hautement apprécié.

Windows 8 a également été remanié et cela pourrait bien être leur meilleur système d’exploitation à ce jour. Des avancées technologiques comme l’UEFI ont été introduites : un pré-système d’exploitation, le diagnostic à distance, une option « live USB », un temps de démarrage plus rapide et le support de l’USB 3.0, pour n’en citer que quelques unes. Il y a eu des améliorations au niveau du noyau et d’autres modifications qui le font tourner plus vite que Windows7 sur le même matériel. Du point de vue technique, il n’est pas à la traîne.

Ces deux systèmes d’exploitation sont au top de leur niveau, alors pourquoi développer ces interfaces flashy pour attirer l’attention ? Pourquoi ne peuvent-ils pas vendre ces systèmes d’exploitation en mettant en avant leurs propres mérites ?

Parce que plus personne ne se soucie de ces trucs-là.

La cible marketing

En tant qu’utilisateur régulier d’Ubuntu, j’aime bien lancer une petite pique par-ci par-là à Jono Bacon et sa bande, surtout lorsqu’on en vient à Unity. Je l’ai déjà dit et je le redirai : si je veux un système Ubuntu vraiment stable, j’utilise la version 10.04 et lui compile un noyau 3.6. Ça marche, tout simplement, et l’interface est facile à utiliser pour ceux qui en ont besoin. Pour mon usage, Ubuntu a atteint un sommet à la version 10.04, et moi, comme d’autres, l’avons fait savoir.

La réponse qu’on me ressort tout le temps : « tu n’es pas notre cible de toute façon ». Je le comprends et je sais que c’est vrai. Canonical ne cible plus les hackers maintenant, et Microsoft ne l’a jamais fait. Ils veulent tous les deux répondre à l’appel du marché grand public.

Quand les versions bêta d’Unity et Metro sont sorties, les hackers ont été les premiers à s’en plaindre bruyamment, mais ils ont été ignorés. Mais le plus gros problème que je vois, c’est que pratiquement tous les utilisateurs semblent les détester.

Vous ciblez Monsieur Tout-le-monde, mais c’est ça le problème : Monsieur Tout-le-monde s’adapte encore moins facilement à des interfaces déroutantes. Un geek va faire de son mieux pour apprendre quelque chose de nouveau mais si un utilisateur moyen est dérouté par une interface, il va simplement l’éviter.

Le client a toujours raison, mais on s’en fiche

Unity est sorti depuis un moment maintenant, et il y a certainement des personnes qui s’y sont habituées, et d’autres qui vont même jusqu’à le préfèrer. Quoi qu’il en soit, la plupart des personnes avec qui j’en ai parlé et 90% des commentaires que j’ai vus sur Internet suggèrent que Unity est un flop. Windows 8 n’est pas en test depuis suffisamment longtemps mais j’ai pu voir que ça partait déjà dans la même direction.

Allez vous donc rester sur votre mauvaise décision même si votre public ne l’aime pas ? Dans le cas de Canonical/Ubuntu la réponse est oui. Il semblerait que Microsoft suive le même chemin. Ils ont tous les deux une position similaire : on sait ce qui est bon pour vous et on va vous forcer à l’utiliser. Si vous ne l’aimez pas, vous allez vous habituer à l’utiliser. Ne soyez pas effrayé par le changement, ne vivez pas dans le passé.

Cette attitude arrogante est partagée par les deux camps, et c’est un pari énorme d’abandonner certains bons concepts et bonnes expériences utilisateur connues dans le but de faire différent.

Conclusion

Si vous lisez ce blog, il y a de fortes chances que vous ne correspondiez pas au type d’utilisateur que souhaitent Microsoft ou Canonical. Ils mettent en place une nouvelle interface tape-à-l’œil pour ce nouveau type d’utilisateurs. Ils veulent des gens qui consomment du contenu, pas des gens qui en produisent. La raison en est assez évidente : il y a beaucoup plus de consommateurs que de producteurs de contenus. Si vous produisez quelque chose, le système d’exploitation sera simplement un outil pour faire démarrer votre ordinateur et fonctionner votre programme. Vous n’avez pas besoin de plus, et mettre à jour tout votre système tous les ans deviendrait bête et inutile.

Si vous êtes un consommateur, vous voulez des mises à jour même si elles ne veulent pas vraiment dire grand-chose. S’ils fournissent une espèce de nouvelle fonctionnalité pour votre appareil, vous installerez joyeusement un nouveau système d’exploitation tous les six mois. Vous voulez du neuf et du tape-à-l’œil, pas du vieux et terne. Vous voulez qu’on puisse voir à dix mètres de distance que votre système est différent des autres. Si vous voulez de la stabilité et des recettes qui ont fait leurs preuves, vous prendrez un produit Apple. Voilà exactement sur quoi comptent Microsoft comme Canonical, et ils vont parier leur avenir là-dessus.

GrowDigital - CC by

Crédit photos : LGEPR et GrowDigital (Creative Commons By)




Windows 8, faux progrès et vraie menace

Windows 8, le nouveau système d’exploitation de Microsoft, qui sera le même pour PC, tablette et smartphone, devrait être lancé officiellement le 26 octobre, et on peut compter sur le puissant marketing de la multinationale pour nous abreuver d’images cool, avec des doigts qui caressent une interface tactile en tuiles sur un bureau attrayant. C’est certain, l’interface entièrement rénovée sera plus au goût du jour, maintenant que la vaste diffusion des appareils mobiles nous a accoutumés à d’autres gestes que cliquer sur des icônes…

Le libristes habitués aux versions successives plus ou moins buguées de Windows (et celle-ci promet déjà de l’être) hausseront sans doute les épaules et retourneront à leur Debian. Ils auront peut-être tort si l’on en croit Casey Muratori, qui se demande si l’impact du nouveau système ne pourrait pas être aussi décisif pour l’informatique grand public que la sortie de Windows 3.0.

En effet, derrière ce qu’on ne manquera pas de nous vendre comme un progrès, c’est une véritable régression qui va s’opérer : tous les logiciels qui tourneront avec le nouveau système devront passer obligatoirement par le Windows Store, Microsoft exercera donc un contrôle total sur son écosystème logiciel.

De plus, la compatibilité maintenue de l’ancienne interface avec la nouvelle, si elle semble assurée dans une première étape, pourrait à terme en signer la disparition pure et simple, comme le souligne l’auteur de l’article ci-dessous, qui établit judicieusement un rappel historique : souvenez-vous de la manière dont MS-DOS a progressivement été effacé du paysage après une brève période de coexistence avec Windows 3.0. Euh oui ça ne rappellera rien aux plus jeunes, mais prendre un peu de recul est ici pertinent.

La menace de Windows 8 c’est d’abord d’imposer un système fermé à tous les développeurs et bien sûr à tous les consommateurs. Mais Casey Muratori se demande in fine si la première victime ne sera pas Microsoft lui-même, tant le virage stratégique qu’il opère risque de lui coûter ses principaux soutiens. La bataille des systèmes d’exploitation est engagée, qui en sortira indemne ?

Remarque : Nous n’avons pas traduit les deux appendices qui figurent en bas de l’article d’origine mais nous serions ravis de trouver des volontaires prêts à compléter cela avec nous sur le framapad de travail.

Kiwi Flickr - CC by

Les vingt ans à venir

The Next Twenty Years

Casey Muratori – 8 octobre 2012 – MollyRocket.com
(Traduction : Genevois, Maïeul, KoS, BlackEco, mib_6025, Geekandco, FredB, goofy, Quentin)

Voici pourquoi le modèle de distribution fermé de Windows 8 doit être remis en cause dans l’intérêt des développeurs, des consommateurs et même de Microsoft lui-même.

Pour la première fois dans l’histoire du PC, Microsoft s’apprête à diffuser un nouvel écosystème Windows dont il sera le seul et unique fournisseur de logiciels. Si vous achetez Windows 8, le seul endroit où vous pourrez télécharger des logiciels qui s’intègreront à la nouvelle interface de système, ce sera le Windows Store officiel. Microsoft exercera un contrôle total sur les logiciels autorisés ou non sur son système d’exploitation.

Microsoft a déclaré que les applications destinées à l’interface plus ancienne du bureau ne seraient pas impactées par cette nouvelle politique. Tant qu’ils utiliseront seulement des applications qui tournent sur le bureau classique, les utilisateurs auront encore la possibilité d’acheter, vendre, développer et distribuer des logiciels sans que Microsoft ne s’en mêle. Beaucoup d’utilisateurs de Windows ont compris cette déclaration comme une assurance que le modèle ouvert de distribution dont ils bénéficient aujourd’hui serait encore valide dans les futures versions de Windows. Du coup beaucoup moins de gens ont réagi au problème posé par Windows 8 que si la déclaration avait été comprise différemment.

Mais est-ce bien réaliste de croire que l’ordinateur de bureau sous Windows sera encore une plateforme informatique utilisable à l’avenir ? Et quelles en seraient les conséquences si elle venait à disparaître, laissant les utilisateurs de Windows avec pour toute ressource l’écosystème cadenassé de logiciels introduit par Windows 8 ? Pour répondre à ces questions, cette édition de Critical Detail examine les effets à court et à long terme des exigences imposées par Microsoft pour obtenir sa certification. Nous explorerons en profondeur comment l’histoire permet de prédire la durée de vie du PC classique sous Windows, nous aborderons de façon pragmatique cette question : vaut-il mieux pour Microsoft en tant qu’entreprise qu’elle adopte un écosystème ouvert ou fermé ?

Le Jeu de l’Année 2032

Selon PC Gamer Magazine, et de nombreuses autres sources en accord, le jeu PC de l’année 2011 était Skyrim : Elder Scrolls V. Ce constat n’a étonné personne. Skyrim pour PC a été rendu disponible sur Windows, pas MS-DOS. Même si les développeurs le voulaient, il leur était impossible de mettre à disposition un jeu PC comme Skyrim sur DOS car aucune des innovations graphiques des 15 dernières années n’est disponible sur celui-ci. Il est même absurde de penser pouvoir vendre des applications tournant sous MS-DOS aujourd’hui.

Hypothétiquement, on peut penser autant absurde dans 20 ans de vendre des applications pour la version bureau de Windows. Il n’y aura pas de jeux vidéo PC en 2032 comme il n’y a pas de jeux sous DOS en 2012. Tout fonctionnera sous une forme redéfinie pour l’interface moderne de Windows 8.

Puisque aucune application pour cette plateforme à venir ne pourra être vendue sans passer par le Windows Store, l’équipe ayant travaillé sur Skyrim devra envoyer son application à Microsoft pour validation. C’est ensuite la firme qui jugera de la validité de l’application et de la possibilité de la vendre. Savez-vous ce que pourrait être la réponse de Microsoft ?

Moi oui. Ce serait « non ».

Ce n’est pas une spéculation, c’est une certitude. Skyrim est un jeu pour adultes. Il est certifié PEGI 18. Si vous lisez les conditions de certification Windows 8 App, vous trouverez à la section 5.1 :

Votre application ne doit pas proposer de contenu pour adulte, et les metadatas doivent être appropriés à chacun. Les applications avec une évaluation PEGI 16, ESRB ADULTE, ou qui proposent du contenu pouvant nécessiter une telle évaluation ne sont pas autorisées.

Et c’est plié. Pas de Skyrim sur le Windows Store, à moins que les développeurs ne reviennent en arrière et retirent le contenu classé PEGI-18.

C’est le Jeu de l’Année 2011, banni du Windows Store. Et à propos de 2012 ? Avec de nombreux jeux très attendus à venir, personne ne peut deviner lesquels seront sélectionnés. Mais une sélection aléatoire des prédictions actuelles que l’on retrouve sur la toile suggère comme principaux prétendants Max Payne 3, The Witcher 2, Mass Effect 3, Assassins Creed 3, Call of Duty: Black Ops 2 et Borderlands 2. Parmi les quatre de cette liste qui ont reçu une évaluation PEGI pour adultes, combien pourront être vendus sur le Windows Store ?

— Aucun.

Il y a certainement aujourd’hui de nombreuses personnes, si ce n’est la majorité, qui pensent que les jeux vidéo n’ont pas de vrai potentiel culturel. Ce ne sont pas des œuvres d’art diront certains, et ce n’est donc pas grave qu’une plateforme majeure interdise sa diffusion. Dans l’intérêt d’illustrer de manière plus étendue l’importance d’une plateforme ouverte , donnons à nos jeux un lifting culturel. Supposons que nous ayons d’un coup de baguette magique tout un lot de jeux équivalents aux meilleures séries nommées aux Emmies 2012 : Boardwalk Empire, Breaking Bad, Mad Men, Downton Abbey, Homeland et Game of Thrones.

Admettons que Downtown Abbey ait été le seul à franchir le test d’évaluation PEGI, mais même si les autres satisfaisaient plus ou moins les critères, ils auraient été exclus du magasin pour un tas d’autres raisons, telles que l’expose la section 3.5 :

Votre application ne devra pas proposer du contenu ou des fonctionnalités qui encouragent, facilitent ou glorifient des activités illégales.

Et section 5.6 :

Votre application ne devra pas proposer du contenu qui encourage, facilite, ou glorifie une utilisation excessive ou irresponsable d’alcool, de tabac, de drogues ou d’armes.

Ou section 5.8 :

Votre application ne devra pas contenir de propos blasphématoires outranciers.

Cette vision d’un futur Windows fortement censuré par Microsoft est effrayante. Mais quelles sont les risques que cela arrive ?

Pour Windows RT, la version de Windows pour les tablettes peu puissantes et les téléphones, ce futur commence le 26 octobre. Tous les appareils fonctionnant avec Windows RT ne pourront faire tourner que des logiciels venant du Windows Store, et tous les logiciels devront suivre les exigences de certification énoncées ci-dessus et des dizaines d’autres. Les utilisateurs de Windows RT n’auront pas dix ou vingt ans avant de ne plus pouvoir jouer aux jeux les plus populaires sur leurs machines. Ces jeux auront été bannis dès le premier jour.

Mais pour Windows 8 et Windows 8 Pro, les versions qui seront les plus répandues, le calendrier est encore incertain. Contrairement à Windows RT, ces versions incluent le bureau classique de Windows qui prend encore en charge la distribution ouverte. Est-il possible, alors, que les utilisateurs de la version bureau n’aient jamais à expérimenter ce futur ?

Une brève analyse de l’histoire de Microsoft suggère plutôt l’inverse.

Anatomie d’un changement de plateforme chez Microsoft

Dans la fin des années 1980 une bonne partie de l’informatique grand public utilisait déjà des interfaces graphiques. Des machines comme le Macintosh d’Apple, le Commodore d’Amiga et l’Atari ST ont eu un grand succès et chacune était livrée avec un système d’exploitation graphique moderne pré-installé. D’un autre côté, les PC tournaient essentiellement sous MS-DOS, un environnement en ligne de commande où les applications devaient implémenter leur propre interface rudimentaire.

Malgré cet inconvénient, le PC n’en était pas moins florissant. Comme c’était une plateforme matérielle ouverte et qu’elle avait été adoptée dans l’environnement professionnel, la plupart des logiciels de productivité de l’époque, comme Lotus 1-2-3 et WordPerfect – traitaient MS-DOS comme une plateforme commerciale majeure.

Puis, le 22 mai 1990, Microsoft sort Windows 3.0. Cette version de Windows peut faire quelque chose que les précédentes versions ne pouvaient pas : faire tourner des programmes MS-DOS en plus des applications graphiques natives. Pour la première fois, on pouvait faire tourner les applications de travail standards sans quitter une interface conviviale. L’interface graphique de Windows n’était peut-être pas aussi flashy que ce qui existait sur d’autres plateformes, mais cela offrait aux gens la possibilité de n’utiliser qu’un seul OS pour tout et c’est ce que les consommateurs voulaient. Le taux d’adoption monta en flèche.

Durant les cinq années suivantes, Microsoft continua à ajouter de nouvelles API à Windows. Bien que les gens aient continué à développer des programmes sous MS-DOS, il devint de plus en plus difficile de faire une application professionnelle qui n’intégrait pas des choses comme le gestionnaire de polices de Windows, les services d’impression, les boîtes de dialogue standard et les presse-papiers. Les clients s’attendaient à pouvoir utiliser ce genre de choses et les logiciels MS-DOS ne le pouvaient tout simplement pas.

La plupart des applications firent la transition vers des versions natives Windows ou disparurent, mais les jeux furent l’obstacle majeur. Ils vivaient et mouraient par la performance et ne pouvaient se permettre la surcharge induite par Windows. Mais finalement Microsoft trouva le moyen de leur fournir l’accès au hardware dont ils avaient besoin, et lentement mais sûrement les jeux natifs Windows devinrent de plus en plus communs. Lorsque Windows 2000 fut lancé le 17 février 2000, seulement dix ans après la sortie de Windows 3.0, faire tourner des programmes MS-DOS était passé du statut de principale caractéristique qui faisait de Windows ce qu’il était à un mode de compatibilité fermé destiné seulement à assurer le support des versions précédentes. MS-DOS en tant que plateforme et tous les programmes qui lui étaient liés sombrèrent dans l’obscurité.

Le 22 juillet 2009, pas loin de vingt ans après la sortie de Windows 3.0, Microsoft présenta la version de Windows la plus utilisée aujourd’hui, Windows 7 64-bits. Si vous essayez de lancer une application MS-DOS sur Windows 64 bits, vous aurez une boîte de dialogue qui dit :

win-alert.jpg

Vous pouvez toujours faire tourner ce programme, mais vous devrez installer une version 32 bits de Windows ou télécharger et installer un paquet Windows XP Mode sur le site de Microsoft.

Retour à 1990

La situation du PC en tant qu’objet informatique de consommation est très similaire aujourd’hui en 2012 à ce qu’elle était en 1990. Sur le PC, nous utilisons encore l’interface WIMP (Windows, Icônes, Menus, Pointeur) dont le standard s’est imposé depuis une trentaine d’années (seulement une vingtaine sur les seuls PC). Mais pour ce qui est de tous les autres appareils populaires aujourd’hui — les smartphones et les tablettes — les interfaces WIMP n’existent plus. Les systèmes d’exploitation comme iOS et Android ont remplacé le WIMP par des interfaces tactiles, exactement comme les Macintosh et Amiga ont fait disparaître la ligne de commande des interfaces utilisateurs dans les années 80.

Mais voilà que le 26 octobre, Microsoft va lancer son premier système d’exploitation tactile, Windows 8. Plutôt que d’abandonner carrément le WIMP, ils ont choisi de l’inclure comme sous-ensemble de leur nouvelle interface tactile. Tout comme l’interface de Windows 3.0 coexistait avec MS-DOS, la nouvelle interface de Windows 8 sera disponible avec un bureau traditionnel Windows 7.

Comme c’était déjà le cas pour Windows 3.0 et DOS, l’intégration d’une interface dans l’autre est tout à fait superficielle. Certaines parties sont bien intégrées mais la plupart ne le sont pas. Vous pouvez créer des tuiles dans la nouvelle interface utilisateur pour lancer des programmes dans l’ancienne, tout comme dans Windows 3.0 vous aviez des icônes qui permettaient de lancer des programmes sous DOS. Mais exactement comme les programmes DOS tournaient dans un conteneur spécial, et rendaient impossibles des opérations comme l’ouverture d’autres fenêtres, de boîtes de dialogue, l’usage de fontes différentes ou le transfert d’images vers le bureau, les applications de bureau classiques sont contingentées dans un conteneur spécial du bureau de Windows 8 et ne pourront accéder à la plupart des nouvelles fonctionnalités de nouvelle interface Windows 8.

Bref, le bureau sous Windows 8 en est au point où se trouvait MS-DOS sous Windows 3.0. Ce qui nous amène à la question cruciale?: si Microsoft est aussi attentif à la nouvelle interface utilisateur de Windows 8 qu’il l’a été à celle de Windows 3.0, à quoi va ressembler le support du bureau Windows classique à l’avenir ? Si vous pensez que l’histoire se répète, la réponse est sans ambiguïté : il sera relégué dans l’oubli d’ici dix ans et cessera d’exister dans vingt sauf si on assure la rétro-compatibilité manuellement.

Maintenant, nul ne peut prédire l’avenir avec certitude. Beaucoup d’entre vous ne sont probablement pas convaincus le moins du monde que l’avenir du bureau sera inspiré par une version plus élaborée et affinée de la nouvelle interface de Windows 8. Mais si vous jetez un coup d’œil en arrière vous prendrez conscience que beaucoup de gens pensaient exactement ainsi quand Windows 3.0 est sorti, j’espère que vous mesurez à quel point il est possible que nous soyons dans une situation similaire.

L’avenir mort-né de Windows 8

Pour les développeurs aujourd’hui, le monde de l’informatique de grande consommation avant l’arrivée de Windows 8 est un peu chaotique. Il y a iOS, une plateforme sur laquelle vous ne pouvez publier aucune application native sans la permission aléatoire et arbitraire d’Apple. Il y a Android, une plateforme agréablement ouverte mais qui est en proie à une gestion catastrophique des spécifications du matériel, qui manque d’implication pour le support de code natif et qui est menacée d’être sérieusement mise en péril par des poursuites judiciaires qui bloqueraient tout au nom des brevets logiciels. Et puis il y a les plateformes comme Blackberry, WebOS, Kindle Fire (basée sur Android) et Nook, qui sont encore en quête d’une adoption plus consistante par des utilisateurs.

Entre en scène Windows 8. Il est conçu pour une interaction tactile, a de spécifications matérielles bien définies, est doté d’une interface dont le code natif est bien documenté, peut être utilisé directement comme environnement de développement sans nécessiter de compilation sur un autre système — et oui, il est soutenu par une entreprise notoire pour sa sournoiserie, qui détient un portefeuille de brevets cinq fois plus épais que celui d’Apple. Donc si jamais Apple essayait d’entreprendre une action litigieuse contre Windows 8 similaire à celle qu’il a menée contre Android, nous verrions se déclencher en représailles un tir nourri de plaintes pour violation de brevets qui atteindrait un tel niveau que le chouette immeuble flambant neuf du quartier général d’Apple serait submergé par des tonnes de paperasses rédigées en une obscure langue juridique.

On en est aujourd’hui à un tel point de confusion dans le paysage du développement en informatique que cela pourrait effectivement être un pas en avant pour les développeurs. En supposant que le développement du nouvel écosystème de Windows 8 suivra les mêmes règles que le développement de l’ancien, n’importe quel développeur pourrait simplement installer Windows 8, développer des logiciels ciblant le marché du tactile, puis le distribuer gratuitement ou en le monnayant via son site web ou un distributeur tiers. Moins de prises de têtes avec la diversité des plateformes, pas d’exigences incertaines à satisfaire préalablement pour tester, pas de frais de développement bizarres ou de souscription obligatoire — et plus important encore, pas de puissance hégémonique d’Apple s’interposant entre les développeurs et leurs clients.

Mais voilà, il y a un petit problème. Microsoft a décidé de ne pas suivre, pour le nouvel écosystème de Windows 8, les mêmes règles qu’avec les éditions précédentes de Windows. À la différence de la transition entre MS-DOS et Windows 3.0, Microsoft ne prévoit pas d’étendre l’écosystème de Windows. Ils veulent lui faire prendre une tout autre voie.

Monopole

Le problème commence avec le Windows Store. Si le nom vous rappelle le App Store d’Apple, c’est parce qu’effectivement c’est l’App Store d’Apple. C’est une plateforme de distribution centralisée que Microsoft contrôle, qui permet aux utilisateurs finaux d’acheter des logiciels à partir d’un catalogue de titres explicitement approuvés par Microsoft.

Ce qui, en soi, pourrait ne pas être aussi mauvais. Il y a des arguments valables contre le fait que le propriétaires d’une plateforme contrôle le marketplace par défaut pour cette plateforme, mais si la plateforme permet aux personnes de développer et de distribuer des logiciels gratuitement en-dehors du marketplace, alors d’autres entreprises peuvent aussi bien contourner/se passer du/ le magasin. Les développeurs peuvent distribuer leurs logiciels par d’autres canaux, ou même fournir des magasins alternatifs, réduisant par une saine concurrence le danger d’abus ou d’obstruction de la part du propriétaire de la plateforme.

Toutefois, il est très clair en parcourant les publications de Microsoft sur Windows 8 que pour avoir le droit de bénéficier de la nouvelle interface utilisateur, vous devrez distribuer votre application dans le Windows Store. Cela veut dire qu’en octobre, Microsoft lui-même sera devenu l’unique source de logiciels pour tout ce que vous voudrez faire tourner sur une machine Windows qui ne serait pas relégué au vieil écosystème précédent. À la différence de la transition historique entre MS-DOS et l’interface utilisateur de Windows, et même si la précédente version restera probablement disponible, la nouvelle (celle de Windows 8) sera bel et bien fermée. Ce qui placera Microsoft dans une position de monopole totalement nouvelle : celle d’un distributeur exclusif de logiciels pour la majeure partie des ordinateurs du monde entier.

Maintenant, il existe apparemment un point qui fait controverse. Peut-être parce que Microsoft n’en a pas fait état de façon très importante dans ses communiqués de presse, certains doutent que pour distribuer des logiciels destinés à la nouvelle interface utilisateur, il faudra nécessairement que les développeurs obtiennent la permission de Microsoft. Mais ils ont tort. Afin de mettre les choses au clair une fois pour toutes, une analyse complète et des recherches approfondies sur les publications officielles de Microsoft sur le sujet figurent en annexe B de l’article d’origine. Il démontre qu’il n’y aura aucun moyen pour les développeurs de distribuer sur Internet des applications compatibles avec l’interface utilisateur moderne, sans avoir reçu une approbation explicite de la part de Microsoft.

Donc, en gardant cela à l’esprit, il est grand temps de se poser la question cruciale : si l’interface du nouveau Windows 8 en vient à remplacer complètement le bureau classique, et que Microsoft exerce désormais un contrôle total sur les logiciels qui seront autorisés ou non pour cette nouvelle interface, dans quelle mesure l’avenir de Windows sera-t-il spectaculairement affecté ? Est-ce que les jeux conçus pour les adultes seront les seules victimes de ce changement ou bien l’enjeu est-il beaucoup plus important ?

L’avenir pourrait être n’importe où

Bannir la plateforme de jeux la plus populaire du tout nouvel écosystème Windows 8 – qui est aussi le seul écosystème accessible aux utilisateurs de Windows RT – est l’une des conséquences négatives des directives de certification des applications par Microsoft. D’autres parties de ces directives auraient empêché l’existence de choses comme Flash, JavaScript et le Web dynamique, l’app store lui-même, s’ils n’existaient pas encore et donc d’être inclus à la plateforme de Microsoft elle-même. Il est donc clair que Microsoft s’est assuré que le nouvel écosystème Windows n’hébergerait jamais plus que les quelques applications que Microsoft considère comme importantes.

Mais simplement parce que Microsoft a fait un travail épouvantable en définissant les limites du nouvel écosystème, est-ce que cela signifie que la seule alternative est de réaliser un écosystème complètement ouvert ? Microsoft ne pourrait-il par définir de nouvelles et meilleures directives ?

La réponse étant pas tant qu’ils ne connaissent pas l’avenir. Et pas dans un sens général, mais littéralement le voir en pleine résolution/*lumière*/, et chaque détail avec clarté. En l’absence de telles prévisions idéales, comment une entreprise pourrait-elle dicter des règles pour des logiciels futurs sans interdire accidentellement des choses sur lesquelles de nouveaux logiciels révolutionnaires pourraient se fonder ?

La réalité est que même les entreprises les plus prospères sont rarement capables de prédire le futur avec précision. L’histoire de l’informatique regorge d’exemples. Digital Equipment Corporation, qui a été un certain temps la seconde plus grande entreprise d’informatique, n’a pas réussi à prévoir la révolution de l’informatique personnelle et son nom lui-même n’existe plus maintenant. Silicon Graphics, qui a été le leader du matériel d’imagerie 3D, n’a pas prévu la popularisation de ce matériel et à finalement été contraint de se déclarer en faillite.

Bien qu’étant très loin de connaître un sort aussi affreux, le passé de Microsoft montre qu’ils ne sont pas meilleurs prophètes. Bill Gates a ainsi déclaré à la fin des années 1990 :

« On se fait parfois surprendre. Par exemple, quand Internet est arrivé, c’était notre cinquième ou sixième priorité. »
– Bill Gates, lors d’un discours à l’Université de Washington en 1998

Et le changement de barreur sur le navire Microsoft n’a pas apporté d’amélioration :

« Il n’y a aucune chance que l’iPhone s’attribue une part de marché significative. Aucune chance. »
– Steve Ballmer, dans une entrevue avec USA Today en 2007, dans laquelle il a prédit que l’iPhone ne prendrait que « 2 ou 3% » du marché du smartphone.

Sans connaissance précise du futur, la seule manière d’éviter de bloquer l’innovation sans le vouloir est par définition de ne rien interdire de manière significative. Les seules exigences de certification que Microsoft pourrait choisir et qui soutiendraient complètement le futur seraient celles qui permettraient de certifier tout ce que des développeurs pourraient créer.

C’est la définition la plus épurée d’un écosystème ouvert.

Une maigre concession

Pour n’importe quel développeur désireux de créer le logiciel innovant du futur, il devrait être extrêmement clair que la nature fermée du nouvel écosystème de Windows 8 sera catastrophique pour la plateforme. La question ne se pose même pas, elle devrait être ouverte. Mais les développeurs ne sont pas les personnes chargées des politiques de Windows 8.

Donc la question plus pertinente pourrait être : est-ce que Microsoft peut se permettre de changer de cap et autoriser la distribution des applications Windows 8 par n’importe qui, et non pas seulement sur le Windows Store! ?

En prenant en compte le long terme, Microsoft ne peut pas se permettre de ne pas changer de cap. Ils sont déjà en retard sur tous les segments du marché de la consommation en-dehors du PC, par conséquent ils n’ont pas le droit à l’erreur. Si une nouvelle innovation logicielle arrive et considère qu’Android est sa plateforme primaire/de prédilection parce qu’elle a un système ouvert de distribution, cela pourrait facilement conduire à une nouvelle “décennie perdue” pour Microsoft, lorsqu’ils devront à nouveau rattraper leur retard.

Mais aujourd’hui les entreprises ne regardent généralement pas sur le long terme. Les profits à court terme et les besoins des actionnaires constituent des préoccupations immédiates et impératives ; et Microsoft est un compagnie notoire, contrainte par des nombreux intérêts externes. La question se pose donc en ces termes : l’entreprise Microsoft peut-elle autoriser un système de distribution ouvert avec Windows 8 sans nuire à son chiffre d’affaires ?

De manière surprenante, la réponse est qu’il y aura peu ou pas de pertes de revenus en autorisant un système ouvert de distribution dans Windows 8. Cela peut sembler absurde, mais si vous lisez attentivement les publications de Microsoft, vous verrez que c’est vrai. Bien que Microsoft ait fermé le système de distribution à l’intérieur du nouvel écosystème de Windows 8, ils n’ont pas fermé le système de paiement. Extrait de l’agrément développeur de Microsoft lui-même :

« En ce qui concerne le commerce d’applications. Vous pouvez choisir de proposer des options d’achat à l’intérieur même de votre application. Il n’est pas requis que vous utilisiez le moteur de commerce de Microsoft pour proposer ces achats. Si vous choisissez d’utiliser le moteur d’achat commercial de Microsoft, les achats seront soumis à l’Agrément/*, y compris, mais pas seulement, les frais de magasin et les exigences de licence et de transfert. »

Aussi étrange que cela puisse sembler, si un développeur propose une application limitée dans sa version gratuite sur le Windows Store, il pourrait alors vendre, directement dans l’application, une mise à niveau ou un déverrouillage vers la version complète pour laquelle il pourrait accepter un paiement direct. Ils n’ont pas besoin de verser 20 ou 30% de royalties comme c’est le cas avec une transaction sur le Windows Store. La seule chose qu’ils ne peuvent pas faire c’est utiliser un système de distribution non-Microsoft, tel que leur propre site web ou leur propre « boutique » en ligne.

Ainsi, il est presque impossible de concevoir une situation où Microsoft perdrait des revenus significatifs en ouvrant le système de distribution, puisqu’il a déjà ouvert le système de paiement, et que pratiquement tous les revenus proviennent du système de paiement. Le seul revenu que Microsoft continuera à obtenir du store pour une application qui n’utiliserait pas leur moteur de commerce serait les frais variables d’application, d’un montant de 100 $ par application (et non pas par achat). Le Windows Store devra perdre 10.000 – 20.000 applications avec la distribution ouverte chaque jour pour atteindre l’équivalent de 1% du revenu de Microsoft. Pour référence, l’app store le plus populaire au monde, celui d’Apple, en reçoit moins de 500 par jour.

De plus, le potentiel de migration des utilisateurs du Windows Store depuis Microsoft vers des fournisseurs tiers ne serait pas aussi important avec un système ouvert de distribution. N’importe quel utilisateur du Windows Store tel qu’il est actuellement décrit pourrait ouvrir un compte pour un autre système de paiement, pour une application qui proposerait l’achat en son sein. Une fois qu’il a décidé de créer un compte de ce type, rien ne l’empêche d’utiliser ce compte de façon triviale pour acheter n’importe quelle autre application qui serait disponible par le même processus de paiement. L’inertie de l’achat via un tiers n’est présente que la toute première fois qu’on l’utilise. Une distribution ouverte ne fonctionnerait pas différemment. Le Windows Store resterait la source par défaut des applications pour Windows 8, et c’est seulement quand l’utilisateur pourrait créer un compte pour une distribution externe que le Windows Store perdrait l’avantage de l’inertie.

Ainsi donc, Microsoft n’a quasiment aucun intérêt financier à ne pas autoriser un système ouvert de distribution. On peut supposer qu’il y a d’autres raisons sous-jacentes à leur décision de garder fermé le système de distribution. Est-ce pour limiter la menace de malware ? Est-ce pour prévenir le piratage ? Est-ce pour mieux gérer leur image de marque ? Tant que Microsoft ne sera pas explicite quant à ses objectifs, sa décision pourra être portée contre elle, nous pouvons seulement spéculer sur les motivations ; tous les autres candidats similaires proposent des solutions simples qui n’impliquent nullement une politique draconienne, comme forcer les utilisateurs à installer seulement des logiciels approuvés par Microsoft.

Et maintenant que fait-on ?

Les expériences sur les plateformes ouvertes sont l’une des sources premières d’innovation dans l’industrie informatique. Il n’y a pas deux manières de voir les choses. Les écosystèmes logiciels ouverts sont ce qui nous a donné la plupart des produits que nous utilisons aujourd’hui, qu’il s’agisse de logiciels d’entreprise tels que les feuilles de calculs, de logiciels de divertissement comme ceux de tir à la première personne, ou les paradigmes révolutionnaires qui changent le monde, comme le World Wide Web. Le monde sera bien meilleur pour tout le monde si ce type d’innovation continue.

Les développeurs, les consommateurs et même Microsoft devraient souhaiter que les vingt prochaines années ressemblent aux vingt dernières : année après année des nouvelles choses auparavant inimaginables, vous ont été apportées par des développeurs motivés et créatifs qui étaient libres d’aller là où leur vision les conduisait, sachant très bien que s’ils produisaient quelque chose de grand, il n’y aurait pas de barrière entre eux et la diffusion de leur création dans la monde entier.

Avec Windows 8, Microsoft est dans une position pivot pour aider à faire de ce futur une réalité. Ils pourraient devenir l’une des principales forces luttant pour permettre le développement pour tablette aussi ouvert que l’était le développement pour ordinateurs de bureau avec le Windows traditionnel. Ils pourraient prendre des parts de marché à l’iPad, complètement fermé (et totalement d hégémonique), et aider à restaurer dans ce domaine la liberté d’innover que les développeurs ont perdue lorsque Apple a imposé ses politiques restrictives.

Ou bien Microsoft peut lancer Windows RT, Windows 8 et Windows 8 Pro avec leur politiques actuellement en place, et se contenter d’être un autre acteur du marché de l’appareil tactile, avec leur propre jeu d’obstacles ridicules qui restreignent considérablement les possibilités de logiciel et font perdre leur temps aux développeurs avec leurs processus mal conçus de certification.

Pourquoi prendre ce risque ? Pourquoi pas ne pas se mettre en quatre pour fournir aux développeurs une plateforme ouverte, afin que tous et chacun d’entre eux ne soient pas seulement des soutiens, mais vraiment des personnes enthousiastes pour aider Windows à débarquer dans le monde des tablettes ?

Le succès de Windows 8 sur le marché des tablettes et des smartphones est loin, très loin d’être garanti. Est-ce que Microsoft veut véritablement se lancer dans la bataille sans l’appui de ses plus importants atouts ? Veulent-ils qu’une entreprise comme Valve, qui contrôle plus de 50% des ventes de jeux pour PC, décide de porter tout son effort vers Linux, compte-tenu que l’écosystème de Windows 8 interdit les plateformes de distribution tierces comme son fleuron Steam ? Veulent-ils vraiment que le lancement de Windows 8 soit pourri par une cascade de déclarations de développeurs de premier plan prenant position contre la nouvelle plateforme ? Et surtout, vont-ils délibérément courir le risque de s’attirer l’hostilité des développeurs au point de les voir promouvoir activement et développer leurs propres plateformes comme leur produit phare, puisque Windows ne leur offrira plus la liberté de développer et distribuer leurs logiciels à leur gré ?

Espérons, dans l’intérêt de tous, qu’ils prendront conscience que la seule réponse sensée à toutes ces questions est « NON ».

Crédit photo : Kiwi Flickr (Creative Commons By)




Ils tenteront de nous pourrir l’impression 3D avec leurs DRM

Nous sommes en 2023. Vous cassez malencontreusement une assiette. Vous allez tout naturellement chercher son fichier numérique sur le Net pour en créer une nouvelle sur votre imprimante 3D, en la modifiant éventuellement au passage pour l’adapter à vos besoins. Mais deux minutes plus tard la Police du Copyright sonne à votre porte et vous embarque en flagrant délit d’effraction de propriété intellectuelle et contournement de mesure de protection…

En mai 2011 nous publiions une longue et riche traduction : L’impression 3D, ce sera formidable… s’ils ne foutent pas tout en l’air !.

Nous y sommes désormais. Et ils vont chercher à bloquer le système et le partage tout comme ils ont cherché (et partiellement réussi) à le faire avec le logiciel, la musique ou le cinéma.

Sauf qu’ici nous avons déjà nos propres imprimantes, logiciels et formats libres et ouverts. En se débrouillant un peu, et luttant beaucoup, on devrait pouvoir s’épargner un nouveau Napster ou Megaupload de l’impression 3D.

FdeComite - CC by

Comment les DRM vont infester la révolution de l’impression 3D

How DRM will infest the 3D printing revolution

Ryan Whitwam – 16 octobre 2012 – ExtremeTech.com
(Traduction : Kurze, Dryt, Gatitac, goofy, Sylvain, Kiwileaks)

Alors que vous étiez tout occupés à vous exciter et à déclarer que l’impression 3D est le début d’une nouvelle époque, une nouvelle loi sur les brevets s’apprête à pourrir l’ambiance.

En effet, Nathan Myhrvold, ancien DSI chez Microsoft et fondateur d’Intellectual Ventures, société détentrice de nombreux brevets, a réussi à obtenir un brevet étendu sur les DRM de l’impression 3D. Cette révolution de l’impression 3D que nous avons tant espérée s’en trouve tout d’un coup fort contrariée.

Le système envisagé par Myhrvold sera utilisé afin d’empêcher les utilisateurs d’imprimante 3D de violer les « droits de production des objets ». Pour utiliser son imprimante il faut d’abord la charger avec le fichier numérique de l’objet à imprimer. Or ici, avant qu’une quelconque impression ne soit lancée, on va vous obliger à vous connecter à un serveur distant qui vérifiera que vous avez l’autorisation d’imprimer cet objet. Si cela vous semble familier c’est parce que c’est ce qui était arrivé à la musique en son temps dans le sillage de Napster.

La loi sur le droit d’auteur est une grosse machine compliquée et elle n’est pas applicable traditionnellement aux objets. Cependant, un nouvel appareil, une invention ou une nouvelle conception peuvent être brevetés. C’est justement ainsi que ceux d’Intellectual Ventures gagnent de l’argent et c’est probablement la raison pour laquelle ils sont intéressés par ce genre de DRM. L’entreprise acquiert les brevets sur différentes technologies et inventions, se construit ainsi son petit portefeuille, et ensuite elle poursuit tous ceux qui pourraient être en infraction. C’est cela qui a conduit de nombreuses personnes à surnommer ces sociétés des « troll à brevets » (NdT : Patent Troll), et elles ont probablement raison.

Alors comment passe t-on de la situation actuelle à une sorte de dystopie où votre imprimante vous dénonce à la police du copyright ? Il y aura, je pense, deux forces négatives qui nous pousseront dans ce sens.

La première est le risque d’amalgame avec le P2P (échange de fichier peer-to-peer). Plus les imprimantes gagneront en précision, plus les entreprises qui vous vendent ces imprimantes seront comparées à celles qui proposent les logiciels de peer-to-peer. Voilà le premier casse-tête légal auquel ces entreprises devront faire face. Nombreux sont les auteurs de ces applications de partage de fichiers qui ont fini devant les tribunaux et je ne serais pas surpris que quelque chose de similaire arrive un jour ou l’autre aux constructeurs de type MakerBot.

La seconde force qui va s’opposer au développement de l’impression 3D est un peu plus inquiétante. Il y a déjà des gens qui étudient la faisabilité de l’impression de composants d’armes à feu. Ce n’est peut-être pas encore faisable pour le moment, mais ça le sera un jour. Avant que cela n’arrive, des armes plus simples comme des « poings américains » réalisés avec du plastique super résistant vont être susceptibles de poser des problèmes aux gouvernements des pays où ces objets sont illégaux. Les lois sur les armes ne sont pas celles de la propriété intellectuelle mais elles nous amèneront au même point : la restriction de l’usage de l’impression 3D. Les lobbies de copyright pourraient s’appuyer et s’appuieront sur ce problème pour justifier un contrôle plus général.

Les vendeurs d’imprimantes 3D ne seront probablement pas obligés directement par la loi de mettre en place des restrictions, mais le déluge de poursuites pour des armes et des objets brevetés imprimés pourrait les pousser à le faire. Même Google n’a pas eu d’autre choix que de mettre en place des algorithmes sévères de détection automatisée de contenus sous droits d’auteur sur Youtube pour limiter sa responsabilité. Nous avons cependant vu ce système automatisé échouer maintes et maintes fois.

Chaque système de DRM implémenté jusqu’à aujourd’hui a été piraté d’une façon ou d’une autre. C’est vraiment une mauvaise blague pour l’utilisateur moyen : les DRM les bride dans leur vie numérique. Les autres, plus calés, contourneront les règles et pourront imprimer tous les objets brevetés qu’ils voudront. Les DRM ne résoudront véritablement aucun problème. Ils ne le font jamais. Mais ce sera peut-être un élément inévitable de l’avenir de l’impression 3D.

Crédit photo : FdeComite (Creative Commons By)




Entretien avec Sésamath : au revoir Flash, bonjour HTML5, JavaScript (et LaTeX)

L’association Sésamath existe depuis 10 ans maintenant.

10 ans de projets au service des mathématiques dans l’éducation. 10 ans également, et par effet de bord, au service du logiciel libre, de par les choix des outils et des licences adoptées ainsi que la manière toute collaborative de travailler.

Avoir, entre autres, réussi à couvrir tout le collège avec des manuels scolaires libres qui représentent aujourd’hui près de 20% du marché, ça n’est pas rien ! (et c’est même du jamais vu au niveau mondial !)

L’occasion de faire le point avec Sébastien Hache, salarié et co-fondateur de l’association, qui nous annonce de bien bonnes et libres nouvelles.

Sésamath - Flyer

En quelques mots, comment se porte Sésamath ?

Sébastien Hache : Sésamath se porte plutôt bien. L’envie et la passion sont toujours là, depuis maintenant plus de 10 ans. De nouveaux membres viennent régulièrement renforcer une équipe globalement stable et de plus en plus expérimentée. La grosse difficulté est de parvenir à maintenir les ressources existantes (de plus en plus utilisées : plus d’un million d’élèves inscrits à Labomep par exemple l’an dernier) tout en continuant à faire évoluer les outils et à élargir le champ : c’est un défi compliqué mais c’est aussi passionnant.

Que pensez-vous de la récente circulaire sur l’usage du logiciel libre dans l’administration ?

Nous pensons que c’est une très bonne chose et que cela constitue un bon élément d’appui pour tous ceux qui veulent promouvoir les ressources et logiciels libres dans l’enseignement.

Que pensez-vous de l’opération Open TextBook de l’État californien ?

Plus il y aura de ressources éducatives libres et ouvertes, et mieux ce sera !

Que pensez-vous de la récente introduction de l’option Informatique et Sciences du Numérique en Terminale S ? Pensez-vous vous y impliquer de près ou de loin ?

Sesamath a fait le choix de ne pas se positionner sur des sujets autres que ceux inscrits dans ses statuts. Les objectifs de Sesamath nous occupent déjà largement.

Alors, justement, Sésamath a annoncé des nouveaux projets au lycée et dans le primaire. Peux-tu nous en dire plus ?

Pour l’instant, l’essentiel des projets de Sésamath se concentrait sur le collège, même si depuis longtemps, en particulier au niveau des liaisons inter-cycles, des ressources collège étaient utilisées en CM2 ou en seconde. C’est donc assez naturellement que nous avons lancé des appels (toujours en vigueur pour ceux que ça intéresse) dans ces deux directions pour amorcer des projets éditoriaux. En effet, l’expérience de Sésamath au collège a montré que le travail collaboratif autour d’ouvrages destinés à être publiés sur papier (même s’ils ont nativement une version numérique) était un bon catalyseur pour créer ensuite d’autres ressources numériques : un peu comme si l’ouvrage éditorialisé servait de fil conducteur pour tout le reste. Paradoxalement, le papier est aussi une bonne façon de faire connaître le numérique.

En CM2, une équipe composée de professeurs des écoles et de professeurs de collège travaille actuellement à un cahier d’exercices sur le modèle des cahiers d’exercices de collège (afin d’avoir une continuité dans la ressource). Ce cahier est destiné à être sous licence libre (CC By-Sa) : pour l’instant, durant la phase de conception, seuls les enseignants inscrits à Sésaprof peuvent y avoir accès mais quand il sera achevé (début 2013) il sera intégralement téléchargeable pour tous aux formats ODT et PDF. En même temps, nous concevons le cahier numérique associé. Une autre équipe construit en parallèle le futur manuel Sésamath 6e, qui est très largement modifié par rapport au précédent en partie justement pour tenir compte de la liaison.

En seconde, une équipe composée de professeurs de collège et de lycée travaille sur un manuel complet. Ce manuel est écrit en LaTex. Il sera de la même façon publié sous licence libre et accompagné d’un manuel numérique gratuit. Le premier chapitre sera très prochainement mis en ligne. Beaucoup de lecteurs de ce blog seront heureux de voir que Sésamath produit collaborativement un ouvrage en Latex (c’était déjà le cas pour un ouvrage d’exercices en classes préparatoires) !

Pour résumer, nous travaillons cette année sur 3 ouvrages en même temps. C’est possible grâce à l’expérience de l’association et de ses membres sur la création collaborative de manuels scolaire (organisation, outils…), mais aussi les licences libres et les formats ouverts qui permettent ce mode de création et motive les auteurs.

En parlant de format ouvert, il se dit que Sésamath est en train d’abandonner Flash. Qu’en est-il ?

Effectivement, une grande partie des ressources interactives de Sésamath (dont l’exerciseur Mathenpoche) a été développé en Flash. Il y a déjà eu pas mal de discussions sur ce point : avec le recul, il n’y a sans doute rien à regretter, mais on se rend compte actuellement que cela nous mène à une impasse. Avant d’être technique, l’impasse est d’abord collaborative : nous n’avons pas réussi à former suffisamment d’enseignants à la programmation en Flash et nous nous sommes coupés d’une communauté de développeurs dont nous avons grand besoin aujourd’hui.

C’est pourquoi, Sésamath s’est donné les moyens, depuis plus d’un an maintenant, de créer un nouveau modèle d’activités intéractives : Il s’agit du projet J3P basé sur les technologies web modernes (html5/javascript). D’une certaine façon, Sésamath a terminé sa mue complète vers le libre (je me permets de remercier tous ceux qui ont contribué à ça, de façon souvent très intelligente et patiente, et parmi ceux-là évidemment toute l’équipe de Framasoft). Mais l’intérêt de J3P ne réside pas que dans son format : il ouvre aussi des pistes importantes du point de vue pédagogique. L’idée est de pouvoir créer des ressources de plus en plus adaptées aux difficultés de chaque élève en leur proposant des exercices où les réponses qu’ils donnent conditionnent les questions suivantes, pour tenter de s’adapter à la nature de leurs difficultés éventuelles.

Le projet J3P veut donc offrir aux enseignants un moyen de concevoir de tels exercices. L’enseignant pourra construire ou paramétrer le graphe de chaque exercice. Ce graphe décrit, suivant les réponses de l’élève à chaque étape, les différents parcours possibles parmi les sections qui composent l’exercice. Le projet J3P est sous licence GPL.

Toutes les bonnes volontés sont les bienvenues (ne pas hésiter à nous contacter.

Crédit illustration : Brochure Sésamath




Lionel Dricot (alias Ploum) candidat du Parti Pirate aux élections en Belgique

De l’informatique à la politique…

Lionel Dricot, alias ploum, vient de temps en temps rédiger dans nos colonnes (clavier Bépo, monnaie Bitcoin, histoire d’OpenOffice). Plus généralement c’est un acteur engagé en faveur de la défense et promotion du logiciel libre, et ce depuis bien longtemps déjà.

Il se présente sous la bannière du Parti Pirate (Brabant-Wallon) pour les élections communales et provinciales du dimanche 14 octobre prochain.

Il a eu la gentillesse de bien vouloir répondre à quelques une des nos questions. Et je suis certain qu’il trouvera malgré tout le temps de répondre aux vôtres dans les commentaires 😉

Lionel Dricot - Ploum

Bonjour Lionel. Tu es contributeur occasionnel au Framablog mais peux-tu te présenter pour ceux qui ne te connaissent pas ?

Je m’appelle Lionel Dricot mais, sur la toile, vous me verez surtout sous le pseudonyme de Ploum. Je suis un ingénieur en informatique de 31 ans, belge une fois et actif dans le logiciel libre depuis 2001.

J’aime beaucoup réfléchir, écrire et remettre en question, sous une lumière purement rationnelle, ce qui est considéré comme acquis. Je me suis passionné pour Linux et XMPP à une époque où Windows et MSN étaient des acquis. Pour la même raison, j’ai remis en question l’Azerty pour passer au Bépo et j’ai remis en question le principe monétaire avec Bitcoin.

Et tu es candidat aux élections qui vont avoir lieu en Belgique…

La Belgique est un pays très complexe. Cette année, nous allons élire nos représentants à la province (l’équivalent des départements français) et à la commune. Les élections provinciales passionnent peu mais les élections communales sont très importantes car elles auront des conséquences immédiates sur la vie quotidienne des habitants. Le bourgmestre (équivalent du maire) est en effet nommé pour six ans suite à ces élections.

Je suis candidat du Parti Pirate, en première position dans la commune d’Ottignies-Louvain-la-Neuve et en 9ème position pour la province du Brabant-Wallon.

Sont-ce tes premiers pas en politique ?

Pas vraiment. J’ai toujours trouvé important de suivre la politique de près. Comme beaucoup de jeunes, j’ai voté pendant des années pour Ecolo, équivalent des Verts en France, avant d’être très déçu. J’ai été quelques temps membre actif du MR, parti libéral de centre-droit, souhaitant défendre les libertés individuelles. J’ai aussi été déçu par certains aspects conservateurs ou ultra-capitalistes.

J’ai découvert que, dans tous les partis, il y a des gens extraordinaires et des gens insupportables avec des idées dangereuses. Et que, malheureusement, la particratie belge lissait le tout, rabrouant ceux qui sortent un peu du lot et qui sont pourtant ceux que je voulais voir en politique.

Tu t’es alors tourné vers le Parti Pirate. Alors pourquoi lui et pas un autre ?

En fait, avec plusieurs amis, on se morfondait devant les partis politiques traditionnels. Par exemple, nous avions trouvé une erreur fondamentale dans le programme Ecolo pour sortir du nucléaire. Une erreur qui multipliait par 10 la puissance des éoliennes. Nous avons donc contacté les responsables du parti et il nous a été répondu qu’on nous répondrait après les élections.

Dans nos discussions, nous avons lancé l’idée d’un parti politique qui ne serait pas idéologique mais qui tenterait une approche pragmatique des problèmes, reconnaissant si nécessaire ses erreurs et n’hésitant pas à faire marche arrière quand une solution donnée s’avère défaillante. On avait appelé ça le Parti Intellectuel ou un truc du genre, je ne sais plus trop.

Mais quand le Parti Pirate est arrivé, j’y ai retrouvé exactement cet état d’esprit. Et je n’ai pas été le seul vu que mes amis Nicolas Ykman, blogueur sur artimuses.be, et Gauthier Zarmati s’y sont aussi retrouvés.

De là à être candidat, il y a pourtant une sacrée marge. Pourquoi s’investir autant ?

Parce qu’il n’y avait personne d’autres dans notre province. Sur le forum du Parti Pirate, je tentais de savoir qui seraient les candidats pour le Parti Pirate, demandant pourquoi il n’y avait pas quelqu’un pour lancer tout. J’ai un jour reçu un mail de Paul Bossu, coordinateur du Parti Pirate pour la Wallonie, qui m’a dit : « Tu es quelqu’un comme un autre, tu n’as pas besoin de notre permission, lance-toi ! ». Nicolas et Gauthier m’ont dit : « Si tu te lances, je me lance » et on a fondé la section locale du Parti Pirate.

Étant en mars 2012, on s’est dit qu’on était trop tard pour les élections d’octobre, on ne se préoccupait pas de ça. Mais notre section locale s’est rapidement développée, avec des membres de tous horizons, apportant chacun leur motivation. Paul nous a dit que ce serait une bonne expérience de se présenter aux élections.

Et il avait raison : refaire le monde, avoir des idées c’est bien. Mais refuser de se présenter aux élections, c’est un peu de la lâcheté. Il faut se confronter à la vraie vie.

Mais qu’est-ce qu’un geek libriste peut trouver dans la politique ? Le logiciel libre et le Parti Pirate ont-ils le moindre rapport ? Surtout à un niveau extrêmement local.

Oui, les deux sont complètement liés. Il y a tout d’abord la volonté de remettre en question l’existant, d’essayer de nouveaux modèles. Mais le logiciel libre m’a appris que, grâce aux nouvelles technologies, des centaines voire des milliers de personnes pouvaient collaborer pour gérer des projets extrêmement complexes. Et ce, malgré l’éparpillement géographique, les différences de cultures, de langues.

Si c’est possible pour de tels projets, cela doit a priori l’être pour une commune. C’est pourquoi nous proposons d’utiliser des logiciels de suivi de problème (genre Bugzilla) pour permettre aux habitants de signaler les problèmes : trottoir abîmé, égout bouché, dégradation du mobilier urbain, etc.

Nous souhaitons également que tous les projets, les règlements soient accessibles sur un wiki avec un suivi des révisions et où chacun pourrait apporter sa modification. Le tout en insistant également sur la transparence du processus politique et ce y compris jusque dans les détails du budget de la commune et du salaire des politiciens.

Tout cela est très expérimental mais Ottignies-Louvain-la-Neuve est une ville à part, un ovni dans le paysage belge. C’est donc l’endroit idéal pour tenter de renouveler le terrain politique.

Crédit photo : Adrien le Maire (Creative Commons By-Sa)




Cher Facebook, je suis venu te dire que je m’en vais…

Le témoignage d’une « single mom of two rowdy boys ».

Décalage. Plus vous avez d’amis et plus vous vous enfermez dans une posture positive de vous-même qui finit par ne plus vous correspondre.

Geoff Livingston - CC by-sa

Adieu Facebook

Goodbye facebook

TechSavvyButterfly – 27 juin 2012 – Blog personnel
(Traduction Framalang : Lamessen, Goofy)

Mettons les choses au point : ceci n’est pas une attaque au lance-flammes contre Facebook

Cela dit, je réalise une petite expérience en désactivant mon compte Facebook. Pourquoi, me direz-vous ?

J’ai d’abord rejoint Facebook pour rester en contact avec un groupe d’amis que j’avais rencontrés sur un forum de vente directe. Je quittais les ventes directes et je ne visitais plus le forum, mais je voulais rester en contact avec les amis que j’avais rencontrés là bas. C’était mes tout premiers Amis internet et ils représentaient beaucoup pour moi, même si je ne pouvais pas vraiment continuer à suivre leurs discussions plus longtemps. Ces amis m’ont connue dans l’une des périodes les plus difficiles de ma vie, quand je manquais d’argent et que ma relation amoureuse était au plus mal. J’avais quelques amis de « la vraie vie » d’enregistrés et d’un coup j’avais cette merveille, ce jardin clos incroyable sur lequel je pouvais tout dire, sans soucis. Je pestais, Je délirais, je criais, je rigolais – au début ce groupe initial a vu une version non filtrée de moi.

Ensuite, les connaissances des études supérieures, les contacts professionnels et la famille plus éloignée m’ont trouvé. J’ai très tôt pris la décision de garder mes contacts professionnels au maximum hors de Facebook. je suis content de l’avoir fait, mais mes posts ont été de plus en plus filtrés au fur et à mesure que la liste d’amis grandissait. Maintenant il ne voient qu’une façade, les faits marquants puisque j’ai enfilé le masque heureux. Mes amis les plus proches connaissent toujours la vérité via messagerie instantanée, les sms et les appels téléphoniques, mais Facebook nous a appris à communiquer les uns avec les autres de façon communautaire.

Facebook était devenu un moyen d’améliorer notre communication plutôt que de la remplacer. Je me sentais subitement connectée à mes amis et heureuse de lire leurs messages, de voir des photos de ce qu’ils mangeaient et de partager certains moments de vie avec eux. La partie la plus sympa ? Nous échangions tous des commentaires sur les mises à jour et les photos des uns et des autres. Nos conversations débordaient de la vie réelle vers le domaine numérique. Dans l’ensemble, nous avions grandi si proches les un des autres que nos vies s’entrecroisaient et se rapprochaient, en utilisant Facebook comme un catalyseur.

Puis quelque chose a changé

Mes amis n’y sont pour rien. Les algorithmes de Facebook priorisent de ce qui apparaît dans le fil d’actualité et il est maintenant rempli de chaînes, de re-partages et de fans fictions. Au lieu de voir les vraies mises à jour de mes amis, je vois du contenu qui n’a même pas un vague rapport avec moi. Voici un exemple classique : j’ai simplement pensé qu’une de mes amies n’utilisait pas souvent Facebook. Un soir, devant une pizza et un verre de vin, elle me parle d’une rupture et d’un poème qu’elle a posté. Je n’avais jamais vu ce poème. Quand j’ai visité son journal, j’ai réalisé qu’elle avait posté tous les jours et que ça ne s’était jamais affiché dans mon fil d’actualité. Au lieu de cela, je vois la photo de quelqu’un que je ne connais pas; parcourant mon fil d’actualité simplement parce que l’un de mes amis a « aimé » ça et que le posteur initial n’a pas correctement mis en place ses paramètres de confidentialité. Et ne me lancez pas sur les paramètres de confidentialité, c’est un sujet totalement différent qui mériterait une ribambelle de billets.

Facebook est devenu moins personnel

En discutant avec une amie, je commence à partager une histoire que j’avais postée plus tôt sur Facebook. Comme elle n’avait pas commenté ou « aimé » le post, je supposais qu’elle ne l’avait pas vue. Pourtant, elle coupa court à mon histoire: « Oui, j’ai vu ton post sur Facebook ». Et ce fut tout. Pas d’échange, pas de joie de discuter ensemble, juste des amis qui s’observent les uns les autres à distance. Je suis coupable, je l’ai fait aussi. Nous sommes devenus des navires tranquilles, voguant dans le silence noir de la nuit.

J’ai pris une décision

Je ne veux plus que mes amis me regardent passivement comme si j’étais devenu un peepshow et je ne veux plus considérer leur vie de cette façon-là non plus. Je veux que nous parlions. Je veux un e-mail personnel. Je veux trouver une façon de partager des photos qui nous encourage à en discuter les uns avec les autres. Je veux glousser lors d’un repas à propos d’événements aléatoires et qu’on pleure ensemble devant un verre de vin lorsqu’on a le cœur brisé. En gros, je veux retrouver mes amis. Et la seule façon de le faire, c’est de couper le cordon.

Crédit photo : Geoff Livingston (Creative Commons By-Sa)




Mozilla Persona : Enfin le bon système d’identification sur le Web ?

Avec combien de login et de mots de passe devons-nous jongler dans la journée ?

Beaucoup en effet…

En même encore plus si nous ne les enregistrions pas automatiquement par défaut dans notre machine (avec un gros risque de sécurité). Ou, pire encore, si nous n’avions pas décidé de nous enregistrer sur des services tiers avec notre compte Facebook, Twitter ou Google (avec un énorme risque de se retrouver prisonnier de leurs cages dorées).

À l’heure et à l’ère de la multiplication exponentielle des services Web, la question de l’identification devient cruciale et problématique.

Nous avons besoin d’un système global pratique, sécurisé et auquel nous pourrions faire confiance.. C’est ce que propose Persona, le nouveau système d’authentification de Mozilla.

Il n’est pas forcément aisé de le comprendre de l’intérieur mais c’est pour que ce soit le plus simple possible du côté de l’utilisateur 🙂

Mozilla Persona

Pourquoi Persona de Mozilla apporte la bonne réponse à la question de l’identification

Why Mozilla Persona Is the Right Answer to the Question of Identity

David Somers – 1er octobre 2012 – Blog personnel
(Traduction : greygjhart, ZeHiro, Yho, Evpok, aKa, FredB, Simounet, Mounou, Coyau, Isdf, peupleLa, thot, HgO, salelodenouye)

Le 27 septembre 2012, Mozilla a lancé la première version bêta de Persona. Persona est un système d’authentification d’apparence similaire à OpenID et oAuth, mais qui s’en distingue d’un point de vue technique et fonctionnel.

Nous avons eu la chance de nous associer à Mozilla pour créer la version bêta de The Times Crosswords lors du lancement du Mozilla App Store. Nous sommes ainsi l’un des premiers services tiers à avoir intégré Persona de Mozilla (qui s’appelait encore BrowserID à l’époque), Mozilla en a même fait une vidéo.

Pourquoi un nouveau système d’identification ?

Passons en revue quelques-uns des problèmes d’OpenID et oAuth :

  • OpenID utilise des URLs en tant qu’identifiants.
    • Même si fondamentalement l’idée est bonne, cela peut être déroutant pour les utilisateurs. Le risque ? Se voir demander de « choisir un service d’identification » comme Google, LiveJournal, etc. alors qu’en fait vous n’êtes pas du tout en train de vous identifier avec eux.
    • La plupart des sites voudraient que vous leur fournissiez au moins une adresse email pour pouvoir vous contacter. Il faudra donc presque toujours en passer par une étape supplémentaire lors de la première connexion.
  • OpenID est un système de connexion incohérent : il faut que vous quittiez complètement le site où vous étiez puis y retourner après vous être authentifié avec un outil tiers. On peut en dire autant d’oAuth (même si certaines de ses implémentations permettent une connexion en un seul clic, comme Twitter).
  • oAuth est complexe à implémenter pour les développeurs : cela nécessite le stockage et la gestion de jetons . Il y a également plusieurs versions du protocole, et parfois une authentification supplémentaire (les jetons de rafraîchissement de Google par exemple).
  • Tant OpenId qu’oAuth permettent à votre service d’identification (qu’il s’agisse de Google, Facebook, Twitter) de pister chaque site sur lequel vous vous inscrivez.

Comment Persona et BrowserID résolvent-ils ces problèmes ?

  • Ils utilisent les adresses email au lieu des URLs. Non seulement les adresses email sont plus faciles à mémoriser, mais vous pouvez aussi utiliser une adresse email par identité ; par exemple votre adresse email de travail ou personnelle.
  • Mozilla Persona utilise une « popup », ainsi vous ne quittez pas le site internet sur lequel vous êtes. Mieux encore, si le navigateur supporte le protocole BrowserID, vous n’aurez rien à faire.
  • Persona/BrowserID est en général géré par les navigateurs (que ce soit en JavaScript ou en natif) et en tant que développeur vous n’aurez qu’à vérifier que l’utilisateur est bien celui qu’il dit être. Ceci doit être fait sur votre propre serveur, mais peut être implémenté avec à peine plus qu’une requête cURL.
  • En plaçant le navigateur au centre du processus d’authentification, les services d’identification ne peuvent pas tracer les visites des utilisateurs, mais ils permettent tout de même aux sites visités de vérifier leur identité. On y parvient en incorporant une cryptographie à clé publique dans le protocole.

Bien entendu, Persona ne vous sera d’aucune utilité quand vous aurez besoin d’accéder à des ressources tierces authentifiées comme vos données Twitter, mais ce n’est pas son rôle. Et c’est la ligne de démarcation qu’il faut entre votre identité et vos données.

Comment ça marche ?

Ce qu’il y a de bien avec la solution Persona de Mozilla, c’est qu’elle se décompose en deux niveaux. Le premier est le service BrowserID amorcé : Persona. Le second est le protocole d’identification en lui-même : BrowserID. En concevant ainsi l’amorçage du protocole, Mozilla évite les problèmes de prise en main et le rend attractif pour les développeurs.

BrowserID

Dans un monde idéal où BrowserID serait massivement adopté, voici ce qui se passerait au moment où vous voulez vous connecter à un site Web :

  1. Vous cliquez sur « Connexion ».
  2. Votre navigateur vous demande avec quelle adresse email vous voulez vous identifier.
  3. Vous êtes connecté.

Et voici ce qui se passerait dans le détail :

  1. Vous cliquez sur « Connexion » sur un site désigné ci-dessous par Service Tiers.
  2. Votre navigateur vous demande avec quelle adresse email vous voulez vous identifier.
  3. Votre navigateur contacte votre Service d’Identification (désigné dans la suite par S.I, par exemple Gmail) en utilisant vos identifiants (adresse email et clé publique) et demande un certificat signé.
  4. Optionnel : Votre S.I. vous demande de vous inscrire (avec les habituels identifiant/mot de passe pour cela).
  5. Votre S.I. envoie à votre navigateur un certificat signé qui dure 24 heures.
  6. Votre navigateur génère une « Assertion ». Elle fait preuve que vous êtes le légitime détenteur de votre adresse email : générée à partir de votre clé privée (stockée dans le navigateur), elle contient le domaine du site pour lequel vous vous authentifiez ainsi qu’une date d’expiration.
  7. L’assertion et votre certificat signé sont tous deux envoyés au Service Tiers.
  8. À l’aide de votre clé publique (fournie par votre navigateur), le Service Tiers vérifie que votre Assertion semble correcte.
  9. Le Service Tiers demande la clé publique de votre S.I. (mais n’envoie aucune information sur l’utilisateur) et s’en sert pour vérifier que le certificat, envoyé par votre navigateur, est également correct.
  10. Vous êtes connecté.

Plutôt long le processus ! Mais au moins, il est décentralisé, sécurisé et respecte votre vie privée (votre S.I. ne peut pas savoir quels sites vous êtes en train de visiter).

Si c’était la seule façon d’implémenter BrowserID, son déploiement serait compromis. C’est là que Persona entre en piste.

Mozilla Persona

Mozilla Persona est une application tierce qui fournit une interface de programmation (API) REST plutôt cool pour cacher toute cette cryptographie à clé publique.

  • Persona gère la vérification via les services d’identification et agit également comme service d’identification à part entière pour les services tiers qui n’en possèdent pas (ce qui est la cas de tous les fournisseurs d’adresses email actuellement).
  • Persona fournit une interface de programmation de type REST pour valider chaque assertion.

En traitant toute la partie cryptographie, implémenter BrowserID ne requiert que quelques lignes de JavaScript (le bouton de login et les callbacks en POST pour envoyer l’assertion au serveur) et une requête cURL (pour valider l’assertion).

Envie de l’utiliser ?

Commencez par jeter un œil sur le Persona Quick Setup (NdT : Installer Rapidement Persona) qui vous fournira les instructions pour ajouter Persona à votre site Web, avec des exemples en JavaScript et une implémentation en Python de la vérification de l’assertion (c’est vraiment très simple). Le tout en une soixantaine de lignes de code.

Nous vous suggérons ensuite de consulter le guide des bonnes pratiques pour vous assurer que vous ne faites rien de travers.

NdT : En annexe deux liens de mozilliens francophones :