Ça a débuté comme ça, par un simple tweet sur le peigne liturgique…

Aujourd’hui c’est le top départ de la désormais traditionnelle levée de fonds annuelle et internationale visant à financer et soutenir tous les projets de la fondation Wikimedia, l’encyclopédie Wikipédia en tête.

Vous ne le savez peut-être pas mais les dons collectés en France se partagent pour moitié entre la fondation et l’association Wikimédia France.

Il y a deux ans nous avions relayé un excellent reportage de la télévision suisse qui précisait la destination et illustrait l’usage des dons helvètes. Cette année nous vous proposons de mettre modestement en avant une action parmi tant d’autres de Wikimédia France : le partenariat avec le Musée de Cluny.

Je cite ce dernier (Elisabeth Taburet-Delahaye Conservateur général du Patrimoine, directrice du musée de Cluny et Claire Séguret Responsable adjointe Communication et Mécénat, musée de Cluny sur le blog du Ministère de la Culture) :

L’encyclopédie Wikipedia est aujourd’hui au cœur des pratiques quotidiennes de nos visiteurs, mais également des universitaires et des conservateurs. En mars 2012, Wikimedia Foundation se classe 5e groupe français en terme d’audience sur Internet.

En étant présent sur cette formidable plateforme, le musée répond à sa mission première de diffusion du savoir et va à la rencontre d’un large public. L’amélioration d’articles existants ou la création de nouvelles entrées sont également une possibilité pour l’établissement, au moment même de la refonte de son site, de sensibiliser ses équipes aux spécificités de l’écriture pour le web, mais aussi aux notions d’outil collaboratif ou à la question des licences libres. C’est également l’occasion d’un travail collectif au sein du musée, transcendant les habituels cloisonnements.

Et c’est ainsi que deux ateliers ont été organisés en juin dernier. Pour en savoir davantage nous vous invitons à écouter le très intéressant entretien ci-dessous (vidéo réalisée par Buzzeum).

Mais ce qui est également intéressant c’est l’originalité de la toute première prise de contact dont il est rapidement fait mention dans l’entretien : un simple tweet d’Adrienne Charmet-Alix, directrice des programmes de l’association, s’étonnant du peu d’informations concernant un objet du musée, le peigne liturgique. Et rien non plus sur Wikipédia, pas d’article !

Qu’à cela ne tienne, une fois à la maison elle s’attelle à la tâche pour réparer cette incongruité. Mais nouveau problème : l’absence d’image pour illustrer le propos, tant il est vrai qu’il y a des articles qui se bonifient grandement avec des photos ad hoc

Alors elle interpelle gentiment le compte Twitter du musée via son propre compte :

Et :

Ceci fit prendre conscience à l’animatrice du compte (en l’occurrence Claire Séguret) qu’il y avait une demande et un besoin. Et c’est ainsi que l’aventure commença…

Fin de l’histoire, Je peux désormais vous donner le lien vers l’article (illustré) Peigne liturgique de Wikipédia et vous inviter à suivre ce lien 😉




Je ne sais plus ce que « J’aime » si ce n’est de moins en moins Facebook

Oui, c’est mal : Framasoft a une page Facebook !

Mon falacieux argument, sujet à caution et non partagé par tous en interne (et je vous attends dans les commentaires), est le suivant : en l’an 2000 nous n’avions pas de scrupule à aller chercher les utilisateurs sur Windows pour leur parler du Libre. Windows étant au système d’exploitation ce que Facebook est aujourd’hui à Internet, pourquoi en aurions-nous davantage 10 ans plus tard ?

Bon, ceci étant dit, cette page Facebook a toujours été en mode passif de chez passif. On a fait en sorte que, via les flux RSS, les billets de ce blog et nos gazouillis Identica/Twitter soient relayés automatiquement dessus et c’est tout.

Sauf que pas mal de choses ont changé dernièrement selon le bon vouloir du paramétrage des maîtres du lieu. La syndication automatique a semble-t-il été supprimée (je suis preneur d’une solution pour faire apparaître à nouveau les billets). Et pire encore, lorsque vous postez quelque chose sur votre page, vos fans (c’est-à-dire ceux qui ont cliqué benoîtement sur « J’aime » votre page) ne reçoivent plus l’information. Ou alors quelques uns oui, mais pas tous. Enfin c’est le bordel quoi !

Pour résumé, le « J’aime » d’avant n’est plus du tout le « J’aime » de maintenant. Heurement qu’il n’en va pas de même dans la vraie vie

C’est fâcheux je vous l’accorde. Mais ouf, pour ce qui nous concerne on a d’autres canaux d’information. Je connais cependant des associations (de bénévoles) qui avaient tout misé (ou presque) sur Facebook et qui se retrouvent bien em…bêtée parce que maintenant il faut passer à la caisse des « billets sponsorisés » si vous souhaitez à nouveau toucher tout le monde d’un coup.

C’est ce qui est arrivé à l’auteur du blog Dangerous minds ci-dessous. Ayant l’habitude de poster beaucoup, et donc de relayer beaucoup sur Facebook, il a calculé que pour atteindre tous ces fans, il lui faudrait désormais payer 672 000 $ pour quelque chose qui était totalement gratuit quelques jours auparavant !

Tout ceci porte un nom simple : capitalisme. A fortiori lorsqu’on s’appelle Facebook, qu’on a raté son entrée en bourse et qu’on se retrouve sous la pression de ses actionnaires.

Et la trappe est en train de se refermer sur nous. Tout le monde est coincé. Car tout le monde a accepté volontairement d’aller s’enferrer et s’enfermer sur Facebook. Combien de structures ne prennent même plus la peine désormais d’indiquer l’adresse de leur site Web pour préférer signaler leur page Facebook dans leur communication ? (d’autres vont encore plus loin dans l’intégration comme La Poste avec cette publicité tellement emblématique de mon propos, photographiée d’ailleurs ci-dessous).

Les gros vont peut-être accepter de régler la nouvelle note mais pas les petits, créant un service à deux vitesses qui n’est pas dans les saines et ouvertes habitudes d’Internet.

Sauf à vivre dans le monde des bisounours, n’oubliez jamais qu’un certain gratuit se paye tôt ou tard…

N’oubliez pas non plus, si tout ceci vous fatigue, vous étouffe ou vous exaspère, que le Libre vous accueille en toute confiance à bras ouverts. Vous y perdrez sûrement quelques fans au début mais y gagnerez peut-être une communauté dans lequel votre « J’aime » sera actif et engagé en prenant du sens et de l’authenticité.

En réponse aux critiques, Facebook ajoute un moyen de vraiment, vraiment « aimer » quelque chose

Responding to criticism, Facebook adds a way for you to really, really ‘like’ something

Joel Johnson – 2 novembre 2011 – NBC
(Traduction : GPif, KoS, Yuston, RN, Robin Dupret, Gatitac, LuD-up, PM, bashr, RN, Tchevengour)

Richard Metzger n’est pas très content de Mark Zuckerberg.

Fondateur de Dangerous minds, un blog culturel peu connu au départ, Metzger a rassemblé plus de 50 000 fans sur sa page Facebook au cours de ces trois dernières années. Mais depuis l’introduction en bourse de Facebook en mai dernier, les changements d’algorithme du géant des réseaux sociaux ont rendu l’apparition du contenu publié par Dangerous Minds dans les fils d’actualités de ses fans de plus en plus rare.

Quand vous cliquez sur « J’aime » telle ou telle page, vous pensez peut-être que cela veut dire que votre « journal » recevra toutes les mises à jour postées par le détenteur de cette page. Et c’est bien ce que cela faisait avant. Mais dans sa tentative de soit-disant améliorer l’utilité des informations affichées sur votre journal, par exemple en masquant le contenu qui ne vous intéresse pas, Facebook a aussi semé le trouble chez les utilisateurs et les fournisseurs de contenu quant à la signification du « J’aime ». Pour essayer de clarifier cela, Facebook a ajouté un menu déroulant sous le bouton « J’aime », avec « Recevoir les notifications » et « Afficher dans le fil d’actualité », nécessitant maintenant que les utilisateurs modifient un à un les paramètres de ce qu’ils avaient déjà « aimé ».

Dans un billet passionné et public, Metzger a accusé Facebook d’avoit conçu « le plus gros leurre de l’histoire » en introduisant les « publications sponsorisées ». En somme, Facebook demande aujourd’hui à Dangerous Minds de payer pour mettre en avant ses billets auprès de ses propres fans, pour un montant pouvant dépasser 672 000 $ par an selon Metzger — alors que la même chose était totalement gratuite auparavant.

Metzer détaille son calcul :

Chez Dangerous Minds, on propose entre 10 et 16 publications chaque jour, un peu moins les week-ends. Pour atteindre 100% de nos plus de 50 000 fans (c’est-à-dire l’affichage de l’information sur leur « journal »], Facebook demanderait désormais 200 $ par publication. Ce qui nous coûterait entre 2 000 $ et 3 200 $ par jour, mais retenons uniquement la fourchette basse, plus facile à multiplier. On publie du contenu tous les jours de la semaine, soit 14 000$ par semaine, 56 000$ par mois… pour un total de 672 000 $ par an ! Pour quelque chose que nous pouvions faire gratuitement avant que Facebook ne ferme les vannes cet automne, comme par hasard juste au moment de leur entrée en bourse mal gérée !

Selon Metzger, Dangerous Minds a perdu ainsi entre la moitié et les deux tiers des visites provenant de Facebook, avec pour seul recours apparent de payer Facebook pour promouvoir les messages destinés aux fans. Un porte-parole de Facebook a déclaré à NBC News que Metzger a « mal interprété » l’idée sous-jacente de billets sponsorisés : ils concernent la qualité des billets, et non leur quantité.

« Nous continuons à améliorer le fil d’actualité pour mettre en avant les messages que les fans sont les plus enclins à consulter activement, de manière à leur assurer qu’ils lisent les nouvelles les plus intéressantes » a ajouté le porte-parole. « Cela coïncide avec notre vision que tout contenu publié devrait être aussi attrayant que les messages provenant de la famille ou des amis. »

Le sponsoring réalisé par Facebook est conçu — et tarifé — de manière à ce que « le contenu le plus attractif » soit promu, mais pas de la manière qu’on imagine : plus « l’activité naturelle » du contenu est importante (le temps effectif durant lequel les utilisateurs le consultent, le commentent, ou cliquent sur « J’aime ») moins Facebook facture le promoteur du message pour le mettre en évidence.

Le fait qu’un utilisateur clique sur « J’aime » sur une page ne signifie pas que cette personne, cet éditeur, cette organisation ou cette marque puisse envoyer ses infos sans entrave sur le « journal » de l’utilisateur (même s’il n’ y a pas si longtemps, c’est plus ou moins ainsi que Facebook fonctionnait).

Et cela est donc déroutant aujourd’hui pour des utilisateurs ou des éditeurs qui avaient pris l’habitude d’utiliser les précédentes versions de Facebook un peu comme Twitter ou comme un flux RSS, en montrant l’intégralité du contenu publié par les éditeurs ou les marques « aimées » dans le « journal » personnel.

Mais alors que peut bien signifier ce« J’aime » fluctuant ? Comme me le disait Allen Tingley sur Twitter, « le simple fait que « J’aime » quelque chose ne veut pas dire je veux votre publicité (de merde) à longueur de journée dans mon fil d’actualité. L’aspect « social » du réseau ne signifiant pas publicité gratuite ». Mais pour d’autres utilisateurs, cliquer sur « j’aime » peut signifier qu’ils veulent recevoir autant de mises à jour que possible de la part de la page choisie.

Cette confusion ne vient pas uniquement d’une nouvelle perception des utilisateurs de ce que signifie cliquer sur « J’aime », mais aussi des modifications que Facebook a faites ces dernières années (et continue de faire), sur le fonctionnement de l’algorithme qui fait apparaître les contenus sur le « journal » des utilisateurs.

Cliquer sur « J’aime », représente seulement « un dixième de ce qui est compté comme de l’engagement » selon Facebook (la seule façon de compter les désengagements pour ainsi dire, c’est de cliquer sur le bouton qui masque les publications de votre « journal »).

Ecrire une publication sur un mur, marquer une photo, commenter une page, toutes ces choses s’additionnent dans les coulisses pour informer Facebook de ce qu’il devrait ou ne devrait pas poster sur votre « journal ». Il tente alors de vous présenter en théorie le contenu qu’il estime le plus pertinent à vos yeux.

Plus vous vous engagez auprès d’une marque, une organisation, ou une personne, plus il est probable que vous voyiez son contenu dans votre « journal » (malheureusement, c’est un à peu près le seul contrôle que vous ayez sur votre journal puisqu’il n’existe pas de fonction « Tout voir de Untel ou Untel »).

À moins, bien sûr, qu’un annonceur, de la grande marque au petit éditeur comme Metzger en passant par l’un des vos amis, ne paie pour faire apparaître certains contenus sur votre « journal ». Comme Google, Facebook est fondamentalement une régie publicitaire. Ou du moins, tel semble être le désir des actionnaires qui veulent leur retour sur investissement.

Pour un petit éditeur comme Metzger, qui a passé des années à investir temps et ressources pour construire sur Facebook une communauté qui engendrait en retour du trafic vers son site, la récente commercialisation par Facebook de son travail sonne comme une trahison. « L’idée que la direction générale de Facebook n’ait pas prévu cela — une réaction très négative de ses utilisateurs les plus engagés — laisse pantois » a affirmé Metzger à NBC News. Selon lui, ces 50 000 personnes sont des amis — ou à tout le moins des « amis » — alors que Facebook les considère comme des clients partagés.

Mais, on le sait, Facebook ne peut continuer à offrir indéfiniment des services gratuitement, du moins pas à tout le monde. Comme il est peu probable que les particuliers paient pour leurs comptes Facebook, il ne reste que les annonceurs. Même si, dans le cas de Metzger et de Dangerous Minds, le réseau social ne le considère pas comme un annonceur, mais bien comme un utilisateur lambda.

C’est une nouvelle version du vieil aphorisme « si tu ne paies pas la marchandise, c’est que tu es la marchandise ». Cette fois, Dangerous Minds est à la fois la marchandise et le client. Le blog a construit une communauté et a fourni du contenu à Facebook ; Facebook a construit un réseau social qui, en retour, fournit gratuitement du trafic et des outils à Dangerous minds, jusqu’à ce que la communauté que Metzger a construite ait pris assez de valeur pour être vendue à des publicitaires, y compris Metzger.

Alors qu’il est peu probable que Facebook ne revienne à la version précédente « partage sans entrave » de son algorithme, la société a confirmé que les utilisateurs pourraient dorénavant choisir de recevoir toutes les publications d’une page « aimée » en activant la fonction Recevoir les notifications directement sur le bouton « J’aime ». Sauf que cela nécessite que les fans se rendent une à une sur les pages « aimées » et fassent eux-mêmes le réglage, ce que la plupart ne feront probablement pas…

Metzger voit cela comme une amélioration. « Evidemment, quelle que soit la façon dont je regarde la chose, c’est tout de même un changement positif important, mais si l’algorithme de Facebook avait été conçu initialement en « opt-in » (choix d’engagement et donc de tout recevoir par défaut) et non « opt-out » (choix du refus par défaut), Facebook ne se serait pas attiré les foudres de l’opinion lors de la mise en place des billets sponsorisés. » Metzger qualifie l’implémentation originale de « vautour capitalisme amateur ».

Toujours est-il que Metzger a peut être réveillé l’attention des autres utilisateurs de Facebook, car il a affirmé à NBC News qu’en 24h son coup de gueule a été « aimé » plus de 20 000 fois sur Facebook.




Innovation et licence libre en biotechnologie

On le constate de plus en plus souvent aidé qu’il est en cela par Internet : quand l’esprit du Libre accoste un nouveau domaine, il interroge voire interpelle son modèle d’organisation antérieur (sans même le demander toujours explicitement).

Est-ce que la fermeture (ici les brevets) est la meilleurs voie vers le progrès et l’innovation ? Doit-on payer plusieurs fois l’usage d’une technologie qui devrait être au bénéfice de tous ?

Il pose alors des questions faussement naïves dont les réponses dessinent les contours du monde de demain.

Idaho National Laboratory - CC by

Oubliez les brevets : Pourquoi les licences libres sont facteurs d’innovation dans les biotechnologies

Forget Patents: Why Open Source Licensing Concepts May Lead To Biotech Innovation

Glyn Moody – 2 novembre 2012 – TechDirt.com
(Traduction : aKa, KoS, Dryt, Amine Brikci-N, Cyrille L., alexis, mazerdan, tanguy)

En direct du département du partage…

L’une des idées directrices conduisant au libre accès dans le domaine de la recherche est que si le public a déjà payé par l’intermédiare des impôts (ou du mécénat), alors il n’est pas légitime de demander à nouveau aux citoyens de payer pour lire l’article publié. La force de cet argument est en partie à l’origine d’une plus grande reconnaissance du libre accès à travers le monde.

Mais le même raisonnement peut s’appliquer à la mise sur le marché de la recherche sur fonds publics. Pourquoi devrait-on céder aux entreprises (qui cherchent naturellement à maximiser leurs profits) des prix si élevés pour des produits qui ont été initialement financés sur fonds publics (rendant par là-même leur mise sur le marché possible) ?

Tout comme pour le libre accès, la difficulté tient de la mise en place d’une nouvelle approche permettant aux traitements médicaux d’être le plus accessible possible. @MaliciaRogue a mis en exergue un article de Frangioni, paru récemment dans Nature Biotechnology, qui propose une solution innovante basée sur un développement open source mené par une fondation à but non lucratif.

Dans ce modèle open source, les structures commerciales sont encouragées à acquérir des licences d’utilisation, mais de manière non exclusive. Les entreprises utilisant la technologie sont encouragées à innover sur la plateforme, qui leur fournira des droits d’auteurs pour leur propriété intellectuelle, qui les aidera à franchir les barrières pour entrer sur le marché et fournir aux patients une version améliorée de la technologie. L’échange et l’évolution des informations ouvertes est encouragé plutôt que découragé, en supposant que les connaissances renforceront les entreprises qui veulent se creuser une niche de contenu protégé tandis que les scientifiques pourront continuer à se saisir d’une technologie de pointe.

C’est un exemple détaillé et fascinant qui nous fait explorer les problèmes que posent la mise sur le marché de la recherche, à commencer par la loi Bay-Dole de 1980 et son échec dans l’accélération des transferts de technologies entre le monde académique et l’industrie :

Au début de Bayh-Dole, la politique de transfert technologique de beaucoup de CMA (centre médico-académique) a été de chercher à breveter le plus d’inventions possible (tout ça à grands frais), parfois sans même se demander si la découverte permettait de compter les brevets comme des actifs ou d’en faire leur commercialisation. De la même façon, trop souvent, des startups émergent des CMA sans qu’une analyse raisonnable n’ait eût lieu, conduisant à un sous-financement de beaucoup d’entreprises.

L’approche de Frangioni est très différente. Puisqu’une structure à but non lucratif est financée par le public, l’accent est mis sur l’optimisation du service rendu au patient, plutôt que sur le retour sur investissement. La nouvelle façon de faire est de demander une forme de réciprocité de la part de ceux qui utilisent ces connaissances.

Les utilisateurs (chercheurs, chirurgiens, et utilisateurs de licences) peuvent acheter la technologie, mais uniquement après s’être formellement engagés à apporter les connaissances acquises par cette technologie dans une sorte de banque publique de connaissances (une base de données publique), à travers ce que nous appelons une boucle de retour d’informations. Ici encore, est mis en œuvre le principe de donner après avoir reçu : l’acheteur doit créer de nouvelles connaissances pour le bien de tous, afin d’avoir accès à la technologie.

C’est ainsi que les logiciels open source fonctionnent : tout le monde peut utiliser le code et bâtir dessus mais il faut redonner ses contributions à la communauté, de manière à ce que les autres puissent, exactement de la même manière, bâtir dessus. Les résultats dans le domaine des logiciels, où l’open source domine l’Internet, les super-ordinateurs et – grâce à Android qui est basé sur Linux – les smartphones, parlent d’eux même. Il reste à voir s’il est possible de généraliser la mise en pratique de ces idées, comme le montre l’expérience de Frangioni avec sa FLARE Foundation. Mais c’est certainement une approche qui vaut le coup d’être tentée.

Crédit photo : Idaho National Laboratory (Creative Commons By)




Oppikirjamaraton ou comment écrire un manuel scolaire libre en un week-end !

Je suis professeur de mathématiques et à l’initiative de Framasoft. Un tel projet ne pouvait me faire plus plaisir. Vous verrez qu’un jour de plus en plus de manuels seront rédigés ainsi…

Imaginez un groupe d’enseignants qui se retrouvent le week-end pour rédiger ensemble et de A à Z un manuel scolaire sous licence libre ! (La licence libre est la Creative Commons By, d’où mention sur leur blog, d’où notre traduction ci-dessous).

Il n’ont pas tout à fait achevé l’entreprise dans le temps imparti puisque le livre se trouve aujourd’hui en version 0.92 (et en LaTeX) sur GitHub. Vous pouvez de suite vous rendre compte du résultat actuel en cliquant directement sur le PDF (dont les premières pages vous proposent de soutenir le projet via Flattr et Bitcoin !).

Au delà de son ô combien utile finalité ce fut également une belle et libre aventure humaine

Vapaa Matikka

Oppikirjamaraton : comment écrire un manuel scolaire libre en un week-end

Oppikirjamaraton: How to Write an Open Textbook in a Weekend

Elliot Harmon – 31 octobre 2012 – Creative Commons Blog
(Traduction : Cyrille L., Kodoque, Nyx, kamui57, Naar, pac)

Il y a quelques semaines de cela nous avons vu passer ce tweet surprenant :

Il nous fallait en savoir plus. J’ai donc contacté Joonas Mäkinen pour avoir davantage d’informations, et il m’expliqua qu’il a participé à monter une équipe pour écrire un manuel scolaire de mathématiques de cycle secondaire tout le long d’un week-end, lors d’un évènement appelé Oppikirjamaraton (marathon du livre scolaire). Le choix de la licence du livre s’est porté sur la Creative COmmons BY, pour que chacun puisse le réutiliser, le modifier et le traduire, en Finlande et dans le reste du monde.

Le texte, désormais en version 0.91 sur GitHub, s’intitule Vapaa Matikka. Le titre se traduit par « Mathématiques libres et gratuites », mais sachant que matikka signifie également lotte en finlandais, on peut aussi le lire comme du « Poisson libre ». Et son slogan, Matikka verkosta vapauteen, devient alors soit un cri de ralliement pour garder les ressources éducatives libres et gratuites, soit un mode d’emploi pour libérer un poisson d’un filet ! (d’où la forme suggérée du poisson sur la couverture du livre)

Mais au delà des jeux de mots mathématico-finlandais, je souhaitais comprendre comment la rédaction express de ce livre s’était déroulée, ce que l’équipe prévoyait de faire du manuel, et quels conseils ils pouvaient donner à d’autres personnes organisant un évènement similaire.

Oppikirjamaraton - Joonas Mäkinen - CC byQue couvre le livre comme concepts mathématiques ?

C’est un manuel pour le premier cours de mathématiques de niveau avancé du collège finlandais. Bien que les élèves débutant ce cursus viennent en général de finir l’école primaire obligatoire, nous avons décidé d’avoir une approche « pour les nuls » en essayant de minimiser les prérequis.

Nous introduisons l’arithmétique, les nombres rationnels, les nombres réels en général. Viennent ensuite les règles de priorité et les racines qui mènent aux bases de la résolution d’équation puis au concept de fonction. Puis leurs mises en application concernent la proportionnalité et le calcul de pourcentages. Nous nous devions de respecter le programme scolaire.

Dites-m’en plus sur les exigences du programme. Sont-elles les mêmes pour toute la Finlande ?

Il y a un programme national en Finlande et tout le monde le suit. Du coup tous les manuels se ressemblent même s’ils approchent les sujets dans un ordre légèrement différent les une des autres. Mais le seul test standardisé est l’examen de fin d’année et donc Il y a un peu de flexibilité, ce qui a facilité les choses.

Oppikirjamaraton - Vesa Linja-Aho - CC byQui a participé ? Étaient-ils tous des formateurs ? Les participants avaient-ils déjà écrit ou édité des manuels scolaires ?

Environ 20 personnes ont participé à l’écriture du manuel durant le week-end. Nous avions des professeurs ordinaires du secondaire, des étudiants à l’université (mathématiques et informatique), un professeur d’électronique pour automobile, mes propres étudiants et quelques professeurs d’université travaillant sur place ou à distance. Nous avions même notre propre petit cercle d‘intégristes de la grammaire et de l’orthographe pour nous aider à rédiger de meilleurs contenus formels que ceux que l’on peut habituellement trouver dans le devanture des grosses maisons d’édition. La diversité des participants s’est révélée être une très bonne chose pour produire une variété de problèmes et de perspectives.

Seules quelques personnes avaient l’expérience de l’écriture et publication d’un manuel classique, commercial et à l’ancienne, mais cela n’a pas été clivant quand nous avons commencé à travailler.

Comment vous êtes-vous organisés ? Les rôles des participants avaient-ils été déterminés en amont du week-end ?

Vesa Linja-aho, qui a eu l’idée de ce book sprint (ou livrathon) était de facto notre coordinateur et s’occupait de la logistique, de l’administratif et de la communication. Lauri Hellsten s’est engagé à prendre le rôle principal pour la maquette et la création de graphiques indispensables à l’ensemble. Mais eux mis à part, aucun auteur n’avait d’assignation prédéfinie. Quelques uns d’entre nous avaient bien leurs sujets de prédilection, mais dans l’ensemble le processus d’écriture fut très spontané et dynamique.

Y a-t-il eu beaucoup de préparation à l’avance ? Avez-vous commencé le week-end avec un plan du livre ? Un emploi du temps ?

Le projet était ambitieux. Nous avons attendu que nos amis et les amis de nos amis remplissent un sondage Doodle pour savoir quel week-end réserver (NdT : ils ne connaissaient pas Framadate). J’avais préparé une table des matières pour avoir un point de départ, mais elle a été passablement modifiée vendredi et samedi. Juhapekka Tolvanen nous avait concocté un modèle LaTeX, et on a aussi eu une réunion préalable pour planifier les choses, choisir les outils techniques (quel système de contrôle de versions utiliser, etc.), mais rien sur le contenu en tant que tel. Il s’agissait également de trouver d’éventuels sponsors, écrire un communiqué de presse, trouver un local, vérifier si nous avions assez d’ordinateurs…

Une anecdote sur le droit d’auteur : nous avions réuni plus ou moins tous les livres disponibles sur le sujet. Pour voir un peu comment les autres avaient expliqué ceci ou cela. mais aussi parce que, dans l’enseignement mathématique (et manifestement dans d’autres disciplines aussi), il y a beaucoup d’exemples et d’exercices pathologiques qu’il est bon de faire mais qui finissent par être excessivement récurrents. Et Vesa Linja-aho avait reçu une décision écrite du conseil local confirmant que les exercices ne sont pas des travaux soumis au droit d’auteur. Or un enseignant qui avait écrit un des livres que nous avions nous a laissé un commentaire sur Facebook pour nous rappeler que ce n’est pas bien de copier le travail des autres. Cela nous a bien fait rire 🙂

Oppikirjamaraton - Lauri Hellsten - CC byQue retirez-vous de cette expérience ? Qu’est ce qui a été plus difficile que prévu ? Quels conseils donneriez vous à d’autres envisageant un projet similaire ?

Le principal conseil est de bien mettre en place l’aspect technique avant de commencer. Cela évitera d’inutiles moments de tension pour vous consacrer pleinement et exclusivement à la rédaction du contenu. On a utilisé LaTeX pour le texte et sa mise en forme et GitHub pour gérer les versions, mais on a connu des soucis qui nous ont retardés. Tout le monde n’était pas forcément familiarisé avec ces outils et les ordinateurs pas toujours bien préparés et optimisés pour leurs usages. Ceci nous a malheureusement fait perdre du temps.

De plus certains étaient encore en train de discuter pour savoir si nous devions ajouter ceci ou cela le samedi voire le dimanche, et c’est quelque chose qu’il faut éviter. Dans un tel projet, c’est toujours mieux de simplement continuer à écrire davantage de contenu pour éventuellement le commenter ou le modifier plus tard. On a même connu quelques discussions houleuses, peut-être liées au manque de sommeil. Restez calmes et n’oubliez pas d’y prendre plaisir !

Oppikirjamaraton - Siiri Anttonen - CC byEt après ? Y a-t-il une période de relecture/modification prévue ? Des professeurs pensent-ils utiliser d’ores et déjà votre manuel ?

Le sentiment général, unanime et immédiat après avoir fini le marathon dimanche était l’euphorie. Tout le monde était d’accord pour organiser un autre book sprint. Les retards techniques et le manque de graphistes ont fait que le livre n’a pas atteint le niveau de finition que nous voulions pour l’envoyer à l’impression. Mais c’est vivant maintenant : les gens nous envoient des rapports de bug sur Github et les participants ont continué à apporter des améliorations : corriger les coquilles, ajouter des exercices, corriger les incohérences…

Notre livre existe maintenant en version 0.9, et nous allons attendre quelques semaines avant de décider s’il est prêt à être imprimé et traduit. Cependant, on nous a déjà rapporté que le livre avait été utilisé comme manuel par quelques professeurs en proposant notamment à leurs élèves des exercices du livre. Bien entendu, d’autres auteurs et moi-même l’avons aussi utilisé pour enseigner à nos propres élèves. Lorsque nous l’aurons un peu peaufiné, nous sommes confiants quant à sa diffusion.

Le projet était si sympa et son accueil si bien reçu que nous ferons un autre book sprint très bientôt !

Oppikirjamaraton

Crédit photos : Senja Opettaa (Creative Commons By)




Facebook : et si nous assistions au lent début de la fin ?

Ce n’est pas la première fois que nous vous proposons un témoignage raz-le-bol de Facebook qui joint la théorie à la pratique en décidant de quitter réellement le célèbre réseau social.

Après « la maman », voici « le musicien »… Et si ces deux cas isolés anticipaient un futur (et salutaire) mouvement de fond ?

Le constat va croissant, nombreux sont désormais les gens autour de moi qui n’aiment pas (ou plus) Facebook. L’attrait de la nouveauté envolé, les changement soudain de paramétrage qui désorientent et menacent notre vie privée, le temps passé dessus au détriment de « la vraie vie » (avec des morceaux de vrai(e)s ami(e)s dedans)… nombreuses sont les raisons qui font que la « douce saveur » du début a un arrière-gout de plus en plus amer.

Mais, contrairement à nos deux courageux, la grande majorité y reste pourtant, par habitude ou « parce que, vous comprenez, tout le monde est dessus ».

La parallèle est discutable mais ça me fait penser à tous ces utilisateurs, passés ou présents, enchaînés à leur système d’exploitation Windows. On finit par haïr Microsoft mais on en redemande quand même. Et cela porte un nom : addiction.

Facebook est le Windows de notre époque et il n’a toujours pas trouvé son GNU/Linux (puisqu’en l’occurrence notre musicien ne s’en va malheureusement pas beaucoup plus loin en choisissant Google+).

Phphoto2010 - CC by-nd

Facebook en voie de devenir le prochain MySpace ?

Is Facebook becoming the next MySpace?

Christian Grobmeier – 31 octobre 2012 – Blog personnel
(Traduction : lgnap, tiossanne, Yuston, ehsavoie, Yann, Gatitac, unnamed4, Naar, Damien, Maxauvy, Paul, Simon Villeneuve, 3josh)

Je suis musicien amateur. Bon, entre Time & Bill et d’autres projets me prenant tout mon temps, je suis actuellement un musicien « en pause », mais en 2005, j’étais plutôt actif et je me souviens que nous voulions sortir notre prochain CD. Tous mes amis musiciens étaient sur MySpace et nous parlaient de la pub efficace qu’ils pouvaient y faire. J’ai toujours trouvé le site laid, mais il y avait tellement de monde dessus que je m’y suis inscrit à mon tour, j’y ai déposé nos chansons et j’ai fait l’effort de construire un réseau. Ça a bien fonctionné pendant un moment. Ensuite, il est apparu qu’il y avait plus de musiciens que d’auditeurs sur le site. J’ai reçu des tonnes de messages comme « Écoute mon nouveau titre » ou « Viens à notre concert ». Les commentaires sur notre page ressemblaient à un grand mur couvert de pubs collées par d’autres musiciens. Parfois, parmi tous ces messages, on pouvait voir des femmes nues proposant leurs services. J’ai fini par fermer les commentaires. Puis MySpace a commencé à « faire mieux» (NdT : nouveau slogan du site). Ça a échoué, le site est simplement devenu plus lent, laid et inutilisable. Finalement, j’en suis parti et me suis préoccupé uniquement de notre site web. MySpace était un vrai bazar et n’avait plus aucune utilité.

Ensuite, tout le monde est passé à Facebook. J’y ai jeté un œil, sans être emballé. Il était difficile d’y mettre de la musique. Il y avait un côté restrictif et j’ai vraiment détesté l’interface utilisateur, mais bon, là encore tout le monde s’y est inscrit, et j’en ai donc fait de même. J’ai trouvé quelques applications tierces qui permettaient à mes visiteurs d’écouter ma musique. Tout allait bien. Après quelques temps, j’y ai même retrouvé avec émotion de vieux amis. Tout semblait aller pour le mieux.

C’est alors que les jeux sont arrivés. Tout à coup, ce fut le bazar. Eh, je ne veux pas gagner d’or, tuer des dragons ou cultiver des salades. Je suis juste là pour discuter avec des amis et échanger avec les fans de notre groupe. Cela empira au point de vouloir quitter Facebook lorsque j’ai découvert FBPurity. Et les choses s’arrangèrent. Quand j’ai découvert comment faire pour que Facebook arrête de m’envoyer des e-mails « Veux-tu jouer à ce jeu super ? », tout est rentré à nouveau en ordre, apparemment.

J’ai pendant longtemps ignoré toutes les discussions sur la confidentalité des données. Je ne publie rien de sensible sur Facebook. Les photos téléversées sont du tout-venant. Je ne réponds pas à toutes les questions que Facebook me pose. Ainsi, j’ai pu vivre avec le fait que Facebook fasait des choses vraiment étranges avec mon profil. À un moment, des clients m’ont ajouté à leur liste d’amis, j’ai donc dû devenir plus prudent avec mon profil. Il est probablement étrange pour mes clients de lire sur mon mur les invitations de ma maman à récolter de la salade sur Farmville, mais bon, ils doivent faire avec.

La confidentialité des données — est-ce vraiment un problème ? Parce que j’ai appris que la majeure partie du contenu sur Facebook est de la vraie foutaise. « Aïe, je me suis cassé un orteil » est l’un des messages les plus intéressants. Parfois, quelqu’un a un bébé, et si c’est un vieil ami, je le sais déjà. Si c’est une personne dont je n’ai pas entendu parler depuis des années, ce n’est pas aussi amusant que de lire les bêtises d’un autre ami dans un bar. Alors, quelles sont les « données importantes » dont nous nous préoccupons tous ? Si ce ne sont pas les absurdités que nous écrivons, c’est probablement lorsque nous cliquons sur « J’aime », parce que Facebook sait alors que nous aimons Coca-Cola et qu’il peut vendre notre profil client à n’importe qui.

Néanmoins, je peux accepter qu’ils vendent mes données pour me fournir un service apte à promouvoir mon groupe et garder contact avec avec mon réseau de relations, même si l’interface est toujours un cauchemar. Depuis le lancement de Google+, Facebook est devenu encore plus bordélique. Par exemple, il me faut toujours un temps fou pour ajouter des évènements à une page qui m’intéresse pour un ami.

Maintenant, qu’est-ce qu’on nous propose ? Des pubs partout,me forçant à utiliser AdBlock+ (j’y suis passé). Du contenu bien souvent sans intérêt et trop chronophage, je suis bien assez occupé comme ça. Mon profil est vendu à des inconnus. Ah, et au fait, j’oubliais : Facebook modifie pas mal de choses sans notification préalable.

Par exemple, vous ne pouvez plus cibler tous les fans de votre page lorsque vous postez un nouveau contenu. C’est vrai, Facebook me conseille maintenant de payer pour cela. Voici un billet intéressant à ce sujet qui décrit la situation. Après tout, il faut bien compenser la chute des actions en bourse…

À présent, Facebook a largement dépassé la moisissure qu’était Myspace. Non, je ne paierai pas pour ça, et je vais cesser de poster du contenu. Pourquoi continuerais-je à en poster si personne ne le lit ? Pourquoi paierais-je pour discuter de choses futiles et anodines avec mes amis ? Le téléphone est bien moins cher ! Pourquoi paierais-je pour la présence de mon groupe sur cette plateforme alors qu’il ne génère aucun revenu actuellement ?

Il en va souvent ainsi j’imagine, parfois, les grands réseaux sociaux oublient que les utilisateurs ne sont pas que des machines à fric, et aussi qu’ils peuvent partir. Je compte d’ailleurs quitter Facebook au profit de Google+. J’y poste déjà le contenu de tous mes blogs, si vous souhaitez me suivre. J’aime beaucoup son interface. ses bulles, ses cercles et son tchat vidéo. On y trouve du contenu de meilleure qualité que sur Facebook, et beaucoup de spécialistes sur un sujet donné.

Ce qui fait que Twitter et G+ sont désormais mes principaux canaux de communication. Du moins, jusqu’à ce qu’ils empirent. Twitter fait déjà des choses étranges, comme avec ses nouvelles modifications plus restrictives de l’API. Voyons ce que le futur nous réserve.

Enfin, je crois fermement qu’un jour, il y aura un réseau social décentralisé fondé sur des outils open source.

Adieu Facebook. Tu ne me manques pas.

Crédit photo : Phphoto2010 (Creative Commons By-Nd)




Ubuntu est-elle une distribution commerciale ? Et si oui pourquoi le taire ?

Excellent accélérateur de migration Windows vers GNU/Linux, Framasoft soutient et promeut depuis le début la distribution grand public Ubuntu. Et ce ne sont ni les annotations de Richard Stallman ni la récente « affaire Amazon » (fort bien explicitée par Christophe Sauthier) qui nous feront changer d’avis.

Mais cela ne nous empêche pas dans ces colonnes de traduire de temps en temps des articles parfois critiques à son égard, au risque de déclencher des ires dans les commentaires 😉

Ici le journaliste Sam Varghese reproche à Mark Shuttleworth de ne pas avoir clairement affirmé, et ce dès l’origine, le caractère commercial d’Ubuntu intimement liée à sa société Canonical. C’est ce qui explique pour lui que cette histoire avec Amazon a été si mal prise pour la communauté.

Et de citer alors en exemple la société Red Hat qui lui semble plus claire dans ses objectifs (de profits). D’ailleurs cette dernière propose deux distributions plutôt qu’une : la « commerciale » Red Hat Enterprise Linux et la « communautaire » Fedora.

Il est d’ailleurs possible que cette éventuelle confusion soit encore plus forte dans des pays comme la France où la communauté Ubuntu est très dynamique.

Il est vrai qu’une fois qu’on découvre GNU/Linux (souvent avec Ubuntu), on s’aperçoit qu’il existe bien des différences entre les distributions. Le très pratique mais pas très libre Linux Mint n’est pas la même que la moins pratique mais très libre Trisquel. La gouvernance et finalité d’une Debian diffèrent sensiblement de celle d’Ubuntu qui s’en est inspirée à la base.

C’est toute la richesse et diversité du logiciel libre et c’est très bien ainsi, non ?

StephenrWalli - CC by-sa

La grande erreur de Mark Shuttleworth

Mark Shuttleworth’s big mistake

Sam Varghese – 26 octobre 2012 – ITWire.com
(Traduction : peupleLa, Bob Young, KoS, Yuston, Gatitac, HgO, greygjhart)

La semaine dernière a marqué le huitième anniversaire de l’apparition d’Ubuntu sur la scène GNU/Linux. Depuis octobre 2004, de nouvelles versions de cette distribution sont sorties tous les six mois : le buzz initial a été très fort avant de s’estomper peu à peu.

Il est remarquable qu’au fil des ans, chaque fois que Mark Shuttleworth, l’homme qui possède Canonical, la compagnie qui est derrière Ubuntu, introduit une nouvelle fonctionnalité destinée à générer des revenus, des cris et des pleurs se font entendre. Alors, les gens d’Ubuntu essaient de s’expliquer et pour finir, on trouve un semi-compromis qui ne satisfait personne.

La dernière de ces fonctionnalités, dans la version 12.10, fut l’ajout des résultats de recherche d’Amazon aux résultats de recherche habituels. Ce qui signifie un peu d’argent venant d’Amazon pour Canonical (à chaque fois qu’un utilisateur d’Ubuntu achète un produit Amazon à partir de la recherche). Le compromis a été d’en faire une fonctionnalité optionnelle.

De telles situations se sont déjà produites par le passé, et se reproduiront encore à l’avenir. Il y a selon moi une raison simple à cela : Mark Shuttleworth n’a pas réussi à formuler une vision claire du projet Ubuntu à ses débuts. Grave erreur.

Lorsqu’Ubuntu est sortie pour la première fois, il y a eu beaucoup de discussions à propos de la signification de la formule : l’humanité en partage (NdT : humanity to others). Il y avait un tas de fonctionnalités cools, qui mettaient l’accent sur l’implication de la « communauté ». Des cédéroms étaient livrés gratuitement aux gens. On aurait dit une œuvre de bienfaisance du logiciel libre gonflée aux stéroïdes. Ou à l’EPO, à la Lance Armstrong (en français dans le texte) si vous préférez.

Mais il n’y a jamais eu de discussions à propos du fait qu’Ubuntu est une distribution commerciale ; elle a besoin de générer du profit pour exister. Shuttleworth a les poches profondes mais elles ne sont pas sans fond. Le logiciel a beau être gratuit, il faut néanmoins que les comptes atteignent un jour l’équilibre.

À l’opposé, lorsque Red Hat, de loin l’entreprise générant le plus de profits grâce à GNU/Linux, est née, en 1994, tout le monde savait que son but était de générer de l’argent grâce au système d’exploitation libre. Il n’y avait pas d’illusions. C’est pourquoi en 1997, lorsque j’ai pour la première fois entendu parler de GNU/Linux, la communauté du logiciel libre surnommait déjà Red Hat la « Microsoft » des distributions Linux !

Mais au fil des ans, Red Hat a acquis beaucoup de karma positif auprès de la communauté. Elle contribue largement au progrès de Linux en recrutant une bonne partie des développeurs contibuant au noyau. Elle finance des activités périphériques pour participer à la croissance de l’écosystème des logiciels libres.

Personne n’a dit le moindre mal d’Ubuntu à ses débuts. Mais à certains moments en cours de route, quand il s’agissait d’incorporer des fonctionnalités en vue de générer des revenus, les utilisateurs se sont dressés en masse. On ne peut pas leur en vouloir; ils avaient été amenés à croire que la communauté était primordiale et ils ont réagi.

Après quelques-unes de ces confrontations, Shuttleworth a levé le pied et poursuivi sur le chemin qu’il avait choisi. Il ne pouvait pas vraiment faire autrement, après les critiques d’abords douces puis amères soulevées par ses tentatives progressives d’introduire des fonctionnalités commerciales.

Les membres de la communeauté n’ont rien contre ceux qui gagnent de l’argent grâce à des logiciels libres. Patrick Volkerding, créateur et mainteneur principal de la distribution Slackware, est considéré par beaucoup comme un héros pour avoir toujours fourni à ses utilisateurs la distribution qu’ils voulaient. En retour, ces utilisateurs achètent tout ce qu’il produit pour qu’il gagne de l’argent et continue son travail. Et sa distribution est demeurée bénéficiaire la majeure partie de son existence.

Mais Shuttleworth a plus ou moins creusé sa propre tombe. Il aurait dû être clair quant au chemin qu’il allait prendre, clair à propos de son but, et faire attention à ce que son plan soit transparent. Une société basée sur GNU/Linux doit tracer son chemin différemment d’une société ordinaire ; peut être que Shuttleworth n’en avait pas conscience.

Quelle qu’en soit la raison, son manque de communication a abouti à ce qui s’est produit avec les résultats de recherche Amazon et ce qui s’en suivra. C’était la grosse erreur de Mark Shuttleworth.

Crédit photo : Stephen Walli (Creative Commons By-Sa)




Windows 8, faux progrès et vraie menace

Windows 8, le nouveau système d’exploitation de Microsoft, qui sera le même pour PC, tablette et smartphone, devrait être lancé officiellement le 26 octobre, et on peut compter sur le puissant marketing de la multinationale pour nous abreuver d’images cool, avec des doigts qui caressent une interface tactile en tuiles sur un bureau attrayant. C’est certain, l’interface entièrement rénovée sera plus au goût du jour, maintenant que la vaste diffusion des appareils mobiles nous a accoutumés à d’autres gestes que cliquer sur des icônes…

Le libristes habitués aux versions successives plus ou moins buguées de Windows (et celle-ci promet déjà de l’être) hausseront sans doute les épaules et retourneront à leur Debian. Ils auront peut-être tort si l’on en croit Casey Muratori, qui se demande si l’impact du nouveau système ne pourrait pas être aussi décisif pour l’informatique grand public que la sortie de Windows 3.0.

En effet, derrière ce qu’on ne manquera pas de nous vendre comme un progrès, c’est une véritable régression qui va s’opérer : tous les logiciels qui tourneront avec le nouveau système devront passer obligatoirement par le Windows Store, Microsoft exercera donc un contrôle total sur son écosystème logiciel.

De plus, la compatibilité maintenue de l’ancienne interface avec la nouvelle, si elle semble assurée dans une première étape, pourrait à terme en signer la disparition pure et simple, comme le souligne l’auteur de l’article ci-dessous, qui établit judicieusement un rappel historique : souvenez-vous de la manière dont MS-DOS a progressivement été effacé du paysage après une brève période de coexistence avec Windows 3.0. Euh oui ça ne rappellera rien aux plus jeunes, mais prendre un peu de recul est ici pertinent.

La menace de Windows 8 c’est d’abord d’imposer un système fermé à tous les développeurs et bien sûr à tous les consommateurs. Mais Casey Muratori se demande in fine si la première victime ne sera pas Microsoft lui-même, tant le virage stratégique qu’il opère risque de lui coûter ses principaux soutiens. La bataille des systèmes d’exploitation est engagée, qui en sortira indemne ?

Remarque : Nous n’avons pas traduit les deux appendices qui figurent en bas de l’article d’origine mais nous serions ravis de trouver des volontaires prêts à compléter cela avec nous sur le framapad de travail.

Kiwi Flickr - CC by

Les vingt ans à venir

The Next Twenty Years

Casey Muratori – 8 octobre 2012 – MollyRocket.com
(Traduction : Genevois, Maïeul, KoS, BlackEco, mib_6025, Geekandco, FredB, goofy, Quentin)

Voici pourquoi le modèle de distribution fermé de Windows 8 doit être remis en cause dans l’intérêt des développeurs, des consommateurs et même de Microsoft lui-même.

Pour la première fois dans l’histoire du PC, Microsoft s’apprête à diffuser un nouvel écosystème Windows dont il sera le seul et unique fournisseur de logiciels. Si vous achetez Windows 8, le seul endroit où vous pourrez télécharger des logiciels qui s’intègreront à la nouvelle interface de système, ce sera le Windows Store officiel. Microsoft exercera un contrôle total sur les logiciels autorisés ou non sur son système d’exploitation.

Microsoft a déclaré que les applications destinées à l’interface plus ancienne du bureau ne seraient pas impactées par cette nouvelle politique. Tant qu’ils utiliseront seulement des applications qui tournent sur le bureau classique, les utilisateurs auront encore la possibilité d’acheter, vendre, développer et distribuer des logiciels sans que Microsoft ne s’en mêle. Beaucoup d’utilisateurs de Windows ont compris cette déclaration comme une assurance que le modèle ouvert de distribution dont ils bénéficient aujourd’hui serait encore valide dans les futures versions de Windows. Du coup beaucoup moins de gens ont réagi au problème posé par Windows 8 que si la déclaration avait été comprise différemment.

Mais est-ce bien réaliste de croire que l’ordinateur de bureau sous Windows sera encore une plateforme informatique utilisable à l’avenir ? Et quelles en seraient les conséquences si elle venait à disparaître, laissant les utilisateurs de Windows avec pour toute ressource l’écosystème cadenassé de logiciels introduit par Windows 8 ? Pour répondre à ces questions, cette édition de Critical Detail examine les effets à court et à long terme des exigences imposées par Microsoft pour obtenir sa certification. Nous explorerons en profondeur comment l’histoire permet de prédire la durée de vie du PC classique sous Windows, nous aborderons de façon pragmatique cette question : vaut-il mieux pour Microsoft en tant qu’entreprise qu’elle adopte un écosystème ouvert ou fermé ?

Le Jeu de l’Année 2032

Selon PC Gamer Magazine, et de nombreuses autres sources en accord, le jeu PC de l’année 2011 était Skyrim : Elder Scrolls V. Ce constat n’a étonné personne. Skyrim pour PC a été rendu disponible sur Windows, pas MS-DOS. Même si les développeurs le voulaient, il leur était impossible de mettre à disposition un jeu PC comme Skyrim sur DOS car aucune des innovations graphiques des 15 dernières années n’est disponible sur celui-ci. Il est même absurde de penser pouvoir vendre des applications tournant sous MS-DOS aujourd’hui.

Hypothétiquement, on peut penser autant absurde dans 20 ans de vendre des applications pour la version bureau de Windows. Il n’y aura pas de jeux vidéo PC en 2032 comme il n’y a pas de jeux sous DOS en 2012. Tout fonctionnera sous une forme redéfinie pour l’interface moderne de Windows 8.

Puisque aucune application pour cette plateforme à venir ne pourra être vendue sans passer par le Windows Store, l’équipe ayant travaillé sur Skyrim devra envoyer son application à Microsoft pour validation. C’est ensuite la firme qui jugera de la validité de l’application et de la possibilité de la vendre. Savez-vous ce que pourrait être la réponse de Microsoft ?

Moi oui. Ce serait « non ».

Ce n’est pas une spéculation, c’est une certitude. Skyrim est un jeu pour adultes. Il est certifié PEGI 18. Si vous lisez les conditions de certification Windows 8 App, vous trouverez à la section 5.1 :

Votre application ne doit pas proposer de contenu pour adulte, et les metadatas doivent être appropriés à chacun. Les applications avec une évaluation PEGI 16, ESRB ADULTE, ou qui proposent du contenu pouvant nécessiter une telle évaluation ne sont pas autorisées.

Et c’est plié. Pas de Skyrim sur le Windows Store, à moins que les développeurs ne reviennent en arrière et retirent le contenu classé PEGI-18.

C’est le Jeu de l’Année 2011, banni du Windows Store. Et à propos de 2012 ? Avec de nombreux jeux très attendus à venir, personne ne peut deviner lesquels seront sélectionnés. Mais une sélection aléatoire des prédictions actuelles que l’on retrouve sur la toile suggère comme principaux prétendants Max Payne 3, The Witcher 2, Mass Effect 3, Assassins Creed 3, Call of Duty: Black Ops 2 et Borderlands 2. Parmi les quatre de cette liste qui ont reçu une évaluation PEGI pour adultes, combien pourront être vendus sur le Windows Store ?

— Aucun.

Il y a certainement aujourd’hui de nombreuses personnes, si ce n’est la majorité, qui pensent que les jeux vidéo n’ont pas de vrai potentiel culturel. Ce ne sont pas des œuvres d’art diront certains, et ce n’est donc pas grave qu’une plateforme majeure interdise sa diffusion. Dans l’intérêt d’illustrer de manière plus étendue l’importance d’une plateforme ouverte , donnons à nos jeux un lifting culturel. Supposons que nous ayons d’un coup de baguette magique tout un lot de jeux équivalents aux meilleures séries nommées aux Emmies 2012 : Boardwalk Empire, Breaking Bad, Mad Men, Downton Abbey, Homeland et Game of Thrones.

Admettons que Downtown Abbey ait été le seul à franchir le test d’évaluation PEGI, mais même si les autres satisfaisaient plus ou moins les critères, ils auraient été exclus du magasin pour un tas d’autres raisons, telles que l’expose la section 3.5 :

Votre application ne devra pas proposer du contenu ou des fonctionnalités qui encouragent, facilitent ou glorifient des activités illégales.

Et section 5.6 :

Votre application ne devra pas proposer du contenu qui encourage, facilite, ou glorifie une utilisation excessive ou irresponsable d’alcool, de tabac, de drogues ou d’armes.

Ou section 5.8 :

Votre application ne devra pas contenir de propos blasphématoires outranciers.

Cette vision d’un futur Windows fortement censuré par Microsoft est effrayante. Mais quelles sont les risques que cela arrive ?

Pour Windows RT, la version de Windows pour les tablettes peu puissantes et les téléphones, ce futur commence le 26 octobre. Tous les appareils fonctionnant avec Windows RT ne pourront faire tourner que des logiciels venant du Windows Store, et tous les logiciels devront suivre les exigences de certification énoncées ci-dessus et des dizaines d’autres. Les utilisateurs de Windows RT n’auront pas dix ou vingt ans avant de ne plus pouvoir jouer aux jeux les plus populaires sur leurs machines. Ces jeux auront été bannis dès le premier jour.

Mais pour Windows 8 et Windows 8 Pro, les versions qui seront les plus répandues, le calendrier est encore incertain. Contrairement à Windows RT, ces versions incluent le bureau classique de Windows qui prend encore en charge la distribution ouverte. Est-il possible, alors, que les utilisateurs de la version bureau n’aient jamais à expérimenter ce futur ?

Une brève analyse de l’histoire de Microsoft suggère plutôt l’inverse.

Anatomie d’un changement de plateforme chez Microsoft

Dans la fin des années 1980 une bonne partie de l’informatique grand public utilisait déjà des interfaces graphiques. Des machines comme le Macintosh d’Apple, le Commodore d’Amiga et l’Atari ST ont eu un grand succès et chacune était livrée avec un système d’exploitation graphique moderne pré-installé. D’un autre côté, les PC tournaient essentiellement sous MS-DOS, un environnement en ligne de commande où les applications devaient implémenter leur propre interface rudimentaire.

Malgré cet inconvénient, le PC n’en était pas moins florissant. Comme c’était une plateforme matérielle ouverte et qu’elle avait été adoptée dans l’environnement professionnel, la plupart des logiciels de productivité de l’époque, comme Lotus 1-2-3 et WordPerfect – traitaient MS-DOS comme une plateforme commerciale majeure.

Puis, le 22 mai 1990, Microsoft sort Windows 3.0. Cette version de Windows peut faire quelque chose que les précédentes versions ne pouvaient pas : faire tourner des programmes MS-DOS en plus des applications graphiques natives. Pour la première fois, on pouvait faire tourner les applications de travail standards sans quitter une interface conviviale. L’interface graphique de Windows n’était peut-être pas aussi flashy que ce qui existait sur d’autres plateformes, mais cela offrait aux gens la possibilité de n’utiliser qu’un seul OS pour tout et c’est ce que les consommateurs voulaient. Le taux d’adoption monta en flèche.

Durant les cinq années suivantes, Microsoft continua à ajouter de nouvelles API à Windows. Bien que les gens aient continué à développer des programmes sous MS-DOS, il devint de plus en plus difficile de faire une application professionnelle qui n’intégrait pas des choses comme le gestionnaire de polices de Windows, les services d’impression, les boîtes de dialogue standard et les presse-papiers. Les clients s’attendaient à pouvoir utiliser ce genre de choses et les logiciels MS-DOS ne le pouvaient tout simplement pas.

La plupart des applications firent la transition vers des versions natives Windows ou disparurent, mais les jeux furent l’obstacle majeur. Ils vivaient et mouraient par la performance et ne pouvaient se permettre la surcharge induite par Windows. Mais finalement Microsoft trouva le moyen de leur fournir l’accès au hardware dont ils avaient besoin, et lentement mais sûrement les jeux natifs Windows devinrent de plus en plus communs. Lorsque Windows 2000 fut lancé le 17 février 2000, seulement dix ans après la sortie de Windows 3.0, faire tourner des programmes MS-DOS était passé du statut de principale caractéristique qui faisait de Windows ce qu’il était à un mode de compatibilité fermé destiné seulement à assurer le support des versions précédentes. MS-DOS en tant que plateforme et tous les programmes qui lui étaient liés sombrèrent dans l’obscurité.

Le 22 juillet 2009, pas loin de vingt ans après la sortie de Windows 3.0, Microsoft présenta la version de Windows la plus utilisée aujourd’hui, Windows 7 64-bits. Si vous essayez de lancer une application MS-DOS sur Windows 64 bits, vous aurez une boîte de dialogue qui dit :

win-alert.jpg

Vous pouvez toujours faire tourner ce programme, mais vous devrez installer une version 32 bits de Windows ou télécharger et installer un paquet Windows XP Mode sur le site de Microsoft.

Retour à 1990

La situation du PC en tant qu’objet informatique de consommation est très similaire aujourd’hui en 2012 à ce qu’elle était en 1990. Sur le PC, nous utilisons encore l’interface WIMP (Windows, Icônes, Menus, Pointeur) dont le standard s’est imposé depuis une trentaine d’années (seulement une vingtaine sur les seuls PC). Mais pour ce qui est de tous les autres appareils populaires aujourd’hui — les smartphones et les tablettes — les interfaces WIMP n’existent plus. Les systèmes d’exploitation comme iOS et Android ont remplacé le WIMP par des interfaces tactiles, exactement comme les Macintosh et Amiga ont fait disparaître la ligne de commande des interfaces utilisateurs dans les années 80.

Mais voilà que le 26 octobre, Microsoft va lancer son premier système d’exploitation tactile, Windows 8. Plutôt que d’abandonner carrément le WIMP, ils ont choisi de l’inclure comme sous-ensemble de leur nouvelle interface tactile. Tout comme l’interface de Windows 3.0 coexistait avec MS-DOS, la nouvelle interface de Windows 8 sera disponible avec un bureau traditionnel Windows 7.

Comme c’était déjà le cas pour Windows 3.0 et DOS, l’intégration d’une interface dans l’autre est tout à fait superficielle. Certaines parties sont bien intégrées mais la plupart ne le sont pas. Vous pouvez créer des tuiles dans la nouvelle interface utilisateur pour lancer des programmes dans l’ancienne, tout comme dans Windows 3.0 vous aviez des icônes qui permettaient de lancer des programmes sous DOS. Mais exactement comme les programmes DOS tournaient dans un conteneur spécial, et rendaient impossibles des opérations comme l’ouverture d’autres fenêtres, de boîtes de dialogue, l’usage de fontes différentes ou le transfert d’images vers le bureau, les applications de bureau classiques sont contingentées dans un conteneur spécial du bureau de Windows 8 et ne pourront accéder à la plupart des nouvelles fonctionnalités de nouvelle interface Windows 8.

Bref, le bureau sous Windows 8 en est au point où se trouvait MS-DOS sous Windows 3.0. Ce qui nous amène à la question cruciale?: si Microsoft est aussi attentif à la nouvelle interface utilisateur de Windows 8 qu’il l’a été à celle de Windows 3.0, à quoi va ressembler le support du bureau Windows classique à l’avenir ? Si vous pensez que l’histoire se répète, la réponse est sans ambiguïté : il sera relégué dans l’oubli d’ici dix ans et cessera d’exister dans vingt sauf si on assure la rétro-compatibilité manuellement.

Maintenant, nul ne peut prédire l’avenir avec certitude. Beaucoup d’entre vous ne sont probablement pas convaincus le moins du monde que l’avenir du bureau sera inspiré par une version plus élaborée et affinée de la nouvelle interface de Windows 8. Mais si vous jetez un coup d’œil en arrière vous prendrez conscience que beaucoup de gens pensaient exactement ainsi quand Windows 3.0 est sorti, j’espère que vous mesurez à quel point il est possible que nous soyons dans une situation similaire.

L’avenir mort-né de Windows 8

Pour les développeurs aujourd’hui, le monde de l’informatique de grande consommation avant l’arrivée de Windows 8 est un peu chaotique. Il y a iOS, une plateforme sur laquelle vous ne pouvez publier aucune application native sans la permission aléatoire et arbitraire d’Apple. Il y a Android, une plateforme agréablement ouverte mais qui est en proie à une gestion catastrophique des spécifications du matériel, qui manque d’implication pour le support de code natif et qui est menacée d’être sérieusement mise en péril par des poursuites judiciaires qui bloqueraient tout au nom des brevets logiciels. Et puis il y a les plateformes comme Blackberry, WebOS, Kindle Fire (basée sur Android) et Nook, qui sont encore en quête d’une adoption plus consistante par des utilisateurs.

Entre en scène Windows 8. Il est conçu pour une interaction tactile, a de spécifications matérielles bien définies, est doté d’une interface dont le code natif est bien documenté, peut être utilisé directement comme environnement de développement sans nécessiter de compilation sur un autre système — et oui, il est soutenu par une entreprise notoire pour sa sournoiserie, qui détient un portefeuille de brevets cinq fois plus épais que celui d’Apple. Donc si jamais Apple essayait d’entreprendre une action litigieuse contre Windows 8 similaire à celle qu’il a menée contre Android, nous verrions se déclencher en représailles un tir nourri de plaintes pour violation de brevets qui atteindrait un tel niveau que le chouette immeuble flambant neuf du quartier général d’Apple serait submergé par des tonnes de paperasses rédigées en une obscure langue juridique.

On en est aujourd’hui à un tel point de confusion dans le paysage du développement en informatique que cela pourrait effectivement être un pas en avant pour les développeurs. En supposant que le développement du nouvel écosystème de Windows 8 suivra les mêmes règles que le développement de l’ancien, n’importe quel développeur pourrait simplement installer Windows 8, développer des logiciels ciblant le marché du tactile, puis le distribuer gratuitement ou en le monnayant via son site web ou un distributeur tiers. Moins de prises de têtes avec la diversité des plateformes, pas d’exigences incertaines à satisfaire préalablement pour tester, pas de frais de développement bizarres ou de souscription obligatoire — et plus important encore, pas de puissance hégémonique d’Apple s’interposant entre les développeurs et leurs clients.

Mais voilà, il y a un petit problème. Microsoft a décidé de ne pas suivre, pour le nouvel écosystème de Windows 8, les mêmes règles qu’avec les éditions précédentes de Windows. À la différence de la transition entre MS-DOS et Windows 3.0, Microsoft ne prévoit pas d’étendre l’écosystème de Windows. Ils veulent lui faire prendre une tout autre voie.

Monopole

Le problème commence avec le Windows Store. Si le nom vous rappelle le App Store d’Apple, c’est parce qu’effectivement c’est l’App Store d’Apple. C’est une plateforme de distribution centralisée que Microsoft contrôle, qui permet aux utilisateurs finaux d’acheter des logiciels à partir d’un catalogue de titres explicitement approuvés par Microsoft.

Ce qui, en soi, pourrait ne pas être aussi mauvais. Il y a des arguments valables contre le fait que le propriétaires d’une plateforme contrôle le marketplace par défaut pour cette plateforme, mais si la plateforme permet aux personnes de développer et de distribuer des logiciels gratuitement en-dehors du marketplace, alors d’autres entreprises peuvent aussi bien contourner/se passer du/ le magasin. Les développeurs peuvent distribuer leurs logiciels par d’autres canaux, ou même fournir des magasins alternatifs, réduisant par une saine concurrence le danger d’abus ou d’obstruction de la part du propriétaire de la plateforme.

Toutefois, il est très clair en parcourant les publications de Microsoft sur Windows 8 que pour avoir le droit de bénéficier de la nouvelle interface utilisateur, vous devrez distribuer votre application dans le Windows Store. Cela veut dire qu’en octobre, Microsoft lui-même sera devenu l’unique source de logiciels pour tout ce que vous voudrez faire tourner sur une machine Windows qui ne serait pas relégué au vieil écosystème précédent. À la différence de la transition historique entre MS-DOS et l’interface utilisateur de Windows, et même si la précédente version restera probablement disponible, la nouvelle (celle de Windows 8) sera bel et bien fermée. Ce qui placera Microsoft dans une position de monopole totalement nouvelle : celle d’un distributeur exclusif de logiciels pour la majeure partie des ordinateurs du monde entier.

Maintenant, il existe apparemment un point qui fait controverse. Peut-être parce que Microsoft n’en a pas fait état de façon très importante dans ses communiqués de presse, certains doutent que pour distribuer des logiciels destinés à la nouvelle interface utilisateur, il faudra nécessairement que les développeurs obtiennent la permission de Microsoft. Mais ils ont tort. Afin de mettre les choses au clair une fois pour toutes, une analyse complète et des recherches approfondies sur les publications officielles de Microsoft sur le sujet figurent en annexe B de l’article d’origine. Il démontre qu’il n’y aura aucun moyen pour les développeurs de distribuer sur Internet des applications compatibles avec l’interface utilisateur moderne, sans avoir reçu une approbation explicite de la part de Microsoft.

Donc, en gardant cela à l’esprit, il est grand temps de se poser la question cruciale : si l’interface du nouveau Windows 8 en vient à remplacer complètement le bureau classique, et que Microsoft exerce désormais un contrôle total sur les logiciels qui seront autorisés ou non pour cette nouvelle interface, dans quelle mesure l’avenir de Windows sera-t-il spectaculairement affecté ? Est-ce que les jeux conçus pour les adultes seront les seules victimes de ce changement ou bien l’enjeu est-il beaucoup plus important ?

L’avenir pourrait être n’importe où

Bannir la plateforme de jeux la plus populaire du tout nouvel écosystème Windows 8 – qui est aussi le seul écosystème accessible aux utilisateurs de Windows RT – est l’une des conséquences négatives des directives de certification des applications par Microsoft. D’autres parties de ces directives auraient empêché l’existence de choses comme Flash, JavaScript et le Web dynamique, l’app store lui-même, s’ils n’existaient pas encore et donc d’être inclus à la plateforme de Microsoft elle-même. Il est donc clair que Microsoft s’est assuré que le nouvel écosystème Windows n’hébergerait jamais plus que les quelques applications que Microsoft considère comme importantes.

Mais simplement parce que Microsoft a fait un travail épouvantable en définissant les limites du nouvel écosystème, est-ce que cela signifie que la seule alternative est de réaliser un écosystème complètement ouvert ? Microsoft ne pourrait-il par définir de nouvelles et meilleures directives ?

La réponse étant pas tant qu’ils ne connaissent pas l’avenir. Et pas dans un sens général, mais littéralement le voir en pleine résolution/*lumière*/, et chaque détail avec clarté. En l’absence de telles prévisions idéales, comment une entreprise pourrait-elle dicter des règles pour des logiciels futurs sans interdire accidentellement des choses sur lesquelles de nouveaux logiciels révolutionnaires pourraient se fonder ?

La réalité est que même les entreprises les plus prospères sont rarement capables de prédire le futur avec précision. L’histoire de l’informatique regorge d’exemples. Digital Equipment Corporation, qui a été un certain temps la seconde plus grande entreprise d’informatique, n’a pas réussi à prévoir la révolution de l’informatique personnelle et son nom lui-même n’existe plus maintenant. Silicon Graphics, qui a été le leader du matériel d’imagerie 3D, n’a pas prévu la popularisation de ce matériel et à finalement été contraint de se déclarer en faillite.

Bien qu’étant très loin de connaître un sort aussi affreux, le passé de Microsoft montre qu’ils ne sont pas meilleurs prophètes. Bill Gates a ainsi déclaré à la fin des années 1990 :

« On se fait parfois surprendre. Par exemple, quand Internet est arrivé, c’était notre cinquième ou sixième priorité. »
– Bill Gates, lors d’un discours à l’Université de Washington en 1998

Et le changement de barreur sur le navire Microsoft n’a pas apporté d’amélioration :

« Il n’y a aucune chance que l’iPhone s’attribue une part de marché significative. Aucune chance. »
– Steve Ballmer, dans une entrevue avec USA Today en 2007, dans laquelle il a prédit que l’iPhone ne prendrait que « 2 ou 3% » du marché du smartphone.

Sans connaissance précise du futur, la seule manière d’éviter de bloquer l’innovation sans le vouloir est par définition de ne rien interdire de manière significative. Les seules exigences de certification que Microsoft pourrait choisir et qui soutiendraient complètement le futur seraient celles qui permettraient de certifier tout ce que des développeurs pourraient créer.

C’est la définition la plus épurée d’un écosystème ouvert.

Une maigre concession

Pour n’importe quel développeur désireux de créer le logiciel innovant du futur, il devrait être extrêmement clair que la nature fermée du nouvel écosystème de Windows 8 sera catastrophique pour la plateforme. La question ne se pose même pas, elle devrait être ouverte. Mais les développeurs ne sont pas les personnes chargées des politiques de Windows 8.

Donc la question plus pertinente pourrait être : est-ce que Microsoft peut se permettre de changer de cap et autoriser la distribution des applications Windows 8 par n’importe qui, et non pas seulement sur le Windows Store! ?

En prenant en compte le long terme, Microsoft ne peut pas se permettre de ne pas changer de cap. Ils sont déjà en retard sur tous les segments du marché de la consommation en-dehors du PC, par conséquent ils n’ont pas le droit à l’erreur. Si une nouvelle innovation logicielle arrive et considère qu’Android est sa plateforme primaire/de prédilection parce qu’elle a un système ouvert de distribution, cela pourrait facilement conduire à une nouvelle “décennie perdue” pour Microsoft, lorsqu’ils devront à nouveau rattraper leur retard.

Mais aujourd’hui les entreprises ne regardent généralement pas sur le long terme. Les profits à court terme et les besoins des actionnaires constituent des préoccupations immédiates et impératives ; et Microsoft est un compagnie notoire, contrainte par des nombreux intérêts externes. La question se pose donc en ces termes : l’entreprise Microsoft peut-elle autoriser un système de distribution ouvert avec Windows 8 sans nuire à son chiffre d’affaires ?

De manière surprenante, la réponse est qu’il y aura peu ou pas de pertes de revenus en autorisant un système ouvert de distribution dans Windows 8. Cela peut sembler absurde, mais si vous lisez attentivement les publications de Microsoft, vous verrez que c’est vrai. Bien que Microsoft ait fermé le système de distribution à l’intérieur du nouvel écosystème de Windows 8, ils n’ont pas fermé le système de paiement. Extrait de l’agrément développeur de Microsoft lui-même :

« En ce qui concerne le commerce d’applications. Vous pouvez choisir de proposer des options d’achat à l’intérieur même de votre application. Il n’est pas requis que vous utilisiez le moteur de commerce de Microsoft pour proposer ces achats. Si vous choisissez d’utiliser le moteur d’achat commercial de Microsoft, les achats seront soumis à l’Agrément/*, y compris, mais pas seulement, les frais de magasin et les exigences de licence et de transfert. »

Aussi étrange que cela puisse sembler, si un développeur propose une application limitée dans sa version gratuite sur le Windows Store, il pourrait alors vendre, directement dans l’application, une mise à niveau ou un déverrouillage vers la version complète pour laquelle il pourrait accepter un paiement direct. Ils n’ont pas besoin de verser 20 ou 30% de royalties comme c’est le cas avec une transaction sur le Windows Store. La seule chose qu’ils ne peuvent pas faire c’est utiliser un système de distribution non-Microsoft, tel que leur propre site web ou leur propre « boutique » en ligne.

Ainsi, il est presque impossible de concevoir une situation où Microsoft perdrait des revenus significatifs en ouvrant le système de distribution, puisqu’il a déjà ouvert le système de paiement, et que pratiquement tous les revenus proviennent du système de paiement. Le seul revenu que Microsoft continuera à obtenir du store pour une application qui n’utiliserait pas leur moteur de commerce serait les frais variables d’application, d’un montant de 100 $ par application (et non pas par achat). Le Windows Store devra perdre 10.000 – 20.000 applications avec la distribution ouverte chaque jour pour atteindre l’équivalent de 1% du revenu de Microsoft. Pour référence, l’app store le plus populaire au monde, celui d’Apple, en reçoit moins de 500 par jour.

De plus, le potentiel de migration des utilisateurs du Windows Store depuis Microsoft vers des fournisseurs tiers ne serait pas aussi important avec un système ouvert de distribution. N’importe quel utilisateur du Windows Store tel qu’il est actuellement décrit pourrait ouvrir un compte pour un autre système de paiement, pour une application qui proposerait l’achat en son sein. Une fois qu’il a décidé de créer un compte de ce type, rien ne l’empêche d’utiliser ce compte de façon triviale pour acheter n’importe quelle autre application qui serait disponible par le même processus de paiement. L’inertie de l’achat via un tiers n’est présente que la toute première fois qu’on l’utilise. Une distribution ouverte ne fonctionnerait pas différemment. Le Windows Store resterait la source par défaut des applications pour Windows 8, et c’est seulement quand l’utilisateur pourrait créer un compte pour une distribution externe que le Windows Store perdrait l’avantage de l’inertie.

Ainsi donc, Microsoft n’a quasiment aucun intérêt financier à ne pas autoriser un système ouvert de distribution. On peut supposer qu’il y a d’autres raisons sous-jacentes à leur décision de garder fermé le système de distribution. Est-ce pour limiter la menace de malware ? Est-ce pour prévenir le piratage ? Est-ce pour mieux gérer leur image de marque ? Tant que Microsoft ne sera pas explicite quant à ses objectifs, sa décision pourra être portée contre elle, nous pouvons seulement spéculer sur les motivations ; tous les autres candidats similaires proposent des solutions simples qui n’impliquent nullement une politique draconienne, comme forcer les utilisateurs à installer seulement des logiciels approuvés par Microsoft.

Et maintenant que fait-on ?

Les expériences sur les plateformes ouvertes sont l’une des sources premières d’innovation dans l’industrie informatique. Il n’y a pas deux manières de voir les choses. Les écosystèmes logiciels ouverts sont ce qui nous a donné la plupart des produits que nous utilisons aujourd’hui, qu’il s’agisse de logiciels d’entreprise tels que les feuilles de calculs, de logiciels de divertissement comme ceux de tir à la première personne, ou les paradigmes révolutionnaires qui changent le monde, comme le World Wide Web. Le monde sera bien meilleur pour tout le monde si ce type d’innovation continue.

Les développeurs, les consommateurs et même Microsoft devraient souhaiter que les vingt prochaines années ressemblent aux vingt dernières : année après année des nouvelles choses auparavant inimaginables, vous ont été apportées par des développeurs motivés et créatifs qui étaient libres d’aller là où leur vision les conduisait, sachant très bien que s’ils produisaient quelque chose de grand, il n’y aurait pas de barrière entre eux et la diffusion de leur création dans la monde entier.

Avec Windows 8, Microsoft est dans une position pivot pour aider à faire de ce futur une réalité. Ils pourraient devenir l’une des principales forces luttant pour permettre le développement pour tablette aussi ouvert que l’était le développement pour ordinateurs de bureau avec le Windows traditionnel. Ils pourraient prendre des parts de marché à l’iPad, complètement fermé (et totalement d hégémonique), et aider à restaurer dans ce domaine la liberté d’innover que les développeurs ont perdue lorsque Apple a imposé ses politiques restrictives.

Ou bien Microsoft peut lancer Windows RT, Windows 8 et Windows 8 Pro avec leur politiques actuellement en place, et se contenter d’être un autre acteur du marché de l’appareil tactile, avec leur propre jeu d’obstacles ridicules qui restreignent considérablement les possibilités de logiciel et font perdre leur temps aux développeurs avec leurs processus mal conçus de certification.

Pourquoi prendre ce risque ? Pourquoi pas ne pas se mettre en quatre pour fournir aux développeurs une plateforme ouverte, afin que tous et chacun d’entre eux ne soient pas seulement des soutiens, mais vraiment des personnes enthousiastes pour aider Windows à débarquer dans le monde des tablettes ?

Le succès de Windows 8 sur le marché des tablettes et des smartphones est loin, très loin d’être garanti. Est-ce que Microsoft veut véritablement se lancer dans la bataille sans l’appui de ses plus importants atouts ? Veulent-ils qu’une entreprise comme Valve, qui contrôle plus de 50% des ventes de jeux pour PC, décide de porter tout son effort vers Linux, compte-tenu que l’écosystème de Windows 8 interdit les plateformes de distribution tierces comme son fleuron Steam ? Veulent-ils vraiment que le lancement de Windows 8 soit pourri par une cascade de déclarations de développeurs de premier plan prenant position contre la nouvelle plateforme ? Et surtout, vont-ils délibérément courir le risque de s’attirer l’hostilité des développeurs au point de les voir promouvoir activement et développer leurs propres plateformes comme leur produit phare, puisque Windows ne leur offrira plus la liberté de développer et distribuer leurs logiciels à leur gré ?

Espérons, dans l’intérêt de tous, qu’ils prendront conscience que la seule réponse sensée à toutes ces questions est « NON ».

Crédit photo : Kiwi Flickr (Creative Commons By)




Pourquoi la distribution Fedora ne distribue pas Chrome et Chromium ?

Fedora, l’une des plus populaires distributions GNU/Linux, ne propose que Firefox et n’inclut pas les navigateurs Chrome et Chromium de Google.

On le comprend bien pour Chrome qui n’est pas libre, mais moins pour l’open source Chromium.

D’où ces quelques explications qui ne proviennent pas officiellement de Fedora mais d’un simple (et passionné) utilisateur de Fedora.

Scott Beamer - CC by-sa

Pourquoi Fedora ne distribue pas Chrome et Chromium ?

Why Fedora doesn’t ship Chrome and Chromium?

Alex Diavatis – 15 octobre 2012 – WorlOfGnome.org
(Traduction : pwetosaurus (@paul_playe), tibs, Sylvain, misc, ehsavoie, Gatitac, L’gugus, Penguin, viking, Nÿco)

Pour Chrome les raisons sont évidentes, Chrome de chez Google est un logiciel privateur, il contient des modules qui ne sont pas open source, donc fin de l’histoire.

Dans le cas de Chromium qui est issu du projet de système d’exploitation Chromium OS, les choses sont plus compliquées et remontent au 19 novembre 2009, quand une discussion débuta pour savoir si oui ou non il fallait pour distribuer Chromium avec Fedora. Presque trois ans plus tard, nous en sommes toujours au point de départ.

Fedora et l’open source

Fedora a toujours été et sera toujours un défenseur et un distributeur fondamental de l’open source. Un partisan fondamental de l’open source, mais pas un fanatique invétéré du logiciel libre, puisqu’ils fournissent des blobs binaires propriétaires dans leur noyau Linux. On ne peut rien reprocher à Fedora ici puisque cela vient en amont du noyau, le noyau de Torvalds, qui n’est pas totalement libre à cause de pilotes firmwares propriétaires présents principalement pour mieux faire tourner le matériel.

J’aime le nom Fedora et son logo est selon moi l’un des plus beaux qui soient dans le monde des distributions Linux. Le nom Fedora fait référence à un type de chapeau (borsalino) et vient rappeler qu’il provient de Red Hat, la plus grande compagnie open source.

Fedora Logo

Il y a cependant un fait gênant : la police du logo est une police commerciale (très chère qui plus est avec ses 275$ pour l’utiliser).

Dans leur wiki, à propos de leur logo, ils écrivent :

La police utilisée pour le logo est Bryant2. Cette police n’est pas une police libre mais elle a été choisie parce que c’est celle qui s’intègre le mieux dans le design du logo. La licence pour l’utilisation de cette police dans le logo officiel a été payée, ainsi le logo peut être utilisé à chaque fois que la marque déposée et les recommandations d’usage le permettent, sans coût supplémentaire.

Ils auraient quand même pu la partager via un torrent puisque le piratage est une forme de liberté numérique, comme l’anarchie est une forme de liberté sociale… Je plaisante bien sûr. 😉

En tout état de cause, tout cela montre que Fedora n’est pas piloté par une bande d’idéologues passés de mode du logiciel libre. Fedora ne distribue que des logiciels open source pour des raisons bien précises (sur lesquelles je ne m’étendrai pas), mais sûrement pas parce qu’ils « détestent » les logiciels commerciaux.

Fedora et l’environnement de bureau

Certaines personnes disent que Fedora n’est qu’une version de test pour la distribution commerciale Red Hat Enterprise Linux (RHEL) et ne veulent pas être des « bêta-testeurs de Red Hat ». Je pense que, même si c’était peut-être le cas dans le passé, les choses ont évolué. Les deux dernières versions de Fedora (17 et 18) tentent vraiment de proposer un système convivial et de qualité pour un usage bureautique.

Pour être franc, je pense que Canonical nous a quelque part aidé le jour où Ubuntu a décidé de développer Unitypar dessus GNOME, ne faisant plus de ce dernier l’environnement de bureau par défaut. Aujourd’hui, Red Hat et GNOME sont contraints de faire de Fedora une distribution conviviale de qualité car ils ne bénéficient plus comme avant de l’aide d’Ubuntu. Bien sûr, Fedora a beaucoup de travail à accomplir pour rattraper Canonical car Ubuntu est désormais mondialement connu comme étant la distribution de bureau pour le grand public et a réussi à se faire un nom réputé sur le marché.

Fedora et les logiciels

Fedora a une politique stricte qui détermine quel logiciel est autorisé à être inclus dans leurs dépôts officiels et quel logiciel est interdit.

Le Projet Fedora encourage vivement à utiliser des logiciels libres et open source. Fedora possède une ligne de conduite qui impose les obligations suivantes :

  • Si c’est propriétaire, cela ne peut pas être inclus dans Fedora (la seule exception étant donc les firmwares binaires).
  • Si c’est légalement problématique, cela ne peut pas être inclus dans Fedora.
  • Si cela enfreint les lois des États-Unis, cela ne peut pas être inclus dans Fedora.

Vous pouvez trouver plus de détails sur la page du wiki « Fedora Forbidden Items ». Ainsi des logiciels de base comme certains pilotes nVidia et ATi, ceux des cartes Wi-Fi, la version Java d’Oracle, le greffon Flash d’Adobe, etc. ne sont pas inclus. Bien que je sois complètement d’accord avec ce qu’ils font, je ne suis pas toujours d’accord avec la manière dont ils le font.

Et nous en arrivons au sujet initial de ce billet, à savoir : pourquoi Fedora refuse d’incorporer Chromium à leur distribution.

Chromium et Chrome

Pour les gens qui ne connaissent pas la différence, Chromium est le navigateur open source dont Google Chrome tire son code source. Les deux navigateurs (Chrome et Chromium) partagent la majorité du code et des fonctionnalités bien qu’il y ait quelques différences mineures.

Chromium n’intègre pas de fonction de mises à jour automatiques, ni de lecteur PDF ni de lecteur Flash. Chrome est un gratuiciel et ils ne fournissent pas le code source (qui est quasiment identique à Chromium de toute façon), alors que Chromium est, accrochez-vous, sous licences BSD, MIT, LGPL, MS-PL et sous triple licence MPL/GPL/LGPL.

Pourquoi Fedora ne distribue pas Chromium


Chromium est en théorie un logiciel instable (mais en pratique stable) et ils ne distribuent pas de versions stables. C’est la première raison pour laquelle Fedora ne le distribue pas. Cependant, Chromium maintient de nombreux « forks » stables parmi les créations (ou builds) de la communauté et qui portent le même nom : « Chromium ». Ce n’est donc pas le principal problème aujourd’hui.

Le vrai problème, c’est la politique d’empaquetage de Fedora et la politique d’empaquetage de Chromium. Chromium est constitué de nombreux composants open source, mais concrètement il a tendance à les forker puis les empaqueter pour les intégrer.

Par exemple (cas d’école) Chromium utilise OpenSSL. Mais l’équipe de Chromium n’est pas vraiment satisfaite de son fonctionnement et elle veut y apporter des modifications. Ils font alors un fork et ils l’incluent dans le paquet de Chromium. Ils maintiennent cependant une documentation sur les modifications qu’ils apportent à ces paquets. Mais donc maintenant Chromium se retrouve avec son propre OpenSSL, qui n’a pas été testé avec le système et cela rend l’empaquetage difficile pour tous les contributeurs de distributions Linux.

Un rapport de bug a été ouvert à ce sujet en novembre 2009 : bug de suivi sur la création d’une vraie version pour les distributions Linux #28287

Bien que nous fournissions le code source, il y a quelques étapes nécessaires avant que cela soit utilisable en amont par les distributions Linux. Ce bug de suivi sert à en suivre l’avancement.

…mais encore aujourd’hui, il faut toujours un dépôt supplémentaire pour installer Chromium.

Tom Callaway

Tom Callaway est manager de l’équipe d’ingénierie Fedora chez Red Hat et travaille conjointement avec Google pour corriger les problèmes de Chromium dans le but de l’incorporer au dépôt officiel. Il maintient également ses propres paquets de test de Chromium.

Callaway décrit le problème :

« Google forke des bits de code libre pour Chromium comme un lapin fait des petits : avec régularité et sans trop y penser. Plutôt que de tirer parti des API existantes des projets upstream comme ICU, libjingle et SQLite (pour ne nommer qu’eux), ils préfèrent forker ce code à l’instant t et modifier à mort leurs propres API pour être utilisées dans Chromium.

Ce qui ressemble beaucoup à de la méthodologie Java, que je pourrais résumer ainsi : « j’ai envie d’utiliser ce code tiers mais mon application est trop spéciale pour l’utiliser tel quel, donc j’ai rajouté des jantes et pare-chocs en alu et un éclairage néon pour éclairer le dessous, puis j’ai fourré ma copie bling-bling dans mon application ». Une grande partie des développeurs upstream de Chromium semble avoir un passé de codeurs Java ce qui pourrait être une explication mais qui n’excuse rien. Cette façon de faire devrait être un dernier recours, pas la norme.

Voici ce qui devrait plutôt arriver dans l’absolu (en prenant SQLite comme exemple) :

  • google Hé, ça serait sympa si nous pouvions utiliser SQLite dans Chromium pour nos besoins de bases de données locales.
  • google Hum, l’API SQLite ne cadre pas à 100% avec la manière dont j’aimerais que Chromium l’utilise.
  • google Salut l’équipe SQLite, il y a quelques endroits où nous aimerions voir des améliorations de l’API pour que Chromium en tire profit dans notre cas d’utilisation.
  • sqlite_upstream Salut Google, c’est tellement cool que vous vouliez utiliser notre code.
  • sqlite_upstream regarde les changements proposés par Google à SQLite.
  • sqlite_upstream Intéressant, vous pourriez essayer d’utiliser la fonction X pour mieux répondre à vos besoins mais le reste des changements semble OK.
  • sqlite_upstream valide les changements dans le code source dans la révision 12345.
  • sqlite_upstream Notre prochaine version va les inclure.
  • google Ouais ! Nous allons dire aux gens d’appliquer notre patch ou d’utiliser la révision 12345 ou plus récente. »

Vous trouverez plus d’informations sur la page consacrée à Chromium dans le Wiki Fedora.

Finalement

Au final, il y a deux bons navigateurs open source, Firefox et Chromium, mais Fedora persiste à n’en fournir qu’un seul et, malheureusement pour moi, ce n’est pas celui que je préfère 🙂

L’ironie du sort, c’est que si vous recherchez « Fedora Chrome/Chromium » dans Google, il y a de fortes chances pour que vous vous retrouviez sur une page qui vous propose le téléchargement de Chrome, puisque Google fournit un dépôt officiel Chrome pour Fedora !

Et l’on se retrouva en fin de compte avec un Google Chrome et son Flash intégré 🙂

Crédit photo : Scott Beamer (Creative Commons By-Sa)