La filiale open source de Microsoft un an plus tard : du lard ou du cochon ?

Il y a un an Microsoft annonçait la création de Microsoft Open Technologies, filiale open source du groupe.

Cela avait surpris. Mais il n’y a que les imbéciles (et les non pragmatiques) qui ne changent pas d’avis 😉

Toujours est-il qu’on est encore loin du compte si, telle la conclusion de cet article, on souhaite la libération de Windows et d’Office.

Microsoft + Linux

La division open source de Microsoft a un an, mais qu’est-ce que c’est ?

Microsoft’s Open Source Company Is a Year Old. But What Is It?

Robert McMillan – 17 avril 2013 – Wired.com
(Traduction : Peekmo, aKa, 5h3d0, Brandelune, Moosh, yostral, Gatitac, Sky)

La semaine derniere, Microsoft Open Technologies S.A. a fêté son premier anniversaire, tranquillement, sans fanfare, mais la semaine prochaine, Microsoft prévoit d’organiser une réception sur son campus de la Silicon Valley.

Microsoft Open Technologies est un drôle de canard à trois pattes : une filiale indépendante destinée à soutenir l’effort open source, poussée par l’acteur le plus connu du logiciel propriétaire (NdT : ou privateur/privatif). Quand sa création a été annoncée, la nouvelle en a atterré plus d’un — nous y compris.

Après tout, Microsoft avait déjà mis en place une autre organisation — un organisme indépendant à but non lucratif, la Fondation Outercurve — pour gérer l’effort open source.

La différence réside dans le fait que même si la Fondation Outercurve est financée par Microsoft, elle est régie par ses propres règles. Et si l’on en croit Paula Hunter, directrice exécutive de la Fondation, plus de la moitié des projets d’Outercurve est dirigée par des membres qui ne font pas partie de Microsoft.

Open Technologies est gérée par Microsoft. La société gagne ainsi plus de contrôle — un concept qui ne colle pas vraiment avec la façon de faire de l‘open source — et plus de crédit pour les logiciels libérés.

Microsoft continue à envoyer des projets à la Fondation Outercurve, nous apprend Hunter. Mais ils ont maintenant un autre endroit où déposer le code. « Certaines fois ils veulent maintenir un contrôle plus fort sur le projet et faire en sorte qu’il soit plus proche de la marque Microsoft » ajoute-t-elle. « Quand un projet est plus lié à leurs technologies propriétaires, cela a plus de sens de le déposer au sein d’Open Technologies. »

Ces entités indépendantes sont importantes pour les projets open source — elles donnent aux entreprises une manière de partager leur code source sans se peindre une gigantesque cible à procès pour violation de brevets sur le dos. La fondation ou la société indépendante agissent comme une sorte de bac à sable où les développeurs peuvent partager et distribuer des logiciels, et si quelqu’un dit que ce code viole un brevet, c’est le bac à sable, pas Microsoft, qui est poursuivi.

En février dernier, Gianugo Rabellino de Microsoft nous a dit qu’Open Technologies sert surtout à accélérer le développement open source au sein de l’entreprise. « Nous nous sommes rendus compte qu’avoir une filiale différente serait quelque chose qui fonctionnerait mieux, d’une part en nous assurant que nous soyons agiles, flexibles et plus rapides, et d’autre part en travaillant avec les communautés open source à la vitesse qu’elles requièrent » a ajouté Rabellino, directeur de communauté chez Microsoft Open Technologies.

Jusqu’à aujourd’hui, Open Technologies a hébergé nombre de projets qui aident les gens qui utilisent Windows Azure, le concurrent de Microsoft à Amazon Web Services. Azure est une manière pour les développeurs et les entreprises de construire et faire fonctionner toutes sortes de logiciels, et Microsoft a réalisé que ces personnes se reposent énormément sur les technologies open source.

Mais cela ne signifie pas que Microsoft soit en train de devenir une entreprise open source.

Phil Haack, un ancien de chez Microsoft qui travaille désormais sur l’outil pour développeurs open source fourni par GitHub, dit que la filiale Microsoft n’a pas grande importance à moins de vraiment travailler à rendre les logiciels au cœur du métier de Microsoft open source, ce qui les améliorerait eux-mêmes, et la façon dont ils fonctionnent avec d’autres logiciels.

Il affirme pour conclure qu’Open Technologies sera un succès uniquement si elle aide Microsoft à libérer Windows et Microsoft Office.




Ouvert et fermé, par Evgeny Morozov

L’écrivain Evgeny Morozov n’aime pas les visions bisounours des nouvelles technologies.

On se souvient qu’il y a deux ans il avait vertement critiqué le soit-disant pouvoir libérateur d’Internet, ce qui lui avait valu réponse de Cory Doctorow traduite par nos soins.

Il s’en prend aujourd’hui à l’usage immodéré de l’expression « open » qui, à force d’être utilisé à tous les sauces, prend le risque d’être vidé de son (noble ?) sens.

Pumpkincat210 - CC by

Ouvert et fermé


Open and Closed

Evgeny Morozov – 17 mars 2013 – NewYorkTimes.com (Opinion)
(Traduction Framalang)


« L’impression 3D peut-elle être subversive ? » demande une voix dans la vidéo la plus terrifiante que vous puissiez trouver sur Internet ce mois-ci. Il s’agit de la bande-annonce pour Defcad.com, un moteur de recherche pour des modèles imprimables en 3D de choses que les « institutions et les industries ont pour intérêt commun de garder loin de nous », incluant des « appareils médicaux, médicaments, biens, pistolets ».

La voix appartient à Cody Wilson, un étudiant en droit du Texas qui a fondé l’année dernière Defense Distributer, une initiative controversée visant à produire une « arme wiki » imprimable. Avec Defcad, il s’étend au-delà des armes, autorisant, par exemple, des passionnés de drones à rechercher des pièces imprimables.


M. Wilson joue la carte de « l’ouverture » de Defcad jusqu’à dire qu’elle est l’opium des masses armées d’iPad. Non seulement le moteur de recherche Defcad sera placé sous le signe de l’« open source » — la bande-annonce le clame à deux reprises — mais également de « l’open data  ». Avec une telle ouverture, Defcad ne peut pas être le Mal, n’est-ce pas ?


Personne n’a besoin de voir des projets tels que Defcad pour constater que « l’ouverture » est devenue un terme dangereusement vague, avec beaucoup de sex-appeal mais peu de contenu un tant soit peu analytique. Certifiées « ouvertes », les idées les plus odieuses et suspectes deviennent soudain acceptables. Même l’Église de Scientologie vante son « engagement envers la communication ouverte ».


L’ouverture est aujourd’hui un culte puissant, une religion avec ses propres dogmes. « Posséder des gazoducs, personnes, produits, ou même la propriété intellectuelle n’est plus la clef du succès. L’ouverture l’est », clame l’éditorialiste Jeff Jarvis.

La fascination pour « l’ouverture » provient principalement du succès des logiciels open source, du code informatique publiquement accessible auquel tout le monde peut contribuer. Mais aujourd’hui ce principe est en train d’être appliqué à tout, de la politique à la philanthropie ; des livres intitulés « The Open-Source Everything Manifesto » (le Manifeste du Tout Open Source) et « Radical Openness » (L’Ouverture Radicale) ont récemment été publiés. Il existe même « OpenCola » — un vrai soda pour le peuple.


Pour de nombreuses institutions, « ouvert » est devenu le nouveau « vert ». Et de la même façon que certaines entreprises « verdissent » (greenwash) leurs initiatives en invoquant une façade écolo pour cacher des pratiques moins recommandables, un nouveau terme vient d’émerger pour décrire ce besoin d’introduire « l’ouverture » dans des situations et environnements où elle existe peu ou pas : « openwashing » (« ouvertisation »).

Hélas, « l’ouvertisation », aussi sympathique que cela puisse sonner, ne questionne pas l’authenticité des initiatives « ouvertes » ; cela ne nous dit pas quels types « d’ouverture » valent le coup, s’il en est. Toutes ces ouvertures, ou prétendues ouvertures, ne se valent pas et nous devons les différentier.


Regardez « l’ouverture » célébrée par le philosophe Karl Popper, qui a défini la « société ouverte » comme l’apothéose des valeurs politiques libérales. Ce n’est pas la même ouverture que celle du monde de l’open source. Alors que celle de Popper concernait principalement la politique et les idées, l’open source concerne avant tout la coopération, l’innovation, et l’efficacité — des résultats utiles, mais pas dans toutes les situations.


Regardez comme George Osborne, le chancelier britannique a défini les « politiques open source » récemment. « Plutôt que de se baser sur le fait que des politiciens » et des « fonctionnaires aient le monopole de la sagesse, vous pouvez vous engager via Internet » avec « l’ensemble du public, ou du moins les personnes intéressées, pour résoudre un problème particulier ».

En tant qu’ajout à la politique déjà en place, c’est merveilleux. En tant que remplacement de la politique en place, en revanche, c’est terrifiant.

Bien sûr, c’est important d’impliquer les citoyens dans la résolution des problèmes. Mais qui décide des « problèmes particuliers » auxquels les citoyens doivent s’attaquer en premier lieu ? Et comment peut-on définir les limites de ce « problème » ? Dans le monde du logiciel open source, de telles décisions sont généralement prises par des décideurs et des clients. Mais en démocratie, les citoyens tiennent la barre (plutôt en délèguent la tenue) et rament simultanément. En politique open source, tout ce qu’ils font, c’est ramer.


De même, un « gouvernement ouvert » — un terme autrefois réservé pour discuter de la responsabilité — est aujourd’hui utilisé plutôt pour décrire à quel point il est facile d’accéder, manipuler, et « remixer » des morceaux d’informations du gouvernement. Ici, « l’ouverture » ne mesure pas si de telles données augmentent la responsabilité, mais seulement combien d’applications peuvent se baser dessus, et si ces applications poursuivent des buts simples. L’ambiguïté de l’ouverture permet au Premier Ministre britannique David Cameron de prôner un gouvernement ouvert, tout en se plaignant que la liberté d’expression « bouche les artères du gouvernement ».


Cette confusion ne se limite pas aux gouvernements. Prenez par exemple cette obsession pour les cours en ligne ouvert et massif (NdT : MOOC). Que signifie le mot ouvert dans ce cas? Eh bien, ils sont disponibles en ligne gratuitement. Mais il serait prématuré de célébrer le triomphe de l’ouverture. Un programme d’ouverture plus ambitieux ne se contenterait pas d’étendre l’accès aux cours mais donnerait aussi aux utilisateurs la possibilité de réutiliser, modifier et d’adapter le contenu. Je pourrais prendre les notes de conférence de quelqu’un, rajouter quelques paragraphes et les faire circuler en tant qu’élément de mon propre cours. Actuellement, la plupart de ces cours n’offrent pas cette possibilité : le plus souvent leurs conditions d’utilisation interdisent l’adaptation des cours.


Est-ce que « l’ouverture » gagnera, comme nous l’assurent ces Pollyanas numériques? Probablement. Mais une victoire pour « l’ouverture » peut aussi marquer la défaite de politiques démocratiques, d’une réforme ambitieuse et de bien d’autres choses. Peut-être faudrait-il mettre en place un moratoire sur le mot « ouvert ». Imaginez les possibilités que cela pourrait ouvrir !

Crédit photo : Pumpkincat210 (Creative Commons By)




La mort des projets libres de SourceForge ne signifie pas la mort de SourceForge

Le ”community manager” de SourceForge se rebiffe : ce n’est pas parce que la plateforme héberge une foultitude de projets libres morts ou non actifs que SourceForge est lui-même en train de mourir.

On ne peut lui donner tort, mais la grande question reste en suspens : pourquoi tout le monde (ou presque) s’en va désormais sur GitHub ?

Peut-être trouvera-t-on réponse dans les commentaires 😉

Joiseyshowaa - CC by-sa

Le mythe de la mort de SourceForge

The myth of the death of SourceForge

Rich Bowen – 07 décembre 2012 – Notes in the Margin (blog personnel)
(Traduction : tcit, Sky, goofy, KoS, Tr4sK, audionuma, Asta, Rudloff)

Je suis le community manager de SourceForge. À ce titre, je vois tous les jours des tweets annonçant la mort imminente de SourceForge. La preuve fournie est le nombre important de projets morts sur SourceForge.

Cela reflète une profonde ignorance de la façon dont l‘open source (et le développement logiciel en général) fonctionne.

Une des choses qui font du développement logiciel un hobby irrésistible est que cela ne coûte presque rien d’échouer. Vous avez une idée ? Chouette. Essayez-la. Ça a marché ? Non ? Bah, ce n’est pas une grande perte. Passez à la prochaine idée. Mais publiez donc ouvertement vos notes pour que d’autres personnes puissent y jeter un coup d’œil et voir si elles peuvent faire mieux.

La plupart des projets de logiciels échouent. Désolé. C’est la réalité.

Ainsi, le fait que SourceForge contienne de nombreux projets ayant échoué n’est pas une indication de la mort de SourceForge. Cela indique son âge. SourceForge a 12 ans. Github est encore un bébé et n’a donc encore qu’un petit nombre de projets morts. Attendez quelques années et nous entendrons dire que Github est l’endroit où vont les projets pour mourir et que le nouveau truc à la mode est beaucoup mieux.

Ceci est un non-sens et n’est donc pas un bon instrument de mesure. Les forges open source sont un endroit où vous pouvez essayer une idée, à peu de frais et, si nécessaire, trouver là où ça échoue. Il est rare de réussir.

Bien sûr, cela amène la question qui est toujours posée : pourquoi ne purgeons-nous pas tous les projets morts ? Eh bien, si vous y réfléchissez quelques minutes, vous verrez que ce n’est pas faisable. Qui suis-je pour déterminer quel projet est mort et lequel ne l’est pas ? J’ai un projet vieux de 10 ans, que je n’ai pas touché depuis 8 ans mais que j’ai l’intention de réécrire ce week-end. Que se passerait-il si nous l’avions effacé la semaine dernière ? Plus important, les notes et le code source de votre projet « mort » ou « loupé » mènent souvent à un fork qui lui, réussit. Purger les références historiques ne rend service à personne.

Pendant ce temps, je passe des heures chaque jour à faire la promotion des nouvelles versions et des développements de projets open source très actifs et très passionnés. Il ne se passe pas une semaine où, avec un tweet pour chacune des nouvelles versions, ma femme ne me dit pas « wow, tu tweetes vraiment énormément ! » Un tweet à peu près chaque heure, 24 heures par jour, chaque jour des 9 derniers mois. Ça fait un paquet de projets actifs. Pas morts du tout.

C’est un grand honneur d’être le community manager de SourceForge, de travailler avec des dizaines de milliers de projets vivants et passionnés. SourceForge reste un élément très important dans l’écosystème open source, avec de nouveaux projets créés chaque jour. Certains de ces projets sont destinés à devenir des succès, d’autres non. C’est juste comme cela que ça marche, et ça n’indique le déclin d’aucune des forges open source où cela arrive.

Crédit photo : Joiseyshowaa (Creative Commons By-Sa)




Guerre sans merci dans le maquis des codecs vidéos

La guerre des formats vidéos sur le Web bat son plein, sans que nous puissions à priori faire grand-chose (c’est dans la cour des grands que cela se passe, avec un Google qui est ici du bon côté de la Force).

Et une fois de plus les brevets sont pointés du doigt…

Seth Anderson - CC by-sa

Codecs vidéo : les sales affaires derrière les belles images

Video codecs: The ugly business behind pretty pictures

Simon Phipps – 15 mars 2013 – InfoWorld.com
(Traduction : audionuma, goofy, KoS + anonymes)

Lorsque Google a annoncé la semaine dernière qu’il avait fait la paix avec le gestionnaire de brevets MPEG-LA à propos de son codec VP8, certains ont déclaré que l’entreprise avait cédé et rejoint le cirque des brevets logiciels. Il n’en est rien.

La vérité est bien plus complexe et pourrait annoncer de grands changements dans la lutte pour le contrôle de nos habitudes de visionnage et d’écoute en ligne. En conséquence, de puissants intérêts sont rapidement intervenus pour tenter de museler les canons du VP8 avant qu’ils ne tonnent.

Le contexte des codecs

Le secteur des codecs vidéo est complexe et truffé d’acronymes et de manœuvres politiques depuis des dizaines d’années. Même ceux qui sont les plus impliqués dans cette situation sont en désaccord, tant sur la réalité que sur l’histoire de cette situation. Voici un résumé :

Lorsque vous téléchargez ou visionnez une vidéo, vous pouvez la considérer comme du QuickTime, du Flash ou même de l’Ogg, mais ce ne sont que des mécanismes de distribution. La vidéo représente une énorme quantité de données, et vous la faire parvenir requiert de la compression de données. Le contenu d’une vidéo est encodé dans un format obtenu par un logiciel de compression de données, et est ensuite affiché sur votre écran après que ce contenu ai été décodé par un logiciel de décodage.

Le codec est le logiciel qui réalise ce processus. Les travaux théoriques sur les codecs sont exceptionnellement complexes, et il y a toujours un compromis entre la compression maximale, le temps nécessaire à compresser les données, et la qualité optimale. C’est ainsi qu’il existe une grande variété de codecs, et le savoir-faire concernant leur implémentation est un bien précieux.

Dès 1993, il devint évident qu’une standardisation des formats de données pris en charge par les codecs était nécessaire. Les institutions internationales de standardisation ISO et IEC constituèrent un groupe d’experts appelé le Motion Picture Expert Group (groupe des experts de l’image animée, MPEG) qui a depuis produit une série de standards destinés à divers usages.

Le secteur est truffé de techniques brevetées. La standardisation des codecs est basée sur le modèle du secteur des télécommunications, dans lequel il est commun de permettre à des techniques brevetées de devenir des standards pour ensuite en dériver des paiements de licences pour chaque implémentation. Pour faciliter la collecte des royalties, une société appelée MPEG-LA, LLC (qui, pour rajouter à la confusion, n’a aucun lien avec avec MPEG) a été constituée pour gérer un portefeuille de brevets au nom de la plupart des détenteurs de brevets qui contribuent aux standards MPEG.

Ce dispositif fonctionnait correctement dans l’ancien monde basé sur des points de passages obligés où les sociétés étaient les créateurs de logiciels. Mais la nouvelle société basée sur le réseau et les techniques qu’il utilise (tel que l’open source) ne fonctionne pas correctement dans un modèle où chaque nouvelle utilisation nécessite d’abord de demander la permission. Les éléments qui nécessitent une autorisation a priori — les points de passage obligés — sont des insultes à Internet. Ils sont considérés comme des nuisances, et les experts cherchent des solutions pour les éviter.

La naissance des codecs ouverts

Lorsqu’il fut clair que le Web ouvert avait besoin de codecs ouverts pour traiter des formats de médias ouverts, de brillants esprits commencèrent à travailler au contournement de ces problèmes. La sciences des codecs est bien documentée, mais l’utilisation de n’importe laquelle des techniques bien connues risquait d’enfreindre des brevets logiciels contrôlés par MPEG-LA. Il ne suffisait pas de simplement modifier un standard dérivé de MPEG pour contourner les brevets. Ces standards avaient créé un tel maquis de brevets que n’importe quel nouveau projet utilisant les mêmes calculs mathématiques était quasiment certain d’enfreindre un portefeuille de brevets quelque part.

La création de codecs ouverts réclamait une nouvelle réflexion. Heureusement, certains intérêts commerciaux travaillaient sur des idées de codecs alternatifs. Une entreprise nommée On2, notamment, avait créé une famille de codecs basée sur des idées hors du champ des brevets MPEG et avait déposé ses propres brevets pour éviter de se faire marcher sur les pieds. En 2001, elle publia une technologie de codecs appellée VP3 en open source, technologie protégée par ses propres brevets. Cette technologie constituait la base de ce qui devint Theora. On2 continua à travailler pour produire une série de codecs dédiés à des niches jusqu’à son acquisition par Google en 2010.

Le VP8 était le codec de On2 à la pointe de la technologie, offrant à la fois une excellente qualité d’image et une bonne compression des données. Peu après l’acquisition de On2 par Google, ce dernier rendit libre l’utilisation de VP8, créant un engagement d’ouverture pour tous les brevets lui étant liés, et déclara que le nouveau projet WebM offrirait un format totalement libre et ouvert pour la lecture de vidéos.

Évidemment, MPEG-LA a senti la menace et a rapidement décidé de contre-attaquer. Il a presque immédiatement annoncé la constitution d’un portefeuille de brevets pour vendre des licences sur des brevets qu’il était certain que WebM et VP8 violaient, et a invité les détenteurs habituels de brevets à lui communiquer toutes informations sur ces brevets.

Une lueur d’espoir

Et puis … plus rien. Il semble que les coups d’épée de MPEG-LA étaient plutôt des bruits de fourreau. L’accord avec MPEG-LA que Google a annoncé était formulé avec beaucoup de soins pour ne pas froisser les parties prenantes, mais il semble indiquer que MPEG-LA avait les mains vides :

Aujourd’hui, Google Inc. et MPEG-LA, LLC ont annoncé qu’ils ont conclu un compromis qui accorde à Google une licence sur les techniques, quelles qu’elles soient, qui pourraient être essentielles à VP8. De plus, MPEG-LA a accepté de mettre fin à ses efforts pour constituer un portefeuille de brevets autour de VP8.

Vous pouvez constater qu’il n’y pas grand-chose de valeur qui soit licencié dans ce cas, puisque Google est apparemment autorisé à :

…rétrocéder les licences à n’importe quel utilisateur de VP8, que l’implémentation de VP8 soit celle de Google ou d’une autre entité : cela signifie que les utilisateurs peuvent développer des implémentations de VP8 indépendantes et bénéficier de la protection accordée par la rétrocession de licence.

Le communiqué continue avec deux déclarations importantes. Premièrement, Google a le projet de soumettre VP8 à MPEG pour standardisation. Cela constituerait un profond changement d’orientation, qui pourrait orienter les futurs efforts hors du maquis des brevets et vers des territoires plus ouverts. Deuxièmement, Google a l’intention de proposer VP8 comme codec « obligatoire à implémenter » dans le groupe RTCWEB de l’IETF qui définit les protocoles permettant les communications en temps-réel dans les navigateurs Web : WebRTC.

Si tout cela réussissait, cela ouvrirait de grandes opportunités pour les logiciels open source et le web ouvert. Libérés de la course à la rente des détenteurs de brevets, les développeurs open source seraient enfin libres d’innover dans le domaine des applications audio et vidéo sans avoir en permanence à surveiller leurs arrières ou à demander la permission.

Naturellement, de puissants groupes d’intérêts continuent à essayer de ralentir, voire interrompre, cette révolution. À peine Google avait-il publié son communiqué à propos de VP8, de l’accord avec MPEG-LA et de son intention de standardiser, que deux messages furent postés sur la liste de discussion de l’IETF-RTCWEB. Le premier, envoyé par le collaborateur de Microsoft Skype Matthew Kaufmann, essayait de ralentir les progrès vers la standardisation et invoquait les règles et le débat pour tenir VP8 hors des prochaines discussions de standardisation. Le deuxième, envoyé par l’ancien spécialiste des brevets de Nokia Stephan Wenger, invoquait aussi les règles mais plus inquiétant, sous-entendait que MPEG-LA n’était pas seul à pouvoir jouer ce jeu là. Cette crainte prit bientôt corps dans un message du collaborateur de Nokia Markus Isomaki annoncant que Nokia — qui n’est pas membre de MPEG-LA — avait l’intention de démontrer que VP8 enfreint un de ses brevets.

C’est la vie de tous les jours dans le monde des codecs et c’est riche d’enseignements sur les dangers des brevets logiciels. Une fois acceptés et institutionnalisés comme processus normaux et légaux, ils contrôlent tout le reste. Bien que VP8 vienne d’un héritage technologique différent, ayant prudemment évité la masse des brevets déposés lors des premiers travaux sur le MPEG, et ayant ainsi été scrupuleusement ouvert par Google (il devait se corriger lors du processus, ce qu’il fit admirablement), le monde oppressant des brevets tente de le faire tomber dans ses griffes et de le contrôler, afin de le soumettre à la taxation sur l’innovation imposée par les vainqueurs de la première course technologique.

Nous ne pouvons pas faire grand-chose à part observer avec anxiété l’initiative de Google pour le Web ouvert. Dans cette histoire, il apparaît plus clairement que jamais que la réforme du système des brevets pour aboutir à une société plus juste et harmonisée se fera encore attendre.

Crédit photo : Seth Anderson (Creative Commons By-Sa)




Pourquoi je retourne à Firefox

Les statistiques font foi, nombreux sont les lecteurs de ce blog à avoir adoré le navigateur Firefox, pour cependant, progressivement, parfois la mort dans l’âme, opter pour le choix pragmatique de Google Chromium, ou pire Google Chrome.

Sauf que depuis Firefox a progressé techniquement et Mozilla s’affirme chaque jour davantage comme une libre boussole du Web, ce que ne sera jamais Google.

Cela vaut le coup de reconsidérer la question, non ?

Keng Susumpow - CC by

Pourquoi je suis (re)passé à Firefox

Why I’m Switching (Back) to Firefox

Cameron Paul – 10 mars 2013 – Blog personnel
(Traduction : Jeff_, biglittledragoon, Agnes, MFolschette, Plop, Tom, Pouhiou, quack1, jtanguy, Rudloff + anonymes)

Dès septembre 2008, j’ai commencé à en avoir assez de Firefox. Il avait été mon navigateur de prédilection pendant des années mais la merveille du monde open source commençait à me décevoir. J’ai utilisé la version bêta de Firefox 3 dès le premier jour où elle a été disponible et je n’ai cessé de la trouver lourde et lente tout au long de mon utilisation. J’ai toujours été un adorateur des conceptions minimalistes et Firefox était en train de rapidement devenir tout sauf minimaliste.

Puis, quelque chose d’inattendu est arrivé. Google a annoncé la sortie de son propre navigateur. J’étais bientôt face à ce qui semblait être à l’époque le logiciel le plus incroyable que j’aie jamais vu. Google Chrome a initié une qualité de navigation formidablement épurée et aboutie soutenue par WebKit. Je pouvais enfin profiter de la vitesse de Safari avec une interface utilisateur bien conçue. Avec le temps, les choses n’ont fait que s’améliorer. Les outils de développement de WebKit sont devenus plus puissants que Firebug et avec la sortie de V8, Google a modifié notre conception des performances de JavaScript.

Cinq ans ont passé et les choses ne sont plus aussi roses. Plus que jamais, j’ai des problèmes de lenteur du navigateur. L’utilisation mémoire dépasse l’entendement et j’ai fréquemment des onglets qui ne répondent plus du tout. De plus, il semble y avoir une lacune générale de contrôle qualité ces derniers jours. Cocher la case « Désactiver le cache » dans les outils développeur semble ne pas avoir d’effet et, occasionnellement, des erreurs JavaScript disparaissent dans la nature au lieu d’apparaître dans la console. Chrome commence à beaucoup ressembler à ce qu’était Firefox en 2008.

Revenons-en maintenant à Firefox. Cela fait cinq années que je n’ai pas utilisé le navigateur de Mozilla pour autre chose qu’une vérification rapide, afin de m’assurer qu’une page web que je construisais avait un rendu correct. Dans ce laps de temps je n’ai pas prêté attention au travail qui avait été effectué. Firefox est devenu rapide. Comparé à Chrome, j’observe des chargements de pages visiblement plus prompts. SpiderMonkey semble avoir rattrapé V8 également. Mes propres tests (non scientifiques) m’ont montré que V8 était toujours légèrement plus rapide mais la différence était trop mince pour être perçue par des humains.

Puis il y a les outils de développement. Les outils de développement de WebKit ont toujours quelques fonctionnalités qui ne sont pas présentes dans Firefox, mais pour 95 % de mon utilisation, les outils de Firefox sont en fait meilleurs. Dans l’inspecteur, un meilleur contraste et une meilleure disposition permettent à l’œil de parcourir ce pavé qu’est le DOM non rendu. Sur la page, les éléments sélectionnés sont surlignés avec des pointillés subtils mais visibles au lieu d’une boîte bleue qui masque la page. Il y a également le mode de sélection au survol qui me permet de me déplacer rapidement à travers les éléments de la page jusqu’à arriver là où je le souhaite. Non seulement les outils de développement de Firefox sont plus agréables mais ils me font également gagner du temps lors de la sélection et la manipulation d’éléments sur la page.

Si l’on met de côté les problèmes techniques, il existe un autre élément qui me trotte dans la tête depuis déjà un petit moment. Je crois sincèrement que Mozilla s’engage sur les questions de liberté et de vie privée sur le Web. Google quant à lui s’engage à faire de l’argent et à savoir tout ce que je fais. Firefox m’accueille avec une page détaillant mes droits en tant qu’utilisateur de logiciel libre. Chrome m’accueille avec… pfffff… Chrome m’accueille avec une putain de publicité pour un Chromebook.

À l’heure où je parle je me sens un peu nostalgique. Le Firefox d’aujourd’hui me rappelle le Firefox tel qu’il était lorsque je l’ai découvert. Une fois de plus, Mozilla a délivré un produit techniquement supérieur tout en respectant totalement mes droits en tant qu’usager. Firefox c’est la liberté.

Crédit photo : Keng Susumpow (Creative Commons By)




7 raisons pour ne pas utiliser les tablettes dans l’éducation

Une récente passe d’armes sur le bien fondé d’offrir des iPad à des collégiens en Corrèze avait fait couler beaucoup d’encre dans les commentaires du Framablog.

Nous récidivons aujourd’hui en laissant de côté les arguments du libre pour se concentrer uniquement sur la pertinence de la tablette en milieu scolaire.

Urban Hippie Love - CC by-sa

Trop cool pour l’école : 7 raisons pour lesquelles les tablettes ne devraient PAS être utilisées dans l’enseignement

Too cool for school: 7 reasons why tablets should NOT be used in education

Donald Clark – 24 février – Blog perso
(Traduction : Moosh, Max, DansLeRuSH, CedricA, Sphinx, Mila Saint Anne, Catalaburro, VifArgent, goofy, @paul_playe, Miles, Alpha + anonymes)

Est-ce que les élèves en achètent ? NON

J’écris ceci sur un netbook. J’ai un iPad mais je ne rêve pas de m’en servir pour faire des recherches, prendre des notes, écrire ou pour mon travail. Je m’en sers à la maison comme une sorte de matériel de découverte, davantage pour « chercher, regarder et découvrir » que pour « écrire, créer et travailler ». Mes enfants ne s’en servent jamais. Quand je leur demande si certains de leurs camarades en ont acheté, ça les fait rire. De toute façon, « pour le même prix on a des ordinateurs portables ». Ils veulent un truc pour aller sur Facebook, lire leurs courriels, éditer du son ou de la vidéo, jouer, programmer et télécharger. Sur mes deux garçons, l’un a un MacBook, l’autre un PC survitaminé. Je ne m’en sers jamais dans la mesure où j’ai surtout besoin d’écrire et de communiquer — c’est simplement trop malcommode et limité.

Est-ce que les étudiants en achètent ? NON

Que ce soit à l’école, au lycée ou à l’université, il semble que les jeunes préfèrent les ordinateurs, que ce soit pour prendre des notes, écrire des devoirs ou autres choses. Ils veulent la souplesse d’un ordinateur complet, pas un appareil qui ait un look sympa. Les tablettes n’ont pas envahi nos bibliothèques. Les étudiants font des recherches, communiquent et, par-dessus tout, ont besoin d’écrire des quantités non négligeables de texte, voire de code. Les tablettes ne le font pas pour eux.

Est-ce que les employés s’en servent ? NON

Et puis il y a l’entreprise. Je n’ai pas encore vu une entreprise qui ait décidé de généraliser les iPad ou des tablettes si ce n’est pour des raisons ésotériques tournant autour de leur image de communicants. Encore une fois, les gens au travail veulent un ordinateur complet et connecté qui leur permet de faire des tâches fonctionnelles rapidement. Quand je vois des iPad sur un lieu de travail, ils sont généralement entre les mains de personnes d’un certain âge qui prennent des notes (lentement) avec un seul doigt, qui se débattent pour télécharger des documents et des feuilles de calcul et qui sont souvent les mêmes qui demandent une copie papier de tous les documents de travail avant la réunion. Un netbook à 299 £, pas de papier : ça me satisfait.

Alors pourquoi cet engouement pour les tablettes et les iPad dans les écoles ?

Mis à part ces motivations d’achat, pourquoi cette obsession des iPad ? Je n’ai pas été séduit et je n’achèterai pas le package. Si comme moi vous considérez que l’enseignement doit faire émerger des individus autonomes qui peuvent construire une vie dans laquelle ils se sentent en confiance avec la technologie, acquièrent des compétences grâce à elle et en retirent le maximum à la maison ou au boulot, alors un iPad ou une tablette est un mauvais choix et voici selon moi pourquoi…

1. L’écriture

La capacité à écrire se retrouve au cœur de l’éducation primaire, secondaire et supérieure. Les enfants ont besoin d’être encouragés à beaucoup écrire pour apprendre, que ce soit en prenant des notes, en rédigeant des devoirs, des rapports, des manipulations de données, des écrits d’invention ou des dissertations. Les claviers des écrans tactiles sont inconfortables avec des taux d’erreur élevés et la manière de sauvegarder, travailler en réseau, ou d’imprimer est tortueuse. On revient à l’ardoise victorienne, voire bien pire en fait. J’en possède une et je trouve qu’il est plus facile d’écrire sur cette ardoise plutôt que de taper sur un iPad. Fait intéressant, en leur fournissant un appareil si hostile à la création de l’écriture, vous pouvez faire passer l’envie d’écrire aux élèves débutants. Répondre à cela en disant qu’il est possible d’acheter des claviers pour les tablettes revient à admettre une défaite. C’est répondre que les tablettes ne fonctionnent que si vous les transformez en ordinateur. À quels coûts supplémentaires ?

2. La créativité

Les tablettes sont faites pour consommer du contenu, les ordinateurs (portables) permettent la création de contenus. Ce n’est pas parce que les choses sont belles sur un iPad qu’elles sont faciles à faire avec celui-lui. Les outils de création dans la plupart des domaines de l’art et du design sont très différents des outils de diffusion. Essayez d’utiliser Photoshop, Illustrator ou encore 3D Studio sur une tablette. Essayez de faire une sélection pixel par pixel, d’utiliser des calques, de faire des ajustements précis. L’écran n’est tout simplement pas assez grand pour ce genre de travail. C’est un appareil que l’on tient à la main, pas un outil de travail. Les tablettes sont rares dans le monde du travail où l’écriture demeure nécessaire. La maîtrise du clavier et les compétences sur d’autres appareils dont vous pouvez avoir besoin dans la vraie vie ont peu de chances d’être acquises grâce à l’iPad.

3. L’informatique, les TIC (Technologies de l’Information et de la Communication), la programmatue je passe ion

Peu importe le but de l’apprentissage de l’informatique, de la programmation ou des technologies de l’information à l’école, je ne pense pas que l’iPad ou les tablettes soient appropriés. Apprendre à manipuler un tableur sur un iPad est pénible. Vouloir apprendre à programmer avec, ridicule. Quelle personne sensée voudrait utiliser une interface tactile pour programmer, ce qui implique beaucoup d’écritures détaillées, supprimant, ajoutant des lignes, aussi bien que dans un environnement plus ouvert ?

4. Un appareil de consommation, pas d’apprentissage

Par-dessus tout, un iPad est un outil de consommateur, fait pour lire et pas pour écrire. Il a un rôle à jouer dans les apprentissages, particulièrement au niveau pré-scolaire pour les tout-petits, mais au-delà, il n’y a pas d’argument sérieux pour justifier un investissement de grande ampleur dans ce genre de matériel. La meilleure preuve en est que quand les élèves ou les étudiants s’équipent en informatique, ils n’achètent pas de tablettes. Ils achètent des ordinateurs de bureau, des netbooks ou des ordinateurs portables.

5. Inadéquation avec les besoins des enseignants

Il y a l’exemple d’une école qui avait échangé ses ordinateurs portables contre des tablettes, et qui souhaite aujourd’hui faire machine arrière. « La salle des profs se lamente », car les problèmes pédagogiques sont évidents. D’un point de vue technique, les enseignants ont vécu cela comme un cauchemar. La plupart des enseignants et le matériel pédagogique qu’ils utilisent s’appuient sur Word et PowerPoint, et l’utilisation de tablettes a entraîné des problèmes d’incompatibilité. Certains professeurs ont dû faire héberger leur contenu à l’extérieur de l’établissement, ce qui a posé des problèmes d’accès aux ressources. Il y a également des problèmes d’affichage avec l’écran au format 4:3 des iPad, des problèmes d’accès à Internet au travers des proxy. Mais le principal problème reste la capacité de stockage et le manque de ports USB. Cela implique l’utilisation de procédures plus complexes, comme par exemple l’usage de DropBox et de tous les problèmes afférents. Les tablettes ne sont pas des outils adaptés aux enseignants. Sans une véritable connaissance des logiciels et des besoins des enseignants, il n’y a aucune plus-value pour les apprenants.

6. Le prix élevé

Les iPad sont chers à l’achat et à l’entretien, et sont compliqués à mettre en œuvre en termes de réseau et de périphériques. Ils sont conçus pour être utilisés à la maison et non à l’école, dans les laboratoires ou les salles de classe. Ce constat a été dressé par l’Honnywood Community Science School, une école qui vient tout juste de se créer, qui a acheté 1200 iPad pour un montant de 500000€ , dont la moitié sont maintenant inutilisables. Il existe donc une réelle interrogation sur la solidité de la technologie à l’école et dans les sacs des élèves, où ces équipements sont malmenés, tombent et sont rayés. Pire encore, 20% de ceux qui ont été envoyés en réparation en sont à leur deuxième ou troisième retour au SAV. Bien qu’il ait été demandé 50€ aux parents par tablette, ces dernières coûtent en réalité 450€ et les élèves ne semblent pas prendre particulièrement soin de quelque chose qu’ils n’ont pas acheté. Le coût final, quand on ajoute les réparations, est encore plus élevé que prévu.

7. Des projets vaniteux

Une personne très bien informée, ayant participé à une réunion dans les hautes sphères du gouvernement qui a décidé d’introduire les tablettes à l’école, m’a dit que cela avait été pénible et bordélique. Les tablettes, données par une entreprise informatique, furent bien livrées à l’école, où le chef de l’établissement les dissimula aux autres enseignants. C’est exactement comme cela qu’il ne faut PAS introduire les nouvelles technologies dans les écoles : acheter des appareils à la mode en grande quantité, les distribuer dans de belles boites et espérer que tout ira bien. C’est le danger avec ces projets fondés sur des tablettes, nous nous basons rarement sur une analyse poussée pour choisir la technologie la plus appropriée, nous avons plutôt tendance à nous baser sur le fait qu’Apple est à la mode ou sur les conseils des fans de cette marque. Nous devons éviter de faire comme tout le monde et de mettre en place des projets prétentieux qui présupposent que ce qui est cool pour les consommateurs adultes sera cool pour l’école.

J’ai passé toute ma vie d’adulte à encourager l’adoption des technologies dans l’enseignement mais je veux être sûr qu’on ne se tire pas une balle dans le pied avec des projets qui n’ont pas pris en compte les sept points ci-dessus. Pour être honnête, je ne suis pas du tout certain du bien-fondé d’une technologie imposée aux salles de classe. Laissons les enseignants enseigner et, si vous introduisez ce genre de choses, réservez plutôt une bonne part du budget à leur formation.

Conclusion

Une bonne technologie a toujours du style, et les iPad en ont à revendre, mais c’est un style qui attire les adultes, pas les enfants. Je peux comprendre l’utilité des tablettes pour des jeunes enfants, de 3 à 9 ans, et peut-être ayant des besoins spécifiques. Mais une fois acquis les rudiments, les iPad sont un luxe que les écoles ne peuvent pas se permettre. Ils ne sont pas non plus souhaitables, au regard de l’apprentissage que dispensent les écoles à grande échelle. Ces initiatives sont souvent menées avec un but technologique et non pédagogique.

Remarquez que tout cela ne constitue pas une attaque contre les iPad et les tablettes. J’en ai acheté une et je trouve ça bien. C’est un ensemble d’arguments contre leur utilisation dans l’enseignement. Les élèves à l’école, au lycée et à l’université ne les achètent pas avec leur argent. Pas plus qu’il ne les utilisent lorsqu’ils en ont le choix. Même s’ils étaient fournis, ces outils sont largement inadaptés à l’écriture, aux besoins de l’informatique, des technologies de l’information, de la programmation ou encore des autres tâches lors du cursus scolaire. Cela est principalement lié au fait que ce sont des appareils de consommation, passifs et non pas actifs, utilisés pour lire et non écrire, avec une mise en avant de la consommation et non de la création. Ils ne sont certainement pas adaptés à l’éducation.

P.S. : Je suis conscient de passer peut-être à côté de quelque chose mais j’ai hâte de voir les recherches sur les améliorations effectives dans les acquisitions, par opposition aux enquêtes qualitatives et aux questionnaires.

Crédit photo : Urban Hippie Love (Creative Commons By-Sa)




Les lunettes Google Glass ou la fin définitive de notre vie privée ?

Google Glass c’est le projet Google de lunettes révolutionnaires à réalité augmentée. On nous promet leur commercialisation avant la fin de l’année. Une vidéo spectaculaire a été publiée récemment. Si vous ne l’avez pas encore vue, nous vous invitons à le faire car vous allez mieux comprendre la traduction qui suit.

Bientôt donc vous retrouverez quelque part avec des gens qui porteront ces lunettes. À tout moment, ceux-ci peuvent vous filmer à votre insu et mettre en ligne en temps réel la vidéo sur YouTube, non sans qu’un système automatisé de reconnaissance faciale et de tags vous ait peut-être identifié au passage !

Ce n’est plus de la science-fiction et comme Google n’est pas une entreprise philanthropique, on imagine sans peine l’impact majeur d’une telle innovation sur notre vie privée et le devenir de nos données personnelles.

Max Braun - CC by-sa

Gare aux Google Glasses !

Watch Out for Google Glasses

Anton Wahlman – 25 février 2013 – TheStreet.com
(Traduction : jtanguy, 3wen, Benoît, Jeanba88, misterk, goofy + anonymes)

D’ici la fin de cette année, notre société va subir un changement très particulier, qui va susciter beaucoup de controverses. La cause ? Les Google Glasses.

Les Google Glasses vont impacter les comportements sociaux dès leur mise en circulation. Au moment où vous les apercevez, vous savez que vous pouvez être filmé. Et les gens n’aiment pas être filmés.

Bien sûr, tous les smartphones peuvent enregistrer des vidéos et prendre des photos. Mais vous savez quand ça arrive. Vous n’avez pas constamment l’impression que tout le monde autour de vous est en train de vous filmer sous tous les angles. Vous les voyez faire quand ils le font.

Les Google Glasses sont différentes. Au-delà des photos et des vidéos, qu’advient-il de ces données ?

Imaginons que je sois derrière le guichet d’une entreprise : banque, restauration rapide, guichet d’enregistrement à l’aéroport, peu importe. Mes Google Glasses pourraient afficher le numéro de sécurité sociale, le casier judiciaire, la présence sur les réseaux sociaux, etc. de la personne en face de moi.

C’est peut-être un progrès pour certains mais d’autres trouveront cela terrifiant. Pouvez-vous imaginer la scène dans un bar où les gens commencent à porter des Google Glasses ? En l’espace d’une seconde ou deux, vous aurez toutes les informations disponibles à propos de la personne en face de vous. Et certaines de ces informations pourraient ne pas être flatteuses.

Les lieux publics devront élaborer de nouvelles politiques. Hôtels, aéroports, restaurants, salles de sport et écoles voudront avoir leur mot à dire concernant le port des Google Glasses dans leurs locaux. Vous pourrez entendre les tollés dès que les premières images de gens trichant dans les écoles, ou filmant dans les vestiaires seront publiées sur YouTube. De futurs conflits vont certainement très mal tourner.

D’autre dimensions du problème apparaissent aussitôt. Que se passera-t-il si les versions futures des Google Glass deviennent très difficiles à distinguer des lunettes traditionnelles ?

Aujourd’hui, que se passe-il si vous pénétrez dans un établissement en tenant une caméra qui filme les visages des gens, dans un restaurant, une banque ou une salle de sport ? On vous demandera d’éteindre votre caméra, et si vous n’obéissez pas rapidement, on vous jettera dehors.

Les Google Glasses vont rendre les interactions publiques et sociales très délicates car vous prenez le risque potentiel d’être sur YouTube quel que soit l’endroit où vous allez. Quelques mois après leur arrivée sur le marché, les Google Glasses pourraient être déjà si répandues que vous serez filmé dès que vous pointerez le nez dehors.

Défenseurs de la vie privée, en avant !

Les données photos et vidéos des Google Glasses ne vont pas être utilisées seulement par la personne qui porte les lunettes. La personne qui prend ces images voudra peut-être « taguer automatiquement » ces médias avec l’identité des personnes dans la photo ou vidéo.

Il y a des gens qui préfèrent passer sous les radars. Ils payent en liquide, n’utilisent pas de GPS en voiture, n’ont pas de téléphone, et ne sont membres d’aucun réseau social en ligne. Ils ont réussi à rester en-dehors de la plupart des bases de données disponibles publiquement.

Une fois qu’une partie significative de la population aura commencé à déambuler dans les rues avec des Google Glasses, ils ne le pourront plus vraiment. Il n’y aura plus de place pour se cacher, à moins que les gouvernements ne légifèrent sur ces Google Glasses, ou que les établissements privés décident de les interdire.

Qu’en est-il de Google lui-même ?

Les Google Glasses deviendront une arme décisive dans la guerre imminente pour les données personnelles. Si d’autres personnes les utilisent, pourquoi pas moi ? Je prédis que toutes les personnes avec suffisamment de moyens vont se ruer pour en obtenir, surtout si le prix baisse de 1 500$ à 1 000$, puis à 500$ et finalement en-dessous, lors des deux premières années de commercialisation.

Si Google arrive à sortir ce genre de lunettes avant ses concurrents directs, non seulement Apple, mais aussi Microsoft, son avance pourrait bien être décisive. Google possède déjà 70% des parts de marché des smartphones avec Android, donc il est plutôt bien parti, mais n’oublions pas que la part de marché des PC de Microsoft atteignait 95% il y a seulement quelques années.

Comme Google va probablement inventer un lien fort entre les Google Glasses et les smartphones Android, les Google Glasses vont être une véritable aubaine pour Android. N’importe qui regardera son iPhone et devra sérieusement envisager de passer à Android.

Les Google Glasses risquent de causer un chaos social, mais elles vont être très bénéfiques pour les finances de Google.

Crédit photo : Max Braun (Creative Commons By-Sa)




Débat : 9 points (ou tabous ?) jamais (ou rarement) discutés dans le logiciel libre

Nous traduisons souvent Bruce Byfield, libre penseur du logiciel libre, sur le Framablog.

A-t-il raison d’affirmer qu’il est des sujets pour ainsi dire tabous dans la communauté et surtout que la situation a évolué, n’en déplaise à certains ?

Laëtitia Dulac - CC by

Neuf choses dont on ne discute jamais sur l’open source

9 Things That Are Never Admitted About Open Source

Bruce Byfield – 22 janvier 2013 – Datamation
(Traduction : Moosh, brandelune, Sky, ehsavoie, Astalaseven, petit bonhomme noir en haut à droite, mike, goofy, KoS, Mowee, arcady, maxlath, Astalaseven, mariek, VifArgent, Rudloff, VIfArgent, Penguin, peupleLa, Vilrax, lamessen + anonymous)

Quels sont les sujets tabous dans l‘open source de nos jours ? Certains peuvent se deviner mais d’autres pourraient bien vous surprendre.

On pourrait penser qu’un groupe de personnes intelligentes comme les membres de la communauté des logiciels libres et open source (NdT : FOSS pour Free and Open Source Software) seraient sans tabous. On pourrait s’attendre à ce qu’un tel groupe d’intellectuels juge qu’aucune idée n’est interdite ou gênante – mais ce serait une erreur.

Comme toute sous-culture, la communauté FOSS est cimentée par des croyances. Ces croyances contribuent à bâtir une identité commune : par conséquent, les remettre en cause revient à remettre en cause cette identité.

Certains de ces sujets tabous peuvent saper des évidences admises depuis vingt ans ou plus. D’autres sont nouveaux et contestent des vérités communément acceptées. Quand on les examine, on s’aperçoit que chacun d’entre eux peut être aussi menaçant que la déclaration de valeurs communes peut être rassurante.

Pourtant, même s’il est inconfortable d’interroger ces tabous, il est souvent nécessaire de le faire. Les croyances peuvent perdurer longtemps après le temps où elles s’appliquaient, ou après avoir dégénéré en semi-vérités. Il est utile de temps en temps de penser l’impensable, ne serait-ce que pour mettre ces croyances en phase avec la réalité.

Suivant cette logique, voici neuf observations sur l‘open source qui nécessitent selon moi un nouvel examen.

1. Ubuntu n’est plus le dernier grand espoir de l’open source

Quand Ubuntu est apparue il y a neuf ans, nombreux sont ceux qui l’ont considérée comme la distribution qui mènerait la communauté à dominer le monde. Débarquant de nulle part, Ubuntu s’est immédiatement concentrée sur le bureau comme aucune autre distribution avant elle. Des outils et des utilitaires furent ajoutés. De nombreux développeurs Debian trouvèrent un travail chez Canonical, la branche commerciale d’Ubuntu. Des développeurs virent leurs frais payés pour des conférences auxquelles ils n’auraient pas pu se rendre autrement.

Au fil du temps, une bonne partie de l’enthousiasme initial est retombée. Personne ne semble s’être intéressé à la demande de Mark Shuttleworth, le fondateur d’Ubuntu, à ce que les principaux projets coordonnent leurs cycles de livraison ; ils l’ont tout simplement ignorée. Mais on a vu des sourcils se froncer lorsqu’Ubuntu a commencé à développer sa propre interface plutôt que de contribuer à GNOME. Canonical a commencé à contrôler ce qui se passait dans Ubuntu, apparemment pas pour l’intérêt général mais surtout pour la recherche de profits. Nombreux, aussi, furent ceux qui n’apprécièrent pas l’interface d’Ubuntu, Unity, à sa sortie.

Pourtant, à écouter les employés de Canonical, ou les bénévoles Ubuntu, on aurait presque l’impression qu’il ne s’est rien passé pendant ces neuf dernières années. Lisez notamment le blog de Shuttleworth ou ses déclarations publiques : il se donne le rôle de figure de proue de la communauté et déclare que les « hurlements des idéologues » finiront par cesser devant son succès.

2. Le « cloud computing » sape les licences libres

Il y a sept ans, Tim O’Reilly affirmait que les licences libres étaient devenues obsolètes. C’était sa manière un peu dramatique de nous prévenir que les services en ligne mettent à mal les objectifs du logiciel libre. Comme le logiciel, le cloud computing offre aux utilisateurs l’usage gracieux des applications et du stockage, mais sans aucune garantie ou contrôle quant à la vie privée.

La Free Software Foundation (NdT : Fondation pour le Logiciel Libre) répondit à la popularité grandissante du cloud computing en dépoussiérant la GNU Affero General Public License, qui étend les idéaux du FOSS au cloud computing.

Après cela, pourtant, les inquiétudes à propos de la liberté logicielle au sein du cloud ont faibli. Identi.ca fut créé comme une réponse libre à Twitter, et MediaGoblin développé comme l’équivalent libre d’Instagram ou de Flickr, mais ce genre d’efforts est occulté par la compétition. On n’a pas mis l’accent sur l’importance des licences libres ou du respect de la vie privée dans le cloud.

Par conséquent, les avertissements de O’Reilly sont toujours aussi pertinents de nos jours.

3. Richard Stallman est devenu un atout contestable

Le fondateur de la Free Software Foundation et le moteur derrière la licence GNU GPL, Richard M. Stallman, est une des légendes des logiciels libres et open source. Pendant des années, il a été l’un des plus ardents défenseurs de la liberté du logiciel et la communauté n’existerait probablement pas sans lui.

Ce que ses supporters rechignent à admettre, c’est que la stratégie de Stallman a ses limites. Nombreux sont ceux qui disent que c’est un handicapé social, et que ses arguments se basent sur la sémantique — sur les mots choisis et comment ils influencent le débat.

Cette approche peut être éclairante. Par exemple, lorsque Stallman s’interroge sur l’analogie entre le partage de fichiers et les pillages perpétrés par les pirates, il révèle en fait le parti-pris que l’industrie du disque et du cinéma tente d’imposer.

Mais, malheureusement, c’est à peu près la seule stratégie de Stallman. Il dépasse rarement ce raisonnement qu’il utilise pour fustiger les gens, et il se répète même davantage que des personnes qui passent leur temps à faire des discours. Il est perçu de plus en plus, par une partie de la communauté, comme quelqu’un hors de propos voire même embarrassant. Comme quelqu’un qui fut efficace… mais ne l’est plus. Il semble que la communauté a du mal à admettre l’idée que Stallman a eu un impact certain pendant des années, mais qu’il est moins utile aujourd’hui. Soit il est défendu férocement pour son passé glorieux, soit il est attaqué comme un usurpateur parasite. Je crois que les affirmations concernant ce qu’il a accompli et son manque d’efficacité actuel sont vraies toutes les deux.

4. L’open source n’est pas une méritocratie

L’une des légendes que les développeurs de logiciels libres aiment à se raconter est que la communauté est une méritocratie. Votre statut dans la communauté est censément basé sur vos dernières contributions, que ce soit en code ou en temps.

L’idée d’une méritocratie est très attirante, en cela qu’elle forme l’identité du groupe et assure la motivation. Elle encourage les individus à travailler de longues heures et donne aux membres de la communauté un sentiment d’identification et de supériorité.

Dans sa forme la plus pure, comme par exemple au sein d’un petit projet où les contributeurs ont travaillé ensemble pendant de nombreuses années, la méritocratie peut exister.

Mais le plus souvent, d’autres règles s’appliquent. Dans de nombreux projets, ceux qui se chargent de la documentation ou bien les graphistes sont moins influents que les programmeurs. Bien souvent, vos relations peuvent influencer la validation de votre contribution au moins autant que la qualité de votre travail.

De même, la notoriété est plus susceptible d’influencer les décisions prises que le grade et les (surtout si elles sont récentes) contributions. Des personnes comme Mark Shuttleworth ou des sociétés comme Google peuvent acheter leur influence sur le cours des choses. Des projets communautaires peuvent voir leurs instances dirigeantes dominées par les sponsors privés, comme c’est de fait le cas avec Fedora. Bien que la méritocratie soit l’idéal, ce n’est presque jamais la seule pratique.

5. L’open source est gangrené par un sexisme systémique

Une autre tendance qui plombe l’idéal méritocratique est le sexisme (parfois sour la forme de la misogynie la plus imbécile) que l’on trouve dans quelques recoins de la communauté. Au cours des dernières années, les porte-parole du FOSS ont dénoncé ce sexisme et mis en place des règles officielles pour décourager quelques uns de ses pires aspects, comme le harcèlement pendant les conférences. Mais le problème demeure profondément ancré à d’autres niveaux.

Le nombre de femmes varie selon les projets, mais 15 à 20 pour cent peut être considéré comme un chiffre élevé pour un projet open source. Dans de nombreux cas, ce nombre est en dessous des cinq pour cent, même en comptabilisant les non-programmeurs.

De plus les femmes sont sous-représentées lors des conférences, à l’exception de celles où les femmes sont activement encouragées à faire part de leurs propositions (ces efforts entraînent, inévitablement, leur lot d’accusations quant à des traitements spéciaux et des quotas, quand bien même aucune preuve ne peut être avancée).

La plus grande évidence de sexisme se produit quotidiennement. Par exemple, Slashdot a récemment publié un entretien avec Rikki Ensley, membre de la communauté USENIX. Parmi les premiers commentaires, certains se référaient à une chanson populaire dont le refrain mentionne le prénom Rikki. D’autres discutent de son apparence et lui donnent des conseils pour avoir l’air plus « glamour ».

On assiste à des réactions du même ordre, et bien d’autres pires encore sur de nombreux sites dédiés au monde du libre ou sur IRC, dès qu’une femme apparaît, surtout s’il s’agit d’une nouvelle venue. Voilà qui dément les affirmations d’une communauté qui prétend ne s’intéresser qu’aux seules contributions, ou encore l’illusion que la sous-représentation des femmes serait simplement une question de choix individuels.

6. Microsoft n’est plus l’ennemi irréductible du logiciel libre

Il y a à peine plus d’une dizaine d’années, vous pouviez compter sur Microsoft pour traiter le monde du Logiciel Libre de « communiste » ou « anti-Américain », ou sur leurs intentions parfois divulguées dans la presse de vouloir détruire la communauté.

Une grande partie de la communauté s’accroche encore à ces souvenirs. Après tout, rien ne rassemble plus les gens qu’un ennemi commun, puissant et inépuisable.

Mais ce dont la communauté ne se rend pas compte, c’est que la réaction de Microsoft est devenue plus nuancée, et qu’elle varie d’un service à l’autre au sein de l’entreprise.

Nul doute que les dirigeants de Microsoft continuent de voir le logiciel libre comme un concurrent, bien que les dénonciations hautes en couleur aient cessé.

Cependant, Microsoft a pris conscience que, compte-tenu de la popularité du logiciel libre, les intérêts à court terme de l’entreprise seraient mieux servis si elle s’assurait que les outils libres (en particulier les langages de programmation les plus populaires) fonctionnent correctement avec ses propres produits. C’est d’ailleurs la mission principale du projet Microsoft Open Technologies. Récemment, Microsoft est même allé jusqu’à publier une courte déclaration faisant l’éloge de la dernière version de Samba, qui permet l’administration des serveurs Microsoft depuis Linux et les systèmes Unix (NdT : Voir aussi cette FAQ en français publiée par Microsoft).

Bien sûr, il ne faut pas non plus s’attendre à voir Microsoft devenir une entreprise open source ou faire des dons désintéressés d’argent ou de code à la communauté. Mais, si vous faites abstraction des vieux antagonismes, l’approche égoïste de Microsoft à l’égard du logiciel libre n’est pas très différente de nos jours de celle de Google, HP, ou n’importe quelle autre entreprise.

7. L’innovation des interfaces stagne

En 2012, nombreux furent ceux qui n’ont pas adopté GNOME 3 et Unity, les deux dernières interfaces graphiques majeures. Cet abandon fut largement lié à l’impression que GNOME et Ubuntu ignoraient les préoccupations des utilisateurs et qu’ils imposaient leur propre vision, sans concertation.

À court terme, cela a mené à la résurrection de GNOME 2 sous des formes variées.

En tant que prédécesseur de GNOME 3 et de Unity, GNOME 2 fut un choix évident. C’est une interface populaire qui n’impose que peu de restrictions aux utilisateurs.

Quoi qu’il en soit, cela risque d’être, à long terme, étouffant pour l’innovation. Non seulement parce que le temps passé à ressuciter GNOME 2 n’est pas mis à profit pour explorer de nouvelles voies, mais parce que cela semble être une réaction à l’idée même d’innovation.

Peu sont ceux, par exemple, qui sont prêts à reconnaître que GNOME 3 ou Unity ont des fonctionnalités intéressantes. Au contraire, les deux sont condamnés dans leur ensemble. Et les développements futurs, tels l’intention de GNOME de rendre la sécurisation et la confidentialité plus simples, n’ont pas reçu l’attention qu’ils méritaient.

Au final, au cours des prochaines années, l’innovation en sera probablement réduite à une série de changements ponctuels, avec peu d’efforts pour améliorer l’ergonomie dans son ensemble. Même les développeurs hésiteront à tenter quoi que ce soit de trop différent, afin d’éviter le rejet de leurs projets.

Je me dois d’applaudir le fait que les diverses résurrections de GNOME 2 marquent le triomphe des requêtes des utilisateurs. Mais le conservatisme qui semble accompagner ces aboutissements m’inquiète : j’ai bien peur que cette victoire n’engendre d’autres problèmes tout aussi importants.

8. L’open source est en train de devenir une monoculture

Ses partisans aiment à revendiquer que l’un des avantages du logiciel libre et open source, c’est d’encourager la diversité. À la différence de Windows, les logiciels libres sont supposés être plus accueillants pour les idées nouvelles et moins vulnérables aux virus, la plupart des catégories de logiciels incluant plusieurs applications.

La réalité est quelque peu différente. À la lecture d’une étude utilisateurs vous remarquerez un modèle plutôt constant : une application ou technologie recueille 50 à 65% des votes, et la suivante 15 à 30%.

Par exemple, parmi les distributions, Debian, Linux Mint et Ubuntu, qui utilisent toutes le format de packet en .DEB, recueillent 58% du choix des lecteurs 2012 du Linux Journal, que l’on peut comparer aux 16% recueillis par Fedora, openSUSE, et CentOS, qui utilisent quant à elles le format .RPM.

De même, Virtualbox atteint 56% dans la catégorie « Meilleure solution de virtualisation », et VMWare 18%. Dans la catégorie « Meilleure gestion de versions », Git recueille 56% et Subversion 18%. La catégorie la plus asymétrique est celle des « Suites bureautiques » dans laquelle LibreOffice recueille 73% et (sic) Google Docs 12%.

Il n’y avait que deux exceptions à cette configuration. La première était la catégorie « Meilleur environnement de bureau », dans laquelle la diversification des dernières années était illustrée par les scores de 26% pour KDE, 22% pour GNOME 3, 15% pour GNOME 2 et 12% pour Xfce. La deuxième catégorie était celle de « Meilleur navigateur web »dans laquelle Mozilla Firefox recueillait 50% et Chromium 40%.

De manière générale, les chiffres ne rendent pas compte d’un monopole, mais dans la plupart des catégories, la tendance est là. Au mieux, on pourrait dire que, si la motivation n’est pas le profit, le fait d’être moins populaire n’implique pas que l’application va disparaître. Mais si la concurrence est saine, comme tout le monde aime à le dire, il y a tout de même des raisons de s’inquiéter. Quand on y regarde de près, les logiciels libres sont loin d’être aussi diversifiés que ce que l’on croit.

9. Le logiciel libre est bloqué si près de ses objectifs

En 2004, les logiciels libres et open source en étaient au stade où ils couvraient la plupart des usages de base des utilisateurs : envoi de courriels, navigation sur internet et la plupart des activités productives sur ordinateur. En dehors des espoirs de disposer un jour d’un BIOS libre, il ne manquait plus que les pilotes pour les imprimantes 3D et les cartes WiFi pour atteindre l’utopie d’un système informatique entièrement libre et open source.

Neuf ans plus tard, de nombreux pilotes libres de carte WiFi et quelques pilotes libres de cartes graphiques sont disponibles – mais nous sommes loin du compte. Pourtant la Free Software Foundation ne mentionne que rarement ce qui reste à faire, et la Linux Foundation ne le fait pratiquement jamais, alors même qu’elle sponsorise l’OpenPrinting database, qui liste les imprimantes ayant des pilotes libres. Si l’on combinait les ressources des utilisateurs de Linux en entreprise, on pourrait atteindre ces objectifs en quelques mois, pourtant personne n’en fait une priorité.

Admettons que certaines entreprises se préoccupent de leur soi-disant propriété intellectuelle sur le matériel qu’elles fabriquent. Il est possible également que personne ne veuille courir le risque de fâcher leurs partenaires commerciaux en pratiquant la rétroingénierie. Pourtant, on a bien l’impression que l’état actuel de statu quo persiste parce que c’est déjà bien assez, et que trop peu de personnes ont à cœur d’atteindre des objectifs dont des milliers ont fait le travail de leur vie.

Des discussions, non des disputes

Certains ont peut-être déjà conscience de ces sujets tabous. Cependant, il est probable que chacun trouvera dans cette liste au moins un sujet pour se mettre en rogne.

Par ailleurs, mon intention n’est pas de mettre en place neuf aimants à trolls. Même si je le voulais, je n’en aurais pas le temps.

Ces lignes sont plutôt le résultat de mes efforts pour identifier en quoi des évidences largement admises dans la communauté devraient être remises en question. Je peux me tromper. Après tout, je parle de ce que j’ai pris pour habitude de penser, moi aussi. Mais au pire, cette liste est un bon début.

Si vous pensez qu’il y a d’autres sujets tabous à aborder et à reconsidérer au sein de la communauté des logiciels libres et open source, laissez un commentaire. Cela m’intéresse de voir ce que je pourrais avoir oublié.

Crédit photo : Laëtitia Dulac (Creative Commons By)