Une journée aux HackWeeks de l’EPPLUG

EPPLUG - CC by-sa Alors, à quoi ressemblait cette fameuse semaine aux HackWeeks « automne 2010 » finalement ?

Avant de faire un bilan de cette semaine particulière et riche en échanges, consacrons déjà un billet au déroulement type d’une journées standard, au cours de cet évènement qui réunit en un même lieu 25 participants de 4 projets de développement de logiciel libre, logés, nourris et bichonnés par une bonne douzaine de bénévoles de l’association des Éleveurs de Pingouins Picards, le LUG local, célèbre pour son organisation des Rencontres Mondiales du Logiciel Libres en 2007.

D’un certain point de vue, les journées aux HackWeeks commençaient comme ça (petit clin d’œil au passage aux équipes de Seeks et Domogik, ainsi qu’au magnifique soleil matinal amiénois) :

EPPLUG - CC by-sa

Et elles se terminaient de la manière suivante :

EPPLUG - CC by-sa

Mais rassurez-vous, je suis là pour témoigner du fait qu’on était bien traités entre les deux.

D’ailleurs, pour être honnête, les journées commençaient plutôt comme ça :

EPPLUG - CC by-sa

Par un réveil matinal dans les confortables chambres individuelles (à 2 ou 4 lits), situées juste en face du CREPS d’Amiens où se déroulait l’évènement, et que l’on pouvait joindre en deux pas [1] après une bonne douche [2].

Des matinées studieuses

EPPLUG - CC by-sa

Dès 8 h 30, les premiers développeurs acharnés, d’un naturel calme et tranquille [3] se rassemblaient dans la grande salle de travail, où quatre groupes de tables avaient été aménagés pour accueillir les participants de chaque projet.

Toutefois, les développeurs étant visiblement en majorité des « couche-tard », c’est seulement vers 10 h 30 que le gros des troupes en avait fini avec le petit déjeuné, servi sous forme de buffet à volonté dans une salle à part, réservée aux repas, conviviale mais située à l’autre extrémité du long bâtiment ! Bon, objectivement c’est à peu près le seul exercice physique qu’on ait fait de la semaine, mis à part les balades rafraîchissantes pour aller du lieu de travail (le CREPS) aux lieux de rencontres avec le public (des bars en ville).

Sur place, les styles variaient beaucoup d’une table à l’autre, mais on retrouvait partout la même détermination à avancer dans le travail. Pour ce faire, l’équipement était optimal : tables, chaises, multi-prises et câbles ethernets. En creusant un peu plus, on se rendait compte, au fur et à mesure des besoins, qu’il y avait également : bloc-note et stylos à volonté, et même un tableau papier par projet. Un frêle WiFi venait dépanner lors des quelques toussotements du réseautiers du début, lorsque différentes configurations étaient appliquées à la fibre optique mise en place sur-mesure pour l’évènement et ses éditions futures.

Calme et appliquée, l’équipe Domogik qui me prêtait un coin de table a rapidement recouvert son espace de travail d’équipement domotique divers, variés et encombrants. Un nouveau dans l’équipe apprenait les rouages du logiciel, largement guidé par ses deux collègues qui avançaient sur les fonctionnalités attendues. À cette table, le silence était de mise, pour aider à la concentration et surtout pour entendre les petits claquements de relais dans les équipements branchés et en cours de test.

Un peu plus extravertie, l’équipe Seeks débattait au tableau, se répartissait les tâches et s’échangeait quelques blagues sur IRC. L’effet est d’ailleurs toujours aussi surprenant… Tout ce petit monde pianote avec l’air sérieux, et d’un coup les rires fusent, chacun s’empressant d’en rajouter une ligne au clavier 🙂

Du côté de Dolibarr, le standing n’est pas le même. On passe des chercheurs hirsutes aux auto-entrepreneurs dynamiques. Ils étaient 12, discutant, débattant de manière animée et répondant au téléphone à leurs clients. À la table Dolibarr, pour coder il fallait se concentrer. Mais justement, il n’était pas rare d’y trouver des développeurs en pleine action, intensément concentrés sur leur code, parfois même avec des écouteurs sur les oreilles et qui sursautaient si on leur posait une question.

Enfin, les NObjets étaient nettement plus discrets [4], mais tout aussi productifs.

Des déjeuners conviviaux

EPPLUG - CC by-sa

Tous les jours à partir de 12 h 30, une fois les repas du traiteurs livrés avec l’aide des bénévoles de l’EPPLUG, des volées de développeurs gagnaient la salle à manger en traversant joyeusement les couloirs du CREPS. Les repas étaient à la fois bons et légers (sauf le colombo de porc du début, qui servit de leçon pour tout le monde : pour coder efficacement toute la journée, manger léger). Ils étaient aussi très bons et nous sommes tous repartis avec quelques kilos en plus en fin de semaine.

Des après-midi efficaces

EPPLUG - CC by-sa

Sans moment de flottement le travail reprenait rapidement après le repas, avec autant de passion que le matin. Les après-midi, monotones pour un observateur, crépitaient de claviotages dans une ambiance à mi chemin entre une LAN-Party sérieuse et un open-space convivial. De temps à autre, un évènement particulier vient animer l’après midi : une séance avec vidéo-projecteur chez Dolibarr, une lampe qui s’allume enfin chez Domogik, le montage d’un studio radio sur place, la subtile reprise « scientifique », au tableau papier d’un groupe dont je tairai le nom, de la fameuse pub pour le Tonyglandil des Nuls…

Des soirées chaleureuses

Tout ce petit monde s’agitait à nouveau le soir, quelques heures après la tombée de la nuit [5], lorsque les repas arrivaient. Suivant les activités prévues par l’organisation (présentations de projet, projection de court-métrages libres, repas au restaurant…) chacun se motivait pour suivre le programme, les équipes jouant le jeu quitte à manger en avance pour arriver « à l’heure » au bon endroit. Les déplacements s’improvisaient joyeusement, mais il faut bien reconnaître à la décharge des valeureux bénévoles de l’EPPLUG qu’il n’est pas aisé de décoller un geek de son écran, alors pour réussir à en mobiliser plusieurs d’un coup pour espérer faire une navette en voiture, il faut bien du talent…

EPPLUG - CC by-sa

Les lieux de rencontre avec le public étaient spécialement décorés pour l’évènement et l’ambiance y était donc festive. Bien qu’objectivement les présentations de projet n’attirèrent pas les foules, les équipes furent bons publics les unes envers les autres, créant des moments privilégiés d’échange entre les développeurs.

Puis, la nuit avançant les effectifs s’éparpillaient pour entreprendre diverses activités, plus ou moins saines pour le lendemain, avant de finalement rejoindre les chambres du dortoir en briques par petits groupes.

EPPLUG - CC by-sa

Notes

[1] C’est une expression, il en fallait 63 par beau temps et 75 les matins de givre.

[2] Les chambres en sont équipées.

[3] Qu’on appelle aussi geeks.

[4] Enfin discrets, sauf quand la musique d’un casque poussait l’un des artistes à retranscrire avec les index un solo de batterie endiablé, porté par la force du passage, sous le regard médusé de l’assistance…

[5] Qui arrive d’un coup à 16 h en cette saison.




Geektionnerd : Diaspora

Six mois après nous avoir présenté Movim, Gee nous parle aujourd’hui du prometteur projet Diaspora, que nous avions, entre autre, déjà évoqué ici :

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




H@ckWeeks, le séjour de rêve des geeks

EPPLUG - CC By Sa« Une semaine tous frais payés dans la petite Venise du nord… » c’est le cadeau qu’ont gagné les quatre projets retenus par l’EPPLUG [1] pour la deuxième édition des H@ckWeeks qui se déroulera la semaine prochaine à Amiens.

Les membres de ces quatre projets se retrouveront donc dans le nord dès lundi prochain, confiés aux mains expertes des bénévoles de l’EPPLUG, qui, à la suite de l’organisation de l’édition 2007 des RMLL dans la préfecture de Picardie ont imaginé une variante hebdomadaire des barcamps, ces réunion de travail et d’ateliers.

Le principe est simple : se retrouver tous en vrai (souvent pour la 1ère fois) et n’avoir rien d’autre à penser pendant une semaine que l’avancement du projet libre en question.

L’évènement en étant seulement à sa 2e édition, il suffit aux heureux gagnants de déposer dans les temps une candidature auprès de l’EPPLUG, détaillant le nombre de participants et les objectifs fixés pour cette semaine de travail intensif.

Les quatre projets de cette 2e édition sont :

Et nous aurons l’occasion de revenir en détail sur chacun d’eux plus tard. Toutefois, les lecteurs consciencieux auront d’ores et déjà remarqué que « Nobjet », présenté aux RMLL 2010, est davantage un projet artistique qu’un projet logiciel. Et c’est bien là le deuxième aspect des H@ckWeeks d’Amiens. En effet, la manifestation ne se limite pas à enfermer des codeurs ensembles avec des machines, mais s’accompagne de tout un programme embrassant la culture du libre [2] dans tous ses états. Projections de films libres [3], conférences sur l’art ou la cuisine libre, concerts de musique libre et ateliers permettant au public d’aller à la rencontre des développeurs de chaque projet rythmeront cette semaine intense.

Enfin, cerise sur le gâteau, vous allez pouvoir vivre ces H@ckWeeks hiver 2010 au quotidien, grâce au Framablog ! Ce ne sera pas exactement comme si vous y étiez certes, mais ça sera par contre vraiment comme si j’y étais 🙂

Notes

[1] Les Éleveurs de Pingouins Picards

[2] Si chère au Framablog

[3] Notamment ceux de la fondation Blender, mais également les créations d’un certain LL de Mars, ou encore de l’artiste argentin Blu et québécois David Guillemette. La liste complète étant disponible ici.




Les sous-titres faciles d’Universal Subtitles

Universal Subtitles - CC-by-sa

Framatube, comme les lecteurs assidus de ce blog le savent déjà, est une initiative lancée il y a environ deux ans, dans le but de regrouper des vidéos en rapport avec le logiciel libre et sa culture, pour en favoriser la diffusion.

Framatube s’appuie pour cela aujourd’hui sur la plateforme Blip.tv et, pas de mystère, sur le travail de bénévoles chargés de produire des sous-titres lorsque la vidéo est dans une langue étrangère, l’équipe Framalang entrant alors dans la danse [1].

Dans ce dernier cas, le travail nécessaire pour proposer la vidéo sous-titrée va au delà de la simple traduction : il faut préalablement transcrire la bande-son pour la traduire, puis synchroniser les sous-titres obtenus avec la bande-son, incruster les sous-titres et finalement encoder le tout dans un format libre. Cela demande un travail important, qui nécessite une motivation de longue haleine et plus de travail que les habituelles 6 ou 7 heures par traduction d’article publiée sur le Framablog.

D’autant que, les sous-titres étant au final incrustés dans la vidéo, tout ce travail ne peut être réutilisé pour proposer de nouvelles traductions dans d’autres langues.

Pour prendre l’analogie du logiciel, le code source qui pourrait permettre d’améliorer ou de modifier facilement le résultat n’est pas fourni : paradoxal pour un projet Framasoft !

Heureusement, la Participation Culture Foundation (fondation à but non lucratif à laquelle on doit notamment le logiciel de télévision par Internet Miro) développe « Universal Subtitles » un outil en-ligne qui simplifie grandement la tâche.

Ce projet se place sous le parrainage de la Mozilla Foundation, autre fondation à but non lucratif à qui l’on doit le fameux navigateur web Firefox et qui a initié le projet Mozilla Drumbeat pour promouvoir des initiatives comme celle-ci, visant à garder le Web Ouvert.

L’objectif d’Universal Subtitles est pour le moins ambitieux, offrir à chaque vidéo disponible sur le web un support de sous-titrage collaboratif, où chacun puisse participer au sous-titrage dans sa langue d’une vidéo rencontrée sur le web.

La solution retenue est habile puisqu’elle consiste, à partir d’une vidéo préexistante sur le Web :

  1. à proposer des outils permettant de réaliser un sous-titrage de manière communautaire dont les données sont hébergées sur les serveurs du projet,
  2. à générer un simple bout de code mélangeant JavaScript et HTML5 à ajouter sur son site pour afficher un lecteur vidéo personnalisé pour afficher les sous-titres à la volée en surimpression de la vidéo.

Les avantages sont nombreux :

  • en associant la transcription et ses traductions aux vidéos, il devient possible d’indexer, analyser et traduire l’information contenue dans ces vidéos de façon automatique (les vidéos pourront être indexées par les moteurs de recherche aussi finement que les textes);
  • le travail manuel de sous-titrage se trouve facilité et le résultat peut à tout moment être modifié, complété et amélioré par la communauté;
  • tout cela contribuant à généraliser le sous-titrage et la traduction des vidéos, bénéficiant au plus grand nombre d’une part et augmentant d’autant l’accessibilité de ce support de communication. Les personnes atteintes de handicaps visuels ou auditifs pouvant à nouveau (comme aux débuts du web) bénéficier de versions textes lisibles à son rythme ou par un vocalisateur.

Et puis, cela promet de belles batailles concernant les sous-titres communautaires de clips musicaux…

Yostral, l’un des piliers de Framalang, a testé le système et publié un journal sur LinuxFr.org que nous reproduisons ici avec son aimable autorisation :

Je viens de tester le site UniversalSubtitles.org, qui se veut le « Wikipédia des sous-titres ».

Le but est simple : faciliter le sous-titrage dans n’importe-quelle langue de n’importe-quelle vidéo se trouvant sur le web.

Voyant les problèmes que nous avons à Framalang pour être efficace en sous-titrage vidéo, chacun faisant une étape dans son coin, sauf la traduction qui se fait sur wiki, pas adapté à ça, j’ai donc fait un petit test sur une simple vidéo, en français, pour voir les possibilité de travail collaboratif de traduction et de sous-titrage.

La première étape consiste bien sûr à « importer » une vidéo. En fait on travaille directement sur une vidéo déjà en ligne. Donc pas d’upload sur le site, pas de transcodage, rien. Il suffit simplement de donner l’adresse de la vidéo souhaitée. Pour le moment, les format supportés sont Ogg, WebM, FLV et donc les sites Youtube et Blip.TV (Dailymotion et Vimeo sont en cours).

Cette vidéo apparaît ensuite dans leur « Widget » de traduction. Une page je suppose remplie de HTML5 et de javascript, qui offre une interface relativement conviviale, claire et avec des raccourcis clavier. C’est succinct, mais suffisant pour faire ce qu’on lui demande. C’est donc ici que se déroule la première des trois étapes qui mènent au sous-titrage original de la vidéo : taper les sous-titres correspondant à la vidéo. Pour ceux qui ont 42 doigts, pas de soucis, vous laissez filer la vidéo et vous entrez le texte en temps réel… pour les autres, on peut toujours faire des pauses et naviguer avant/arrière tout simplement.

La seconde étape est la synchronisation du texte que vous avez tapé précédemment. Là, la vidéo défile et on doit appuyer sur une touche à chaque fois que l’on veut que le sous-titrage passe à la ligne suivante. Ici, faut être concentré ! Bien sûr, on peut mettre en pause, revenir en arrière, mais le mieux est de faire défiler et synchroniser au fur et à mesure. Faisable, mais pas évident, surtout sur la longueur.

La troisième étape est le peaufinage, où on peut ajuster les sous-titres plus précisément. Si on s’est un peu endormi à l’étape précédente, c’est ici qu’on se réveille.

Au final on nous donne un lien permanent vers la vidéo et ses sous-titres, ainsi qu’un bout de code pour l’intégration dans une page web. La vidéo est toujours la même au même endroit et seuls les sous-titres, qu’on peut se télécharger en .srt, sont sur le site d’UniversalSubtitles.org.

À partir de cette page, on peut rajouter simplement des sous-titres dans d’autres langues, calés sur la VO. Ça veut dire qu’une fois la transcription faite et synchronisée, en anglais ou autre, la traduction en français est vraiment simplifiée : on a juste à la rentrer dans les cases en dessous de chaque ligne de sous-titres de la langue originale. On peut bien sûr la stopper puis la reprendre plus tard. On voit également sur cette page les langues disponibles liées à la vidéo et l’avancement des traductions.

Bref, c’est vraiment du sous-titrage collaboratif. Les outils sont minimalistes mais efficaces. On peut tout ré-éditer, sauvegarder, exporter. Et on peut même uploader un fichier .srt, pour ceux qui ont plus souvent l’occasion de traduire hors ligne plutôt que connectés à Internet.

Comme je l’ai déjà dit, les outils sont, pour le moment en tout cas, assez minimalistes. Par exemple on ne peut pas régler les sous-titres : la police, la couleur, l’emplacement… limitation du HTML5 ou pas encore implanté dans ce programme ? On verra. Mais ça risque de poser parfois des gros problèmes de visibilité des sous-titres. Il m’est arrivé à plusieurs reprises, sur les vidéos qu’on a placées sur Framatube, de devoir rajouter une bande noire en-bas, ou les placer en haut, pour pouvoir lire convenablement les sous-titres pour des raisons de contraste avec le fond, qui peut varier…

Un autre bémol, c’est qu’il faut s’enregistrer : il faut soit un compte Twitter, soit un compte OpenID, soit un compte Google… En fait ça ne crée pas de compte à proprement parler, mais se sert de l’existant, ce qui est vraiment un moindre mal.

En tout cas c’est un bel outil qui va nous rendre bien des services pour nos sous-titrages.

Test fait avec une vidéo de Fred Couchet, de l’April, vidéo hébergée sur Blip.tv : http://universalsubtitles.org/videos/JFyBckvaWyCE/fr/

( {"base_state": {"language": "fr"}, "video_url": "http://blip.tv/file/get/Framasoft-FredericCouchetLeRoleDeLAPRILAuxMunicipalesDe2008975.ogv"} )

Notes

[1] Le Framablog de Framasoft, qui publie les travaux des projets Framatube et Framalang, tout cela n’est pas sans rappeler un certain Batman, avec sa Batmobile garée dans sa Batcave… Mais nous nous éloignons déjà du sujet.




Marketing et ergonomie, la touche finale d’Ubuntu qui fait avancer le logiciel libre

Trancept - CC by-nc-saUbuntu. Ce simple mot peut à la fois rassembler des milliers de personnes en un week-end et dans le même temps susciter moqueries, trolls, et critiques.

Il n’empêche que cette distribution GNU/Linux, que l’on ne présente plus, a gagné en à peine six ans d’existence une remarquable popularité auprès des nouveaux utilisateurs de systèmes d’exploitation libres. Ils y découvrent une indubitable simplicité d’utilisation et une communauté d’utilisateurs dévoués, accueillants et prêts à consacrer aux nouveau venus le temps nécessaire à leur apprentissage, un temps passé à reconquérir leurs libertés perdues dans les systèmes propriétaires.

Mais tout n’est pas rose avec Ubuntu. Certains voient en effet cette distribution en couleur poil-de-chameau. Pour ses détracteurs, Ubuntu ne mérite pas toute l’attention qu’on lui accorde et fait de l’ombre aux autres projets. De plus, ce système, emballé dans du papier cadeau aux couleurs chaudes se contenterait de singer jusque dans leurs défauts les systèmes propriétaires dont les icônes, la maniabilité à la souris et les effets graphiques séduisent les utilisateurs peu soucieux de technicité. Défauts parmi lesquels, la fin du pilotage intégral du système en ligne de commande pourtant si chère aux administrateurs système, ou encore une approche marketing qui diluerait les valeurs du logiciel libre.

Six ans, c’est presque l’âge de raison, cette période où l’on n’est plus petit, mais pas encore tout à fait grand. C’est peut-être cet âge-là qu’a atteint le projet de Mark Shuttleworth[1] révélé (une fois de plus) au travers du dernier billet de son fondateur et mécène comme une distribution « clicodrome », accompagnée d’un marketing professionnel et soigné, et destinée à séduire le plus large public possible… Dans ce long billet, spontanément traduit en l’espace de deux heures par une dizaine de contributeurs répondant à l’appel d’Olivier Fraysse (Ubuntu-fr) sur Twitter[2], Mark Shuttelworth revient sur les motivations qui l’animent au quotidien, et que les milliers de contributeurs faisant la réussite assez inédite d’Ubuntu semblent bien partager.

Introduction rédigée collaborativement par Olive, Poupoul2, JoKot3, Goofy et Siltaar.

Réflexions sur Ubuntu, Canonical et la route vers l’adoption des logiciels libres

Reflections on Ubuntu, Canonical and the march to free software adoption

Mark Shuttleworth – 14 septembre 2010
(Traduction Framalang : @olivierfraysse, @Gordontesos, @ldemay alias Louis Demay, @okhin, @Siltaar, @tshirtman, @winael, @pierretravers, @ricomoro et @framasoft)

Poussé en partie par les critiques concernant la contribution de Canonical au code du noyau Linux ou à l’infrastructure profonde de GNOME, j’ai cherché à savoir si j’avais la conscience tranquille : est-ce que je fais bien mon travail ? Ma manière de le faire convient-elle ? Il est important pour moi de savoir que ce que je fais est utile aux autres et contribue à un monde meilleur. Et dans mon cas, il s’agit d’une redistribution en proportion de la bonne fortune que j’ai pu connaître.

Deux messages que j’ai reçus le mois dernier définissent sans doute ce que je pense apporter à la communauté. Le premier, c’est un mot de remerciement arrivé de Nouvelle-Zélande, quelqu’un constatant qu’Ubuntu 10.04 change vraiment la donne dans son foyer. Pour lui, c’est une sorte de petit miracle de générosité si cet environnement complet, intégré et fonctionnel existe et est maintenu par des milliers de personnes. Quant au deuxième, c’est un contrat d’assistance avec une entreprise pour les dizaines de milliers de poste de travail fonctionnant sous Ubuntu 10.04 qu’elle utilise. Ces deux messages illustrent les piliers jumeaux du projet Ubuntu et de Canonical : apporter au monde entier l’extraordinaire générosité de la communauté du logiciel libre, comme un cadeau, gratuit, léger et cohérent, et le faire de manière pérenne.

Dans le premier cas, celui de Nouvelle-Zélande, quelqu’un apprend à ses enfants comment utiliser un ordinateur dès leur plus jeune âge, se rend compte de tout ce qu’apporte Ubuntu par rapport à Windows, et à quel point il est plus simple d’aborder l’informatique avec Ubuntu lorsqu’on s’adresse à des enfants. Pour cette famille, le fait qu’Ubuntu leur apporte l’univers du logiciel libre en un paquet harmonieux et soigné est extraordinaire, c’est une grande avancée, et ils en sont très reconnaissants.

C’est une histoire que j’espère voir se répéter des millions de fois. Et c’est une histoire qui donne bonne réputation et grande satisfaction, pas qu’à moi, pas qu’à ceux qui consacrent leur passion et leur énergie à Ubuntu, mais aussi à tous ceux qui contribuent au logiciel libre de manière générale. Ubuntu ne mérite pas à elle seule tous les honneurs, elle fait partie d’un écosystème large et complexe, mais sans elle, cette distribution de logiciels libres n’aurait pas la même portée ni la même force. Nous savons tous que le corps du logiciel libre a besoin de nombreux organes, de nombreuses cellules, chacun ayant ses propres priorités et intérêts. Le corps ne peut exister qu’avec chacun d’entre eux. Nous sommes une petite composante d’un vaste ensemble, et c’est un privilège pour nous d’assumer nos responsabilités en tant que distribution. Nous devons donner un point de départ à ceux qui débuteront leur voyage dans le monde du logiciel libre avec Ubuntu, et nous nous efforçons de nous assurer que toutes ces pièces s’accordent bien ensemble.

Ubuntu, et les possibilités qu’elle crée, n’aurait pu naître sans l’extraordinaire communauté Linux, qui elle-même n’existerait pas sans la communauté GNU, et n’aurait pas pris autant d’importance sans les efforts d’entreprises comme IBM et Red Hat. Et ç’aurait été une toute autre histoire sans les gens de Mozilla, ou Netscape avant eux, GNOME et KDE, et Google, ainsi que tout ceux qui contribuent de façons différentes à cet empilement, rendent le tout meilleur. Des dizaines de milliers de personnes qui ne sont pas directement associées à Ubuntu contribuent à rendre cette histoire bien réelle. Beaucoup d’entre eux y travaillent depuis plus d’une décennie… un succès soudain exige un gros travail en amont, et Ubuntu n’est sur le marché que depuis six ans. Ubuntu ne peut donc pas être crédité seul de la satisfaction qu’elle apporte à ses utilisateurs.

Néanmoins, le projet Ubuntu apporte quelque chose d’unique et d’inestimable au logiciel libre : un dévouement total aux utilisateurs et à l’ergonomie, à l’idée que le logiciel libre devrait être « pour tout le monde », d’un point de vue économique et d’un point de vue facilité d’utilisation, et à la volonté de traquer les problèmes qui y nuisent. Je perçois ce dévouement comme un don à ceux qui ont contribué à l’une de ces briques. Si nous pouvons multiplier par dix l’adoption du logiciel libre, nous aurons multiplié la valeur de votre générosité par dix, décuplé l’importance de toutes les heures passées à résoudre un problème ou à créer quelque chose de formidable. Je suis très fier de consacrer autant de temps et d’énergie à Ubuntu. Oui, je pourrais faire beaucoup d’autres choses, mais rien d’après moi qui aurait un tel impact sur le monde.

Je conçois que tout le monde ne perçoive pas les choses de cette façon. Multiplier l’audience de son travail par dix sans apporter de contribution au projet pourrait passer pour du parasitage, ou seulement décupler l’afflux de rapports de bogues. On pourrait avancer que peu importe notre générosité envers les utilisateurs finaux, si les développeurs en amont ne prennent que le code en considération, alors tout apport en dehors du code ne sera pas comptabilisé. Je ne sais pas bien comment y remédier – je n’ai pas créé Ubuntu comme un moyen d’écrire beaucoup de code, car ça ne me paraissait pas être ce dont le monde avait besoin. Le logiciel libre avait besoin d’un moyen pour aller de l’avant, d’amener le code déjà existant à un haut niveau de qualité et de fiabilité. La plupart des éléments du bureau étaient déjà en place – et le code affluait – il n’était simplement pas livré d’une manière qui lui permettrait d’être adopté ailleurs que sur les serveurs, par un public plus large.

Le second e-mail, dont je ne peux citer d’extraits, était en substance un contrat de services confié à Canonical pour aider une entreprise à migrer plus de 20 000 machines de bureau de Windows à Ubuntu. Nous avons récemment signé plusieurs accords d’échelle similaire, et le ryhtme augmente à mesure que la confiance en Ubuntu grandit. Alors que GNU/Linux est depuis longtemps reconnu comme un système de bureau intéressant pour les développeurs motivés et inspirés, il y a un écart entre cette utilisation et le besoin des grosses entreprises. À ma connaissance, aucune autre entreprise ne se consacre entièrement à la production d’un système de bureau libre, et je suis fier que Canonical joue ce rôle. Il me peinerait que tous les efforts de la communauté du logiciel libre ne puissent servir à ces utilisateurs. Il n’y a rien de propriétaire ou de secret dans les postes de travail dont Canonical assure le support dans ces grandes entreprises. Ce qui m’émerveille le plus, c’est que dans les cas de la famille de Nouvelle-Zélande et de cette entreprise, il est question du même code. Voilà à mon sens la véritable promesse du logiciel libre : lorsque je participais moi-même à des projets open-source, j’ai toujours été ravi que mon travail subvienne à mes besoins, mais qu’il soit également utile au plus grand nombre.

Ubuntu n’est qu’une petite partie de cet immense écosystème, mais je suis fier que nous ayons intensifié nos efforts pour relever ces défis. Canonical adopte une approche différente des autres entreprises qui travaillent dans l’univers Linux, non pas comme critique implicite des autres, mais simplement parce que c’est l’ensemble des valeurs que nous défendons. C’est une force pour le logiciel libre qu’un tel nombre d’entreprises différentes poursuivent autant d’objectifs importants.

Au cours des dernières semaines, on a suggéré que l’action de Canonical est égoïste et non dédiée au bénéfice d’une communauté plus large. C’est une critique blessante car la plupart d’entre nous ressentons justement le contraire : notre motivation, c’est tout faire pour servir la cause du logiciel libre, au bénéfice à la fois des utilisateurs finaux et de la communauté qui le produit, et nous sommes convaincus qu’élaborer Ubuntu et travailler pour Canonical sont les meilleures façons d’atteindre ce but. Ces critiques ont provoqué de nombreuses discussions et réflexions chez chacun de nous et chez Canonical. Ce billet s’inscrit dans cette réflexion : j’y témoigne de ce que je ressens lorsque je contribue, et pourquoi je suis fier du travail que j’accomplis chaque jour. Que faisons-nous pour le logiciel libre ? Et que fais-je moi-même ?

Pour commencer, nous le fournissons. Nous réduisons la friction et l’inertie qui empêchent les utilisateurs d’essayer les logiciels libres et de décider eux-mêmes s’ils les aiment suffisamment pour s’y plonger. Aujourd’hui, des centaines de développeurs de logiciels libres, traducteurs, concepteurs, porte-parole, ont l’occasion de prendre part au mouvement, parce qu’il est facile pour eux de faire le premier pas. Et ce n’est pas un travail aisé. Songez aux années d’efforts que nécessite la conception d’un simple installeur pour Linux comme http://www.techdrivein.com/2010/08/…, qui est l’aboutissement d’énormes quantités de travail par plusieurs groupes, mais qui sans Canonical et Ubuntu n’aurait jamais vu le jour.

Des milliers de personnes se contentent de concevoir des logiciels libres pour elles-mêmes, et ce n’est pas un crime. Mais la volonté d’en faire quelque chose que d’autres pourront explorer, utiliser et apprécier doit également être plébiscitée. Et c’est une valeur qui est fortement mise en avant dans la communauté Ubuntu : si vous lisez http://planet.ubuntu.com, vous verrez que l’on se réjouit grandement de compter des *utilisateurs de logiciels libres*. En tant que communauté, c’est pour nous une immense satisfaction de voir que des gens les *utilisent* pour résoudre leurs problèmes quotidiens. C’est plus satisfaisant pour nous que des récits sur l’amélioration de sa rapidité ou l’ajout d’une fonctionnalité. Certes, nous jouons sur les deux tableaux, mais notre communauté mesure davantage l’impact sur le monde que l’impact sur le code. Tous ses membres sont généreux de leur temps et de leur expertise, et il s’agit là de leur récompense. Je suis fier du fait qu’Ubuntu attire des personnes généreuses dans leurs contributions : à leurs yeux, ces contributions prennent de la valeur si elles sont retravaillées par d’autres, et qu’elles n’y perdent pas. C’est pourquoi nous nous réjouissons de l’existence de Kubuntu, Xubuntu, PuppyLinux et Linux Mint. Ces distributions ne marchent pas sur nos plate-bandes, elles se tiennent sur nos épaules, tout comme nous nous tenons sur les épaules de géants. Et c’est une bonne chose. Notre travail a plus de sens et plus de valeur parce que leur travail atteint des utilisateurs que le nôtre seul ne peut pas atteindre.

Quoi d’autre ?

Nous réparons ses défauts, aussi. Prenons par exemple le projet PaperCut, né parce que l’on s’est rendu compte que cette technologie formidable et les efforts que l’on consacre à réaliser un projet aussi complexe que le noyau Linux se trouvent diminués si l’utilisateur moyen n’obtient pas le résultat escompté alors que tout devrait fonctionner sans accroc. Des centaines de Papercuts ont été réparés, dans de nombreuses applications, ce qui ne bénéficie pas qu’à Ubuntu mais aussi à toutes les autres distributions qui intègrent ces applications. Ça n’a rien de simple : songez aux milliers de suggestions à trier, à la coordination des réparations et à leur partage. Grâce aux efforts sans répit d’une équipe nombreuse, nous changeons la donne. Épargner une heure par semaine à des millions d’utilisateurs représente un trésor d’énergie économisée, que l’utilisateur peut alors consacrer à une utilisation plus efficace du logiciel libre. L’équipe Canonical Design est à l’origine du projet Papercuts, mais les plus méritants sont les personnes comme Vish et Sense, qui sont venus gonfler nos rangs. Chaque patch a son importance, sur le poste de travail http://ubuntuserver.wordpress.com/2… et sur le serveur.

À un niveau plus personnel, un élément clé auquel je consacre de l’énergie est la direction, la gouvernance et la structure de la communauté. Aux débuts d’Ubuntu, j’ai passé beaucoup de temps à observer les différentes communautés qui existaient à l’époque, et comment on y gérait les inévitables tensions et divergences qui apparaissent lorsque beaucoup de fortes personnalités collaborent. Nous avons conçu l’idée d’un code de conduite qui assurerait que nos passions pour ces technologies ou ce travail ne prennent pas le dessus sur notre objectif principal : amener des gens de divers horizons à collaborer sur une plateforme commune. Je suis ravi que l’idée se soit étendue à d’autres projets : nous ne voulons pas garder jalousement ces idées, designs ou concepts, ce serait l’inverse de notre objectif premier.

Nous avons mis en place une structure simple : un forum technique et un conseil communautaire. Cette organisation est désormais courante dans beaucoup d’autres projets. Alors qu’Ubuntu se développe, la gouvernance évolue également : des équipes s’occupent de diriger des groupes tels que Kubuntu, les forums et les canaux IRC, fournissent conseils et orientation aux équipes des LoCo[3], aux modérateurs, aux opérateurs et aux développeurs, qui à leur tour s’efforcent d’atteindre la perfection technique et l’aisance sociale au sein d’une immense communauté mondiale. C’est fantastique. Ceux qui viennent participer à Ubuntu sont en général autant motivés par le désir d’appartenir à une merveilleuse communauté que par celui de résoudre un problème spécifique ou d’alléger la charge de travail d’un groupe.

Avec le temps, certains s’aperçoivent qu’ils ont le don d’aider les autres à être plus productifs : résoudre les conflits d’opinion, assurer l’organisation d’un groupe pour permettre de réaliser ce qu’un individu seul n’aurait pu accomplir. La structure de gouvernance d’Ubuntu leur crée l’opportunité de montrer leur valeur : ils forment le pivot et la structure qui permettent à cette communauté de s’adapter, de rester productive et agréable.

Défendre les valeurs d’un projet comme Ubuntu nécessite une vigilance constante. Lorsqu’on débute et que l’on affiche une ligne directrice précise, on n’attire en général que ceux qui sont sur la même longueur d’ondes que nous. Lorsque le projet gagne en envergure et en visibilité, il attire TOUT LE MONDE, car les gens veulent être là où ça bouge. Ainsi, les valeurs auxquelles on tient peuvent vite finir noyées dans la masse. C’est pourquoi je m’implique autant dans le travail du Conseil Communautaire d’Ubuntu et des équipes communautaires de Canonical. Les deux font preuve d’une grande perspicacité et ne rechignent pas à la tâche, ce qui fait de cette partie de mon travail un vrai plaisir.

Le Conseil Communautaire d’Ubuntu prend très au sérieux sa responsabilité en tant que dépositaire des valeurs des projets communautaires. Le CC est en grande partie composé de personnes qui ne sont pas affiliées à Canonical, mais qui croient que le projet Ubuntu est important pour le logiciel libre dans son ensemble. Jono Bacon, Daniel Holbach, et Jorge Castro, par exemple, sont des professionnels qui savent comment rendre une communauté productive et en faire un lieu de travail agréable.

Quelque chose d’aussi gros que la communauté Ubuntu ne peut être porté à mon seul crédit, ni à aucun autre, mais je suis fier du rôle que j’ai joué, et motivé pour continuer tant que ce sera nécessaire. Depuis quelques années, je me consacre davantage à mettre en avant le rôle du design dans le logiciel libre. Je suis convaincu que l’Open Source produit la meilleure qualité de logiciels qui soit, mais nous devons nous pencher sur l’expérience que nous souhaitons créer pour nos utilisateurs, que ce soit sur le bureau, les netbooks ou les serveurs. Je me suis donc beaucoup employé à encourager diverses communautés – celle d’Ubuntu et d’autres qui travaillent en amont – à réserver un bon accueil à ceux qui portent sur le logiciel libre un regard d’utilisateur final et non celui d’un codeur chevronné. C’est un changement de fond dans les valeurs de l’Open Source, et je ne pourrai l’accomplir seul, mais je suis tout de même fier d’être un défenseur de cette approche, et heureux qu’elle soit de plus en plus partagée.

Des designers travaillaient dans le logiciel libre avant que nous ne donnions cette impulsion. J’espère que l’insistance de Canonical sur l’importance du design leur facilite la tâche, que la communauté au sens large est plus sensible à leurs efforts et plus réceptive à leurs idées. En tout cas, si vous accordez *vraiment* de l’importance au design des logiciels libres, l’équipe de designers de Canonical est faite pour vous !

Je travaille moi aussi sur le design, et j’ai surtout participé à la conception détaillée de Unity, l’interface d’Ubuntu Netbook Edition 10.10. C’est une évolution de l’ancienne interface UNR, qui a surtout pour fonction de montrer que le poste de travail Linux n’a pas à rester bloqué dans les années 90. Nous allons tenter d’élaborer de nouvelles façons efficaces d’utiliser les ordinateurs.

J’ai été ravi de constater la vitesse à laquelle des centaines de projets ont adopté les fonctionnalités de Unity. Leur but est de rendre Linux plus facile d’utilisation et plus élégant. Ce rythme d’adoption permet de mesurer combien nous réduisons la difficulté pour les nouveaux utilisateurs qui découvrent une meilleure façon d’utiliser leur PC.

Si nous nous contentions du design sans nous occuper de la mise en application, on pourrait nous accuser d’attendre que les autres fassent le travail à notre place, alors je suis également fier de diriger une équipe géniale qui se charge de l’implémentation de certains de ces composants clés. Des éléments comme dbusmenu ont prouvé leur utilité pour apporter de la consistance à l’interface des applications GNOME et KDE fonctionnant sous Unity, et j’espère vraiment qu’elles seront adoptées par d’autres projets qui ont besoin de ces mêmes fonctions.

J’aimerais féliciter l’équipe d’ingénieurs pour le soin qu’ils apportent à la qualité et la testabilité, et pour leur désir de fournir aux développeurs des API propres et des documentations complètes permettant leur utilisation optimale. Si vous utilisez le jeu complet d’indicateurs dans Ubuntu 10.10, vous savez à quel point ce travail discret et continu permet d’obtenir un tableau de bord harmonieux et efficace. Nous allons livrer la première release de Utouch, qui continuera d’évoluer afin que GNOME et KDE puissent intégrer facilement les interfaces de mouvements multi-touch.

En plus de donner de mon temps, je soutiens aussi divers projets en les finançant. Injecter de l’argent dans un logiciel libre nécessite de se poser une question cruciale : cette somme serait-elle mieux employée ailleurs ? Il existe beaucoup de façons d’aider les gens : avec 100 000 $, on peut scolariser, vêtir ou nourrir beaucoup de monde. Il me faut donc être sûr que cet argent apporte des bénéfices réels et quantifiables sur la vie des gens. Les messages de remerciement que je reçois chaque semaine pour Ubuntu me confortent dans cette idée. Plus important encore, je constate moi-même l’effet de catalyseur qu’a Ubuntu sur l’ensemble de l’écosystème Open Source – les nouveaux développeurs qui le rejoignent, les nouvelles plateformes qui apparaissent, les créations de nouvelles entreprises et l’arrivée de nouveaux participants – et j’en conclus que le financement que je fournis a un impact significatif.

Quand Ubuntu a été conçu, l’écosystème Linux était dans un sens complètement formé. Nous avions un noyau, GNOME et KDE, Xorg, la Lib C, GCC et tous les autres outils bien connus. Bien sûr, il y avait des failles, des bugs et des feuilles de route pour les combler. Mais il manquait quelque chose, parfois définit comme « marketing », parfois défini comme « orienté utilisateur final ». Je me souviens avoir pensé « c’est ce que je peux apporter ». Donc Ubuntu et Canonical n’ont clairement PAS investi d’efforts dans ce qui fonctionnait déjà, mais dans de nouvelles idées et de nouveaux outils. J’y vois une contribution stimulante à l’écosystème Open Source en général, et je sais que beaucoup partagent cet avis. Ceux qui reprochent à Canonical de ne pas faire ci ou ça ont peut-être raison, mais ces critiques ne tiennent pas compte de tout ce que nous apportons et qui ne figurait pas sur la feuille de route avant notre arrivé. Bien sûr, il y a peu de travaux que nous accomplissons à nous seuls, et peu d’avancées que d’autres ne pourraient réaliser s’ils s’en faisaient un objectif, mais je crois que la passion de la communauté Ubuntu et l’enthousiasme de ses utilisateurs reflètent la nouveauté et l’originalité de ce projet. Ce doit être une source de satisfaction, de fierté et de motivation pour continuer dans cette voie.

Aucun projet particulier ne compte plus que le logiciel libre dans son ensemble. Il est plus important que le noyau Linux, plus important que GNU, plus important que GNOME et KDE, plus qu’Ubuntu, Fedora et Debian. Chacun de ces projets joue un rôle, mais c’est le tout qu’ils forment qui est vraiment en train de changer le monde. À cause des querelles concernant la contribution de chacun au logiciel libre, nous risquons de passer à côté de l’essentiel. Un peu comme une maladie auto-immune, quand le corps commence à s’attaquer lui-même. Par définition, quelqu’un qui se donne du mal pour diffuser le logiciel libre auprès d’un public plus large est dans le même camp que moi, contrairement aux 99% du reste du monde, si je veux penser en termes de camps. J’admire et respecte tout ceux qui consacrent leur énergie à faire avancer la cause du logiciel libre, même si parfois nos avis divergent en ce qui concerne les détails et la manière de procéder.

Notes

[1] Crédit photo : Trancept (Creative Commons By-Nc-Sa)

[2] Suivi d’un minutieux travail de relecture par Framalang : Don Rico et Siltaar

[3] NdFramalang : Local Community Communautés Locales




Firefox 4, Google Chrome et l’évolution du Web par Chris Blizzard de Mozilla

Keven Law - CC by-saQue les fans de la première heure se rassurent : la version 4 du célèbre navigateur au panda roux – dont la sortie devrait intervenir d’ici la fin de l’année – promet de recoller au peloton !

Au temps pour ceux qui avaient vendu sa peau un peu trop rapidement : le panda[1] nouveau met l’accent sur les performances, à commencer par un nouveau moteur JavaScript qui, une fois optimisé, pourrait même lui permettre de prendre la tête de la course si l’on en croit Chris Blizzard (Director of Web Platform chez Mozilla[2]), dont nous vous proposons ici la traduction de l’interview qu’il a donnée récemment au site derStandard.at (une fois n’est pas coutume, cette traduction a été complétée de références à l’actualité récente avec l’aide de Paul Rouget, Technology Evangelist chez Mozilla).

S’il est difficile de ne pas céder à la mode du benchmarking, on peut toutefois s’interroger sur ce que l’on attend réellement d’un navigateur.

Revenons un instant en arrière : l’irruption de Firefox a permis de réveiller le Web en le libérant de l’hégémonie d’Internet Explorer qui, après avoir éradiqué à peu près toute concurrence sur le marché des navigateurs, n’a plus connu de développement pendant six ans (soit le temps qui sépare la version 6 de la version 7 du navigateur de Microsoft, qui avait même dissout l’équipe de développement dans cet intervalle). Firefox a réussi à propulser le Web vers de nouveaux horizons balisés de standards ouverts propices à l’innovation. Tant et si bien que de redoutables concurrents sont apparus comme Safari d’Apple et surtout Chrome de Google (voir à ce billet du Framablog) et que Microsoft est en train de mettre les bouchées doubles avec son IE 9 pour rattraper son retard.

Faut-il en conclure que Firefox, ayant accompli sa mission, est devenu inutile ?

Il faut en effet reconnaître que le Web ne s’est jamais aussi bien porté qu’aujourd’hui : les concepteurs de navigateurs se battent dorénavant tous pour implémenter les dernières versions des standards ouverts qui sont la base du Web (HTML5, CSS3) quand ils n’en sont tout simplement pas à l’origine. Et pour cela, nous pouvons tous remercier la fondation Mozilla à l’origine de Firefox.

Pourtant, le Web ne se limite pas à des applications riches et jolies devant s’exécuter le plus rapidement possible.

Les grands acteurs du Web, Mozilla mis à part, tirent leurs revenus de l’exploitation de vos données personnelles. La protection de la vie privée devient aujourd’hui un enjeu majeur pour l’utilisateur (qui doit encore en prendre conscience). Mozilla s’apprête à proposer des solutions novatrices dans ce domaine[3]. Qui d’autre que Mozilla, fondation à but non lucratif, a intérêt à rendre aux utilisateurs le contrôle de leurs données personnelles ? Personne. Et ce n’est pas parce que Apple ou Google (et peut-être un jour Facebook) sort un navigateur performant – fût-il libre (Chromium est la version libre de Google Chrome) – que l’utilisateur jouira des mêmes libertés que l’utilisateur de Firefox, navigateur libre développé par une fondation à but non lucratif.

Firefox 4 : Une génération d’avance en termes de vitesse

Firefox 4: One generation ahead of everyone else speedwise

Andreas Proschofsky – 19 août 2010 – derStandard.at
(Traduction Framalang : Don Rico, Siltaar, Goofy et Antistress)

Chris Blizzard de Mozilla nous parle de la concurrence de Google Chrome, de l’évolution du Web comme plateforme et des attentes que suscite le format WebM.

Ces dernières années Firefox a joué le rôle enviable de l’étoile montante dans le monde des navigateurs. Aujourd’hui, non seulement Google Chrome semble lui avoir volé la vedette mais il vient même lui tailler des croupières. Au cours du dernier GUADEC, Andreas Proschofsky a eu l’occasion de côtoyer Chris Blizzard, « Directeur de plateforme Web » chez Mozilla, et il a réalisé l’interview que vous allez lire, évoquant l’état actuel du marché des navigateurs, les progrès du Web comme plateforme et les améliorations qui arrivent avec Firefox 4+.

derStandard.at : Quand nous avons discuté l’année dernière, vous avez noté que, malgré la notoriété grandissante de Google Chrome, la plupart des développeurs présents dans les conférences techniques – comme le GUADEC – utilisent encore Firefox. Si je jette un coup d’œil autour de moi cette année, les choses semblent avoir considérablement changé : bon nombre de ces utilisateurs avant-gardistes semblent être passés à Chrome / Chromium. Est-ce que vous avez un problème sur ce créneau d’utilisateurs spécifique – mais influent ?

Chris Blizzard : En fait je pense que beaucoup de gens utilisent les deux maintenant, mais c’est vrai que c’est intéressant à voir. De mon point de vue de développeur Web je pense toujours que les outils de Firefox sont de loin supérieurs à ceux des autres.

Il est intéressant de noter que nous n’avons pas vu de changements significatifs dans les statistiques utilisateurs, même si Chrome marque des points importants sur ce segment. Il faut préciser que tous ces chiffres que l’on rapporte sont en réalité des statistiques d’usage et non du nombre d’utilisateurs, si bien que cette avant-garde – qui est grosse utilisatrice du Web – influence les statistiques plus que d’autres, ce qui peut faire croire que Chrome est utilisé par davantage de gens qu’en réalité. Nous avons connu le même effet dans les premiers temps de Firefox, à l’époque nous n’en avions pas conscience faute d’outils adéquats pour le mesurer.

Nous avons aussi effectué quelques recherches et découvert qu’un tas de gens semblent choisir leur navigateur suivant des fonctionnalités particulières. Par exemple beaucoup d’utilisateurs préfèrent retrouver leurs sites récemment visités dès l’ouverture de leur navigateur, donc ils utilisent Chrome. S’ils préfèrent démarrer avec une page vierge, ils utilisent plutôt Firefox. Je pense donc que ce que l’on commence à voir, c’est des gens différents qui veulent faire des choses différentes, et qui vont choisir leur navigateur selon leurs préférences. Et nous n’en sommes qu’au début.

Nous savons que nous ne pourrons pas satisfaire les désirs de tous et ce n’est d’ailleurs pas le but de notre organisation. Nous voulons faire en sorte que le Web devienne une plateforme et nous avons plutôt bien réussi sur ce point.

Google se lance maintenant dans un cycle de développement visant à offrir une nouvelle mise à jour stable toutes les six semaines, pour essayer de proposer des innovations plus rapidement aux utilisateurs. Mozilla, de son côté, publie au mieux une nouvelle version par an : cela n’est-il pas handicapant d’un point de vue marketing ?

Cela dépend du rythme que vous voulez adopter. Les gens de Chrome ont une approche un petit peu différente de la nôtre. Il va être intéressant de voir si d’autres utilisateurs que les avant-gardistes seront d’accord pour voir leur navigateur changer tous les mois et demi. Nous préférons prendre davantage de temps pour préparer les gens à des changements d’interface plus importants.

Pour autant nous ne modifions pas toujours le numéro de version pour les gros changements. Citons par exemple l’isolation des plugins que nous avons récemment ajoutée à la série 3.6.x, qui résulte d’un énorme travail et qui a grandement amélioré l’expérience des utilisateurs de Firefox.

À vrai dire, je suis quelque peu sceptique à l’idée d’un cycle de six semaines. Comment peut-on vraiment innover en un laps de temps si court ? Accélérer la cadence est néanmoins dans nos projets, il faut juste que nous trouvions celle qui nous convient.

Un des avantages d’un cycle de publication rapide, c’est que Google peut diffuser très vite des fonctionnalités comme le futur web-store de Chrome. Aimeriez-vous aussi proposer une plateforme de téléchargement d’applications Web chez Mozilla ?

En ce qui me concerne, je pense qu’un app-store pour le Web est une idée intéressante, car en gros cela rend les applications Web plus accessibles et fournit un modèle de monétisation. Mais pour bien faire, il faut tenir compte de nombreux autres paramètres, et c’est là-dessus que nous allons d’abord nous concentrer.

Quels éléments manque-t-il encore pour concevoir un bon web-store ?

Les performances Javascript sont très importantes, mais nous touchons au but, car nous sommes en passe d’obtenir les mêmes performances que les applications exécutées nativement. Vient ensuite le webGL pour les applications en 3D, et nous devons aussi régler la question du stockage de données hors-connexion qui est loin d’être abouti pour le moment. Il faut aussi accorder une grande importance à la sécurité, question sur laquelle nous sommes justement en train de travailler. Par exemple, grâce à la fonctionnalité ForceHTTPS, un site Web pourra dire à un navigateur de ne communiquer avec lui que par données chiffrées, ce qui préviendra certains types d’attaques. Nous nous penchons aussi sur la politique de sécurité des contenus, ce qui sera très utile pour lutter contre une catégorie entière d’attaques type cross-site scripting (NdT : citons par exemple la fonctionnalité X-FRAME récemment introduite contre le clickjacking).

Dans les tests de performances Javascript récents, Firefox semble avoir dégringolé dans le bas du classement, et se place même derrière Internet Explorer 9. N’arrivez-vous plus à suivre ?

Firefox 4 apportera de nombreuses améliorations dans ce domaine-là aussi, mais elles ne sont pas encore intégrées à nos versions de développement. Nous avons constaté que, lorsque notre Tracing-Engine (NdT : moteur basé sur la technologie du tracé) est utilisé, nous sommes plus rapides que tous les autres. Nous ne sommes à la traîne que dans les cas où cette technologie ne peut être exploitée. Nous travaillons donc à améliorer les performances de base de notre moteur JavaScript, qui, combinées à l’optimisation JIT Tracing , nous donneront une génération d’avance sur tout le monde (NdT : Jägermonkey, le résultat de ce travail, vient d’être intégré à la version de développement de Firefox 4).

La vérité c’est que la marge d’amélioration est encore énorme. La génération actuelle des moteurs Javascript a atteint un palier : en pourcentage, les différences que nous constatons entre les différents navigateurs sont infimes. En outre, les tests de performance ne sont plus d’une grande utilité, car, pour la plupart, ces chiffres ne sont plus influencés par les performances Javascript réelles. Voici un exemple des conséquences négatives des tests de performance : nous avons dû fournir des efforts particuliers sur l’optimisation du calcul de décalage horaire car cela influe négativement certains tests de performance, mais ça n’améliore pas réellement les performances Javascript. Sunspider est affecté par ces problèmes et V8 contient aussi du code bancal, il est donc difficile de trouver de bons tests de performance (NdT : Mozilla vient de lancer Kraken, un test censé mesurer les performances JavaScript en situation réelle).

Firefox 4 va utiliser l’accélération matérielle grâce à Direct2D et à DirectWrite sous Windows. Des fonctionnalités similaires sont-elles prévues pour Linux et Mac OS X ?

Dans la limite des outils qui sont disponibles, oui. Nous essayons de procurer aux utilisateurs la meilleure expérience possible sur chaque plateforme. Pour Windows Vista et 7 nous constatons d’immenses améliorations lorsque le navigateur doit réaliser des tâches graphiques intensives. Sur OS X, par exemple, nous prenons en charge l’OpenGL pour la composition d’images, et nous faisons de même sous Linux. Mais en général les API dont nous disposons sous Windows sont meilleures et plus riches que sur les autres plateformes. Sous Linux, Cairo et Pixman étaient censées être rapides, mais hélas l’infrastructure sur lesquelles elles reposent n’a jamais vraiment atteint la vélocité désirée. Sur OS X, Firefox est assez rapide, mais pour l’instant Direct2D confère l’avantage à la version Windows (NdT : plus d’informations sur cet article de Paul Rouget).

L’isolation des plugins devait n’être que la première étape d’un Firefox multi-processus, avec un processus séparé pour chaque onglet. C’est un des gros morceaux du cahier des charges de Firefox 4. C’est toujours prévu ?

Bien sûr, mais pas pour Firefox 4. Ce sera sans doute disponible pour la version mobile avant la version desktop. C’est intéressant de constater que c’est plus facile sur cette plateforme.

Il y a peu, vous avez endossé le rôle de « Directeur de plateforme Web » chez Mozilla. En quoi cela affecte-il vos responsabilités quotidiennes ?

Auparavant, je me chargeais essentiellement de diriger les groupes d’évangélisation et de communication, mais j’ai fini par travailler de plus en plus sur les questions de plateforme Web – réfléchir à l’avenir du Web, discuter régulièrement avec les autres concepteurs de navigateurs. Tout cela a pris une telle importance que j’ai décidé de m’y consacrer à plein temps.

Par exemple, je viens de participer à une réunion de l’IETF, où nous avons eu des discussions très riches sur le http, les websockets, et aussi sur les codecs. Ils sont en train de mettre au point un codec audio de nouvelle génération pour les communications en temps réel et s’appuient sur l’IETF pour les spécifications. En gros, c’est une combinaison de techniques existantes, et l’accent est mis sur une latence très basse, un domaine où le Vorbis ou le MP3 sont mauvais. Ce travail s’effectue en collaboration avec Skype.

Une des grosses annonces de ces derniers mois concernait la création du WebM comme nouveau format vidéo ouvert basé sur le VP8 et Vorbis. Pensez-vous que ses chances de réussites soient meilleures que celles de Theora ?

Oui, pour des raisons de qualité. Quelques explications : il est bon de savoir que lorsqu’on utilise le H.264, on doit en gros choisir un des trois profils que propose ce codec. En général, les sites vidéos doivent offrir la version basique car c’est la seule prise en compte par l’iPhone, notamment dans ses anciennes versions qui sont utilisées par des dizaines de millions de personnes. Donc, si l’on compare les formats vidéo, il faut comparer le VP8 au H.264 « basique », et ce n’est pas qu’une manœuvre réthorique, c’est la réalité pour tous les services. J’ai discuté avec les gens de YouTube, par exemple : ils ont essayé d’utiliser un autre profil du H.264, mais ils ont dû revenir au « basique » à cause du manque de prise en charge. Sur cette base, la question de la qualité n’a plus lieu d’être, et le VP8 est tout à fait compétitif.

Si l’on parle de l’implémentation de la balise vidéo HTML5, il faut aussi prendre en compte l’évolution du marché. Si l’on envisage un monde où la vidéo HTML5 est répandue dans la majorité des navigateurs – par-là je pense à une proportion de 80%, ce qui devrait être le cas d’ici deux ans –, il faut compter avec les tendances et les changements dans les parts de marché des systèmes d’exploitation. On se rend alors compte qu’on se retrouve avec un marché segmenté. Ceux qui voudront diffuser de la vidéo devront prendre en charge à la fois H.264 et WebM. Sur le long terme, je suis certain que les codecs libres sont en meilleure posture, surtout si l’on prend en considération les tendances à venir comme les communications en temps réel ou les plateformes mobiles, où WebM est très performant – ou va l’être grâce à des partenariats avec des constructeurs de matériel.


Firefox 4 va permettre de construire des extensions « poids plume » sous forme de Jetpacks. Quand vont-ils remplacer la génération actuelle d’extensions ?

Les Jetpacks ne sont pas conçus pour remplacer les extensions XUL. Firefox est une plateforme que l’on peut étoffer à l’envi grâce à une large palette d’interfaces. On peut aussi modifier beaucoup de choses dans les paramètres mêmes de Firefox, ce qu’aucun autre navigateur ne permet. Comme projet, c’est extraordinaire : une grand part de nos innovations sont arrivées par les extensions avant d’intégrer directement le navigateur.

Pour nous, les Jetpacks sont grosso modo un équivalent des extensions pour Chrome, qui offrent beaucoup moins de possibilités que nos extensions XUL classiques. Ils seront néanmoins beaucoup plus faciles à réaliser. Nous allons fournir un éditeur en ligne qui facilitera leur développement. Ces Jetpacks seront aussi plus faciles à tester, et l’on pourra les installer sans avoir à redémarrer le navigateur. Ce qui est d’ailleurs déjà possible avec certaines extensions XUL dans Firefox 4, à condition que cela soit signalé et que l’extensions soit codée avec soin.

Notes

[1] Crédit photo : Keven Law (Creative Commons By-Sa)

[2] Chris Blizzard a déjà fait l’objet d’une traduction sur le Framablog : De l’honnêteté intellectuelle et du HTML5.

[3] Lire à ce propos Comment Firefox peut améliorer le respect de la vie privée en ligne, privacy-related changes coming to CSS :visited et Account Manager coming to Firefox.




Le logiciel libre en entreprise expliqué par un communiqué de presse

Ed Yourdon - CC by-saOn m’a envoyé aujourd’hui un communiqué de presse via le formulaire de contact du blog.

Je l’ai trouvé fort instructif et j’ai décidé de vous le reproduire ci-dessous dans son intégralité, à ceci près que j’ai effacé le vrai nom de la société et de son logiciel phare qui deviennent ici « Société-X » et « CMS-X » .

D’un simple copier/coller sur un moteur de recherche, il est facile de les retrouver, là n’est pas le propos[1].

Le propos c’est que ce communiqué illustre me semble-t-il assez bien le modèle économique choisi majoritairement par les entreprises qui intègrent du logiciel libre – ou plutôt open source – dans leur stratégie de développement. Dans le fond avec sa déclinaison du produit en version « Community » et en version « Entreprise » (elle-même en double licence, libre ou propriétaire), mais aussi dans la forme avec le ton et le style particuliers adoptés par le communiqué.

Communiqué de presse de la « Société-X »

Société-X renforce sa stratégie d’innovation et offre une nouvelle solution à ses clients professionnels.

Alors qu’aujourd’hui seuls les ingénieurs de Société-X développent le coeur du CMS-X, Société-X a annoncé à l’occasion de sa conférence annuelle des changements importants afin d’encourager et d’intégrer les contributions de sa communauté Open Source dans sa plate-forme de gestion de contenu CMS-X. A partir de la prochaine version de CMS-X sortant dans les prochains jours, Société-X ouvrira ses processus de développement à sa communauté et permettra à ses membres de contribuer directement à l’évolution de la solution CMS-X. Cette initiative est centralisée dans le cadre du projet « CMS-X Community Project ».

En parallèle, Société-X proposera à ses clients professionnels une nouvelle version de sa solution en annonçant CMS-X Enterprise, version suivant des processus qualité très stricts et officiellement supportée, maintenue par Société-X sous la forme d’une souscription annuelle. CMS-X Enterprise, tout en profitant pleinement de l’innovation accélérée dans CMS-X Community Project, sera maintenu dans une code base séparée soumise à du testing intensif et intégrant des modules très spécifiques seulement disponibles aux clients ayant souscrit à CMS-X Enterprise Subscription.

Ces améliorations permettront d’offrir une nouvelle valeur ajoutée à la communauté Open Source, aux clients et aux partenaires.

Cette annonce est une formidable opportunité pour les partenaires et membres de la communauté qui seront en mesure d’influencer largement la road map et les futures orientations de l’application CMS-X. Ainsi, les 50.000 membres de la communauté pourront contribuer simplement au développement de la solution et participer à la gouvernance du projet « CMS-X Community Project ». CMS-X est une plate-forme de CMS reposant sur les meilleurs standards du marché pour une utilisation en contexte professionnel. Elle offre pour les entreprises un haut niveau de support disponible par abonnement.

CMS-X sera donc disponible en deux versions :

  • La version communautaire développée sur la base SCRUM et dédiée aux développeurs, chercheurs…
  • La version CMS-X Enterprise conçue pour une utilisation professionnelle. Elle est disponible en deux modes GPL ou PLU (Professional User Licence). La version professionnelle est actualisée deux fois par an (mars et septembre) et disponible uniquement pour les clients professionnels.

Ce nouveau modèle de distribution sera mis en place à l’occasion de l’annonce de la prochaine version de CMS-X Enterprise délivrée dans les prochains jours.

Notes

[1] Crédit photo : Ed Yourdon (Creative Commons By-Sa)




Tout est libre dans le logiciel libre, sauf sa maison !

Pranav - CC byPar nature décentralisés et collaboratifs, les logiciels libres ont besoin d’être hébergés sur Internet dans des forges qui en assurent leur développement (en offrant de nombreux services comme la gestion des versions ou le suivi des bugs).

SourceForge est certainement la plus célèbre d’entre elles et abrite en son sein plusieurs centaines de milliers de logiciels libres. Google, encore lui, n’est pas en reste avec son Google Code qui accueille de plus en plus d’applications.

Or si ces forges sont bien gratuites et très pratiques (puisque l’on crée et gère son projet en quelques clics), la plupart ne sont paradoxalement pas libres ! Il n’est ainsi pas possible de récupérer le code qui les fait tourner pour installer sa propre forge sur son propre serveur.

On comprend aisément qu’un site comme Facebook garde jalousement son code puisque son objectif est de concentrer au même endroit un maximum d’utilisateurs et surtout pas de les voir partir pour y faire leur petit Facebook personnel dans leur coin. Mais on comprend moins que les développeurs de logiciels libres se retrouvent un peu dans la même situation en acceptant de placer leur code sur des plateformes propriétaires. C’est une question de principe mais aussi de l’avenir incertain d’un code qu’il est alors difficile de déplacer[1].

C’est tout l’objet de cette mise en garde de notre ami Benjamin Mako Hill dont c’est déjà la quatrième traduction.

Il faut des outils libres pour faire des logiciels libres

Free Software Needs Free Tools

Benjamin Mako Hill – 4 juin 2010 – Blog personnel
(Traduction Framalang : Misc, Cheval boiteux, Siltaar et Goofy)

Au cours des dix dernières années, les développeurs de logiciels libres ont été régulièrement tentés par des outils de développement qui offrent la capacité d’élaborer des logiciels libres de façon plus efficace et productive.

Le seul prix à payer, nous dit-on, est que ces outils eux-mêmes ne sont pas libres ou s’exécutent comme des services réseaux avec du code que nous ne pouvons pas voir, ou lancer nous-mêmes. Dans leurs décisions d’utiliser ces outils et services (tels que BitKeeper, SourceForge, Google Code et GitHub), les développeurs de logiciels libres ont décidé que « la fin justifie les moyens » et ont en quelque sorte vendu la liberté de leur communauté de développeurs et d’utilisateurs. Cette décision d’adopter des outils de développement non libres et privés a entamé notre crédibilité dans la promotion des libertés logicielles et a compromis notre liberté comme celle de nos utilisateurs d’une façon que nous devrions rejeter.

En 2002, Linus Torvalds a annoncé que le noyau Linux utiliserait le systéme de gestion de version distribué BitKeeper. Bien que la décision ait généré beaucoup de craintes et de débats, BitKeeper a permis aux codeurs du noyau de travailler de manière décentralisée avec une efficacité qu’il n’aurait pas été possible d’obtenir avec les outils libres de l’époque. Certains développeurs Linux ont décidé que les bénéfices obtenus justifiaient la perte de liberté des développeurs. Trois ans plus tard, les sceptiques prirent leur revanche quand le proprétaire de BitKeeper, Larry McVoy, a retiré la licence gratuite d’utilisation de plusieurs développeurs importants du noyau, car Andrew Tridgell avait commencé à écrire un remplaçant libre de BitKeeper. Les développeurs furent forcés d’écrire leur propre outil libre pour le remplacer, un projet connu maintenant sous le nom de Git.

Bien sûr, les relations entre logiciels libres et outils non libres vont au-delà du cas de BitKeeper. Le code source des logiciels du service SourceForge était jadis disponible pour ses utilisateurs, mais les auteurs sont revenus à un modèle totalement fermé. Bien que SourceForge soit construit sur des briques libres, les utilisateurs interagissent avec le logiciel uniquement via le Web sur l’unique site SourceForge. Comme les utilisateurs n’ont pas de copie du logiciel de Sourceforge, ils ne peuvent pas en demander le code source. Des projets similaires comme le service Tigris.org de CollabNet, Google Code et GitHub ont tous des buts similaires, et gardent leur code pour eux de la même façon. Les services sont souvent fournis gratuitement et promeuvent le développement de logiciel libre, mais leur dévouement ne s’étend pas aux logiciels qui font tourner leur plateforme de développement. Le code source de chacun de ces services reste privé et non modifiable par les développeurs utilisant ces services.

Ces outils de développement proprietaires posent un dilemme à de nombreux développeurs de logiciels libres. Le but de chacun de ces services est de permettre le succès des logiciels libres et l’obtention de plus de libertés grâce à l’utilisation d’outils plus efficaces. CollabNet, Google et GitHub annoncent chacun qu’ils veulent que le logiciel libre progresse et qu’ils veulent l’aider à avancer. Pour certaines raisons, ces entreprises ont choisi de soutenir les libertés logicielles par des moyens moins en phase avec les éthiques du mouvement que celle qu’ils cherchent à créer. Le résultat est que les développeurs sont dépossédés. La liberté du code logiciel que produisent ces hackers est dépendante d’une restriction inacceptable.

Tout d’abord, l’utilisation d’outils non libres envoie un message irrecevable pour les utilisateurs du logiciel libre produit. « La liberté des logiciels est importante pour vous », semblent dire les développeurs, « mais pas pour nous ». Un tel comportement sape l’efficacité basique du fort engagement éthique au cœur du mouvement du logiciel libre. À tous ceux qui ont déja fait le choix du logiciel libre, nous devons montrer que nous pouvons réussir – et prospérer – en utilisant des logiciels libres. Nous devons soutenir les alternatives libres face aux systèmes propriétaires, comme Savane qui peut remplacer SourceForge ou Google Code, et qui est à la base de GNU Savannah, ou encore Gitorious, pour remplacer GitHub, en les utilisant et en les améliorant dans les domaines où ils peuvent être améliorés.

Deuxièmement, nous devrions comprendre en nous projetant plus en avant que le logiciel que nous produisons n’est libre qu’en fonction des logiciels dont il dépend pour son usage, sa distribution et son évolution.

La licence GNU GPL et le code source ne signifient pas grand-chose pour un utilisateur qui veut modifier un programme sans avoir un accés libre au logiciel requis pour permettre cette modification. Il ne s’agit pas que de mettre les libertés des développeurs dans la balance, mais aussi finalement celles des utilisateurs et de tous les développeurs qui prendront le relais. Ceux qui choisissent d’utiliser des logiciels non libres placent tout le monde à la merci des groupes et des individus qui produisent les logiciels dont ils dépendent.

Tandis que les outils de développement propriétaires peuvent aider les développeurs de logiciels libres à produire de meilleurs logiciels à court terme, le prix à payer est inacceptable. Dans le débat controversé des logiciels privés et des services réseaux, les développeurs de logiciels libres devraient se placer du côté de « l’excès » de liberté. Compromettre nos principes afin d’obtenir plus de liberté est auto-destructeur, instable et au final injuste envers nos utilisateurs et la communauté des développeurs de logiciels libres dans son ensemble.

Tout comme les premiers mainteneurs du projet GNU se sont d’abord concentrés sur la création d’outils libres pour la création de logiciel libre, nous devons nous assurer que nous pouvons produire des logiciels sans entrave et utiliser des outils incontestablement ouverts. Si nous échouons, les logiciels seront indirectement moins libres. Nous devons refuser l’utilisation de logiciels qui ne nous garantissent pas les libertés que nous tentons de donner à nos utilisateurs par le développement de logiciels, et nous devons faire pression en ce sens sur les producteurs de nos outils de développement. Le logiciel libre n’a pas réussi en compromettant nos principes. Nous ne serons pas bien servis d’un point de vue technique, pragmatique ou éthique en compromettant la liberté des outils que nous utilisons pour constuire un monde libre.

Benjamin Mako Hill
Creative Commons By-Sa

Notes

[1] Crédit photo : Pranav (Creative Commons By)