Proposition de traduction de la licence « Creative Commons Zero 1.0 »

GnuckX - CC0 En juillet dernier, Framasoft animait le plus long atelier de l’histoire des Rencontres Mondiales du Logiciel Libre : un traducthon courant pendant toutes les rencontres.

En effet, fidèles au poste dans la chaleur cuisante d’une salle de classe au dernier étage de l’ENSEIRB, des bénévoles de Framalang, Benjamin Jean de VeniVidiLibre.org, Alexis Kauffman et moi-même accueillions les courageux visiteurs ayant trouvé leur route jusqu’au traducthon 2.0, pour la plupart venus avec la ferme intention de nous aider à traduire le livre libre : « Imagine there is no Copyright ».

Et c’est ainsi qu’en à peine 5 jours, malgré la chaleur, les difficultés de réseau et une coupure de courant [1], l’ouvrage fut intégralement traduit, par plusieurs dizaines de bénévoles.

L’idée de traduire ce livre était venue à Alexis après l’avoir lu en version papier italienne, couverte par une licence CC-by-nd (Creative Commons attribution, sans dérivation). L’attribution nous permis de remonter à une version anglaise, couverte par une CC-by-nc-nd (ajoutant une clause de réutilisation non commerciale seulement), ce qui pouvait sembler paradoxal vu qu’Alexis l’avait acheté son livre… Toutefois, une mention supplémentaire s’ajoute, sur le site officiel, à la licence de la version originale :

No article in this book may be reproduced in any form by any electronic or mechanical means without permission in writing from the author.

Qui peut se traduire par :

Aucun article de ce livre ne peut être reproduit par quelque moyen électronique ou mécanique que ce soit, sans la permission écrite de l’auteur.

La suite du puzzle allait donc se résoudre en contactant l’auteur, ce qui est, d’une manière générale, la chose à faire en cas de doutes sur une licence [2].

Contacté, l’auteur nous répondit qu’il souhaitait que son œuvre soit au plus près possible du domaine public (ce qui est cohérent avec le titre de l’ouvrage). Benjamin Jean proposa donc la licence « Creative Commons Zero », ce qui convint très bien à l’auteur.

La licence CC0 a en effet été créée pour uniformiser mondialement la notion de domaine public, ou permettre de s’en approcher au plus près dans les juridictions, comme la France, où il n’est pas possible d’y placer soit même son œuvre.

Toutefois, à sa création la CC0 n’était pas applicable en France pour des raisons juridiques levées depuis, mais elle le demeurait pour l’instant pour une seconde raison, l’absence de version française. Il nous fallait donc remédier à ce petit inconvénient avant de pouvoir sortir notre prochain Framabook, et c’est ainsi que l’équipe de traduction de choc qui se cache derrière cette page, se mit à l’œuvre.

Nous sommes donc fier aujourd’hui de vous présenter la traduction, par Framalang et VVL, de la CC0 [3] ! Cette traduction est une contribution que nous avons bien entendu adressée à Creative Commons afin d’étoffer un peu le paysage des licences françaises touchant de domaine public, s’ajoutant ainsi à la récente licence « Information Publique Librement Réutilisable » utilisable uniquement par les organismes du secteur public dans le cadre de leurs démarches « OpenData » [4].

Creative Commons Zéro 1.0 – Domaine Public [5]

CC0 1.0 Universal – Public Domain Dedication

CreativeCommons.org – 17 décembre 2007
Traduction Framalang : Julien R., Barbidule, Goofy, Martin G., Siltaar, mben

CREATIVE COMMONS N’EST PAS UN CABINET D’AVOCATS ET NE FOURNIT PAS DE SERVICES DE CONSEIL JURIDIQUE. LA PUBLICATION DE CE DOCUMENT NE CRÉE AUCUNE RELATION JURIDIQUE ENTRE LES PARTIES ET CREATIVE COMMONS. CREATIVE COMMONS MET À DISPOSITION CETTE LICENCE EN l’ÉTAT, À SEULE FIN D’INFORMATION. CREATIVE COMMONS NE FOURNIT AUCUNE GARANTIE CONCERNANT L’UTILISATION DE CE DOCUMENT OU DES INFORMATIONS OU TRAVAUX FOURNIS CI-APRÈS, ET DÉCLINE TOUTE RESPONSABILITÉ POUR LES DOMMAGES RÉSULTANT DE L’UTILISATION DE CE DOCUMENT OU DES INFORMATIONS OU TRAVAUX FOURNIS CI-APRÈS.

Déclaration d’Intention

Les lois de la plupart des législations des états du monde accordent automatiquement des Droits d’Auteur et Droits Voisins (définis ci-dessous) au créateur et au(x) titulaire(s) de droits ultérieur(s) (ci-après, le « titulaire ») d’une œuvre originale protégeable par le droit de la propriété littéraire et artistique et/ou une base de données (ci-après, une « Œuvre »).

Certains titulaires souhaitent renoncer de façon définitive à ces droits sur une Œuvre dans le but de contribuer à un pot commun de travaux créatifs, culturels et scientifiques (les « Biens Communs ») que le public, de façon certaine et sans craindre d’actions ultérieures pour contrefaçon, a la possibilité d’utiliser comme base de travail, de modifier, d’incorporer dans d’autres travaux, de réutiliser et de redistribuer aussi librement que possible sous quelque forme que ce soit et à quelque fin que ce soit, y compris, et sans réserves, à des fins commerciales. Ces titulaires peuvent contribuer aux Biens Communs dans le but de promouvoir les idéaux de la culture libre et la production de travaux créatifs, culturels et scientifiques, ou pour acquérir une renommée ou une plus grande diffusion de leur Œuvre, notamment grâce à l’utilisation qui en sera faite par d’autres.

Pour ces raisons et/ou d’autres, et sans attendre aucune rémunération ou compensation supplémentaire, la personne associant la CC0 à une Œuvre (le « Déclarant »), dans la mesure où il ou elle est titulaire des Droits d’Auteur et des Droits Voisins de l’Œuvre, fait volontairement le choix d’appliquer la CC0 à l’Œuvre et de distribuer publiquement l’Œuvre sous les termes de cette licence, en toute connaissance de l’étendue de ses Droits d’Auteur et Droits Voisins sur l’Œuvre, ainsi que de la portée et des effets juridiques de la CC0 sur ces droits.

1. Droit d’Auteur et Droits Voisins

Une Œuvre mise à disposition sous la CC0 peut être protégée par les droits d’auteur et les droits voisins ou connexes (le « Droit d’Auteur et les Droits Voisins »). Le Droit d’Auteur et les Droits Voisins comportent, notamment, les droits suivants :

  1. Le droit de reproduire, adapter, distribuer, interpréter, diffuser, communiquer, et traduire une Œuvre ;
  2. Les droits moraux conservés par le ou les auteur(s) ou interprète(s) originaux ;
  3. Les droits relatifs à la diffusion et à la vie privée rattachés à l’image ou au portrait d’une personne représentée dans une Œuvre ;
  4. Les droits protégeant contre la concurrence déloyale à l’égard de l’Œuvre, sujets aux limitations prévues dans le paragraphe 4(a) ci-dessous ;
  5. Les droits protégeant l’extraction, la dissémination, l’utilisation et la réutilisation des données contenues dans une Œuvre ;
  6. Les droits relatifs aux bases de données (tels que ceux découlant de la Directive 96/9/CE du Parlement Européen et du Conseil du 11 mars 1996 concernant la protection juridique des bases de données, et de toute transposition au niveau national, y compris de toute version amendée ou révisée de cette directive) ;
  7. Tous autres droits similaires, équivalents ou correspondants partout dans le monde, basés sur des lois ou traités applicables, et toutes les transpositions nationale de ceux-ci.
2. Renonciation

Dans toute la mesure permise par la loi, mais sans l’enfreindre, le Déclarant annonce par la présente abandonner, céder et renoncer ouvertement, complètement, définitivement et irrévocablement, à tous ses Droits d’Auteur et Droits Voisins sur l’Œuvre ainsi qu’aux prétentions et intérêts à agir associés , qu’ils soient à cet instant connus ou inconnus (y compris les prétentions et intérêts à agir associés nés ou à naître), (i) partout dans le monde, (ii) pour la durée maximale prévue par les lois ou traités applicables (y compris les prolongations futures de cette durée), (iii) sur n’importe quel support actuel ou futur et quel que soit le nombre de copies, et (iv) pour toutes fins, y compris, et sans réserves, les fins commerciales, publicitaires ou promotionnelles (la « Renonciation »). Le Déclarant procède à la Renonciation au bénéfice de chacun des membres du plus large public et au détriment des héritiers et successeurs du Déclarant, avec la ferme volonté que cette Renonciation ne puisse faire l’objet d’aucune révocation, récision, résiliation, annulation, conclusion, ou de toute autre action en justice ou injonction susceptible d’interrompre la jouissance paisible de cette Œuvre par le public telle que prévue par la Déclaration d’Intention du Déclarant.

3. Licence Publique Supplétive

Dans le cas où une partie quelconque de la Renonciation et pour quelque raison que ce soit est jugée juridiquement nulle ou sans effet en vertu de la loi applicable, la Renonciation doit être préservée de la manière permettant la prise en compte la plus large de la Déclaration d’Intention du Déclarant. De plus, dans la mesure où la Renonciation est ainsi jugée, le Déclarant concède par la présente à chaque personne concernée une licence pour l’exercice des Droits d’Auteur et Droits Voisins du Déclarant sur l’Œuvre, gratuite, non transférable, non sous-licenciable, non exclusive, irrévocable et inconditionnelle (i) partout dans le monde, (ii) pour la durée maximale prévue par les lois ou traités applicables (y compris les prolongations futures de cette durée), (iii) sur n’importe quel support actuel ou futur et quel que soit le nombre de copies, et (iv) pour toutes fins, y compris, et sans réserves, les fins commerciales, publicitaires ou promotionnelles (la « Licence »). La licence sera réputée effective à la date à laquelle le Déclarant a appliqué CC0 à l’Œuvre. Dans le cas où une partie quelconque de la Licence, et pour quelque raison que ce soit, est jugée juridiquement nulle ou sans effet en vertu de la loi applicable, une telle invalidité partielle ou ineffectivité n’invalidera pas le reste de la Licence, et dans un tel cas le Déclarant déclare par la présente qu’il ou elle (i) n’exercera aucun de ses Droits d’Auteur ou Droits Voisins subsistant sur l’Œuvre et (ii) ne fera valoir aucune prétention ni intérêt à agir associés relatifs à l’Œuvre, ce qui serait opposé à la Déclaration d’Intention du Déclarant.

4. Limitations et exonérations de responsabilité
  1. Aucun droit sur une marque déposée ou un brevet détenu par le Déclarant n’est abandonné, cédé, licencié ou affecté d’une quelconque manière par le présent document;
  2. Le Déclarant propose la mise à disposition de l’Œuvre en l’état, sans déclaration ou garantie d’aucune sorte, expresse, implicite, légale ou autre, y compris les garanties concernant la commercialité, ou la conformité, les vices cachés et les vices apparents, dans toute la mesure permise par la loi applicable;
  3. Le Déclarant décline toute responsabilité dans la compensation des droits d’autres personnes qui peuvent s’appliquer à l’Œuvre ou à toute utilisation de celle-ci, y compris, et notamment, mais pas exclusivement, les Droits d’Auteur et Droits Voisins de toute personne sur l’Œuvre. En outre, le Déclarant décline toute responsabilité quant à l’obtention des consentements, autorisations et autres droits requis quelle que soit l’utilisation de l’Œuvre;
  4. Le Déclarant comprend et reconnaît que Creative Commons n’est pas partie prenante de ce document et n’a aucune responsabilité ni obligation à l’égard de la CC0 ou de l’utilisation de l’Œuvre.

Notes

[1] Notre travail étant réparti sur plusieurs documents EtherPad, cet incident généralement atroce dans une salle informatique se révéla joyeusement anecdotique.

[2] Petit aparté à ce propos, Framasoft organise, lors de la prochaine Ubuntu Party parisienne qui aura lieu du 5 au 7 novembre prochain, un atelier de libération d’œuvres non logicielles, qui consistera justement à contacter les auteurs d’œuvres numériques, publiées sur Internet sans licences précises et dont le Copyright par défaut bloque une idée de réutilisation… L’atelier est prévu pour le samedi 6 novembre à partir de 11h30.

[3] Oui, il fallait suivre pour les acronymes 😛

[4] L’annonce de RegardsCitoyens.org saluant la création de cette licence. Une analyse plus poussée sur le blog de Veni Vidi Libri.

[5] Crédit photo : GnuckX (Creative Commons Zero 1.0)




Avec Uniflow, Canon invente la photocopieuse qui espionne, refuse et dénonce

Timshell - CC-by-nd En l’absence de l’habituel maître des lieux
Les lutins du Framablog font bien de leur mieux
Écumant le web, en quête de sujets sérieux
Ils espérent que ces billets vous rendront joyeux
À défaut de nous aider à ouvrir les yeux
Sur des technologies qui derrière un vœu pieu
Menacent nos libertés et nos échanges précieux

« On arrête pas le progrès » aimait à répéter mon grand père, mais aujourd’hui, je me demande ce qu’il aurait pensé des dernières inventions de Canon…

En effet, si l’esprit du hacker est de bidouiller une technologie pour en trouver de nouveaux usages, les grandes firmes s’ingénient elles bien souvent à limiter les possibilités de leurs produits, pour créer une illusion de contrôle.

Dans notre cas, Canon a créé des photocopieuses qui inspectent au plus près les documents qu’on leur donne à reproduire, et s’y refusent si ces derniers contiennent l’un des mots de la liste noire située sur le serveur central des installations Uniflow.

Tout d’abord, ces photocopieuses illustrent exactement la menace qui plane sur la neutralité d’Internet. Imaginez qu’il ne soit plus possible de se parler qu’à l’aide de textes envoyés d’une photocopieuse à une autre et vous aurez un bon aperçu de comment fonctionne Internet. En effet, chaque message y circule, par petits bonds, d’un ordinateur à un autre entre votre machine et celle à laquelle vous tentez d’accéder de l’autre côté du réseau. Chaque machine rencontrée photocopie simplement les messages qu’elle reçoit vers la sortie qui les rapprochera de leur destination. Pour l’instant, les routeurs de l’Internet transportent les messages de manière aussi neutre qu’une simple photocopieuse, sans le moindre soupçon d’analyse de contenu. Mais Canon vient donc de briser la neutralité des photocopieuses, en créant un système de « deep photocopy inspection » bien sûr associés à un système centralisé de censure.

Ensuite, comme le remarquait Benoit Sibaud sur Identi.ca, nous nous trouvons là devant un cas concret d’informatique déloyale, telle que définie par l’April, où des utilisateurs se trouvent confrontés à des systèmes soit-disant « de confiance », et qui sous prétexte de sécurité ne remplissent tout simplement plus la tâche pour laquelle ils sont conçu si les conditions arbitraires d’une entité tierce de contrôle ne sont pas réunies.

Je parlais d’une illusion du contrôle, car comme toujours le moyen mis en œuvre pour « sécuriser l’usage » est aisément contournable, les documents n’étant (pour l’instant) analysés qu’à l’aide d’un logiciel OCR, incapable donc de percevoir les notes manuscrites, ou les mots (volontairement) mal orthographiés.

Alors à quoi bon mettre en place des systèmes aux performances finalement ridicules au regard du niveau stratégique de l’objectif ? Et quel peut être l’objectif d’imprimantes allergiques à certains mots ?

Tout d’abord, déployer un système à l’efficacité embryonnaire c’est toujours faire un premier pas, ça finance la génération suivante et ça piège les non avertis… [1] Ensuite dans le cas présent, on peut pallier les manques du système en contraignant le reste de l’environnement, et si on trouve une application admise par les contrôleurs et les contrôlés ça pourrait même rendre service.

Mais pourquoi empêcher d’imprimer ? Pour pallier, d’une certaine manière, au « trou analogique ». Le trou analogique c’est le nom donné à un phénomène simple : aussi sophistiqué que puisse être le système de protection d’un fichier (chiffrement, DRM), pour qu’il soit lu il faut bien à un moment le rendre présentable pour un humain. Et à partir de là, il est toujours possible de renumériser les données… Un MP3, même plombé par un DRM, quand il finit par être lu, rien ne m’empêche de l’enregistrer avec un dictaphone, si j’ai peur de ne pas m’en souvenir tout seul. Dans notre cas, l’intérêt est donc de combler en partie le trou analogique, en évitant que des copies papiers de documents identifiés comme « secrets » ne soient créées.

Toutefois, ça peut vite devenir comique, si une entreprise empêche l’impression de documents contenant le nom de ses clients par exemple, espérons qu’ils ne traitent pas avec Apple, Orange ou même Canon, sinon ils vont vite finir par ne plus pouvoir imprimer grand chose.

Néanmoins, après les imprimantes qui mentent sur leur niveau d’encre et les imprimantes qui laissent des micro-traces pour s’identifier sur toutes leurs copies, Canon invente aujourd’hui les imprimantes qui choisissent ce qu’elles impriment… [2]

Canon promet une sécurisation à base de mots-clés pour ses scanners et imprimantes

Canon promises keyword-based document scanning and printing security

Alan Lu – 12 octobre 2010 – ITPro.co.uk
Traduction Framalang : Siltaar, Julien R., KooToX, Daria

Canon a fait une démonstration d’Uniflow 5, la dernière version de son système de gestion de documents, capable d’empêcher les utilisateurs d’imprimer ou de copier des documents contenant certains mots, grâce à un système de sécurité intelligent basé sur des mots-clés.

Uniflow est un système de gestion de documents qui permet, depuis longtemps, de contrôler imprimantes, scanners et photocopieurs de manière centralisée. Cela permet de conserver le compte des impressions de chaque utilisateur à des fins de facturation. C’est indispensable dans les professions qui facturent les clients à l’heure ou à la quantité de travail, comme les avocats et les architectes. Le système requiert à la fois un serveur Uniflow sur votre réseau et des périphériques d’imagerie Canon, compatibles Uniflow.

La dernière version d’Uniflow possède un système de sécurité intelligent, basé sur des mots-clés. Une fois configuré par un administrateur, le système peut empêcher un utilisateur d’imprimer, scanner, copier ou faxer un document contenant un des mots-clés prohibés, tel que le nom d’un client ou le nom de code d’un projet.

Le serveur enverra alors par courriel à l’administrateur une copie PDF du document en question, au cas où un utilisateur s’y essaie. Le système peut aussi optionnellement informer l’utilisateur par courriel que sa tentative a été bloquée, mais sans identifier le mot-clé responsable, maintenant ainsi la sécurité du système.

La détection des mot-clés d’Uniflow 5 se base sur un système de reconnaissance optique de caractères (OCR), dont la licence est détenue par la firme belge Iris. Cette technologie est plus communément utilisé pour retranscrire des documents scannés en textes éditable sur ordinateur. Canon Angleterre a confirmé qu’un utilisateur éclairé et déterminé ayant repéré un des mots-clés peut contourner le système en remplaçant une lettre par une autre ou un chiffre ressemblant comme avec « z00 » au lieu de « zoo ».

Néanmoins, l’intérêt de cette fonctionnalité est immédiatement perceptible pour les secteurs traitant des documents sensibles, que se soit pour des raisons légales, concurrentielles ou commerciales. Les représentants de Canon n’ont pu avancer de date quant à la commercialisation des produits Uniflow 5.

Notes

[1] Toute ressemblance avec une loi visant à contrôler les usages sur Internet serait fortuite.

[2] Crédit photo : Timshell (Creative Commons Attribution NoDerivs).




Développer en public

Steve Jurvetson - CC by Voici, révélé sur son blog par Bradley M. Kuhn (cadre dirigeant à la FSF impliqué dans le projet GNU), l’un des meilleurs ingrédients pour la réussite d’un projet de logiciel libre : rendre son développement public, dès la conception. C’est du moins l’enseignement qu’il retire d’un échange qu’il a eu avec Loïc Dachary, pionnier du logiciel libre, fondateur de la FSF France, d’EUCD.info ou encore de la plateforme d’hébergement de projets libres Gna! [1].

Or, si l’idée peut sembler simple, sa réalisation est loin d’être anecdotique et porte à de nombreux débats, comme le synthétise ici Bradley. Mais surtout, ce qui se dessine au travers de cette réflexion, c’est un élément fondamental de la définition de ce qu’est un projet libre, un projet ouvert, un projet pérenne : c’est un projet dont on partage les idées et la conception, en plus des sources. Bradley Kuhn oppose, en filigrane, à cette vision, celle de grands projets (qui se clament bien souvent eux-même « OpenSource ») dont en effet seul le code est publié. Des projets opposant une résistance aux contributions extérieures, et qui peuvent alors presque paradoxalement sembler hermétiques, fermés…

Plusieurs exemples viennent aisément en tête car c’est entre autres l’un des principaux reproches fait à Chromium, la version « OpenSource » du navigateur Google Chrome. Mais LibreOffice, le récent fork d’OpenOffice, illustre parfaitement la conclusion de Bradley, quand la communauté d’un projet de logiciel libre finit par n’avoir d’autre choix que de partir sur un embranchement définitif des fichiers sources pour en ouvrir au public le développement, et plus le code seulement.

Où sont les octets ? [2]

Where Are The Bytes?

Bradley M. Kuhn – 11 juin 2010 – EBB.org
(Traduction Framalang : Barbidule, Loquemunaine, Goofy)

Il y a quelques années, j’avais envisagé de me lancer dans un projet de logiciel libre. Il n’a pas vu le jour, mais j’ai appris au passage des choses bonnes à savoir. Quand j’ai pensé à démarrer ce projet, j’ai fait comme à mon habitude : j’ai demandé à quelqu’un qui en savait plus que moi. J’ai donc téléphoné à Loïc Dachary, qui a initié de nombreux projets de logiciels libres, pour lui demander conseil.

Avant même que je puisse ne serait-ce qu’évoquer mon idée, Loïc m’a demandé : « Tu as une URL » ? J’étais abasourdi. Ben, je n’ai pas encore commencé, répondis-je. Bien sûr que si, reprit-il, puisque tu m’en parles c’est que tu as commencé. Le plus important, c’est que tu me dises où sont les octets.

Loïc m’expliqua ensuite que la plupart des projets échouent. Le plus difficile dans un projet de logiciel libre est de le pousser à un stade suffisamment avancé pour qu’il puisse survivre même si ses créateurs initiaux le quittent. Donc, selon la théorie de Loïc, la tâche la plus urgente à accomplir au démarrage d’un projet, c’est de générer ces octets, dans l’espoir qu’ils se fraieront un chemin jusqu’à une équipe de développeurs qui contribueront à maintenir le projet actif.

Mais qu’est-ce qu’il entend par « octets » au juste ? Il veut tout simplement dire que vous devez exposer vos réflexions, votre code, vos projets, vos idées, presque tout en fait sur une adresse publique où tout le monde pourra les voir. Montrez vos octets, montrez-les à chaque fois que vous en créez si peu que ce soit. C’est la seule chance de survie de votre projet de logiciel libre.

Le premier objectif d’un projet de logiciel libre est de rassembler des développeurs. Aucun projet ne peut avoir de succès à long terme sans une base diversifiée de développeurs. Le problème c’est que le travail initial de développement et le planning du projet finissent trop souvent enfermés dans la tête d’un petit noyau de développeurs. C’est dans la nature humaine : comment puis-je passer mon temps à expliquer à chacun ce que je suis en train de faire ? Si je le fais, quand trouverai-je le temps de faire vraiment avancer les choses ? Ceux qui dirigent les projets de logiciels libres savent résister à ce désir naturel et font ce qui peut sembler contre-intuitif : ils exposent leurs octets publiquement, même si cela les ralentit un peu.

Ce processus est d’autant plus nécessaire à l’ère des réseaux. Si quelqu’un veut créer un programme qui remplisse sa mission, son premier outil est le moteur de recherche : il s’agit de savoir si quelqu’un d’autre a déjà fait le boulot. L’avenir de votre projet dépend entièrement du fait que chaque recherche de ce type aide des développeurs à découvrir vos octets.

Début 2001 j’ai demandé à Larry Wall quel était le projet le plus difficile parmi tous ceux sur lesquels il a travaillé. Sa réponse fut immédiate : "quand j’ai développé la première version de Perl5," m’a dit Larry, "j’avais l’impression que je devais coder tout seul et le faire tourner par mes propres moyens". Bien sûr, Larry est un gars tellement doué qu’il peut se permettre de créer à lui tout seul un programme que tout le monde voudra utiliser. Bien que je ne lui aie pas demandé ce qu’il ferait aujourd’hui dans une situation pareille, je devine – particulièrement quand on voit comment le développement de Perl6 est devenu public – qu’il utiliserait plutôt les nouveaux outils en ligne, tels que DVCS, pour montrer plus vite et plus souvent ses octets, et chercher à impliquer plus tôt davantage de développeurs[3].

Il est vrai que la priorité de la plupart des développeurs est de tout cacher. "On publiera quand ce sera prêt", ou bien – pire encore – "le noyau dur de l’équipe travaille bien ensemble ; rendre le projet public maintenant ne ferait que nous ralentir". En vérité, c’est un mélange dangereux de peur et de narcissisme, exactement la même pulsion que celle qui pousse les développeurs de logiciels non-libres à les conserver propriétaires.

Les développeurs de logiciels libres ont la possibilité de dépasser la réalité fondamentale de tout développement logiciel : le code est mal fichu, et n’est généralement pas terminé. Malgré tout, il est essentiel que la communauté puisse voir ce qu’il se passe à chaque étape, dès le noyau initial du code et au-delà. Quand un projet est perçu comme actif, cela attire les développeurs et donne au projet une chance de succès.

Quand j’étais à la fac, une des équipes d’une classe de génie logiciel s’est complètement plantée. C’est arrivé alors même qu’un des membres de l’équipe avait passé près de la moitié du semestre à coder par lui-même, nuit et jour, sans se soucier des autres membres de l’équipe. Durant l’évaluation finale, le professeur lui fit remarquer : « un développeur de logiciel, ce n’est pas un pilote de chasse ». L’étudiant, ne voyant pas le rapport, plaisanta : « Ouais, je sais, au moins le pilote de chasse, il a un copilote ». En vérité, il ne suffira pas d’une personne ou deux, ou même d’une petite équipe, pour faire aboutir un projet de logiciel libre. Le projet ne marchera que s’il est soutenu par une communauté importante qui évitera tout point individuel de défaillance.

Il n’en reste pas moins que la plupart des projets de logiciels libres sont voués à l’échec. Cependant, il n’y a aucune honte à balancer quelques octets, pour inciter les gens à y jeter un oeil, quitte à laisser tomber si la mayonnaise ne prend pas. Toute la recherche scientifique fonctionne ainsi, et il n’y a pas de raison pour que l’informatique fasse exception. Garder un projet privé, c’est garantir son échec ; le seul intérêt, c’est que vous pouvez dissimuler le fait que vous avez essayé. Comme le disait mon directeur de thèse lorsque je me faisais du souci quant à la réussite de ma recherche : un résultat négatif peut être aussi intéressant qu’un résultat positif. Ce qui est important, c’est d’être sûr que tous les résultats seront publiés et que le public pourra les examiner.

Quand j’ai commencé à parler de cette idée il y a quelques semaines, certains m’ont répondu que les premiers programmes GNU, les logiciels fondateurs de notre communauté ont d’abord été développé en privé. C’est vrai, mais le fait que les développeurs du projet GNU aient procédé de cette façon ne veut pas dire que c’est la bonne. Nous disposons désormais des outils pour faire facilement du développement en public, et nous devrions le faire. De mon point de vue, aujourd’hui nous ne sommes pas vraiment dans l’esprit du logiciel libre tant que le projet, y compris les discussions sur sa conception, les plans et les prototypes, ne sont pas développés publiquement. Le code (quelque soit sa licence) qui n’est que balancé à intervalles plus ou moins réguliers mérite d’être repris par une communauté qui rende son développement public.


Mise à jour (2010-06-12) : J’ai complètement oublié de parler de « The Risks of Distributed Version Control » par Ben Collins-Sussman, qui date de cinq ans maintenant mais qui est toujours d’actualité. Ben fait un constat similaire au mien, et remarque que certaines utilisations de DVCS peuvent avoir les effets que j’encourage les développeurs à éviter. Je pense que DVCS est comme n’importe quel autre outil : il peut être mal utilisé. Il faut éviter de s’en servir comme Ben le signale, et DVCS, lorsqu’il est utilisé correctement, aide dans le processus de développement public de logiciel.

Notes

[1] Fonctionnant tout comme GNU Savannah grâce au logiciel Savane dont il est le principal développeur.

[2] Crédit photo : Steve Jurvetson (Creative Commons By). Cette photo, intitulée « mémoires primitives » est un gros plan sur une barrette de mémoire vive du milieu du siècle dernier. On y voit un quadrillage de « fins » fils de laiton, tricoté à la main avec de petits anneaux de ferrite à chaque intersection, le tout noyé dans de la colle. L’ensemble, qui pouvais occuper le volume d’un magazine papier, était capable de conserver plusieurs centaines de … bits de mémoire. Le circuit tricoté ici représente ainsi 38 octets de mémoire vive, et il est assez vertigineux de constater que 50 ans plus tard, on stocke environ 25 millions de fois plus d’information dans le volume de chaque anneau de ferrite.

[3] Notez que rendre son code public au milieu des années 1990 était plus difficile (d’un point de vue technologique) que maintenant. Ceux qui n’ont pas connu les archives shar ne s’en rendent pas compte. 🙂




Facebook, petite analyse anthropologique avec YourOpenBook.org

Mohd Shazni - CC by L’équipe Framalang s’est dernièrement attelée à la traduction d’un court article de Gene Weingarten, au sujet de ce grand site de réseautage social sur le web. Derrière une apparente naïveté, l’auteur se targue de réaliser une étude anthropologique à partir des données personnelles des millions d’utilisateurs de Facebook, qu’il collecte via YourOpenBook.org, un moteur de recherche dédié aux messages courts de statut de ce qui n’était à l’origine qu’un trombinoscope universitaire en-ligne. Or, si jusque-là la fonctionnalité pouvait sembler manquer au site officiel, c’est aussi qu’elle met en évidence le faible degré de protection des données personnelles de ses utilisateurs que Facebook offre, au moins par défaut.[1].

Ironie du sort, la semaine de sortie de l’article en question, Facebook fut secoué d’une quinte de toux numérique le rendant injoignable pendant plus d’une heure, ce qui anima de grandes conversations sur les autres grands réseaux sociaux, principalement à coup de gazouillis d’ailleurs…

Pas de quoi fouetter un chat me direz-vous, des sites web qui tombent en panne ça arrive, et même au plus gros. Par contre, dans le cas d’un site qui se propose de gérer vos albums photos, votre carnet d’adresses en fouillant dans vos boîtes à lettres électroniques (pour finalement proposer de les remplacer par son service de messagerie interne) et jusqu’à vos connexions aux autres sites web via un service doublon d’OpenID, l’incident peut être révélateur et s’avérer pédagogique. Pour ma part, j’ai ouvert un compte Facebook sans grande conviction en 2006, parce que c’était de bon ton dans l’entreprise où j’étais en stage à l’époque, mais je ne prévoyais pas un plus grand avenir à ce compte qu’à mes comptes Orkut[2] ou CopainsDAvant[3]. Or, si pour ma part j’ai tenu parole, n’alimentant pas vraiment un réseau plus que les autres, force est de constater que l’un d’eux a pris au fil des ans de plus en plus de place sur le web. Et à vrai dire, chaque fois qu’une connaissance s’ajoute à mes contacts, j’ai l’indolence de ne pas aller chercher son adresse de courriel dans son profil pour la noter dans un fichier chez moi. Or, il s’avère que pendant cette fameuse interruption de service, je me suis retrouvé à devoir envoyer un message « urgent » à un ami dont je n’avais jamais noté l’adresse ailleurs… et je n’ai pas pu.

Finalement il apparaît que Facebook, l’utiliser c’est se piéger, même en étant renseigné et modéré. Au moins, les mails stockés sur mon disque dur par Thunderbird[4] me restent accessibles, même hors ligne. Quel qu’en soit le parcours, je conserve ainsi mon courrier numérique sous mon toit (et j’en fais régulièrement des sauvegardes).

Cette anecdote me rappelle une petite phrase, innocemment lancée par Eben Moglen au milieu de son discours en plénière de clôture de la 1ère journée de l’OpenWorldForum la semaine dernière, et qui fut spontanément applaudie par le public, avec 3 secondes de décalage :

“For the moment, what we see is people that chose to put their pictures and personnal informations, their day-to-day emotional and friendships connexions all together in the computers of a single for-profit compagny, run by a fool.”

« Ce que nous voyons pour le moment, se sont des gens qui choisissent de mettre leurs photos et leurs informations personnelles, leurs amitiés et états d’âme au quotidien tous ensemble dans les ordinateurs d’une seule et même entreprise commerciale, menée par un fou. »

Cette fois c’est décidé, dès que j’ai un Diaspora, un GNU/Social ou une Nobox qui tourne chez moi, je ferme mon compte Facebook.

Gene Weingarten: Pourquoi je déteste énoooooooooorrrmément Facebook…

Gene Weingarten: I hate Facebook sooooooooooooooooooooooooooooooo much…

Gene Weingarten – 17 septembre 2009 – WashingtonPost.com
(Traduction Framalang : Julien Reitzel, Goofy, Siltaar)

Les critiques affirment que je suis injuste à l’égard de Facebook simplement parce que je l’ai décrit comme un océan de banalités partagées entre des gens avec une vie aussi vide à laquelle ils font écho. Je défends ma thèse mais admets que mon témoignage n’était pas basé sur des preuves scientifiques — totalement anecdotique — , mais basé sur mes plongeons occasionnels dans ce lagon tiède et morne de conversations fadasses.

Mais cela a changé. Je trouve qu’il est désormais possible de quantifier mathématiquement l’ennui, grâce à un nouveau site web. Openbook, accessible à l’adresse YourOpenBook.org, est un moteur de recherche pour les « messages de statut » de Facebook, le moyen principal utilisé par le « Facebookeur » pour communiquer avec ses amis. Avec Openbook, il est possible de rechercher un mot ou une phrase et de trouver non seulement combien de fois il a été utilisé dans des alertes de statut, mais aussi quand et par qui.

Les créateurs de ce site le présentent comme un outil de mise en garde, pour alerter les gens que le média social ne protège pas leur vie privée de façon adéquate. Mais entre les mains d’un chercheur objectif comme moi-même, Openbook peut être un précieux outil d’interprétation. À travers lui, on peut analyser Facebook anthropologiquement.

C’est d’ailleurs ce que j’ai fait, et voilà ce que ça donne :

  • Quand les gens estiment nécessaire de faire savoir à leurs amis à quel point leur vie est insupportablement aride et abrutissante — ce qu’ils font à une fréquence d’environ 2 000 mises à jour de statut par heure — le mot qu’ils choisissent le plus souvent est « boring » (ennuyeux). Ils ont tendance à l’écrire avec des « o » ou des « r » en plus, pour en accentuer l’effet. Si vous cherchez « boooring » et continuez à rechercher en ajoutant à chaque fois un « o », vous trouverez à chaque fois au moins un résultat, jusqu’à obtenir 31 « o » consécutifs. Quand vous essayez « borrrring » et continuez à ajouter des « r », vous arrivez jusqu’à 47. Juste pour info, la personne qui, par cette méthode, souffre de l’ennui le plus invalidant sur la planète, « boring » avec 51 « r », est Heather S. de Waterloo, dans l’Ontario.
  • Au cours des 16 derniers jours, 130 personnes ont alerté leurs amis du fait qu’ils « ont un bouton ». L’emplacement de l’imperfection est généralement spécifié, tout comme la taille. L’endroit le plus fréquent est le front, étroitement suivi par le lobe de l’oreille puis par la fesse, le plus souvent du côté gauche. La tomate a été la comparaison la plus colorée, tandis que la plus grosse était « Jupiter ». M. Mandel de New York a nommé son bouton Steve (elle est aussi fan de Justin Bieber ET des Jonas brothers, et, dans la rubrique livres favoris, écrit : « j’aime pas lirre »).
  • Des milliers de gens envoient des communiqués décrivant leurs impératifs excrétoires. Souvent, ils contiennent la phrase « je dois aller aux WC ». Il serait incorrect et inique de conclure que toutes les personnes utilisant cette phrase sont vulgaires et/ou rustres. Le chercheur rigoureux a découvert, par exemple John Paul Weisinger de Lufkin, au Texas, qui n’était pas du tout en train de discuter de sa propre biologie. Il était simplement en train de partager avec ses amis une blague qu’il trouve drôle : « Un cochon rentre dans un bar et commande verre après verre après verre sans jamais aller aux toilettes. Le barman demande : “Tu n’as jamais besoin de te soulager ?”, et le cochon répond : “Non, c’est déjà fait, je fais pipi au fur et à mesure que je bois” »
  • Il est possible de jauger mathématiquement la force de l’amour que se portent les gens en observant le nombre de « o » (dans le mot « love ») qu’ils utilisent dans l’expression « I love you so much » (« je t’aime tant »). Par exemple, Baker-Hernandez de Lakewood, Colorado, aime davantage son chat (57 « o ») que Lorne D. Stevens de Detroit aime Jolly Ranchers (10 « o »). Il ne semble pas y avoir de limite supérieure à l’amour que peuvent se porter les gens.
  • Les utilisateurs de Facebook peuvent s’ennuyer, mais, paradoxalement, ils sont aussi facilement amusés. On sait cela, parce qu’ils sont toujours morts de rire. Les « LOL » et autres « MDR » surviennent avec une telle fréquence qu’ils sont littéralement impossibles à compter : des dizaines apparaissent à chaque seconde. Un sous-ensemble de ces rieurs sont en même temps en train de se rouler par terre — mais toujours en trop grand nombre pour en faire le pointage. C’est seulement avec un troisième critère — ceux qui sont à la fois pétés de rire et entrain de se rouler par terre — que le nombre devient palpable : 390 par jour.
  • Dans un intervalle de 5 jours, 266 personnes ont fait référence au dirigeant des États-Unis en l’appelant Président « Oboma ». Soixante-sept autres l’ont appelé Président « Obamma ». Presque tous ces gens faisaient le constat qu’il est un stupide incompétent.

Notes

[1] Crédit photo : Mohd Shazni (Creative Commons By)

[2] Orkut.com, vous connaissez ? C’est l’un des véritables échecs de Google 🙂 Avec les Google Waves ou encore le Google Buzz…

[3] J’ai toujours été très curieux.

[4] En fait j’suis même passé à du mutt + fdm désormais…




Quand on ne peut rivaliser, on se déclare ouvert pour masquer son incompétence

Tuftronic10000 - CC bySavez-vous ce qu’est un « FUD » ? C’est l’acronyme de Fear, Uncertainty and Doubt et Wikipédia nous dit que c’est une technique rhétorique consistant « à tenter d’influencer la perception de son audience en disséminant des informations négatives, souvent vagues et inspirant la peur ».

J’ai comme l’impression que le responsable Microsoft de l’Amérique Latine est un orfèvre en la matière, à en juger par les cinglantes déclarations ci-dessous[1].

Elles sont rapportées par un envoyé spécial brésilien dont on apprend en fin d’article qu’il a voyagé sur invitation de Microsoft.

Microsoft critique la position du gouvernement brésilien concernant le logiciel libre

Microsoft critica posição do governo brasileiro sobre o software livre

Bruno Romani – 14 septembre 2010 – Folha.com
(Traduction Framalang : Thibz)

Le president de Microsoft Amérique Latine, Hernán Rincón, a envoyé un message au gouvernement brésilien : l’innovation des logiciels ne se trouve pas dans le secteur public mais dans le secteur privé.

La déclaration a été faite après qu’il fut interrogé sur la position du gouvernement brésilien et son soutien aux logiciels libres en général et à Linux en particulier.

Lors d’une rencontre entre journalistes d’Amérique Latine à Bellevue, dans l’État de Washington, il a affirmé : « Les gouvernements doivent s’interroger : leur rôle est-il de servir les citoyens ou de développer des logiciels ? L’innovation est dans le secteur privé. ».

Selon Rincón, les logiciels libres demandent plus de travail et d’investissement de la part d’un gouvernement pour les maintenir en bon fonctionnement et à jour, ce qui ne serait pas le cas lorsque les entreprises se chargent de le faire à la place des gouvernements.

Mais Rincón pense que les deux modèles, logiciels libres et propriétaires, continueront à coexister.

Concurrence

Rincón a aussi épinglé la concurrence qui parie sur les standards ouverts et gratuits, comme Google. Il a ainsi affirmé : « Quand on ne peut pas rivaliser, on se déclare ouvert pour masquer son incompétence. ».

Et Rincón d’ajouter : « Au moment opportun, les entreprises se déclarent ouvertes. Elles l’utilisent pour leur propre bénéfice. ».

Chiffres

Rincón a aussi présenté des chiffres optimistes sur la région.

Selon lui, lors de ces 7 dernières années, la région a eu de la croissance économique (sauf en 2008). Et le secteur technologique y a fortement contribué puisqu’en Amérique Latine, il a été, en moyenne, 2 à 3% supérieur à la croissance de la région. L’année dernière par exemple, la croissance du PIB regional a été de 5% alors que celle de la technologie de l’information a augmenté de 7% à 8%.

Le Brésil, dit Rincón, a eu un rôle de premier plan dans ce processus.

Et Microsoft Amérique Latine a accompagné cette croissance. Rincón dit que sa division est celle qui croît le plus parmi toutes les divisions régionales. Le chiffre d’affaires actuel serait ainsi 3 fois supérieur à ce qu’il était il y a 7 ans.

Selon lui, 95% des ordinateurs d’Amérique Latine seraient sous Windows, 1,3% sous Apple et entre 2% et 3% sous Linux.

Le journaliste a voyagé sur invitation de Microsoft.

Notes

[1] Crédit photo : Tuftronic10000 (Creative Commons By)




Marketing et ergonomie, la touche finale d’Ubuntu qui fait avancer le logiciel libre

Trancept - CC by-nc-saUbuntu. Ce simple mot peut à la fois rassembler des milliers de personnes en un week-end et dans le même temps susciter moqueries, trolls, et critiques.

Il n’empêche que cette distribution GNU/Linux, que l’on ne présente plus, a gagné en à peine six ans d’existence une remarquable popularité auprès des nouveaux utilisateurs de systèmes d’exploitation libres. Ils y découvrent une indubitable simplicité d’utilisation et une communauté d’utilisateurs dévoués, accueillants et prêts à consacrer aux nouveau venus le temps nécessaire à leur apprentissage, un temps passé à reconquérir leurs libertés perdues dans les systèmes propriétaires.

Mais tout n’est pas rose avec Ubuntu. Certains voient en effet cette distribution en couleur poil-de-chameau. Pour ses détracteurs, Ubuntu ne mérite pas toute l’attention qu’on lui accorde et fait de l’ombre aux autres projets. De plus, ce système, emballé dans du papier cadeau aux couleurs chaudes se contenterait de singer jusque dans leurs défauts les systèmes propriétaires dont les icônes, la maniabilité à la souris et les effets graphiques séduisent les utilisateurs peu soucieux de technicité. Défauts parmi lesquels, la fin du pilotage intégral du système en ligne de commande pourtant si chère aux administrateurs système, ou encore une approche marketing qui diluerait les valeurs du logiciel libre.

Six ans, c’est presque l’âge de raison, cette période où l’on n’est plus petit, mais pas encore tout à fait grand. C’est peut-être cet âge-là qu’a atteint le projet de Mark Shuttleworth[1] révélé (une fois de plus) au travers du dernier billet de son fondateur et mécène comme une distribution « clicodrome », accompagnée d’un marketing professionnel et soigné, et destinée à séduire le plus large public possible… Dans ce long billet, spontanément traduit en l’espace de deux heures par une dizaine de contributeurs répondant à l’appel d’Olivier Fraysse (Ubuntu-fr) sur Twitter[2], Mark Shuttelworth revient sur les motivations qui l’animent au quotidien, et que les milliers de contributeurs faisant la réussite assez inédite d’Ubuntu semblent bien partager.

Introduction rédigée collaborativement par Olive, Poupoul2, JoKot3, Goofy et Siltaar.

Réflexions sur Ubuntu, Canonical et la route vers l’adoption des logiciels libres

Reflections on Ubuntu, Canonical and the march to free software adoption

Mark Shuttleworth – 14 septembre 2010
(Traduction Framalang : @olivierfraysse, @Gordontesos, @ldemay alias Louis Demay, @okhin, @Siltaar, @tshirtman, @winael, @pierretravers, @ricomoro et @framasoft)

Poussé en partie par les critiques concernant la contribution de Canonical au code du noyau Linux ou à l’infrastructure profonde de GNOME, j’ai cherché à savoir si j’avais la conscience tranquille : est-ce que je fais bien mon travail ? Ma manière de le faire convient-elle ? Il est important pour moi de savoir que ce que je fais est utile aux autres et contribue à un monde meilleur. Et dans mon cas, il s’agit d’une redistribution en proportion de la bonne fortune que j’ai pu connaître.

Deux messages que j’ai reçus le mois dernier définissent sans doute ce que je pense apporter à la communauté. Le premier, c’est un mot de remerciement arrivé de Nouvelle-Zélande, quelqu’un constatant qu’Ubuntu 10.04 change vraiment la donne dans son foyer. Pour lui, c’est une sorte de petit miracle de générosité si cet environnement complet, intégré et fonctionnel existe et est maintenu par des milliers de personnes. Quant au deuxième, c’est un contrat d’assistance avec une entreprise pour les dizaines de milliers de poste de travail fonctionnant sous Ubuntu 10.04 qu’elle utilise. Ces deux messages illustrent les piliers jumeaux du projet Ubuntu et de Canonical : apporter au monde entier l’extraordinaire générosité de la communauté du logiciel libre, comme un cadeau, gratuit, léger et cohérent, et le faire de manière pérenne.

Dans le premier cas, celui de Nouvelle-Zélande, quelqu’un apprend à ses enfants comment utiliser un ordinateur dès leur plus jeune âge, se rend compte de tout ce qu’apporte Ubuntu par rapport à Windows, et à quel point il est plus simple d’aborder l’informatique avec Ubuntu lorsqu’on s’adresse à des enfants. Pour cette famille, le fait qu’Ubuntu leur apporte l’univers du logiciel libre en un paquet harmonieux et soigné est extraordinaire, c’est une grande avancée, et ils en sont très reconnaissants.

C’est une histoire que j’espère voir se répéter des millions de fois. Et c’est une histoire qui donne bonne réputation et grande satisfaction, pas qu’à moi, pas qu’à ceux qui consacrent leur passion et leur énergie à Ubuntu, mais aussi à tous ceux qui contribuent au logiciel libre de manière générale. Ubuntu ne mérite pas à elle seule tous les honneurs, elle fait partie d’un écosystème large et complexe, mais sans elle, cette distribution de logiciels libres n’aurait pas la même portée ni la même force. Nous savons tous que le corps du logiciel libre a besoin de nombreux organes, de nombreuses cellules, chacun ayant ses propres priorités et intérêts. Le corps ne peut exister qu’avec chacun d’entre eux. Nous sommes une petite composante d’un vaste ensemble, et c’est un privilège pour nous d’assumer nos responsabilités en tant que distribution. Nous devons donner un point de départ à ceux qui débuteront leur voyage dans le monde du logiciel libre avec Ubuntu, et nous nous efforçons de nous assurer que toutes ces pièces s’accordent bien ensemble.

Ubuntu, et les possibilités qu’elle crée, n’aurait pu naître sans l’extraordinaire communauté Linux, qui elle-même n’existerait pas sans la communauté GNU, et n’aurait pas pris autant d’importance sans les efforts d’entreprises comme IBM et Red Hat. Et ç’aurait été une toute autre histoire sans les gens de Mozilla, ou Netscape avant eux, GNOME et KDE, et Google, ainsi que tout ceux qui contribuent de façons différentes à cet empilement, rendent le tout meilleur. Des dizaines de milliers de personnes qui ne sont pas directement associées à Ubuntu contribuent à rendre cette histoire bien réelle. Beaucoup d’entre eux y travaillent depuis plus d’une décennie… un succès soudain exige un gros travail en amont, et Ubuntu n’est sur le marché que depuis six ans. Ubuntu ne peut donc pas être crédité seul de la satisfaction qu’elle apporte à ses utilisateurs.

Néanmoins, le projet Ubuntu apporte quelque chose d’unique et d’inestimable au logiciel libre : un dévouement total aux utilisateurs et à l’ergonomie, à l’idée que le logiciel libre devrait être « pour tout le monde », d’un point de vue économique et d’un point de vue facilité d’utilisation, et à la volonté de traquer les problèmes qui y nuisent. Je perçois ce dévouement comme un don à ceux qui ont contribué à l’une de ces briques. Si nous pouvons multiplier par dix l’adoption du logiciel libre, nous aurons multiplié la valeur de votre générosité par dix, décuplé l’importance de toutes les heures passées à résoudre un problème ou à créer quelque chose de formidable. Je suis très fier de consacrer autant de temps et d’énergie à Ubuntu. Oui, je pourrais faire beaucoup d’autres choses, mais rien d’après moi qui aurait un tel impact sur le monde.

Je conçois que tout le monde ne perçoive pas les choses de cette façon. Multiplier l’audience de son travail par dix sans apporter de contribution au projet pourrait passer pour du parasitage, ou seulement décupler l’afflux de rapports de bogues. On pourrait avancer que peu importe notre générosité envers les utilisateurs finaux, si les développeurs en amont ne prennent que le code en considération, alors tout apport en dehors du code ne sera pas comptabilisé. Je ne sais pas bien comment y remédier – je n’ai pas créé Ubuntu comme un moyen d’écrire beaucoup de code, car ça ne me paraissait pas être ce dont le monde avait besoin. Le logiciel libre avait besoin d’un moyen pour aller de l’avant, d’amener le code déjà existant à un haut niveau de qualité et de fiabilité. La plupart des éléments du bureau étaient déjà en place – et le code affluait – il n’était simplement pas livré d’une manière qui lui permettrait d’être adopté ailleurs que sur les serveurs, par un public plus large.

Le second e-mail, dont je ne peux citer d’extraits, était en substance un contrat de services confié à Canonical pour aider une entreprise à migrer plus de 20 000 machines de bureau de Windows à Ubuntu. Nous avons récemment signé plusieurs accords d’échelle similaire, et le ryhtme augmente à mesure que la confiance en Ubuntu grandit. Alors que GNU/Linux est depuis longtemps reconnu comme un système de bureau intéressant pour les développeurs motivés et inspirés, il y a un écart entre cette utilisation et le besoin des grosses entreprises. À ma connaissance, aucune autre entreprise ne se consacre entièrement à la production d’un système de bureau libre, et je suis fier que Canonical joue ce rôle. Il me peinerait que tous les efforts de la communauté du logiciel libre ne puissent servir à ces utilisateurs. Il n’y a rien de propriétaire ou de secret dans les postes de travail dont Canonical assure le support dans ces grandes entreprises. Ce qui m’émerveille le plus, c’est que dans les cas de la famille de Nouvelle-Zélande et de cette entreprise, il est question du même code. Voilà à mon sens la véritable promesse du logiciel libre : lorsque je participais moi-même à des projets open-source, j’ai toujours été ravi que mon travail subvienne à mes besoins, mais qu’il soit également utile au plus grand nombre.

Ubuntu n’est qu’une petite partie de cet immense écosystème, mais je suis fier que nous ayons intensifié nos efforts pour relever ces défis. Canonical adopte une approche différente des autres entreprises qui travaillent dans l’univers Linux, non pas comme critique implicite des autres, mais simplement parce que c’est l’ensemble des valeurs que nous défendons. C’est une force pour le logiciel libre qu’un tel nombre d’entreprises différentes poursuivent autant d’objectifs importants.

Au cours des dernières semaines, on a suggéré que l’action de Canonical est égoïste et non dédiée au bénéfice d’une communauté plus large. C’est une critique blessante car la plupart d’entre nous ressentons justement le contraire : notre motivation, c’est tout faire pour servir la cause du logiciel libre, au bénéfice à la fois des utilisateurs finaux et de la communauté qui le produit, et nous sommes convaincus qu’élaborer Ubuntu et travailler pour Canonical sont les meilleures façons d’atteindre ce but. Ces critiques ont provoqué de nombreuses discussions et réflexions chez chacun de nous et chez Canonical. Ce billet s’inscrit dans cette réflexion : j’y témoigne de ce que je ressens lorsque je contribue, et pourquoi je suis fier du travail que j’accomplis chaque jour. Que faisons-nous pour le logiciel libre ? Et que fais-je moi-même ?

Pour commencer, nous le fournissons. Nous réduisons la friction et l’inertie qui empêchent les utilisateurs d’essayer les logiciels libres et de décider eux-mêmes s’ils les aiment suffisamment pour s’y plonger. Aujourd’hui, des centaines de développeurs de logiciels libres, traducteurs, concepteurs, porte-parole, ont l’occasion de prendre part au mouvement, parce qu’il est facile pour eux de faire le premier pas. Et ce n’est pas un travail aisé. Songez aux années d’efforts que nécessite la conception d’un simple installeur pour Linux comme http://www.techdrivein.com/2010/08/…, qui est l’aboutissement d’énormes quantités de travail par plusieurs groupes, mais qui sans Canonical et Ubuntu n’aurait jamais vu le jour.

Des milliers de personnes se contentent de concevoir des logiciels libres pour elles-mêmes, et ce n’est pas un crime. Mais la volonté d’en faire quelque chose que d’autres pourront explorer, utiliser et apprécier doit également être plébiscitée. Et c’est une valeur qui est fortement mise en avant dans la communauté Ubuntu : si vous lisez http://planet.ubuntu.com, vous verrez que l’on se réjouit grandement de compter des *utilisateurs de logiciels libres*. En tant que communauté, c’est pour nous une immense satisfaction de voir que des gens les *utilisent* pour résoudre leurs problèmes quotidiens. C’est plus satisfaisant pour nous que des récits sur l’amélioration de sa rapidité ou l’ajout d’une fonctionnalité. Certes, nous jouons sur les deux tableaux, mais notre communauté mesure davantage l’impact sur le monde que l’impact sur le code. Tous ses membres sont généreux de leur temps et de leur expertise, et il s’agit là de leur récompense. Je suis fier du fait qu’Ubuntu attire des personnes généreuses dans leurs contributions : à leurs yeux, ces contributions prennent de la valeur si elles sont retravaillées par d’autres, et qu’elles n’y perdent pas. C’est pourquoi nous nous réjouissons de l’existence de Kubuntu, Xubuntu, PuppyLinux et Linux Mint. Ces distributions ne marchent pas sur nos plate-bandes, elles se tiennent sur nos épaules, tout comme nous nous tenons sur les épaules de géants. Et c’est une bonne chose. Notre travail a plus de sens et plus de valeur parce que leur travail atteint des utilisateurs que le nôtre seul ne peut pas atteindre.

Quoi d’autre ?

Nous réparons ses défauts, aussi. Prenons par exemple le projet PaperCut, né parce que l’on s’est rendu compte que cette technologie formidable et les efforts que l’on consacre à réaliser un projet aussi complexe que le noyau Linux se trouvent diminués si l’utilisateur moyen n’obtient pas le résultat escompté alors que tout devrait fonctionner sans accroc. Des centaines de Papercuts ont été réparés, dans de nombreuses applications, ce qui ne bénéficie pas qu’à Ubuntu mais aussi à toutes les autres distributions qui intègrent ces applications. Ça n’a rien de simple : songez aux milliers de suggestions à trier, à la coordination des réparations et à leur partage. Grâce aux efforts sans répit d’une équipe nombreuse, nous changeons la donne. Épargner une heure par semaine à des millions d’utilisateurs représente un trésor d’énergie économisée, que l’utilisateur peut alors consacrer à une utilisation plus efficace du logiciel libre. L’équipe Canonical Design est à l’origine du projet Papercuts, mais les plus méritants sont les personnes comme Vish et Sense, qui sont venus gonfler nos rangs. Chaque patch a son importance, sur le poste de travail http://ubuntuserver.wordpress.com/2… et sur le serveur.

À un niveau plus personnel, un élément clé auquel je consacre de l’énergie est la direction, la gouvernance et la structure de la communauté. Aux débuts d’Ubuntu, j’ai passé beaucoup de temps à observer les différentes communautés qui existaient à l’époque, et comment on y gérait les inévitables tensions et divergences qui apparaissent lorsque beaucoup de fortes personnalités collaborent. Nous avons conçu l’idée d’un code de conduite qui assurerait que nos passions pour ces technologies ou ce travail ne prennent pas le dessus sur notre objectif principal : amener des gens de divers horizons à collaborer sur une plateforme commune. Je suis ravi que l’idée se soit étendue à d’autres projets : nous ne voulons pas garder jalousement ces idées, designs ou concepts, ce serait l’inverse de notre objectif premier.

Nous avons mis en place une structure simple : un forum technique et un conseil communautaire. Cette organisation est désormais courante dans beaucoup d’autres projets. Alors qu’Ubuntu se développe, la gouvernance évolue également : des équipes s’occupent de diriger des groupes tels que Kubuntu, les forums et les canaux IRC, fournissent conseils et orientation aux équipes des LoCo[3], aux modérateurs, aux opérateurs et aux développeurs, qui à leur tour s’efforcent d’atteindre la perfection technique et l’aisance sociale au sein d’une immense communauté mondiale. C’est fantastique. Ceux qui viennent participer à Ubuntu sont en général autant motivés par le désir d’appartenir à une merveilleuse communauté que par celui de résoudre un problème spécifique ou d’alléger la charge de travail d’un groupe.

Avec le temps, certains s’aperçoivent qu’ils ont le don d’aider les autres à être plus productifs : résoudre les conflits d’opinion, assurer l’organisation d’un groupe pour permettre de réaliser ce qu’un individu seul n’aurait pu accomplir. La structure de gouvernance d’Ubuntu leur crée l’opportunité de montrer leur valeur : ils forment le pivot et la structure qui permettent à cette communauté de s’adapter, de rester productive et agréable.

Défendre les valeurs d’un projet comme Ubuntu nécessite une vigilance constante. Lorsqu’on débute et que l’on affiche une ligne directrice précise, on n’attire en général que ceux qui sont sur la même longueur d’ondes que nous. Lorsque le projet gagne en envergure et en visibilité, il attire TOUT LE MONDE, car les gens veulent être là où ça bouge. Ainsi, les valeurs auxquelles on tient peuvent vite finir noyées dans la masse. C’est pourquoi je m’implique autant dans le travail du Conseil Communautaire d’Ubuntu et des équipes communautaires de Canonical. Les deux font preuve d’une grande perspicacité et ne rechignent pas à la tâche, ce qui fait de cette partie de mon travail un vrai plaisir.

Le Conseil Communautaire d’Ubuntu prend très au sérieux sa responsabilité en tant que dépositaire des valeurs des projets communautaires. Le CC est en grande partie composé de personnes qui ne sont pas affiliées à Canonical, mais qui croient que le projet Ubuntu est important pour le logiciel libre dans son ensemble. Jono Bacon, Daniel Holbach, et Jorge Castro, par exemple, sont des professionnels qui savent comment rendre une communauté productive et en faire un lieu de travail agréable.

Quelque chose d’aussi gros que la communauté Ubuntu ne peut être porté à mon seul crédit, ni à aucun autre, mais je suis fier du rôle que j’ai joué, et motivé pour continuer tant que ce sera nécessaire. Depuis quelques années, je me consacre davantage à mettre en avant le rôle du design dans le logiciel libre. Je suis convaincu que l’Open Source produit la meilleure qualité de logiciels qui soit, mais nous devons nous pencher sur l’expérience que nous souhaitons créer pour nos utilisateurs, que ce soit sur le bureau, les netbooks ou les serveurs. Je me suis donc beaucoup employé à encourager diverses communautés – celle d’Ubuntu et d’autres qui travaillent en amont – à réserver un bon accueil à ceux qui portent sur le logiciel libre un regard d’utilisateur final et non celui d’un codeur chevronné. C’est un changement de fond dans les valeurs de l’Open Source, et je ne pourrai l’accomplir seul, mais je suis tout de même fier d’être un défenseur de cette approche, et heureux qu’elle soit de plus en plus partagée.

Des designers travaillaient dans le logiciel libre avant que nous ne donnions cette impulsion. J’espère que l’insistance de Canonical sur l’importance du design leur facilite la tâche, que la communauté au sens large est plus sensible à leurs efforts et plus réceptive à leurs idées. En tout cas, si vous accordez *vraiment* de l’importance au design des logiciels libres, l’équipe de designers de Canonical est faite pour vous !

Je travaille moi aussi sur le design, et j’ai surtout participé à la conception détaillée de Unity, l’interface d’Ubuntu Netbook Edition 10.10. C’est une évolution de l’ancienne interface UNR, qui a surtout pour fonction de montrer que le poste de travail Linux n’a pas à rester bloqué dans les années 90. Nous allons tenter d’élaborer de nouvelles façons efficaces d’utiliser les ordinateurs.

J’ai été ravi de constater la vitesse à laquelle des centaines de projets ont adopté les fonctionnalités de Unity. Leur but est de rendre Linux plus facile d’utilisation et plus élégant. Ce rythme d’adoption permet de mesurer combien nous réduisons la difficulté pour les nouveaux utilisateurs qui découvrent une meilleure façon d’utiliser leur PC.

Si nous nous contentions du design sans nous occuper de la mise en application, on pourrait nous accuser d’attendre que les autres fassent le travail à notre place, alors je suis également fier de diriger une équipe géniale qui se charge de l’implémentation de certains de ces composants clés. Des éléments comme dbusmenu ont prouvé leur utilité pour apporter de la consistance à l’interface des applications GNOME et KDE fonctionnant sous Unity, et j’espère vraiment qu’elles seront adoptées par d’autres projets qui ont besoin de ces mêmes fonctions.

J’aimerais féliciter l’équipe d’ingénieurs pour le soin qu’ils apportent à la qualité et la testabilité, et pour leur désir de fournir aux développeurs des API propres et des documentations complètes permettant leur utilisation optimale. Si vous utilisez le jeu complet d’indicateurs dans Ubuntu 10.10, vous savez à quel point ce travail discret et continu permet d’obtenir un tableau de bord harmonieux et efficace. Nous allons livrer la première release de Utouch, qui continuera d’évoluer afin que GNOME et KDE puissent intégrer facilement les interfaces de mouvements multi-touch.

En plus de donner de mon temps, je soutiens aussi divers projets en les finançant. Injecter de l’argent dans un logiciel libre nécessite de se poser une question cruciale : cette somme serait-elle mieux employée ailleurs ? Il existe beaucoup de façons d’aider les gens : avec 100 000 $, on peut scolariser, vêtir ou nourrir beaucoup de monde. Il me faut donc être sûr que cet argent apporte des bénéfices réels et quantifiables sur la vie des gens. Les messages de remerciement que je reçois chaque semaine pour Ubuntu me confortent dans cette idée. Plus important encore, je constate moi-même l’effet de catalyseur qu’a Ubuntu sur l’ensemble de l’écosystème Open Source – les nouveaux développeurs qui le rejoignent, les nouvelles plateformes qui apparaissent, les créations de nouvelles entreprises et l’arrivée de nouveaux participants – et j’en conclus que le financement que je fournis a un impact significatif.

Quand Ubuntu a été conçu, l’écosystème Linux était dans un sens complètement formé. Nous avions un noyau, GNOME et KDE, Xorg, la Lib C, GCC et tous les autres outils bien connus. Bien sûr, il y avait des failles, des bugs et des feuilles de route pour les combler. Mais il manquait quelque chose, parfois définit comme « marketing », parfois défini comme « orienté utilisateur final ». Je me souviens avoir pensé « c’est ce que je peux apporter ». Donc Ubuntu et Canonical n’ont clairement PAS investi d’efforts dans ce qui fonctionnait déjà, mais dans de nouvelles idées et de nouveaux outils. J’y vois une contribution stimulante à l’écosystème Open Source en général, et je sais que beaucoup partagent cet avis. Ceux qui reprochent à Canonical de ne pas faire ci ou ça ont peut-être raison, mais ces critiques ne tiennent pas compte de tout ce que nous apportons et qui ne figurait pas sur la feuille de route avant notre arrivé. Bien sûr, il y a peu de travaux que nous accomplissons à nous seuls, et peu d’avancées que d’autres ne pourraient réaliser s’ils s’en faisaient un objectif, mais je crois que la passion de la communauté Ubuntu et l’enthousiasme de ses utilisateurs reflètent la nouveauté et l’originalité de ce projet. Ce doit être une source de satisfaction, de fierté et de motivation pour continuer dans cette voie.

Aucun projet particulier ne compte plus que le logiciel libre dans son ensemble. Il est plus important que le noyau Linux, plus important que GNU, plus important que GNOME et KDE, plus qu’Ubuntu, Fedora et Debian. Chacun de ces projets joue un rôle, mais c’est le tout qu’ils forment qui est vraiment en train de changer le monde. À cause des querelles concernant la contribution de chacun au logiciel libre, nous risquons de passer à côté de l’essentiel. Un peu comme une maladie auto-immune, quand le corps commence à s’attaquer lui-même. Par définition, quelqu’un qui se donne du mal pour diffuser le logiciel libre auprès d’un public plus large est dans le même camp que moi, contrairement aux 99% du reste du monde, si je veux penser en termes de camps. J’admire et respecte tout ceux qui consacrent leur énergie à faire avancer la cause du logiciel libre, même si parfois nos avis divergent en ce qui concerne les détails et la manière de procéder.

Notes

[1] Crédit photo : Trancept (Creative Commons By-Nc-Sa)

[2] Suivi d’un minutieux travail de relecture par Framalang : Don Rico et Siltaar

[3] NdFramalang : Local Community Communautés Locales




Firefox 4, Google Chrome et l’évolution du Web par Chris Blizzard de Mozilla

Keven Law - CC by-saQue les fans de la première heure se rassurent : la version 4 du célèbre navigateur au panda roux – dont la sortie devrait intervenir d’ici la fin de l’année – promet de recoller au peloton !

Au temps pour ceux qui avaient vendu sa peau un peu trop rapidement : le panda[1] nouveau met l’accent sur les performances, à commencer par un nouveau moteur JavaScript qui, une fois optimisé, pourrait même lui permettre de prendre la tête de la course si l’on en croit Chris Blizzard (Director of Web Platform chez Mozilla[2]), dont nous vous proposons ici la traduction de l’interview qu’il a donnée récemment au site derStandard.at (une fois n’est pas coutume, cette traduction a été complétée de références à l’actualité récente avec l’aide de Paul Rouget, Technology Evangelist chez Mozilla).

S’il est difficile de ne pas céder à la mode du benchmarking, on peut toutefois s’interroger sur ce que l’on attend réellement d’un navigateur.

Revenons un instant en arrière : l’irruption de Firefox a permis de réveiller le Web en le libérant de l’hégémonie d’Internet Explorer qui, après avoir éradiqué à peu près toute concurrence sur le marché des navigateurs, n’a plus connu de développement pendant six ans (soit le temps qui sépare la version 6 de la version 7 du navigateur de Microsoft, qui avait même dissout l’équipe de développement dans cet intervalle). Firefox a réussi à propulser le Web vers de nouveaux horizons balisés de standards ouverts propices à l’innovation. Tant et si bien que de redoutables concurrents sont apparus comme Safari d’Apple et surtout Chrome de Google (voir à ce billet du Framablog) et que Microsoft est en train de mettre les bouchées doubles avec son IE 9 pour rattraper son retard.

Faut-il en conclure que Firefox, ayant accompli sa mission, est devenu inutile ?

Il faut en effet reconnaître que le Web ne s’est jamais aussi bien porté qu’aujourd’hui : les concepteurs de navigateurs se battent dorénavant tous pour implémenter les dernières versions des standards ouverts qui sont la base du Web (HTML5, CSS3) quand ils n’en sont tout simplement pas à l’origine. Et pour cela, nous pouvons tous remercier la fondation Mozilla à l’origine de Firefox.

Pourtant, le Web ne se limite pas à des applications riches et jolies devant s’exécuter le plus rapidement possible.

Les grands acteurs du Web, Mozilla mis à part, tirent leurs revenus de l’exploitation de vos données personnelles. La protection de la vie privée devient aujourd’hui un enjeu majeur pour l’utilisateur (qui doit encore en prendre conscience). Mozilla s’apprête à proposer des solutions novatrices dans ce domaine[3]. Qui d’autre que Mozilla, fondation à but non lucratif, a intérêt à rendre aux utilisateurs le contrôle de leurs données personnelles ? Personne. Et ce n’est pas parce que Apple ou Google (et peut-être un jour Facebook) sort un navigateur performant – fût-il libre (Chromium est la version libre de Google Chrome) – que l’utilisateur jouira des mêmes libertés que l’utilisateur de Firefox, navigateur libre développé par une fondation à but non lucratif.

Firefox 4 : Une génération d’avance en termes de vitesse

Firefox 4: One generation ahead of everyone else speedwise

Andreas Proschofsky – 19 août 2010 – derStandard.at
(Traduction Framalang : Don Rico, Siltaar, Goofy et Antistress)

Chris Blizzard de Mozilla nous parle de la concurrence de Google Chrome, de l’évolution du Web comme plateforme et des attentes que suscite le format WebM.

Ces dernières années Firefox a joué le rôle enviable de l’étoile montante dans le monde des navigateurs. Aujourd’hui, non seulement Google Chrome semble lui avoir volé la vedette mais il vient même lui tailler des croupières. Au cours du dernier GUADEC, Andreas Proschofsky a eu l’occasion de côtoyer Chris Blizzard, « Directeur de plateforme Web » chez Mozilla, et il a réalisé l’interview que vous allez lire, évoquant l’état actuel du marché des navigateurs, les progrès du Web comme plateforme et les améliorations qui arrivent avec Firefox 4+.

derStandard.at : Quand nous avons discuté l’année dernière, vous avez noté que, malgré la notoriété grandissante de Google Chrome, la plupart des développeurs présents dans les conférences techniques – comme le GUADEC – utilisent encore Firefox. Si je jette un coup d’œil autour de moi cette année, les choses semblent avoir considérablement changé : bon nombre de ces utilisateurs avant-gardistes semblent être passés à Chrome / Chromium. Est-ce que vous avez un problème sur ce créneau d’utilisateurs spécifique – mais influent ?

Chris Blizzard : En fait je pense que beaucoup de gens utilisent les deux maintenant, mais c’est vrai que c’est intéressant à voir. De mon point de vue de développeur Web je pense toujours que les outils de Firefox sont de loin supérieurs à ceux des autres.

Il est intéressant de noter que nous n’avons pas vu de changements significatifs dans les statistiques utilisateurs, même si Chrome marque des points importants sur ce segment. Il faut préciser que tous ces chiffres que l’on rapporte sont en réalité des statistiques d’usage et non du nombre d’utilisateurs, si bien que cette avant-garde – qui est grosse utilisatrice du Web – influence les statistiques plus que d’autres, ce qui peut faire croire que Chrome est utilisé par davantage de gens qu’en réalité. Nous avons connu le même effet dans les premiers temps de Firefox, à l’époque nous n’en avions pas conscience faute d’outils adéquats pour le mesurer.

Nous avons aussi effectué quelques recherches et découvert qu’un tas de gens semblent choisir leur navigateur suivant des fonctionnalités particulières. Par exemple beaucoup d’utilisateurs préfèrent retrouver leurs sites récemment visités dès l’ouverture de leur navigateur, donc ils utilisent Chrome. S’ils préfèrent démarrer avec une page vierge, ils utilisent plutôt Firefox. Je pense donc que ce que l’on commence à voir, c’est des gens différents qui veulent faire des choses différentes, et qui vont choisir leur navigateur selon leurs préférences. Et nous n’en sommes qu’au début.

Nous savons que nous ne pourrons pas satisfaire les désirs de tous et ce n’est d’ailleurs pas le but de notre organisation. Nous voulons faire en sorte que le Web devienne une plateforme et nous avons plutôt bien réussi sur ce point.

Google se lance maintenant dans un cycle de développement visant à offrir une nouvelle mise à jour stable toutes les six semaines, pour essayer de proposer des innovations plus rapidement aux utilisateurs. Mozilla, de son côté, publie au mieux une nouvelle version par an : cela n’est-il pas handicapant d’un point de vue marketing ?

Cela dépend du rythme que vous voulez adopter. Les gens de Chrome ont une approche un petit peu différente de la nôtre. Il va être intéressant de voir si d’autres utilisateurs que les avant-gardistes seront d’accord pour voir leur navigateur changer tous les mois et demi. Nous préférons prendre davantage de temps pour préparer les gens à des changements d’interface plus importants.

Pour autant nous ne modifions pas toujours le numéro de version pour les gros changements. Citons par exemple l’isolation des plugins que nous avons récemment ajoutée à la série 3.6.x, qui résulte d’un énorme travail et qui a grandement amélioré l’expérience des utilisateurs de Firefox.

À vrai dire, je suis quelque peu sceptique à l’idée d’un cycle de six semaines. Comment peut-on vraiment innover en un laps de temps si court ? Accélérer la cadence est néanmoins dans nos projets, il faut juste que nous trouvions celle qui nous convient.

Un des avantages d’un cycle de publication rapide, c’est que Google peut diffuser très vite des fonctionnalités comme le futur web-store de Chrome. Aimeriez-vous aussi proposer une plateforme de téléchargement d’applications Web chez Mozilla ?

En ce qui me concerne, je pense qu’un app-store pour le Web est une idée intéressante, car en gros cela rend les applications Web plus accessibles et fournit un modèle de monétisation. Mais pour bien faire, il faut tenir compte de nombreux autres paramètres, et c’est là-dessus que nous allons d’abord nous concentrer.

Quels éléments manque-t-il encore pour concevoir un bon web-store ?

Les performances Javascript sont très importantes, mais nous touchons au but, car nous sommes en passe d’obtenir les mêmes performances que les applications exécutées nativement. Vient ensuite le webGL pour les applications en 3D, et nous devons aussi régler la question du stockage de données hors-connexion qui est loin d’être abouti pour le moment. Il faut aussi accorder une grande importance à la sécurité, question sur laquelle nous sommes justement en train de travailler. Par exemple, grâce à la fonctionnalité ForceHTTPS, un site Web pourra dire à un navigateur de ne communiquer avec lui que par données chiffrées, ce qui préviendra certains types d’attaques. Nous nous penchons aussi sur la politique de sécurité des contenus, ce qui sera très utile pour lutter contre une catégorie entière d’attaques type cross-site scripting (NdT : citons par exemple la fonctionnalité X-FRAME récemment introduite contre le clickjacking).

Dans les tests de performances Javascript récents, Firefox semble avoir dégringolé dans le bas du classement, et se place même derrière Internet Explorer 9. N’arrivez-vous plus à suivre ?

Firefox 4 apportera de nombreuses améliorations dans ce domaine-là aussi, mais elles ne sont pas encore intégrées à nos versions de développement. Nous avons constaté que, lorsque notre Tracing-Engine (NdT : moteur basé sur la technologie du tracé) est utilisé, nous sommes plus rapides que tous les autres. Nous ne sommes à la traîne que dans les cas où cette technologie ne peut être exploitée. Nous travaillons donc à améliorer les performances de base de notre moteur JavaScript, qui, combinées à l’optimisation JIT Tracing , nous donneront une génération d’avance sur tout le monde (NdT : Jägermonkey, le résultat de ce travail, vient d’être intégré à la version de développement de Firefox 4).

La vérité c’est que la marge d’amélioration est encore énorme. La génération actuelle des moteurs Javascript a atteint un palier : en pourcentage, les différences que nous constatons entre les différents navigateurs sont infimes. En outre, les tests de performance ne sont plus d’une grande utilité, car, pour la plupart, ces chiffres ne sont plus influencés par les performances Javascript réelles. Voici un exemple des conséquences négatives des tests de performance : nous avons dû fournir des efforts particuliers sur l’optimisation du calcul de décalage horaire car cela influe négativement certains tests de performance, mais ça n’améliore pas réellement les performances Javascript. Sunspider est affecté par ces problèmes et V8 contient aussi du code bancal, il est donc difficile de trouver de bons tests de performance (NdT : Mozilla vient de lancer Kraken, un test censé mesurer les performances JavaScript en situation réelle).

Firefox 4 va utiliser l’accélération matérielle grâce à Direct2D et à DirectWrite sous Windows. Des fonctionnalités similaires sont-elles prévues pour Linux et Mac OS X ?

Dans la limite des outils qui sont disponibles, oui. Nous essayons de procurer aux utilisateurs la meilleure expérience possible sur chaque plateforme. Pour Windows Vista et 7 nous constatons d’immenses améliorations lorsque le navigateur doit réaliser des tâches graphiques intensives. Sur OS X, par exemple, nous prenons en charge l’OpenGL pour la composition d’images, et nous faisons de même sous Linux. Mais en général les API dont nous disposons sous Windows sont meilleures et plus riches que sur les autres plateformes. Sous Linux, Cairo et Pixman étaient censées être rapides, mais hélas l’infrastructure sur lesquelles elles reposent n’a jamais vraiment atteint la vélocité désirée. Sur OS X, Firefox est assez rapide, mais pour l’instant Direct2D confère l’avantage à la version Windows (NdT : plus d’informations sur cet article de Paul Rouget).

L’isolation des plugins devait n’être que la première étape d’un Firefox multi-processus, avec un processus séparé pour chaque onglet. C’est un des gros morceaux du cahier des charges de Firefox 4. C’est toujours prévu ?

Bien sûr, mais pas pour Firefox 4. Ce sera sans doute disponible pour la version mobile avant la version desktop. C’est intéressant de constater que c’est plus facile sur cette plateforme.

Il y a peu, vous avez endossé le rôle de « Directeur de plateforme Web » chez Mozilla. En quoi cela affecte-il vos responsabilités quotidiennes ?

Auparavant, je me chargeais essentiellement de diriger les groupes d’évangélisation et de communication, mais j’ai fini par travailler de plus en plus sur les questions de plateforme Web – réfléchir à l’avenir du Web, discuter régulièrement avec les autres concepteurs de navigateurs. Tout cela a pris une telle importance que j’ai décidé de m’y consacrer à plein temps.

Par exemple, je viens de participer à une réunion de l’IETF, où nous avons eu des discussions très riches sur le http, les websockets, et aussi sur les codecs. Ils sont en train de mettre au point un codec audio de nouvelle génération pour les communications en temps réel et s’appuient sur l’IETF pour les spécifications. En gros, c’est une combinaison de techniques existantes, et l’accent est mis sur une latence très basse, un domaine où le Vorbis ou le MP3 sont mauvais. Ce travail s’effectue en collaboration avec Skype.

Une des grosses annonces de ces derniers mois concernait la création du WebM comme nouveau format vidéo ouvert basé sur le VP8 et Vorbis. Pensez-vous que ses chances de réussites soient meilleures que celles de Theora ?

Oui, pour des raisons de qualité. Quelques explications : il est bon de savoir que lorsqu’on utilise le H.264, on doit en gros choisir un des trois profils que propose ce codec. En général, les sites vidéos doivent offrir la version basique car c’est la seule prise en compte par l’iPhone, notamment dans ses anciennes versions qui sont utilisées par des dizaines de millions de personnes. Donc, si l’on compare les formats vidéo, il faut comparer le VP8 au H.264 « basique », et ce n’est pas qu’une manœuvre réthorique, c’est la réalité pour tous les services. J’ai discuté avec les gens de YouTube, par exemple : ils ont essayé d’utiliser un autre profil du H.264, mais ils ont dû revenir au « basique » à cause du manque de prise en charge. Sur cette base, la question de la qualité n’a plus lieu d’être, et le VP8 est tout à fait compétitif.

Si l’on parle de l’implémentation de la balise vidéo HTML5, il faut aussi prendre en compte l’évolution du marché. Si l’on envisage un monde où la vidéo HTML5 est répandue dans la majorité des navigateurs – par-là je pense à une proportion de 80%, ce qui devrait être le cas d’ici deux ans –, il faut compter avec les tendances et les changements dans les parts de marché des systèmes d’exploitation. On se rend alors compte qu’on se retrouve avec un marché segmenté. Ceux qui voudront diffuser de la vidéo devront prendre en charge à la fois H.264 et WebM. Sur le long terme, je suis certain que les codecs libres sont en meilleure posture, surtout si l’on prend en considération les tendances à venir comme les communications en temps réel ou les plateformes mobiles, où WebM est très performant – ou va l’être grâce à des partenariats avec des constructeurs de matériel.


Firefox 4 va permettre de construire des extensions « poids plume » sous forme de Jetpacks. Quand vont-ils remplacer la génération actuelle d’extensions ?

Les Jetpacks ne sont pas conçus pour remplacer les extensions XUL. Firefox est une plateforme que l’on peut étoffer à l’envi grâce à une large palette d’interfaces. On peut aussi modifier beaucoup de choses dans les paramètres mêmes de Firefox, ce qu’aucun autre navigateur ne permet. Comme projet, c’est extraordinaire : une grand part de nos innovations sont arrivées par les extensions avant d’intégrer directement le navigateur.

Pour nous, les Jetpacks sont grosso modo un équivalent des extensions pour Chrome, qui offrent beaucoup moins de possibilités que nos extensions XUL classiques. Ils seront néanmoins beaucoup plus faciles à réaliser. Nous allons fournir un éditeur en ligne qui facilitera leur développement. Ces Jetpacks seront aussi plus faciles à tester, et l’on pourra les installer sans avoir à redémarrer le navigateur. Ce qui est d’ailleurs déjà possible avec certaines extensions XUL dans Firefox 4, à condition que cela soit signalé et que l’extensions soit codée avec soin.

Notes

[1] Crédit photo : Keven Law (Creative Commons By-Sa)

[2] Chris Blizzard a déjà fait l’objet d’une traduction sur le Framablog : De l’honnêteté intellectuelle et du HTML5.

[3] Lire à ce propos Comment Firefox peut améliorer le respect de la vie privée en ligne, privacy-related changes coming to CSS :visited et Account Manager coming to Firefox.




Microsoft, ennemi des droits de l’homme en Russie ?

Délirante Bestiole - CC byQuand la Russie utilise Microsoft pour réprimer la dissidence, tel est le titre d’un stupéfiant article du New York Times, qui a fort justement fait réagir notre ami Glyn Moddy dans un billet traduit ci-dessous.

Il fallait y penser. Pour museler les écologistes qui souhaitent préserver le lac Baïkal[1], vérifions si leurs ordinateurs ne tournent pas avec des versions de Windows piratées ! Et avec l’aide des avocats de Microsoft qui plus est ! Une histoire incroyable mais malheureusement vraie.

Cependant, comme il est dit en conclusion, il est tout aussi incroyable de constater que ces organisations non gouvernementales n’aient pas encore rencontrés le logiciel libre. Ceci obligerait alors les autorités russes à trouver un autre prétexte pour les embarquer.

Microsoft, ennemi des droits de l’homme en Russie ?

Microsoft, Enemy of Human Rights in Russia?

Glyn Moody – 12 septembre 2010 – Open…
(Traduction Framalang : Goofy, Yoann, Barbidule, Pablo et Garburst)

Voici une jolie fable morale.

Le lac Baïkal est une merveille. Hôte de nombreuses espèces uniques, c’est le lac le plus ancien et le plus profond du monde. Mais Vladimir Poutine s’en moque complètement : il est préoccupé par le taux de chômage croissant dans la région, c’est pourquoi il a autorisé la réouverture d’une papeterie qui pendant des années a déversé du mercure, du chlore et des métaux lourds dans cet écosystème exceptionnel.

Jusque-là, c’est déjà assez déprimant.

Mais voici le moment de l’histoire où cela devient intéressant :

C’est par une fin d’après-midi de janvier qu’une escouade d’officiers de police en civil est arrivée au quartier général d’un groupe écologiste de premier plan. Ils sont passés devant l’équipe en leur adressant à peine la parole et se sont aussitôt emparés des ordinateurs pour les emmener. Ils ont ainsi pris des fichiers qui relataient les efforts d’une génération entière pour protéger la nature sauvage sibérienne.

Le groupe « Baikal Environment Wave » organisait des manifestations contre la décision du premier ministre Vladimir Poutine de ré-ouvrir une papeterie qui polluait le lac Baïkal tout proche, une merveille de la nature qui, selon certaines estimations, concentre 20 pour cent des réserves d’eau douce du monde.

Mais le groupe a été victime de l’une des plus récentes tactiques des autorités pour mater les contestataires : la confiscation des ordinateurs sous prétexte d’y chercher des logiciels Microsoft piratés.

À travers toute la Russie, les services de sécurité ont mené ces dernières années des douzaines d’actions coup de poing de ce genre contre des journaux ou des organisations d’opposition. Les officiels des services de sécurité prétendent que ces enquêtes sont justifiées par la lutte contre le piratage logiciel, endémique en Russie. Cependant ils s’attaquent rarement sinon jamais à des organisations ou des journaux qui soutiennent le gouvernement.

À mesure que ce stratagème s’est développé, les autorités ont reçu l’appui décisif d’un partenaire inattendu : l’entreprise Microsoft elle-même. Dans des cas de poursuites comportant un aspect politique, partout en Russie, les avocats engagés par Microsoft ont vigoureusement aidé la police.

Apparemment, la détermination de Microsoft pour aider à réprimer la contestation n’est pas limitée à ce cas de figure :

Compte-tenu des soupçons portant sur le motif politique de leurs investigations, la police et les juges se sont tournés vers Microsoft pour donner du poids à leurs accusations. En Russie du sud-ouest, le ministre de l’Intérieur a déclaré dans un document officiel que l’enquête sur un défenseur des droits de l’Homme, portant sur la piraterie informatique, avait été lancée « sur le fondement d’une requête » d’un avocat de Microsoft.

Dans une autre ville, Samara, la police a saisi les ordinateurs de deux journaux d’opposition, avec le soutien d’un autre avocat de Microsoft. « Sans la participation de Microsoft, ces poursuite criminelles contre des défenseurs des droits de l’Homme n’auraient tout simplement pas eu lieu », a déclaré le directeur de publication de ces deux journaux, Sergey Kurt-Adzhiyev.

Mais le pire dans cette histoire, c’est qu’il ne sert à rien d’avoir des versions légales des logiciels Microsoft :

Les dirigeants de l’association Baïkal Wave ont précisé qu’ils avaient été avertis que les autorités utiliseraient de telles actions pour faire pression sur les groupes de défense de l’environnement, ils s’étaient donc assurés que tous leurs logiciels étaient légaux.

Mais ils ont vite compris à quel point il leur serait difficile de se défendre.

Ils ont déclaré avoir expliqué aux officiers de police qu’ils se trompaient, en leur montrant les factures et l’emballage d’origine de Microsoft pour prouver qu’il ne s’agissait pas de logiciels piratés. La police n’a pas paru en tenir compte. Un officier supérieur a rédigé sur-le-champ un procès-verbal prétendant que des logiciels illégaux avaient été découverts.

Les défenseurs de l’environnement disent qu’avant l’opération coup de poing, les autocollants de Microsoft « Certificat d’authenticité » étaient collés sur les ordinateurs pour attester de la légalité des logiciels. Mais alors que les ordinateurs étaient emmenés, ils remarquèrent une chose étrange : les autocollants avaient disparu.

Naturellement, il existe une solution simple : utiliser des logiciels libres. Ainsi, pas besoin d’autocollants, et impossible pour les autorités de vous reprocher leur utilisation. D’ailleurs, compte-tenu du meilleur niveau de sécurité que procure le logiciel libre, j’ai du mal à comprendre pourquoi les associations qui défendent les droits de l’Homme ne les installent pas de manière systématique. Espérons que ces pénibles expériences les mettront sur la bonne voie et qu’ils passeront bientôt au libre – pour eux, et pour l’avenir du lac Baïkal.

Notes

[1] Crédit photo : Délirante Bestiole (Creative Commons By)