De Linux et de l’opportunité d’une synchronisation des distributions

Voici une traduction[1] un peu technique mais qui illustre bien la problématique de la démocratisation de GNU/Linux.

Elle fait suite à la proposition récente de Mark Shuttleworth (Monsieur Ubuntu) de synchroniser les cycles et donc les sorties des principales distributions Linux (outre Ubuntu il cite celles de Red Hat, Novell et Debian ainsi que le noyau, GNOME/KDE, X et OpenOffice.org). Histoire que tout ce petit monde avance groupés, ce qui d’après lui simplifierait la vie de tout le monde à commencer par celle des utilisateurs.

Mais Ryan Paul du site Ars Technica n’est visiblement pas tout à fait de cet avis. Au ce serait bien si… de Mark Shuttleworth il répond avec des arguments précis qui évoquent souvent le quotidien collaboratif d’un développeur de logiciels libres (en particulier tout ce qui touche à la gestion de versions). Et lorsque l’on est, comme moi, utilisateur mais non développeur de logiciels libres, c’est culturellement fort enrichissant.

On notera qu’à la suite de sa proposition et du vif débat suscité, Shuttleworth a précisé voire nuancé son propos quelques jours plus tard sur son blog.

Copie d'écran - Ars Technica

Pourquoi Linux n’est pas encore prêt pour des cycles de parution synchronisés

Why Linux isn’t yet ready for synchronized release cycles

Ryan Paul – 21 mai 2008 – ars technica

Le fondateur d’Ubuntu, Mark Shuttleworth a répété son appel aux développeurs des principaux logiciels libres et des distributions Linux pour une synchronisation des développements et des cycles de publication. Il avance que l’adhésion fidèle et universelle à un modèle de parution régulier encouragerait la collaboration entre les projets, assurerait aux utilisateurs l’accès aux dernières nouveautés des applications populaires et ferait de la plateforme Linux une cible plus stable et prévisible pour les vendeurs de logiciels.

Shuttleworth souhaite organiser les principales sorties en trois vagues distinctes, chacune formant un ensemble cohérent. La première vague concernerait les composants fondamentaux comme le noyau Linux, le compilateur GCC, les boîtes à outils graphiques comme GTK+ et les plateformes de développement comme Python et Java. La deuxième vague apporterait les environnements graphiques et les applications tandis que la troisième vague serait composée des distributions.

Bien qu’un cycle de sortie unifié rendrait plus aisée la création d’une distribution Linux, ce concept apporte d’importantes difficultés et n’est que peu gratifiant pour les développeurs de logiciels. Pour parvenir à une synchronisation à grande échelle comme Shuttleworth le souhaite, certains logiciels libres devraient radicalement changer leur modèle de développement actuel et adopter une nouvelle approche qui ne sera pas viable pour nombreux d’entre eux.

Comprendre les cycles de sorties réguliers

Un cycle de sorties régulier nécessite de sortir de nouvelles versions à une fréquence donnée. Le processus de développement pour les projets qui emploient ce modèle implique en général une planification des fonctionnalités prévues et ensuite une implémentation maximale jusqu’à ce que le projet gèle le code lorsque l’échéance approche. À partir de ce moment là, les fonctionnalités qui ne sont pas terminées sont reportées. On se concentre alors sur la correction des bogues et sur l’assurance qualité jusqu’à la date butoir, quand le logiciel est officiellement sorti.

Ce modèle fonctionne bien pour de nombreux projets, en particulier pour l’environnement GNOME. Mais, une conséquence de ce modèle est que les développeurs doivent travailler par incrémentation et il décourage les modifications de grande ampleur, celles qui nécessiteraient plus de temps que n’en offre le cycle. Parfois cet intervalle n’est simplement pas suffisant pour ajouter au code principal et tester des changements d’architecture importants qui sont incubés en parallèle en dehors de l’arbre principal du code.

Quand cela se produit, les développeurs doivent se demander si les avantages de la nouvelle fonctionnalité compensent les effets néfastes de la régression (comme avec l’adoption de GVFS dans GNOME 2.22 par exemple). Ils doivent parfois décider de retirer des fonctionnalités à la dernière minute ou de repousser la date de sortie pour améliorer la stabilité. Ce sont des choix difficiles à prendre et, comme le reconnaît Shuttleworth lui-même, faire ces choix demande beaucoup de discipline.

Même si des cycles réguliers peuvent convenir à certains projets, tenter d’imposer l’adoption de cette approche à tous les projets et ensuite les faire correspondre universellement pourrait gravement endommager le processus de développement. Si les projets deviennent dépendants de la synchronisation, alors un retard à n’importe quelle étape aurait des conséquences sur toutes les autres étapes. Chaque projet subirait alors une pression énorme pour tenir les délais et ce serait néfaste pour le programme et ses utilisateurs finaux.

L’utilisation des branches pour faciliter des sorties régulières

D’après Shuttleworth, de bons outils, en particulier des systèmes de contrôle de version possédant de bonnes capacités de création de branches et de fusion, peuvent rendre ce problème obsolète. Il se réfère spécifiquement à Bazaar, un système de contrôle de version mis au point par Canonical qui s’intègre à la plateforme de développement Launchpad de l’entreprise. J’ai beaucoup testé Bazaar durant ces deux dernières semaines en cherchant des technologies de contrôle de version distribuées et je ne peux qu’être d’accord avec l’argument de Shuttleworth.

Bazaar rend très facile le portage du flot continu de petits changements, du tronc vers les branches, où les fonctionnalités importantes sont développées, afin que ces fonctionnalités puissent être fusionnées sans accroc dans la branche principale quand elles sont achevées. En utilisant cette approche, où la majeure partie du développement est faite dans des branches, le code du tronc est naturellement et systématiquement plus robuste qu’il ne le serait autrement. Shuttleworth va même plus loin encore et théorise que lorsque cette approche est employée en parallèle à des tests automatisés le code du tronc est toujours prêt à être sorti à n’importe quel moment.

« Un ensemble de tests complet vous permet d’être plus ouvert aux gros ajouts au tronc parce que les tests assurent les fonctionnalités que les gens ont avant l’ajout. Un ensemble de tests agit comme un champ de force, il protège l’intégrité du code dont le comportement était connu le jour précédent face au changement perpétuel. » écrivait ainsi Shuttleworth sur son blog.

« La plupart des projets que je finance maintenant ont adopté une politique de tests avant ajout. Les ajouts au tronc sont gérés par un robot qui refuse de valider l’ajout s’il ne satisfait pas à tous les tests. Vous ne pouvez pas discuter avec un robot ! Ce que je trouve beau là-dedans c’est que le tronc est toujours dans un état publiable. Ce n’est pas complètement vrai ; on peut toujours faire un peu plus d’assurance qualité avant de sortir quelque chose, mais vous avez cette garantie que l’ensemble de tests est toujours satisfait. Toujours. »

Les ensembles de tests et les très bons systèmes de contrôle de version peuvent simplifier le développement et améliorer la qualité du code, mais ils ne sont pas la panacée. Shuttleworth surestime largement la capacité de ces outils à pallier aux problèmes associés aux sorties régulières. Des bogues surgiront toujours quand de grosses nouveautés sont fusionnées au code existant et parfois ces bogues nécessitent un report de la date de sortie. Si les développeurs ne peuvent ou ne veulent pas faire cela, la qualité du logiciel s’en retrouvera forcément affectée.

Ubuntu 8.04 est le parfait exemple de la voie à ne pas suivre

Pas besoin de chercher très loin pour constater la baisse de qualité résultante d’un engagement sans compromis à un cycle de sorties régulières. Prenez l’exemple de la dernière version d’Ubuntu. Shuttleworth vante Ubuntu 8.04 comme l’exemple d’une gestion plus intelligente des sorties et soutient que cela démontre la capacité des développeurs à s’en tenir à un programme strict.

« 8.04 LTS représente pour nous un grand pas en avant dans notre conception de la gestion d’une sortie. Pour autant que je sache, jamais une sortie de cette envergure ne s’est faite exactement le jour prévu jusqu’à maintenant, dans le monde des OS propriétaires ou des OS libres. » commente Shuttleworth sur son blog. « Nous avons non seulement démontré que l’on peut préparer une version LTS dans les 6 mois impartis, mais cela prouve également que l’on peut s’engager par anticipation sur un tel cycle LTS. Félicitations aux preneurs de décisions techniques, aux responsables versions et à toute la communauté qui a calqué nos efforts sur le but fixé. »

Ubuntu 8.04, qui est parue le mois dernier, est une version avec support à long terme (LTS pour Long Terme Support), ce qui signifie qu’elle sera maintenue trois ans pour la version Desktop et 5 ans pour la version serveur. Depuis le début, Shuttleworth affirmait aux utilisateurs que la qualité et la fiabilité seraient les mots d’ordre pour la 8.04 et qu’elle serait faite pour durer. Malheureusement, la version n’a pas atteint ces objectifs et est sortie avec quelques bogues importants. Le problème le plus frustrant que nous avons relevé dans notre test d’Ubuntu 8.04 est la configuration défectueuse de PulseAudio, qui affecte à la fois les fonctionnalités audio et vidéo.

Un léger retard aurait permis de résoudre les problèmes de ce genre avant la sortie, mais ce n’est jamais arrivé, peut-être parce que l’engagement de faire la sortie à temps l’a emporté sur l’engagement de la qualité. Mais certains diront qu’une version défaillante n’est pas un problème parce que les bogues peuvent être réparés par des petites mises à jour après sa sortie.

« Les grands déploiements attendent la première ou la deuxième version consolidée de toute façon » fait noter Shuttleworth en réponse à un commentaire sur ton blog (NdT : La sortie de Ubuntu 8.04.1 est prevue pour le 3 juillet). Je me doute que je ne suis pas seul à avoir pensé aux Service Packs de Microsoft en voyant cette remarque. Mais une version officielle n’est-elle pas censée être un gage de qualité ? Si les sorties sont basées sur des jalons arbitraires posés sur une chronologie plutôt que sur une réelle amélioration, alors elles perdent leur sens ou leur pertinence pour les utilisateurs finaux.

D’autres approches

Les cycles de sortie devraient être flexibles et les développeurs devraient pouvoir en ajuster la durée pour qu’ils collent à leur activité. Selon les projets, la culture de développement et les buts peuvent être très différents, les stratégies de publication sont par conséquent différentes. L’appel de Shuttleworth en faveur d’une synchronisation reflète une forme d’incapacité à reconnaître la valeur et la profondeur de la diversité dans la communauté du logiciel libre. Des distributions qui visent des publics différents et qui ont des priorités différentes pourraient ne pas rentrer dans le même moule que les distributions généralistes comme Ubuntu. On retrouve également des logiciels libres multi-plateformes, comme le navigateur Web Firefox par exemple, qui réunissent beaucoup d’utilisateurs sur d’autres systèmes d’exploitation et qui peuvent avoir d’autres priorités que la fréquence de sortie des distributions Linux.

Je tiens à dire quand même que je ne rejette pas catégoriquement les idées de Shuttleworth. Même si je suis vraiment contre une approche descendante et centralisée de la planification des sorties synchronisées je pense qu’il y pourrait y avoir des bénéfices à tirer d’un meilleur alignement du calendrier de quelques distributions principales qui partagent déjà des buts, une technologie et une méthodologie similaires.

La simultanéité des sorties est déjà à l’ordre du jour (Fedora 9, Ubuntu 8.04 et OpenSolaris 2008.05 ont toutes vu le jour à quelques semaines d’intervalle) et je suis convaincu que de meilleurs résultats sont atteignables si on laisse cette tendance se développer d’elle-même. Encourager trop d’interdépendance créerait des risques sévères, on parle d’un domaine où une planification consciencieuse et un calendrier gravé dans la roche seraient à l’origine de plus de problèmes qu’ils n’en résolvent.

Aaron Seigo, développeur KDE, est l’un des détracteurs ayant exprimé des inquiétudes convaincantes et perspicaces au sujet de la proposition de Shuttleworth. Seigo met à plusieurs reprises en avant que le genre de synchronisation que souhaite Shuttleworth améliore l’efficacité d’intégration au dépend de l’efficacité des développeurs, une concession qu’il décrit comme contre-productive car c’est dans le développement que se trouve le richesse des logiciels.

« Mark parle de processus en flux tendu, mais seulement du point de vue de l’intégration ; il existe aussi des processus en flux tendu dans le développement et définir le cycle de développement à l’aune du cycle de sorties, surtout s’il n’est pas bon, érode la fluidité du flux de développement », écrit Seigo sur son blog. « Il ne faut pas oublier que c’est le processus de développement qui fait toute la valeur d’une distribution Linux. La distribution rend cette valeur accessible à grande échelle et crée un autre type de valeur ajoutée par-dessus (le support, le marketing, etc.) mais c’est le développement, pas l’intégration, qui est la source primaire de valeur. Il devrait alors être évident que le processus de développement n’est pas quelque chose qu’on peut prendre comme ça à la légère. »

Seigo propose une alternative qui faciliterait la synchronisation en aval sans nécessiter de synchronisation ou de chamboulement en amont. D’après lui, les distributions devraient gérer par elle-mêmes les sorties en créant leurs propres branches et en tenant compte des contraintes de leurs propres cycles.

« Puisqu’il y a cette volonté en aval pour des cycles de parution synchronisés… pourquoi est-ce que l’aval ne prendrait pas en charge les sorties ? Pourquoi attendre que les tarballs soient livrées devant leur porte pour mettre en place une équipe de publication ? » s’interroge Seigo. « Pourquoi ne pas demander à la communauté d’intégration (les vendeurs de systèmes d’exploitation en gros) de coordonner leur efforts pour créer une branche en vue d’une sortie à un moment donné, moment qu’ils définissent eux-mêmes, et travailler avec l’amont pour la stabilisation de cette branche ? Plutôt que d’espérer que l’amont fasse ce qu’ils désirent, pourquoi ne peuvent-ils pas regrouper un tas de gars des communautés de chez Novell, Red Hat, Debian, Mandriva, MacOS et Microsoft, de chez Canonical ou encore de chez n’importe qui qui voudrait s’impliquer et offrir un vrai processus sérieux de sortie par lequel l’amont pourrait s’intégrer naturellement ? »

Les suggestions de Seigo sont plus viables que les propositions de Shuttleworth. Elles permettraient aux distributions Linux de bénéficier des avantages pratiques de la synchronisation dont bénéficieraient également les utilisateurs finaux sans avoir à bouleverser ou synchroniser le développement en amont. Cela engendrerait cependant un coût additionnel et un défi nouveau pour les distributeurs et leur ferait porter le poids de la gestion des sorties. Seigo assure que si les distributeurs veulent vraiment des sorties synchronisées en aval autant que ça ils seront prêts à accepter cette charge supplémentaire et trouveront un bon moyen pour y parvenir.

Il est bien probable que cette discussion dure pendant encore quelques temps à mesure que les acteurs principaux pèsent le pour et le contre. La communication a déjà fait avancer le débat de bien des manières et a déjà fait émerger des alternatives attirantes et des variations de la proposition initiale. Le résultat final pourrait avoir des implications importantes sur la gestion des sorties par les logiciels libres et les distributions, mais pour l’instant aucune des idées proposées n’est suffisamment mature pour être appliquée à grande échelle.

Notes

[1] Traduction : Olivier – Relecture : Daria – Café : Framalang.




Firefox : Et 1, et 2, et 3.0 !

Le titre de ce billet est inversement proportionnel aux qualités de la très attendue nouvelle version de Firefox (d’autant que ce n’est pas forcément le moment d’abuser des références footballistiques). J’aurais peut-être mieux fait de choisir un plus classique Firefox 3, très bientôt sur vos écrans !

Toujours est-il que demain (soir) c’est donc la sortie officielle et planétaire de Firefox 3.0. Un évènement majeur qui méritait bien un passage en revue détaillé des principales nouveautés.

Et comme on n’avait pas envie de réinventer la roue, il s’agit d’une nouvelle traduction Framalang (Yonnel, relecture assurée par Olivier et Yostral).

Firefox 3

Petit guide de Firefox 3

Field Guide to Firefox 3

Deb Richardson – 12 juin 2008 – Dria.org

Nous y voilà. Firefox 3 sera lancé dans très peu de temps. Avant cet événement tant attendu, les membres de la communauté Mozilla ont beaucoup écrit à propos des nouvelles fonctionnalités et des améliorations que vous allez voir avec ce navigateur. Les nouvelles fonctionnalités sont pour certaines énormes et innovantes et pour d’autres si subtiles que vous ne les remarquerez peut-être pas avant de vous dire que l’utilisation de Firefox est d’une certaine manière plus simple et plus performante. La gamme des fonctionnalités améliorées est tout aussi large, des pans entiers de traitement des données ont été repris à zéro, alors que des fonctionnalités ont été légèrement modifiées ou redéfinies dans de petites proportions. Globalement le résultat est la version de Firefox la plus rapide, la plus sûre, la plus légère et la plus facile à utiliser qui soit. Nous espérons qu’il vous plaira.

Voici la liste des fonctionnalités traitées dans ce guide :

Gestionnaire de modules complémentaires

Firefox 3

Le gestionnaire de modules complémentaires dans Firefox 3 a été étendu pour inclure un nouvel onglet "Catalogue" où vous pouvez voir les modules complémentaires recommandés, en chercher de nouveaux, voir les descriptions et les notes, mais aussi installer des modules complémentaires d’un simple clic. Le gestionnaire de modules complémentaires est maintenant complètement intégré au site addons.mozilla.org (AMO), ce qui rend plus facile que jamais la recherche et l’expérimentation de nouvelles extensions et de nouveaux thèmes pour votre navigateur.

Pour en savoir plus Get Add-ons in Firefox 3 de Madhava Enros.

Marque-pages

Firefox 3

Firefox 3 introduit de nouvelles fonctionnalités pour les marque-pages qui les rend beaucoup plus faciles à utiliser, plus utiles en général et beaucoup plus utiles pour les cancres de l’organisation. Les trois principales fonctionnalités sont les étoiles de marque-pages, les tags de marque-pages et les dossiers de marque-pages intelligents.

Les étoiles sont une façon facile et rapide de marquer une page en un simple clic. Les tags sont une façon d’ajouter "plus" d’informations à un marque-page, ce qui vous permet de les organiser de manière beaucoup plus flexible qu’avec les dossiers à l’ancienne. Les dossiers intelligents sont les "recherches sauvegardées" qui sont automatiquement mis à jour quand vous ajoutez de nouveaux items qui correspondent à cette recherche dans vos marque-pages.

Pour en savoir plus Firefox 3: Bookmarks de Deb Richardson.

Feuilles de style (CSS)

Firefox 3

Un grand nombre d’améliorations pour les CSS ont été apportées à Firefox 3 dont le support de : inline-block et inline-table, font-size-adjust sur toutes les plate-formes, la pseudo-classe :default, les soft-hyphen HTML (­) (barre de césure semi-automatique), la propriété ime-mode, la valeur pre-wrap de l’attibut white-space, ainsi que la mise à jour dynamique des sélecteurs tels :first-child, :only-child, :last-child et :empty. Le Mozilla Developer Center a une liste complète et une documentation pour tous les changements de CSS de Firefox 3, que vous trouverez ici : CSS improvements in Firefox 3.

Pour en savoir plus Some new CSS features in Firefox 3 de David Baron.

Support des profils de couleurs

Firefox 3

Firefox 2 n’inclut pas le support des profils de couleurs, donc le navigateur interprète les couleurs du mieux qu’il peut, sans adaptations spéciales selon le système ou les profils de couleurs personnalisés. Firefox 3 supporte parfaitement les profils de couleurs, ce qui donne une gamme de couleurs plus riche et plus vivante affichée par le navigateur. Toutefois, pour nombre de raisons, le support des profils de couleurs est désactivé par défaut, il doit être activé dans les préférences du navigateur. Il est probable que dans une future version de Firefox, cette fonctionnalité sera activée par défaut, ce qui devrait faire plaisir à tous les photographes et graphistes.

Pour en savoir plus Firefox 3: Color profile support de Deb Richardson.

Gestionnaire de téléchargements

Firefox 3

Le gestionnaire de téléchargements a pas mal changé pour Firefox 3 et peut maintenant, comme on nous l’a souvent réclamé, mettre les téléchargements en pause et les reprendre, manuellement ou automatiquement. Parmi les autres changements, on note l’ajout d’un indicateur de statut de téléchargement dans la barre de statut en bas de fenêtre, la possibilité de faire une recherche dans les fichiers téléchargés, un affichage amélioré des fichiers qui inclut des informations plus détaillées et la possibilité de retourner sur la page originale du téléchargement par un clic droit sur le fichier dans le gestionnaire de téléchargements.

Pour en savoir plus Download Manager in Firefox 3 de Madhava Enros.

Rendu des polices et des textes

Firefox 3

Lorsque les développeurs de Mozilla ont décidé d’incorporer le sous-système Cairo et de repartir de zéro pour une nouvelle couche graphique, ils ont aussi décidé de retravailler complètement le système qui affiche le texte dans le navigateur. Le résultat est que Firefox 3 supporte mieux le crénage des polices, les ligatures, les textes internationaux, les ligatures partielles, les indices pour afficher les caractères, l’anti-crénelage, les types et la sélection de polices. Firefox 3 représente un énorme pas en avant dans le support des polices et le rendu des textes et les développeurs de Mozilla travaillent déjà sur de nouvelles améliorations pour les versions futures.

Pour en savoir plus Firefox 3: Fonts and text de Stuart Parmenter et Deb Richardson.

Zoom plein écran

Firefox 3

Le zoom a été complètement retravaillé pour Firefox 3 et inclut maintenant à la fois le zoom plein écran et le zoom texte seulement.

Le zoom plein écran agrandit à l’échelle la mise en page et la structure de la page tout en permettant de garder parfaitement le contrôle sur la taille du contenu affiché. Par contre, le zoom uniquement sur le texte laisse les images et la mise en page telles quelles.

Une fonctionnalité nouvelle et extrêmement utile du zoom de page est que Firefox garde maintenant automatiquement en mémoire le niveau de zoom que vous avez réglé site par site. Une fois que vous agrandissez (ou que vous réduisez) une page d’un site, Firefox s’en rappellera et restaurera ce niveau de zoom la prochaine fois que vous vous rendrez sur toute page qui fait partie de ce site.

Pour en savoir plus Full Page Zoom de Seth Bindernagel.

Historique

Firefox 3

Firefox 3 rend l’historique du navigateur incroyablement utile. Non seulement l’historique est une source essentielle d’information pour la nouvelle barre de navigation intelligente, mais il a été amélioré de plusieurs autres façons. L’historique garde maintenant les favicons des sites (des petits logos identifiants) ainsi que les autres données de localisation, pour rendre beaucoup plus aisées la recherche et l’identification des entrées de l’historique. Le panneau d’historique et le menu ont aussi été modifiés et une toute nouvelle bibliothèque d’historique a été ajoutée à la bibliothèque de Firefox (autrefois le gestionnaire de marque-pages). Dans l’ensemble, Firefox 3 a fait passer l’historique d’occasionnellement utile à absolument essentiel dans l’usage quotidien du navigateur.

Pour en savoir plus Firefox 3: History de Deb Richardson.

Canvas HTML

Firefox 3

L’implémentation du canvas HTML de Firefox 3 a été améliorée et comprend maintenant une interface expérimentale d’affichage du texte. Cette interface est décrite en détail dans l’article Dessiner avec canvas du Mozilla Developer Center (MDC). Une autre nouveauté est le support des méthodes de transformation transform() et setTransform() dont la documentation fait partie du fantastique Tutoriel canvas du MDC. La performance en deux dimensions de canvas a également été améliorée, le résultat est plus rapide sur toutes les plate-formes.

En voici deux excellents démonstrations : John Resig’s Processing.js et Aza Raskin’s Algorithm Ink.

Pour en savoir plus HTML Canvas in Firefox 3 de Vlad Vukicevic.

Support UTF-8 dans la barre de navigation

Firefox 3

Ceux qui utilisent principalement le web US-ASCII ne remarqueront peut-être pas un des gros changements de la barre de navigation de Firefox 3 : le support multi-octets de l’UTF-8. C’est une très grande victoire en termes d’accessibilité, parce que les URI en langue non-ASCII étaient du code machine illisible dans Firefox 2, alors que maintenant dans Firefox 3 ils sont interprétés comme des polices lisibles.

Pour en savoir plus Firefox 3: UTF-8 support in location bar de Gen Kenai.

Protection contre les malwares

Firefox 3

Les "malwares" sont notre appellation pour les sites web qui essaient d’installer des logiciels non souhaités ou encore faire des choses non autorisées sur votre ordinateur. Firefox 3 garde une trace de tous les sites sur lesquels ont été vus des malwares et vous protège en les bloquant avant même que les pages ne soient chargées pour s’assurer que votre ordinateur ne courre jamais un risque. Vous pouvez ignorer les avertissements si vous le voulez, c’est votre navigateur, après tout, mais nous espérons que cette sécurité supplémentaire aidera à protéger les utilisateurs et à rendre le Web plus sûr pour tous.

Pour en savoir plus Mal-what? Firefox 3 vs. Bad People de Johnathan Nightingale.

Interface microformats

Firefox 3

Les microformats sont des formats simples, avec des données ouvertes, construits sur des standards existants. Firefox 3 inclut une nouvelle interface de microformats (API) qui peut être utilisée pour construire des greffons, mais sinon ils ne sont pas montrés dans l’interface utilisateur de Firefox 3.

Pour en savoir plus Use the new microformats API in Firefox 3 extensions du site d’IBM et Where are the microformats in Firefox 3? de Mike Kaply.

Support des applications web hors connexion

Firefox 3

Firefox 3 implémente des événements online et offline selon la spécification 1.0 des applications Web WHATWG. Cela signifie que les développeurs Web peuvent créer de nouvelles applications Web qui fonctionneront dans Firefox même quand l’ordinateur n’est pas connecté. Dans le mode "offline", les données d’une application Web sont stockées localement sur votre ordinateur qui est ensuite synchronisé avec le serveur quand la connexion est rétablie.

Pour en savoir plus Online and offline events, Offline resources in Firefox et Firefox 3: Offline App Demo de Mark Finkle et Offline Web Applications de Robert O’Callahan.

Gestionnaire de mots de passe

Firefox 3

Dans Firefox 3, les fonctionnalités du gestionnaire de mots de passe sont significativement améliorées et beaucoup mieux pensées. La boite de dialogue qui vous demande si vous voulez que Firefox sauvegarde un mot de passe est complètement remplacée, au lieu d’un pop-up auquel vous êtes forcé(e) de répondre avant que le login ait réussi, Firefox 3 donne le choix d’enregistrer un mot de passe donné grâce à une barre d’information qui se déroule depuis le haut de l’écran après que vous ayez entré votre mot de passe. Cette barre d’information n’est pas modale, vous pouvez donc continuer à utiliser le web normalement sans avoir à la supprimer préalablement. Cette barre restera jusqu’à ce que vous lui disiez que faire ou que vous quittiez le site sur lequel vous êtes.

En plus, le gestionnaire de mots de passe vous offre la possibilité de filtrer et de rechercher ce qui rend significativement plus facile de trouver et de gérer les mots de passe pour des sites particuliers. Ces changements sont relativement subtils, mais si vous avez des centaines de mots de passe stockés au bout du compte ces petits changements peuvent faire une énorme différence.

Pour en savoir plus Firefox 3: Password Management de Deb Richardson.

Améliorations de performance

Firefox 3

Firefox 3 est la version la plus rapide et la plus légère de Firefox à ce jour. Les tests de vitesse montrent une amélioration d’un facteur 2 à 4 par rapport à Firefox 2 et d’un facteur 9 par rapport à Internet Explorer 7. Les tests d’utilisation mémoire montrent que Firefox est 2 fois plus efficace que Firefox 2 et 4,7 fois plus efficace que IE7. L’accent a vraiment été mis sur les performances pour cette version et d’incroyables efforts ont été consacrés à l’obtention de ces chiffres.

Pour en savoir plus Firefox 3 Memory Usage de Stuart Parmenter.

Protection contre le phishing

Firefox 3

En plus de la nouvelle protection contre les malwares qui a été ajoutée à cette version, Firefox 3 protège également mieux contre le phishing. Les sites identifiés comme phishing sont maintenant bloqués tout de suite, avant même que les pages ne soient chargées, pour que votre navigateur ne soit jamais en danger. Firefox 2 chargeait la page, mais vous prévenait que c’était un site identifié comme dangereux en le mettant en gris et en affichant un message d’avertissement. La méthode de Firefox 3, qui correspond au comportement de protection contre les malwares, est plus sûre et vous expose à globalement moins de risques.

Pour en savoir plus Mal-what? Firefox 3 vs. Bad People de Johnathan Nightingale.

Plugins

Firefox 3

Les plugins sont de petits programmes de tierce-parties qui peuvent être ajoutés à Firefox pour gérer du contenu que Firefox ne gère pas lui-même. Sans le plugin Flash, par exemple, vous ne pourriez pas regarder des vidéos de YouTube. Firefox 3 propose une nouvelle fonctionnalité faisant partie du gestionnaire de modules complémentaires remanié que vous pouvez utiliser pour voir, activer et désactiver tout plugin que vous avez installé. Vous pouvez aussi utiliser l’affichage des plugins pour visiter la page d’origine du plugin (si elle est spécifiée) en faisant un clic droit sur le nom du plugin et en sélectionnant "Visiter la page Web".

De la même façon que d’autres greffons de Firefox 3, si un plugin est détecté comme contenant une vulnérabilité, Firefox le désactivera automatiquement et vous dira où obtenir une version à jour. C’est une amélioration de sécurité significative pour Firefox qui auparavant n’avait aucun moyen pour vous dire que vous aviez installé des plugins dangereux.

Pour en savoir plus Firefox 3: Plugins de Deb Richardson.

Bouton d’identification de site

Firefox 3

S’assurer que les utilisateurs sont en sécurité, à l’abri et protégés lorqu’ils naviguent sur le web est l’un des plus grands défis pour les concepteurs de navigateurs. Firefox 3 présente une nouvelle fonctionnalité de sécurité extrêmement importante, connue sous le nom de bouton d’identification de site. Ce bouton remplace et s’appuie sur l’omniprésente icône de "cadenas" qui était depuis si longtemps le premier indicateur de sécurité utilisé par les navigateurs. Plutôt que d’afficher simplement un petit cadenas quelque part, Firefox trouve tout ce qu’il peut sur le site que vous visitez et rend ces informations facilement accessibles grâce à un bouton à l’extrêmité gauche de la barre de navigation.

Firefox 3

Le bouton peut être dans une des trois couleurs – gris, bleu ou vert – et affiche le nouveau message d’identification de site quand on clique. Le message inclut une icône correspondante "Passport Officer" en gris, bleu ou vert et affiche un sommaire des informations disponibles sur l’identité du site. Maintenant, au lieu d’avoir un seul indicateur de l’état de cryptage (le cadenas), Firefox 3 vous fournit beaucoup plus de renseignements sur un large panel de niveaux de sécurité et de situations.

Pour en savoir plus Firefox 3: Site Identification button de Deb Richardson.

Barre d’adresse intelligente

Firefox 3

Dans Firefox 3 la barre d’adresse a été complètement refondue de manière extrêmement excitante. Surnommée affectueusement "AwesomeBar" (NdT : "Barre Géniale"), la nouvelle barre d’adresse intelligente vous laisse utiliser le champ d’URL de votre navigateur pour faire une recherche sur un mot clé dans votre historique et vos marque-pages. Vous n’avez plus à vous souvenir du nom de domaine de la page que vous cherchez, la barre d’adresse intelligente affichera les URL, les titres de pages et les tags de vos marque-pages et de votre historique correspondants à ce que vous tapez (même en plusieurs mots !) et trie les résultats selon un algorithme qui combine la fréquence et la nouveauté.

Les résultats montrent également les favicons des pages, les titres en entier, les URL et si vous avez marqué ou tagué le site précédemment. Alors que le passage de Firefox 2 à Firefox 3 peut être un petit peu dérangeant pour certains, une fois que vous aurez utilisé la barre d’adresse intelligente un moment vous vous demanderez comment vous faisiez pour vivre sans.

Pour en savoir plus AwesomeBar is awesome de Deb Richardson ainsi que ce petit screencast de Mike Beltzner.

Onglets

Firefox 3

Les onglets n’ont pas tant changé que ça entre Firefox 2 et 3 sauf en ce qui concerne l’ajout de nouvelles animations de défilement doux. Lorsque vous faisiez défiler votre barre d’onglets dans Firefox 2, les onglets changeaient un à un. Cela rendait le défilement un petit peu haché et brouillon. Avec le défilement doux, il est beaucoup plus facile de comprendre le mouvement et où les onglets vont. Cela se voit très clairement avec un film de démonstration, j’en ai donc créé un rapide, que vous pouvez voir ici : Smooth tab scrolling (.swf).

Thèmes

Firefox 3

Un des premiers buts du rafraîchissement visuel de Firefox 3 était de mieux intégrer le navigateur sur chaque plate-forme, tout en conservant une identité visuelle et une présence uniques. Firefox 2 ressemblait plus ou moins à la même chose sous Windows, Mac et Linux, mais ce n’est pas le cas de Firefox 3. Il y a quatre nouveaux thèmes distincts pour Firefox 3 – un pour Linux, Mac OS X, Windows XP et Windows Vista – et le changement touche chaque aspect de l’application. Chaque bouton, fenêtre, onglet, icone et boite de dialogue s’intègre maintenant à la plate-forme native, ce qui donne l’impression que Firefox fait naturellement partie de l’environnement de votre ordinateur.

Pour en savoir plus Firefox 3 Themes de Alex Faaborg et Firefox 3 for theme developers de Gavin Sharp..

Flux vidéo et audio

Firefox 3

Firefox 3 comprend une page améliorée de prévisualisation de flux qui détecte et affiche maintenant le contexte à côté des entrées de blog associées. De plus, Firefox 3 peut associer les podcasts vidéo avec une application, les podcasts audio avec une autre et tous les autres types de flux avec une troisième. Ces modifications sont relativement subtiles, mais fantastiquement utiles une fois que vous commencez à en tirer avantage.

Pour en savoir plus Firefox 3 and enclosures de Will Guaraldi.

Support des contrôles parentaux de Vista

Firefox 3

Windows Vista inclut des contrôles parentaux qui vous aident à gérer ce que vos enfants ont le droit de faire sur l’ordinateur. Firefox 3 inclut le support de ces contrôles parentaux, le gestionnaire de téléchargements est informé des situations où le contenu est bloqué par des proxys et les téléchargements bloqués déclenchent maintenant les bons messages de l’interface pour indiquer ce qui s’est produit. Cette fonctionnalité n’est disponible que sur la plate-forme Vista et sera développée et améliorée dans les futures versions de Firefox.

Pour en savoir plus Firefox 3: Parental controls de Jim Mathies et Mark Finkle.

Gestion des protocoles par des applications web

Firefox 3

La gestion des protocoles par des applications web est une nouvelle fonctionnalité de Firefox 3 qui donne plus de puissance aux applications web. Lorsque vous cliquez sur un liens avec un protocole spécifique Firefox peut maintenant envoyer les informations de ce lien à une application Web définie si cette application web dispose de cette fonctionnalité. Par exemple, les liens "mailto:" peuvent maintenant être gérées par une application web comme Yahoo! mail à la place du client de messagerie par défaut de votre ordinateur. Parmi d’autres protocoles actuellement supportés, on trouve "webcal:", "tel:" et "fax:".

Les développeurs qui sont intéressés par l’ajout du support de protocoles par des applications web devraient lire l’article Gestionnaires de protocoles web du Mozilla Developer Center.

Pour en savoir plus Firefox 3: Web protocol handlers de Mark Finkle.

Conclusion

Et voilà, un large tour du propriétaire (en aucun cas exhaustif) des nouvelles fonctionnalités et des améliorations de Firefox 3, des gestionnaires de modules complémentaires à la gestion de protocoles par des applications Web. Presque toutes les parties du navigateur ont été améliorées d’une manière ou d’une autre.

Firefox 3 a été développé sur approximativement trois ans en définitive et des milliers de développeurs, de designers, de localisateurs, de testeurs, de marketeurs et d’auteurs de documentation y ont contribué autour du monde. Le navigateur Firefox est produit par une des plus grandes communautés open source du monde et nous en sommes tous extrêmement fiers et enthousiastes d’enfin le mettre entre les mains de millions de gens.

Si vous ne l’avez pas encore fait vous devriez aller sur le site du Firefox Download Day pour aider à établir un nouveau record du monde Guinness. Une fois que c’est fait, rendez-vous sur le Mozilla Party Central pour trouver ou organiser un événement. Nous espérons que vous nous rejoindrez tous pour aider à fêter la sortie du meilleur Firefox de tous les temps.

Cet article (et ses copies d’écran) sont sous licence Creative Commons By-Sa.

Firefox 3 - Download Day

Cette dernière illustration est extraite de l’opération Download Day 2008 qui vise lors de la sortie de Firefox 3 à établir un nouveau record du monde Guinness du logiciel le plus téléchargé en 24h. J’avoue ne pas être un grand fan de ce type de marketing à l’américaine. Par contre parcourir la carte du monde de ceux qui se sont déjà enregistrés pour participer a quelques chose de fascinant. Ainsi ils sont déjà 61 au Tadjikistan. United Colors of a Free Software World en quelque sorte…




Plus qu’une simple histoire d’argent

L’un des gros challenges qui nous attend est le développement de la culture du don, qui nécessite souvent de quitter certaines habitudes héritées de la culture du gratuit (entretenues par une économie classique qui ne nous voit pas autrement qu’en simple consommateur).

Dans ce contexte cette petite histoire a peut-être valeur d’exemple pour ne pas dire de symbole. Quand l’excellent lecteur audio Amarok intègre l’excellent site musical Magnatune dans son logiciel, il le fait spontanément, parce qu’il pense que c’est un plus pour ses utilisateurs. Mais quand Magnatune s’aperçoit alors que ça leur apporte des visiteurs mais aussi des sous puisque ces visiteurs achètent des titres, alors il décide spontanément lui aussi de faire quelque chose en retour…

Une traduction LVI pour Framalang.

Copie d'écran - Magnatune

Donner de l’argent pour l’Open Source

Giving money to open source

John Buckman – 28 avril – Magnatune (blog)

Il y a un an et demi, l’excellent lecteur de musique sur GNU/Linux Amarok a ajouté un support étendu pour Magnatune. Le programmeur, Nikolaj Hald Nielsen, a fait cela de sa propre initiative, simplement parce qu’il trouvait que ce serait une chose élégante à inclure dans son lecteur de musique favori, et parce qu’il appréciait Magnatune et la philosophie derrière son business model.

J’aime vraiment Amarok, et je me suis alors engagé à offrir 10% du produit des ventes de Magnatune apportées par Amarok. J’étais aussi tellement content de la qualité du travail de Nikolaj, que je l’ai embauché, et maintenant il passe 50% de son temps pour Magnatune, et je le paie pour qu’il passe les 50% restant pour Amarok.

Je suis vraiment très heureux d’annoncer que les utilisateurs d’Amarok ont acheté une belle quantité de musique sur Magnatune. Ils peuvent écouter gratuitement la musique depuis Amarok, et les albums en streaming apparaissent dans Amarok comme si c’était de la musique en local, et ils peuvent facilement acheter la musique dans différents formats ouverts.

Jusqu’ici, Amarok a apporté 11 557 $ de ventes de musique sur Magnatune !

Ce matin, j’ai fait de bon coeur une donation de 1 155,70 $ à Amarok.

J’ai également fait la même offre à Rhythmbox, un autre bon lecteur de musique pour Linux, et je vais bientôt leur envoyer un don. Leur support intégré pour Magnatune est lui aussi excellent, et je l’ai personnellement utilisé pour écouter notre propre musique issue de Magnatune.

Rhythmnox est installé par défaut dans la toute récente et ultra-populaire Ubuntu 8.04.

Mark Shuttleworth, la force derrière Ubuntu, a récemment déclaré ceci :

« Je suis particulièrement ravi que nous supportions Magnatune, qui a imaginé un très bel avenir pour l’industrie de la musique, Le problème avec l’industrie de la musique n’est pas les musiciens ; ça n’est pas la musique ; et ce ne sont pas les téléchargements. Ce sont les compagnies de disques. Alors, avoir une compagnie de disques qui dise : Il y a une autre manière de travailler semble être quelque chose de positif que nous pouvons soutenir. Et ça, c’est super ! »

J’ai parlé au programmeur qui est derrière le support de Magnatune pour Rhythmbox, et il prévoit d’y ajouter un tas de fonctionnalités cet été. Cool !




Quand Jacques Attali nuance son propos sur le logiciel libre

Jacques Attali, venu à l’AG du Syntec Informatique (le 5 juin dernier à Paris) faire le point sur sa fameuse Commission, semble n’avoir qu’un seul remord : celui de ne pas avoir assez insisté sur « l’importance de l’industrie du logiciel » (logiciel libre inclus ou exclu ?).

Et de préférer désormais l’expression logiciel ouvert ou open source à celui de logiciel libre dont il n’aime pas le mot libre : « ce n’est pas vrai, c’est pas plus libre qu’un autre, l’école libre elle n’est pas libre, elle est privée ».[1]

—> La vidéo au format webm

Un commentaire à chaud ?

Notes

[1] Source Vidéo : Dailymotion – Luc Fayard (InfoTechArt.com)




Comparaison graphique entre Windows et Linux

Un peu de mathématiques. Enfin, c’est un bien grand mot. Il s’agit d’un petit schéma trouvé sur un blog qui explique pourquoi d’un côté (temps court) ce n’est pas évident de se mettre à Linux mais d’un autre côté (temps long) pourquoi c’est un investissement plus que rentable sur la durée.

En fin d’article, l’auteur nous invite à donner notre avis sur sa petite théorie. Idem avec sa traduction[1]. D’accord, pas d’accord ? Est-ce trop simplifié ? Et le poids des habitudes Windows ? Et si l’utilisateur découvre Linux sans connaître préalablement Windows ? Et quid des nuances apportées par les différentes distributions Linux ? Et le Mac dans tout ça ? etc.

Windows - Linux

Windows vs Linux : Comprendre le fossé de la complexité

Windows vs. Linux: Understanding the Difficulty Divide

Q Hartman – 26 Mai 2008 – WorksWithU.com

Avec le temps j’ai développé une théorie généralisée des coûts que cela représente d’effectuer une tâche sous Windows et sous Linux, un corollaire de cette théorie est que beaucoup de gens pensent que Linux est trop compliqué ou "pas encore prêt pour le grand public".

L’essence de cette théorie peut être illustrée par ce graphique :

Difficulty Divide - Linux vs Windows

Evidemment, aucune donnée ne vient étayer ce graphique. C’est simplement un support visuel pour aider à expliquer un concept que j’ai déjà souvent vu illustré. L’axe des x représente la complexité de la tâche à réaliser. Ca peut être la création d’un réseau, l’ouverture d’une image, la conception d’un film, la construction et la maintenance d’un site Web, l’automatisation de la migration d’une base de données complexe ; vraiment n’importe quelle tâche qui peut être réalisée par un ordinateur, grand ou petit. Sur l’axe des y on retrouve le coût relatif pour mener cette tâche à bien. Je prends ici "coût" dans un sens très général. Ce coût peut représenter votre temps, le coût d’une licence pour un logiciel, le coût de la formation ou le coût de l’embauche d’un développeur pour écrire le programme dont vous avez besoin.

Logiquement, le coût pour mener à bien une tâche augmente, que ce soit sous Windows ou sous Linux, avec la complexité de la tâche. Je vous invite par contre à regarder l’ampleur de la différence. La courbe pour Linux est quasiment linéaire et tend même vers une asymptote à mesure que la complexité augmente. En d’autres termes, l’augmentation du coût est proportionnelle à l’augmentation de la complexité de la tâche et l’apprentissage de nouvelles compétences est immédiatement mis à profit pour des tâches plus ardues. Le coût est proportionnel à la difficulté et l’apprentissage est progressif, ce qui rend les tâches les plus dures plus accessibles. J’aime appeler cela "le juste prix de l’accès à la technologie".

Pour Windows la courbe est très plate au début. La réalisation de tâches modérément complexes ne coûte pas beaucoup plus que la réalisation de tâches triviales. Voilà qui nous amène au fossé de la complexité. C’est l’espace borné par les courbes où Windows l’emporte. Il est plus simple de compléter des tâches de ce niveau de complexité sous Windows que sous Linux. Je suis de l’avis que les gens qui abandonnent Linux sont ceux qui ne parviennent pas à franchir le fossé de la complexité. Que ce soit parce qu’ils n’ont pas le temps ou l’intérêt nécessaire pour atteindre ce niveau supérieur importe peu, le fait est qu’ils n’y parviennent pas.

Je vous invite également à observer cependant que la courbe pour Windows devient presque verticale très rapidement. Plus les besoins et les compétences de quelqu’un augmentent, plus le coût pour atteindre un nouveau pallier sous Windows augmente et ce de plus en plus vite. Vous vous retrouvez rapidement à chercher partout des logiciels parce que les outils qui vous permettent de mener à bien votre tâche ne sont pas facilement accessibles. Le plus souvent ces outils n’existent pas ou sont très coûteux. Même si vous avez le savoir-faire pour créer une solution, les outils nécessaires pour la mettre en œuvre sont souvent très chers. L’opacité relative et la nature monolithique de Windows joue également un rôle ici. Les maigres rapports, les erreurs mystérieuses et les interactions complexes cachées peuvent faire perdre beaucoup de temps pour deviner la source d’un problème, même pour un administrateur système expérimenté comme moi. Souvent, même une fois que la cause du problème est détectée il est fort probable qu’absolument aucun outil ne fera ce que vous désirez et réussir à faire fonctionner tous les outils ensemble présente encore un autre défi en lui-même. Tous ces facteurs alourdissent le coût de la réalisation d’une tâche.

C’est à ce niveau de complexité que Linux l’emporte. Grâce à la libre disponibilité de puissants outils et grâce au partage sans entraves d’informations au sein de la communauté d’utilisateurs de Linux le coût de la réalisation des tâches augmente bien plus lentement. Il est surprenant de voir à quelle vitesse les besoins et les compétences de quelqu’un peuvent atteindre ce niveau où les problèmes sont plus simples à résoudre sous Linux. Pour ceux que je classerais dans la catégorie "Technologiste Typique" il ne faut pas plus de quelques mois pour y parvenir sans connaissance préalable de Linux. J’en ai été témoin. Pour les gens qui ne sont pas aussi mordus de technologie ça peut prendre plus de temps, mais selon toute probabilité ils y parviendront. Pour ceux qui sont vraiment à fond dedans ça peut ne prendre que quelques jours ou semaines.

J’ai récemment eu à modifier ma théorie sur le fossé de la complexité, je vous ferai part de son évolution la semaine prochaine. En attendant j’aimerais savoir ce que vous en pensez. Est-ce que le fossé de la complexité existe vraiment ? Est-ce que mon explication le décrit avec précision ?

Notes

[1] Traduction Framalang : Olivier (+ Daria).




Quand Eben Moglen nous explique le risque lié à l’accord Novell Microsoft

En novembre 2006, Novell et Microsoft signaient un accord qui fit couler beaucoup d’encre. Union libre pour Microsoft nous disait alors Libération dans la plus pure tradition de ses titres accrocheurs, avec le résumé suivant : Après avoir combattu les logiciels libres pendant des années, l’entreprise de Bill Gates pactise avec Linux.

Novell étant l’éditeur de la distribution Suse Linux, cet accord se déclinait principalement en trois volets : un volet technique (avec la création d’un centre de recherche conjoint), un volet commercial (promotion croisée entre les solutions serveurs Suse Linux de Novell et ceux Windows de Microsoft), et un volet juridique.

C’est ce dernier volet, qualifié par certains de pacte de non-agression, qui posa le plus problème à la communauté. Voici ce que l’on en dit sur le (drôle de) blog intitulé Porte25 : Open Source et Interopérabilité @ Microsoft :

Les entreprises utilisant SUSE Linux Enterprise Server sont à l’abri des conséquences judiciaires liées à l’utilisation de parties de code de Linux violant les droits de propriété intellectuelle de Microsoft : « Microsoft s’engage à ne pas faire valoir ses brevets auprès des clients ayant acheté Novell Suse Linux Enterprise ou d’autres produits de Novell. Qui a accepté de faire de même pour les clients ayant une version sous licence de Windows ou d’autres produits Microsoft ».

Dans ce contexte, il nous a semblé intéressant de vous proposer le point de vue, pour ne pas dire l’éclairage, d’Eben Moglen, l’un des plus célèbres juristes de la communauté, qui nous explique pourquoi cet accord fragilise voire menace l’écosystème du logiciel libre.

Un nouvel extrait vidéo d’une intervention donnée au Red Hat Summit 2007, dont nous avons traduit[1] la retranscription.

La vidéo au format Ogg

Eben Moglen – Red Hat Summit 2007

Veuillez m’excuser, je pensais que la question était suffisamment claire pour ne pas avoir à la répéter : « Puis-je expliquer la menace que fait planer l’accord Microsoft/Novell sur la liberté des logiciels sous GPL ? »

Je vais tâcher de m’exprimer en termes parlants, en commençant par ceci : Imaginez quelqu’un qui voudrait éliminer la liberté des logiciels libres ou du moins entraver ses développeurs de manière importante, de manière à leur ôter toute chance de rivaliser. Imaginez que ce quelqu’un possède des brevets dont la validité est douteuse, mais en grande quantité, et qu’il pourrait potentiellement utiliser pour effrayer les développeurs et les utilisateurs. Imaginez qu’une telle personne commence alors à régulièrement proférer des menaces, comme par exemple : « Hé, on a plein de brevets ! Peu importe combien, peu importe ce qu’ils protègent, peu importe leur qualité, on a plein de brevets et un jour ça va chauffer. N’utilisez pas ce logiciel. »

Imaginez que ce soit la stratégie qu’emploie la personne opposée à la liberté parce que ça vaut mieux que de faire des procès. Faire des procès coûte cher, c’est irréversible et ça peut amener à devoir expliquer de quels brevets on parle et pourquoi ils sont valables. Donc mieux vaut menacer que faire des procès, non ? Imaginez quelqu’un qui se lance dans des menaces chaque été, et ce depuis des années, un peu comme pour une tournée « Ayez très très peur », d’accord ? (NdT : « Be very afraid » tour)

Ça peut paraitre absurde, je sais.

Imaginez à présent que cette tournée annuelle « Ayez très très peur » commence à générer un retour de bâton, parce que certains, notamment les PDG des plus grandes banques et institutions financières, se rebiffent et déclarent : « Vous osez nous menacer, nous ? Nous, les plus influents, les plus riches et les plus puissants du capitalisme, nous qui déterminons la valeur de vos actions ? Vous feriez mieux de vous calmer. »

Voilà ce qui arrive quand on dit « Ayez très très peur » à ceux qui ont énormément argent, davantage encore de pouvoir, et qui contrôlent la valeur de vos actions : ils se rebiffent. Le modèle économique qui consiste à menacer d’attaquer quelqu’un en justice fonctionne si l’on s’en prend à des enfants de douze ans. Ça n’est guère efficace s’il s’agit des piliers du capitalisme financier. Par conséquent, en tant que personne engagée dans des tournées annuelles « Ayez très très peur », vous allez voir se mobiliser les clients d’entreprises qui vous rétorqueront « Vous osez nous menacer ? »

Que se passerait-il alors si l’on faisait en sorte qu’ils aient moins l’impression d’être ceux que l’on intimide ? Que se passerait-il si l’on pouvait leur donner une certaine tranquilité d’esprit — en engrangeant quelques profits au passage —, afin que les seuls qui tremblent encore après votre tournée annuelle « Ayez très très peur » soient les développeurs eux-mêmes ? On parviendrait alors à se faire bien voir, sans cesser d’agiter des brevets et de menacer de ruer dans les brancards.

Les accords pour la sûreté des brevets rend possible ce risque pour mes clients : la communauté des développeurs. Si les entreprises pensent pouvoir acheter le logiciel que mes clients produisent à un tiers qui leur assure la tranquillité vis à vis de l’adversaire en leur vendant une licence, alors les entreprises pourraient penser qu’elles ont obtenu une paix séparée et que, si un jour en ouvrant leur journal à la rubrique « Économie » elles voient « L’adversaire s’attaque aux logiciels libres », elles pourront se dire « C’est pas mon problème, j’ai acheté telle distribution et je ne crains rien. » Le problème que présente ces accords, c’est qu’ils cherchent à isoler les clients d’entreprises, qui pourraient mettre un terme aux menaces en insistant sur leurs droits, des développeurs qui, au fond, sont les plus menacés.

Il faudrait donc conseiller à ces gens de ne pas s’accorder une paix séparée aux dépends de la communauté. De ne pas essayer de mettre ses clients à l’abri si cela revient à éliminer les affluents d’où proviennent vos biens. Nous fonctionnons comme un écosystème. Si l’on sape les défenses de la communauté, on sape tout l’écosystème, et agir ainsi pour le bien de vos clients au détriment de vos fournisseurs n’est pas une bonne manière de faire du business. Tel est le problème fondamental créé par de tels accords.

Notes

[1] Merci à Olivier, Yostral et Don Rico pour la traduction commune estampillée Framalang quality label.




Dossier OLPC : 6 Sic Transit Gloria Laptopi par Ivan Krstic

Dossier One Laptop Per Child (un portable par enfant)

Sic transit gloria mundi est une locution latine qui signifie « Ainsi passe la gloire du monde » et qui vient rappeler aux hommes qu’aussi puissants soient-ils ils n’en demeurent pas moins mortels…

Sic Transit Gloria Laptopi est un article du blog d’Ivan Krstic[1], hier encore Monsieur Sécurité du projet OLPC, et qui vient rappeler à tous ceux qui s’intéressent au projet quelques vérités qui ne sont pas forcément toutes librement correctes à entendre.

Parce que si l’OLPC est un projet éducatif alors sa technologie libre ne peut constituer une fin en soi…

Copie d'écran - Ivan Krsti? - Sic Transit Gloria Laptopi

Sic Transit Gloria Laptopi

Sic Transit Gloria Laptopi

Ivan Krstic – 13 mai 2008

J’ai été assez mécontent de la qualité des discours de la communauté autour des récentes annonces de passage à Windows comme système d’exploitation. J’ai décidé sur le moment de me retenir de commenter, et n’ai été influencé que par la demi-douzaine de volontaires m’ayant écris personnellement pour de me demander s’il avaient travaillé en vain. Ce n’est pas le cas. Puis je suis parti en voyage quelques jours.

Je ne me suis alors occupé que de mes courriels et flux RSS, et ce que j’ai pu lire a transformé mon mécontentement en colère. Du coup, me voilà finalement parti pour commenter moi aussi la situation, et ce sera le dernier essai que je pense écrire au sujet de l’OLPC. Mais tout d’abord, remettons nous dans le contexte.

Le commencement

Tout au long de sa vie, Nicholas Negroponte à travaillé avec des visionnaires de l’éducation et des technologies tels qu’Alan Kay et Seymour Papert. Au début des années ’80, Nicholas et Seymour lancèrent un programme pilote soutenu pour le gouvernement français qui plaça des machines Apple dans un centre informatique d’une banlieue de Dakar au Sénégal. Ce projet fut un flop spectaculaire pour cause de mauvaise gestion et de conflits de personnalité. En 1983, approximativement un an après le début de l’expérience, le magazine de revue technologique du MIT (NdT : "MIT’s Technology Review") publia cette terrible épitaphe :

Naturellement ça a échoué. Rien n’est aussi indépendant, spécialement une organisation soutenue par un gouvernement socialiste et composée de visionnaires industriels, individualistes forcenés, provenant des quatre coins du globe. De plus, l’altruisme a un problème de crédibilité dans une industrie qui prospère par d’intenses compétitions commerciales.

À la fin de la première année du centre, Papert est parti, tout comme les experts américains Nicholas Negroponte et Bob Lawler. C’est devenu un champs de bataille, marqué par des affrontements de style de direction, de personnalité et de convictions politiques. Le projet ne s’en ai jamais vraiment relevé. Le nouveau gouvernement Français a fait une faveur au centre en le fermant.

Mais Nicholas et Seymour émergèrent tous les deux des cendres du projet pilote à Dakar avec leur foi en les prémisses d’enfants apprenant naturellement avec des ordinateurs intactes. Armés des leçons de l’échec au Sénégal, c’était peut être seulement une question de temps avant qu’ils ne recommencent.

En effet, Seymour essaya seulement deux ans plus tard : le Laboratoire Média (NdT : Media Lab) fut fondé en 1985 et commença immédiatement à supporter le Projet Phare (NdT : Project Headlight), une tentative d’introduction de l’apprentissage constructionniste dans le cursus complet de l’école Hennigan, une école primaire publique à Boston, composée d’étudiants principalement issus de minorités.

Avance rapide d’à peu près deux décennies, aux environs de l’an 2000. L’ancien correspondant étranger du Newsweek devint philanthrope, Bernie Krisher "l’homme unique des Nations Unies", convainquit Nicholas et sa femme Elaine de rejoindre son programme de construction d’école au Cambodge. Nicholas acheta des Panasonic Toughbooks (NdT : ordinateurs portables robustes de la marque Panasonic) d’occasion pour une école, et son fils Dimitri y enseigna quelque temps.

« Il y a sûrement moyen de reproduire ça en plus grand ». C’est l’idée qui s’imposa peu à peu, et le reste de l’histoire est connu : Nicholas courtisa Mary Lou Jepsen alors qu’elle passait un entretien pour un poste dans le corps professoral du Laboratoire, et lui parla de sa folle idée d’une organisation nommée Un Ordinateur portable Par Enfant (NdT : One Laptop Per a Child). Elle vint à bord du CTO (NdT : Chief technical officer, responsable technique). Vers la fin de l’année 2005, l’organisation sorti de l’ombre par un coup d’éclat : Nicholas l’annonça avec Kofi Annan, prix Nobel de la paix et alors secrétaire général des Nations Unies, lors d’un sommet à Tunis.

La partie qui mérite d’être répétée est que le projet éducatif basé sur le constructionnisme de Nicholas au Sénégal fut un désastre complet, à part des commentaires sur les personnalités et égos impliqués, il ne démontra rien. Et le projet de Krisher au Cambodge, celui qui rencontra évidemment un succès suffisant pour motiver Nicholas a démarrer véritablement le projet OLPC, utilisa des pc-portable du commerce, fonctionnant avec Windows, sans aucune personnalisation constructiviste que ce soit du système d’exploitation. (Ils avaient des outils constructivistes, installés sous la forme d’applications normales)

Ce que nous savons

La vérité c’est, lorsqu’il s’agit de passer un programme d’informatique personnelle à une échelle supérieure, que nous sommes complètement dans le noir à propos de ce qui fonctionne véritablement, parce que Eh ! Personne n’a jamais développé un programme d’informatique personnelle à grande échelle avant. Mako Hill écrit :

Nous savons que les bénéficiaires d’ordinateurs portables seront avantagés de pouvoir réparer, améliorer et traduire les logiciels fournis avec leurs ordinateurs dans leur propres langues et contextes. (…) Nous pouvons aider à favoriser un monde où les technologies sont au service de leurs utilisateurs et où l’apprentissage se fait suivant les modalités des étudiants, un monde où tous ceux qui possèdent des ordinateurs portables sont libres car ils contrôlent la technologie qu’ils utilisent pour communiquer, collaborer, créer et apprendre. C’est la raison pour laquelle l’engagement de l’OLPC dans la philosophie constructionniste est si importante à sa mission, et la raison pour laquelle sa mission a besoin de continuer à être menée avec des logiciels libres. C’est pourquoi le projet OLPC doit être sans compromis à propos de la liberté des logiciels.

Ce type d’idéalisme lumineux est séduisant, mais hélas, non soutenu par les faits. Non nous ne savons pas si les bénéficiaires d’ordinateurs portables seront avantagés de pouvoir réparer des bogues dans leurs PC. En effet, je suppose qu’ils vont largement préférer que leur satané logiciel fonctionne et n’ait pas besoin d’être réparé. Alors que nous pensons et même espérons que les principes constructionnistes, comme incarnés dans la culture du logiciel libre, sont utiles à l’éducation, présenter ces espoirs comme des faits encrés dans la réalité est simplement trompeur.

Pour ce que j’en sais, il n’y a pas de réelle étude qui démontre que le constructionnisme fonctionne à grande échelle. Il n’y a pas de projet pilote documenté d’éducation constructionniste à moyenne échelle qui soit un succès convainquant ; Lorsque Nicholas parle de « décennies de travail avec Seymour Papert, Alan Kay et Jean Piaget », il parle de théorie. Il aime à mentionner Dakar, mais n’aime pas trop parler de comment le projet s’est terminé, ou qu’aucun fait à propos de la validité de l’approche n’en soit ressorti. Et, aussi sûrement que l’enfer existe, on ne trouve aucune étude évaluée par des pairs (ou tout autre type, à ma connaissance) montrant que les logiciels libres font mieux que les logiciels propriétaires quand il s’agit d’aider à l’apprentissage, ou que les enfants préfèrent l’ouverture (NdT : du code source) ou qu’ils se préoccupent le moins du monde de liberté des logiciels.

Ayant cela en tête, la missive de Richard Stallman sur le sujet ne fit que m’énerver davantage :

Les logiciels propriétaires laissent les utilisateurs divisés et impotents. Leur fonctionnement est secret, il est donc incompatible avec l’esprit de l’enseignement. Apprendre aux enfants à utiliser un système propriétaire (non-libre) comme Windows ne rend pas le monde meilleur, parce qu’il les met sous le pouvoir du développeur du système – peut-être pour toujours. Ce serait comme initier les enfants à une drogue qui les rendrait dépendants.

Oh, pour l’amour de *$¼?# ! (NdT : la vulgarité employée ne gagnerait pas à être traduite) Tu viens vraiment d’employer une souriante comparaison des systèmes d’exploitation propriétaires avec les drogues dures ? Tu sais, celles qui causent de véritables dommages corporels voire la mort ? Vraiment, Stallman ? Vraiment ?

Si les logiciels propriétaires sont moitié moins efficaces que les logiciels libres pour aider à l’éducation des enfants, alors tu as vraiment raison, ça améliore le monde de faire ces logiciels pour les enfants. Mince, si cela ne limite pas activement l’apprentissage, ça aide à faire un monde meilleur. Le problème est que Stallman ne semble pas se soucier le moins du monde d’éducation (NdT : le langage fleuri employé par l’auteur a ici aussi été adouci) et qu’il ne voit les OLPC que comme un moyen de favoriser son agenda politique. Tout cela est honteux.

Tant qu’on en est à ce sujet

L’un des arguments favoris de la communauté de l’open source et du logiciel libre concernant l’évidente supériorité de ces derniers sur leurs alternatives propriétaires est la capacité supposée de l’utilisateur à prendre le contrôle et modifier un logiciel inadéquat, pour le faire correspondre à leurs souhaits. Comme on pouvait s’y attendre, l’argument à souvent été répété au sujet de l’OLPC.

Je ne peux pas être le seul à voir que le roi est nu.

J’ai commencé à utiliser Linux en 1995, avant que la majorité des internautes actuels n’apprennent l’existence d’un système d’exploitation en dehors de Windows. Il m’a fallu une semaine pour configurer X afin qu’il fonctionne correctement avec ma carte graphique, et j’ai appris d’importantes choses en programmation car j’ai eu ensuite besoin d’ajouter le support d’un disque dur SCSI mal reconnu. (Comme je ne savais pas que la programmation en C et du noyau sont sensés être difficile, je suis resté dessus pendant trois mois avant d’en avoir suffisamment appris pour écrire un patch qui fonctionne.) J’ai été depuis lors principalement un utilisateur d’UNIX, alternant entre Debian, FreeBSD puis ensuite Ubuntu, et j’ai récemment co-écrit un livre à succès à propos de Linux.

Il y a huit mois, alors que je me retrouvais encore en train de me battre avec la fonctionnalité d’hibernation/réveil de mon pc-portable sous Linux, je me suis tellement fâché que je suis allé chez le revendeur agréé Apple le plus proche, acheter un MacBook. Après 12 ans d’utilisation quasi-exclusive de logiciels libres, je suis passé à Mac OS X. Et vous savez quoi, la mauvaise gestion des ressources et les autres fonctionnalités bancales ne sont pas dues à Linux. C’est de la faute des vendeurs inutilement cachotiers qui ne rendent pas publiques les documentations pouvant permettre à Linux de mieux gérer le matériel. Mais, le jour où les vendeurs de matériel et les développeurs de logiciels libres se retrouveront main dans la main pour spontanément travailler d’arrache-pied en une gigantesque et festive communion (NdT : one giant orgiastic Kumbaya) n’étant pas encore venu, c’est le monde dans lequel nous vivons. Donc pendant ce temps, je suis passé à OS X et j’ai trouvé que c’était une expérience informatique faramineusement plus agréable. J’ai toujours mon shell UNIX libre, mon langage de programmation libre, mon système de ports libre, mon éditeur de texte libre, et j’utilise un bon paquet de logiciels libres dans une machine virtuelle Linux. La majorité, voire la quasi-totalité des utilisateurs d’ordinateurs ne sont pas programmeurs. Et parmi les programmeurs, une majorité, voire la quasi-totalité d’entre eux ne s’aventurent pas au pays des roulements internes du noyau. Faisant partie de ceux qui peuvent effectivement bidouiller à gré leur noyau, je trouve que cette capacité ne me manque pas en fait. Ça y est, je l’ai dit. Pendez moi pour trahison.

Ma théorie est que les techniciens, en particulier quand ils sont jeunes, ont un plaisir particulier à fourrer leur nez un peu partout dans leur logiciel. (NdT : ici aussi une chaste expression française protège le lectorat de l’impudeur de l’auteur) Exactement comme les confectionneurs de boîtiers d’ordinateur fantaisistes et/ou personnalisés, ces gars trouvent honorifique le fait de passer un nombre incalculable d’heures à compiler et configurer leurs logiciels jusqu’à l’oubli. Eh, j’en était là moi aussi. Et plus je me fais vieux, plus j’attends des choses qu’elles fonctionnent « clé en main ». Ubuntu progresse dans ce domaine pour les utilisateurs novices. Mais certains utilisateurs exigeants semblent penser qu’OS X est inégalé en la matière.

J’avais l’habitude de penser que quelque chose clochait chez moi quand je pensais ça. Puis je me suis mis à regarder les en-têtes des mails sur les listes de diffusions auxquelles je suis abonné, curieux de voir ce que les autres utilisaient parmi les gars que je respecte. Et c’était comme si la majorité des experts lumineux de la communauté de la sécurité informatique, une des communautés les plus sévèrement techniques sur la planète, utilisait OS X.

Et, au cas où vous penseriez que je sois payé par Apple, je mentionnerai Mitch Bradley. Avez-vous lu l’histoire de Mel, le programmeur « réel » ? C’est Mitch, en 2008. Super-hacker de microgiciel (NdT : Firmware), auteur du standard IEEE de microgiciel ouvert, auteur du microgiciel que Sun vendit sur ses machines pendant bien deux décennies, et plus généralement une des rares personnes avec qui j’ai jamais eu le plaisir de travailler et dont les compétences dépassaient si extraordinairement les miennes que ça me donnait l’impression de ne pas savoir par où commencer pour le rattraper. L’ordinateur portable principal de Mitch fonctionne avec Windows.

Tour de passe-passe

Mais vraiment, je me perds en digression. Le fait est que l’OLPC était supposé aider l’éducation, pas les logiciels libres. Et la partie la plus énervante de l’annonce à propos de Windows n’est pas qu’elle révéla que les préoccupations d’un certain nombre de participants au projet n’ont rien à voir avec l’éducation, mais le fait que les erreurs et tours de passe-passe de Nicholas furent mise à jour.

La manœuvre qui consiste à dire « nous sommes en train d’inspecter Sugar, il fonctionnera sous Windows » est un simple non-sens. Nicholas sait assez bien que Sugar ne deviendra pas magiquement meilleur par la simple vertu de fonctionner sous Windows au lieu de Linux. En vérité, Nicholas veut livrer des XP complets, il me l’avait dit. Ce qui n’empêchait pas de poursuivre dans un coin le financement de Sugar, pour éviter un désastre dans les relations publiques du projet, et faire savoir mollement et pour la forme sa « disponibilité », comme une option, aux pays acheteurs.

En fait, j’ai arrêté quand Nicholas m’a dit, et pas qu’à moi, que l’apprentissage n’avait jamais fait partie de la mission. Que la mission était, dans son esprit, d’obtenir le plus d’ordinateurs portables possibles ; que de dire quoi que se soit à propos de l’apprentissage serait présomptueux, et que donc il ne voulait pas que le projet OLPC ait une équipe de développement logiciel, une équipe pour le matériel ou une équipe de déploiement qui aille plus avant.

Ouais, je sais pas vraiment ce qui reste du coup.

Il y a trois problèmes clés dans les projets d’informatique personnelle : choisir un dispositif technique qui convient, l’apporter aux enfants et l’utiliser pour créer une expérience pérenne d’apprentissage et d’éducation. Ils sont listés par ordre de difficulté exponentielle croissante.

L’industrie n’a pas voulu aborder le premier car il n’y avait que peu de profit en jeu. Le projet OLPC a réussi à le leur faire faire de la manière la plus efficace possible : en les menaçant de leur voler leur nourriture. Mais l’industrie des fabricants d’ordinateurs portables ne veut toujours pas aborder le déploiement, car c’est vraiment, vraiment sacrément compliqué, ce n’est pas dans un rayon de 200 kilomètres autour de leur compétences de base, et généralement, ça a un retour sur investissement commercial qui fait pleurer le bébé Cthulhu. (NdT : voir Wikipédia à propos de Cthulhu)

Le premier module de déploiement au Pérou était composé de 40 mille pc-portables, à déployer dans 570 écoles à travers jungles, montagnes, plaines et avec une totale variation dans la disponibilité de l’électricité et une uniforme absence d’infrastructure réseau. Un certain nombre d’écoles cibles sont dans des endroits qui nécessitent plusieurs modes de transports pour les atteindre, et sont tellement retirées qu’elles ne sont même pas desservies par le service postal. La livraison des ordinateurs portables allait être accomplie par des vendeurs non sûrs qui allaient être en position de voler les machines en masse. Il n’y a pas de façon simple de collecter des preuves de ce qui a effectivement été livré, où et à qui. Ce n’est pas évident d’établir une procédure pour s’occuper des unités défectueuses, ou de celles qui étaient mortes à l’arrivée. Comparé à cette problématique, le travail technique que je fais c’est des vacances.

À part l’incroyable Carla Gomez-Monroy, qui travailla à mettre en place les projets pilotes, il n’y avait personne d’autre embauché à travailler au déploiement lorsque j’étais au sein du projet OLPC, avec un total de 360 000 pc-portables en cours de dissémination en Uruguay et au Pérou. J’ai été parachuté la dedans, en tant qu’unique membre à m’occuper de l’Uruguay, et envoyé au Pérou à la dernière minute. Et j’ai plutôt un bon sens pratique, mais qu’est-ce que j’y connais moi en déploiement ? C’est à cette époque que Walter fut rétrogradé et théoriquement fait « directeur du déploiement », un poste où il dirigeait la coûteuse équipe qu’il formait à lui tout seul. Puis il démissionna, et voyez-vous ça : à ce moment là, la compagnie avait un demi million d’ordinateurs portables disséminés dans la nature, avec personne pour ne serait-ce que prétendre être officiellement en charge du déploiement. « J’ai démissionné » me dit Walter au téléphone après être parti, « parce que je ne pouvais pas continuer de travailler sur un mensonge. ».

Mais on ne peut pas dire que le projet OLPC fut pris au dépourvu, ou oublia en quelque sorte que ça allait être un problème. J’ai écrit dans un mémo interne en décembre :

Nous avons en cours de nombreux déploiements en parallèle, de différentes échelles. En Uruguay avec huit mille machines, G1G1 avec potentiellement un quart de million, et avec au moins le Pérou et la Mongolie en prévision dans le mois qui vient. Nous n’avons pas de réelle infrastructure pour supporter ces déploiements, notre processus de développement n’alloue aucune marge pour s’occuper de problème critiques de déploiement qui pourrait (vont inévitablement) arriver, et nous n’avons aucun processus pour gérer les crises qui s’ensuivront. Je voudrais pouvoir dire que c’est la plus grande partie de nos problèmes, mais j’ai mentionné ceux-là en premier simplement parce que je prévois que ce sont ces déploiements qui imposeront le fardeau le plus lourd sur cette organisation dans les mois qui viennent, un fardeau que nous ne sommes présentement entièrement pas préparés à assumer.

(…)

Nous n’avons toujours pas un seul employé concentré sur le déploiement, aidant à le planifier, travaillant avec nos pays cibles pour apprendre ce qui fonctionne et ce qui ne fonctionne pas. De toute évidence notre « plan de déploiement » est d’envoyer selon nos disponibilités un champion super-hacker dans chaque pays, de façon à ce qu’il règle tous les problèmes qui apparaissent une fois sur place. Si ce n’est pas notre plan, alors nous n’avons pas de plan du tout.

Que le projet OLPC n’ait jamais été sérieux à propos de réussir son déploiement, et qu’il semble ne même plus s’intéresser à au moins essayer, est criminel. Laissé sans solution, cela fera du projet un raté historique de la technologie de l’information sans précédent par son ampleur.

Et pour le dernier problème clé, transformer des pc-portables en objet d’apprentissage est un saut logique non trivial, qui demeure inadéquatement expliqué. Non, nous ne savons pas si ça va marcher, spécialement sans professeurs. Et c’est ok — une manière de savoir si ça fonctionne peut très bien être en s’y essayant. Parfois il faut courir avant de pouvoir marcher, ouais ? Mais la plupart d’entre nous qui rejoignirent le projet OLPC étaient convaincus que la philosophie éducative derrière le projet est ce qui en faisait un projet différent des tentatives similaires du passé. Un apprentissage qui soit ouvert, collaboratif, partagé et exploratoire, nous pensions que c’était ça qui pouvait faire fonctionner le projet OLPC. Car certains avaient participé à des projets d’éducation avec des ordinateurs portables ordinaires par le passé, et comme le New York Times le nota en couverture il n’y a pas si longtemps, ils échouèrent lamentablement.

Le nouveau OLPC de Nicholas abandonne ces fantastiques objectifs d’éducation, et oriente le projet vers une organisation sans but lucratif de 50 personnes produisant des ordinateurs portables, en compétition avec Lenovo, Dell, Apple, Asus, HP et Intel sur leur propre terrain, et en utilisant la stratégie que nous savons vouée à l’échec. Mais eh ! Je suppose qu’ils vendront plus d’ordinateurs portables ainsi.

La théorie bancale de Windows

J’ai déjà essayé d’établir qu’il n’existe aucune preuve tangible quant à la supériorité des logiciels libres concernant l’éducation, lorsqu’ils sont comparés à un système d’exploitation propriétaire. Ce point appelle à quelques précisions. Bernie Innocenti, encore récemment CTO de la jeune section Europe de l’OLPC, a écrit il y a quelques jours :

Je ne m’opposerai pas personnellement à un port de Sugar pour Windows. Je ne perdrai jamais mon temps à ça, ni n’encouragerai quiconque à perdre du temps dessus, mais c’est un logiciel libre et donc n’importe qui est libre de le porter vers tout ce qu’il veut.

Stallman a également récemment qualifié de « pas bonne chose à faire » le port de Sugar vers Windows. En fait, un tel port n’est qu’une perte de temps si le logiciel libre n’est pas un moyen ici, mais une finalité. Sur une sollicitation de Nicholas, j’ai écrit un mémo interne à propos de la stratégie logicielle au début de mars. Il fut co-signé par Marco Pesenti Gritti, l’inimitable leader de l’équipe Sugar. Je n’ai pas la liberté de reproduire l’intégralité du document, mais je vais en citer les parties les plus importantes qui tiennent en un minimum de lignes :

… Nous (avons fortement argumenté que nous devrions) découpler l’interface graphique de Sugar du reste des technologies Sugar que nous avons développées comme le partage, la collaboration, le stockage de données et ainsi de suite. Nous devrions peut être alors faire fonctionner ces services dans des environnement Linux normaux, et redéfinir le concept d’activité de Sugar comme étant simplement des applications Linux classiques capables d’utiliser les services Sugar. L’interface graphique de Sugar pourrait elle même, optionnellement et à une date ultérieure, être fournie comme un lanceur graphique, peut être développé pour la communauté.

L’erreur principale de l’approche actuelle de Sugar est qu’elle associe des idées extraordinairement puissantes à propos d’apprentissage, qui devraient être partagées, collaboratives, de pair à pair et ouvertes, avec la notion que ces idées doivent être présentée dans un nouveau paradigme graphique. Cette association est intenable.

Choisir de ré-inventer le paradigme de l’environnement graphique signifie que nous utilisons nos ressources extrêmement limitées à lutter contre des interfaces graphiques, et non à développer de meilleurs outils pour l’éducation. (…) Il est très important de reconnaître que des changements de paradigme graphique ne sont essentiels ni à notre principale mission, ni aux principales idées de Sugar.

Nous gagnerions énormément à détacher les technologies qui supportent directement le mode d’apprentissage qui nous intéresse de l’interface graphique de Sugar. Il devient notamment beaucoup plus facile de répandre ces idées et technologies au travers des plate-formes car nos composants d’interface graphique sont les parties les plus dures à porter. Si les technologies inhérentes à Sugar étaient facilement accessibles à tous les principaux systèmes d’exploitation, nous pourrions favoriser la créativité et travailler à l’élargissement de la communauté pour construire des outils logiciels. Ces outils pourraient ensuite être utilisés globalement par tous les élèves et sur n’importe que ordinateur, XO ou autre. Ça aurait dû être notre constant objectif. Beaucoup des technologies que nous avons construites seraient alors accueillies à bras ouverts dans les système Linux modernes, et un grand nombre de développeurs viendraient nous aider si nous leurs en donnions la possibilité. Au contraire de la situation actuelle, un tel modèle devrait être la direction à prendre : le projet OLPC dirigeant bénévolement des développements eux-mêmes principalement réalisés par la communauté.

Finalement, au regard de la question politiquement sensible de l’engagement de l’OLPC par rapport à l’open source, nous pensons qu’il y a une réponse simple : la politique du projet OLPC devrait être de ne développer que des logiciels libres, utilisant des standards ouverts et des formats ouverts. Nous ne pensons pas qu’un engagement plus grand soit nécessaire. Notre préférence pour la liberté des logiciels ne devrait résulter que de la conviction qu’elle offre un meilleur environnement éducatif que les alternatives propriétaires. À ce titre posséder un ensemble de technologies open source multi plates-formes pour construire des applications d’apprentissage collaboratif fait véritablement sens. Mais fondamentalement, nécessiter une interface graphique particulière ou même un certain système d’exploitation semble entièrement superflu ; nous devrions nous satisfaire de n’importe quel environnement où nos technologies de base peuvent être utilisées comme des briques de base pour délivrer l’expérience éducative qui nous importe tant.

Finalement, il importe peu à notre mission éducative de savoir sur quel noyau fonctionne Sugar. Si Sugar lui même demeure libre, ce qui n’a jamais été remis en question, toutes les fonctionnalités concernées, comme la touche visualisation du code source restent opérationnelles, qu’elles soit sous Windows ou sous un autre OS. Le projet OLPC ne devrait jamais aller dans une direction qui limite volontairement l’audience de ses logiciels éducatifs. Windows aujourd’hui est le système d’exploitation le plus diffusé. Un Sugar compatible-Windows pourrait potentiellement apporter sa riche vision de l’apprentissage à des dizaines voire des centaines de millions d’enfants de par le monde dont le parents ont un ordinateur équipé de Windows, que ce soit des ordinateurs fixes ou portables. Suggérer que cette façon de procéder soit mauvaise car philosophiquement impure est carrément démoniaque.

Et eh, peut être qu’une version Windows de Sugar intéressera suffisamment les enfants au fonctionnement des ordinateurs (et des programmes) pour vouloir vraiment passer à Linux. Trolltech, la compagnie derrière le toolkit graphique Qt fut récemment achetée par Nokia et annonça qu’elle allait ajouter une plate-forme de support pour les versions mobiles de Windows, essuyant alors les accusations de trahison de la communauté du logiciel libre. Mais le responsable technique de Trolltech, Benoit Schillings, ne voit pas les choses ainsi :

Certaines critiques concernent le fait que le support de Windows mobile par Trolltech pourrait limiter la croissance des technologies Linux mobiles et embarquées, mais Schillings voit les choses différemment. En permettant aux développeurs d’application de créer un seul code de base qui puisse être porté sur différentes plateformes de manière transparente, il dit que Trolltech rend la transition à Linux plus simple pour les compagnies qui utilisent actuellement Windows mobile, ce qui signifie pour lui plus d’adoptions du système d’exploitation libre à long terme.

L’homme parle sagement.

Maintenant, faites particulièrement attention : autant je suis clairement enthousiaste à l’idée de porter Sugar pour n’importe quel système d’exploitation, autant je suis absolument opposé à ce que Windows devienne l’unique système d’exploitation que le projet OLPC offre pour ses XOs. Les deux sujets sont complètement orthogonaux, et la tentative de Nicholas de confondre les deux en qualifiant la communauté du logiciel libre de « fondamentaliste » (et regarder la communauté écumer de rage au lieu d’épingler sa logique) est simplement une autre erreur. Ce n’est pas qu’il faille ne pas se sentir légitimement offensé. C’est seulement qu’il a pris l’habitude d’appeler terroristes ses employés.

Le projet OLPC devrait être philosophiquement pur à propos de ses propres machines. Être un organisme à but non lucratif qui attire la bonne volonté d’un grand nombre de volontaires communautaires de par son succès et dont la mission principale est un objectif de progrès social, cela implique une grande responsabilité. Ça ne devrait pas devenir un moyen de créer une incitation économique pour un vendeur particulier. Il ne faudrait pas croire le non-sens qui veut que Windows soit une obligation pour le monde du travail après l’école. Windows est demandé parce que suffisamment d’enfant ont grandit avec, et non l’inverse. Si le projet OLPC faisait grandir un milliard de personne avec Linux, Linux ne serait qu’un dandy pour le monde du travail. Et le projet OLPC ne devrait pas choisir un unique système d’exploitation qui paralyse le matériel des ordinateurs du projet : les versions courantes de Windows ne peuvent ni utiliser intelligemment la gestion de l’énergie des XO, ni son maillage complet ou ses capacités avancées d’affichage.

Plus important encore, le système d’exploitation fourni avec l’OLPC devrait incarner la culture de l’éducation à laquelle le projet adhère. La culture d’enquête ouverte, de divers travaux coopératifs, de la liberté d’utiliser et déboguer, ça c’est important. Le projet OLPC a la responsabilité de diffuser la culture de la liberté et les idées que sa mission éducative soutient ; ceci ne peut être fait en offrant uniquement un système d’exploitation propriétaire pour ses ordinateurs portables.

Dit différemment, le projet OLPC ne peut pas clamer qu’il est préoccupé par l’éducation et dans le même temps entrainer les enfants à être des drones d’informatique de bureau, contraints par l’invisible rhétorique des drones de bureau à déployer des ordinateurs contenant des logiciels de drones de bureau. Nicholas avait l’habitude de dire qu’imaginer que les XOs puissent être utilisés pour enseigner à des enfants de six ans comment se servir de Word et Excel le faisait grincer des dents. Apparemment, ce n’est plus le cas. Qu’en est-il aujourd’hui ? L’indécision doit prendre fin. Comme on dit chez nous : relance ou casse-toi (NdT : shit or get off the pot)

Comment aller plus loin

Voici un extrait d’un de mes derniers mails à Nicholas, envoyé peu de temps avant ma démission :

Je continue de penser qu’ils est fort dommage que tu ne tires pas avantage de la position actuelle de l’OLPC. Maintenant qu’il a réussi à faire travailler l’industrie sur des ordinateurs portables à bas prix, le projet OLPC pourrait devenir le point de rassemblement de la défense du constructionnisme, publiant du contenu éducatif, fournissant des logiciels d’apprentissage, et gardant trace des déploiements mondiaux et des leçons à en tirer. Quand un pays choisit cette option, le projet OLPC pourrait être l’endroit où s’arrêter en travaillant véritablement avec ce pays pour aider à sa réalisation, sans s’occuper du fabriquant qui aura été choisi, capitalisant ainsi sur les plans de déploiement, l’expérience et la base de logiciels et contenus facilement disponibles. Dit autrement, le projet OLPC pourrait être le service global IBM des programmes d’informatique personnelle. C’est, je le maintiens, la bonne voie à suivre pour avancer.

Je suis en train d’essayer de convaincre Walter de ne pas démarrer une Fondation Sugar, mais une Fondation de l’Éducation Libre (NdT : Open Learning Foundation). Pour ceux qui s’intéressent encore à l’éducation dans ce panier de crabes, la mission pourrait être de lancer cette organisation, puisque le projet OLPC ne veut pas l’être. Avoir une compagnie indépendante de tout matériel et concentrée entièrement sur l’écosystème éducatif, depuis le déploiement jusqu’au contenu de Sugar, ce n’est pas seulement ce que je pense être prioritaire pour vraiment porter les efforts d’informatique personnelle à un autre niveau, mais c’est également une approche qui a une bonne chance de faire en sorte que cette organisation fasse des choses à peu près auto-financées.

Donc voilà pour l’éducation ouverte, le logiciel libre, la force des convictions personnelles, et pour avoir suffisamment de foutu humilité pour se souvenir que le but est d’apporter l’éducation à un milliard d’enfants de par le monde. Le milliard attend que nous mettions nos idiotes querelles de côté, que nous finissions nos interminables complaintes, pour y aller enfin.

Allons-y maintenant.

Notes

[1] Merci à Simon Descarpentries pour la traduction.




Comment Eben Moglen a rencontré Richard Stallman

Tranche d’Histoire du logiciel libre…

Aux premiers temps de l’informatique, (presque) tous les logiciels étaient libres (sans même le savoir). Puis vient le temps de la propriétarisation du code qui obligea certains, comme Richard Stallman, à protéger la liberté des logiciels ou plus précisément la liberté des utilisateurs de logiciels.

Cette protection serait d’autant plus forte qu’elle serait sans faille vis-à-vis de la loi. Et c’est ainsi que le monde des hackers fit connaissance avec celui des juristes pour enfanter de licences qui font bien plus qu’accompagner les logiciels libres puisqu’elles participent à leur définition même.

Or, l’une des rencontres les plus fécondes entre le juridique et l’informatique (libre) est très certainement celle d’Eben Moglen avec Richard Stallman. Et c’est pourquoi nous avons jugé intéressant de traduire[1] la retranscription d’une interview qu’Eben Morglen a donné à Joe Barr de Linux.com en juin dernier pour en sous-titrer la vidéo[2].

« Nous sommes des nains juchés sur les épaules des géants. Stallman était un géant, je me suis juché sur ses épaules et j’ai vu le monde. »

Vous trouverez la version au format libre Ogg de l’interview sur Linux.com. Si vous souhaitez lui ajouter le sous-titrage en voici le fichier SRT.

Eben Moglen: How I discovered Free Software and met RMS (video)

Comme Stallman, John Gilmore et d’autres de ma génération, on peut dire que j’ai été impliqué dans le logiciel libre quand j’étais enfant car les logiciels étaient libres pour eux. J’ai commencé à 14 ans comme développeur d’applications APL pour Scientific Time Sharing Corporation (STSC) en 1973. J’ai travaillé à la conception et à la mise en oeuvre d’applications APL pour STSC et pour Xerox dans les années 70 et, en 79, j’ai été travailler pour IBM au laboratoire de Santa Theresa où j’ai modifié les interpréteurs APL pour IBM. J’ai travaillé sur l’APL et APL2. J’ai écrit une bonne partie du premier compilateur pascal d’IBM.

La manière dont nous travaillions était basée, après tout, sur le partage du code avec les personnes (clients) qui utilisaient les ordinateurs sur le terrain. Ils nous aidaient à concevoir, mettre en œuvre, améliorer et modifier les choses (code). Ils avaient les sources et quand ils émettaient un APAR (NdT : Authorized Program Analysis Report, dans la nomenclature d’IBM ce terme désigne un problème officiellement reconnu et diagnostiqué par le centre de support IBM), ils envoyaient un patch.

Ainsi, dans un sens, nous vivions dans un environnement où le logiciel était encore libre. Bien sur, nous avions des principes de propriété mais, en 1979, quand la commission "CONTU" terminait sa réflexion sur le logiciel libre, ces principes de propriété n’étaient pas encore bien compris et dépendaient à la fois de tout le monde et de personne.

Pouvait-on y attacher une propriété intellectuelle? AT&T et IBM n’étaient pas d’accord. Quelle partie du code pouvait-on protéger par un brevet ? Quasi rien. Pouvait-on le considérer comme un secret industriel ? Et bien non, ce code permettait seulement de différencier des ordinateurs onéreux.

Ainsi, d’une certaine manière, le monde dans lequel nous vivions présupposait une liberté à bricoler (le code). J’ai principalement travaillé sur des langages interprétés où les codes source et objet sont confondus. Il fallait partager le code. J’ai travaillé sur des produits distribués sur des environnements 370 (NdT : IBM mainframe) où le client s’attendait à recevoir le code source et s’il avait le code source de VM (NdT : OS) et que quelqu’un lui fournissait du MVS (NdT : OS) dans un langage appelé PLS pour lequel il n’avait pas de compilateur, il se plaignait ; parce qu’il s’attendait à pouvoir compiler le produit sur le site. Il s’agissait tout de même d’un super-ordinateur de plusieurs millions de dollars, qui aurait osé lui dire qu’il n’avait pas le droit de compiler le logiciel sur sa machine ?

D’une certaine façon, je dirais que j’ai toujours vécu dans le logiciel Libre. Ce toujours a néanmoins connu une pause.

Alors que je travaillais chez IBM en 1979, on m’a demandé de tester et de faire un rapport interne sur un machin nommé LISA ; le dernier gadget de Apple pour faire entrer la technologie de Xerox PARC (NdT: Palo Alto Research Center) dans le monde de Steve Jobs. Le LISA était une sorte d’ordinateur Pre-Macintosh ; j’ai donc écrit mon rapport interne sur cette machine et le contenu de ce rapport était le suivant : C’est une catastrophe. Cette machine incarne la fin du langage en relation avec l’ordinateur, c’est l’interface de l’homme des cavernes : tu vises et tu grognes. Si on résume l’interaction homme machine à viser et grogner, on écarte le rôle du langage dans l’évolution de l’esprit humain et de sa conscience. Le langage est ce qui nous rend plus intelligent, si nous n’utilisons pas le langage pour communiquer avec les machines alors ni nos cerveaux ni ceux des machines ne s’épanouiront comme ils devraient le faire. Cet argument eu peu de poids chez IBM et il en eu encore moins dans le monde en général au fil du temps.

Je devins moins enthousiaste devant la perspective de programmer dans ce monde car j’étais mordu de langage de programmation et le langage n’était plus ce qui était en vogue. Je suis donc parti et j’ai obtenu une licence de droit et un Doctorat en histoire et je suis devenu Historien du droit et j’ai fait d’autres travaux. J’ai débuté avec un emploi en tant qu’assistant Juge (NdT: Law Clerk) pour Weinfeld à NY, j’ai été assistant de Thurgood Marshal, puis j’ai commencé à me demander de quelle manière on pouvait rendre le monde plus juste !

J’ai eu ensuite un boulot d’enseignant dans une excellente Université en tant que Historien du droit. J’y ai fait ma thèse de Doctorat et écrit quelques articles d’histoire. Je m’intéressais à la signification à long terme de l’information dans la société humaine. Puis j’ai voulu coder car je suis un codeur compulsif et aussi parce que j’avais un PC à ma disposition qui, certes n’était pas la machine de onze millions de dollars à laquelle j’étais habitué, mais c’était un ordinateur qui pouvait servir à deux trois petites choses. Je n’aimais pas beaucoup DOS mais je n’ai jamais utilisé Windows qui était La Chose mauvaise pour les ordinateurs. Je n’allais pas utiliser quelque chose que je considérais comme la pire des choses. Je savais ce que X windows était, mais qui désirait utiliser ça, vous savez… le cerveau etc… Je suis donc passé chez Coherent lorsque la compagnie de Mark Williams créa un Unix estropié à 99$. Je l’ai essayé et j’ai commencé à l’utiliser avec les Outils du projet GNU puis ensuite j’ai utilisé les outils GNU sous DOS. J’utilisais DJGPP, puis le compilateur C de Delorie pour porter UNIX sur le DOS afin d’utiliser EMACS sur ma machine DOS car tout comme Stallman j’avais une grande dévotion pour EMACS.

Donc quelque part le logiciel libre a toujours été présent mais l’essentiel de ma vie était non technologique. En 1991 je décidais que je savais ce qu’il fallait faire pour commencer à travailler pour la liberté au 21 siècle: La cryptographie à clé publique était la première chose à implémenter. Nous en avions besoin pour deux raisons: garder les secrets à l’abri du gouvernement et faire du commerce électronique. Donc j’ai commencé à m’intéresser à la question, à chercher un moyen de faire de la cryptographie pour casser les règles du gouvernement sur le chiffrement de données. En Juillet 1991 j’ai vu un programme appellé Pretty Good Privacy (PGP) publié sur un forum. J’ai récupéré l’archive zip, j’ai lu le manuel de l’utilisateur et j’ai lu le code source car celui-ci était fourni, puis j’ai écrit un email non sollicité à l’auteur Phil Zimmerman qui n’avait jamais entendu parler de moi et je lui ai dit: « Bravo, tu vas changer le monde. Tu vas aussi ne pas tarder à être dans un merde noire, lorsque ça te sera tombé dessus je pourrais t’aider. Voici qui je suis, voila ce que j’ai fait et voici ce que je sais, quand tu auras des soucis appelle moi. » Dix jours plus tard le FBI frappait à sa porte et les ennuis commencèrent.

Donc j’ai décidé de travailler comme bénévole dans un groupe local de défense ; nous étions quelques personnes à prendre sur notre temps libre pour essayer d’empêcher le gouvernement fédéral d’accuser Zimmerman de violation de la loi sur le trafic d’armes. Notre but était d’aller aussi loin que possible avec cette affaire jusqu’au cœur des choses, afin de mettre les contradictions au grand jour. Alors que je travaillais sur l’affaire Zimmerman j’ai passé du temps avec John Markov du Times et au cours d’une interview je lui ai exposé mon idée selon laquelle le droit de parler le PGP (communiquer avec PGP) était le pendant numérique du droit de parler le Navajo. Markov fit paraître ceci dans le Times et ça devint une maxime que de nombreuses personnes utilisèrent comme signature dans leurs emails pendant quelques mois. Stallman vit la couverture de Markov sur le Times et il m’écrivit. Il me dit « j’ai un problème légal/juridique personnel et j’ai besoin d’aide; il me semble que tu es l’homme qu’il me faut. » Je lui ai répondu: « J’utilise Emacs tous les jours et il faudra du temps pour que tu épuises ton crédit d’aide juridique gratuite!.» il m’a demandé de le faire et j’ai fait ce qu’il fallait faire pour lui.

J’ai réalisé qu’il était la source même d’informations sur ce que je devais faire. J’avais fait ce qu’il me semblait important de faire au sujet de la cryptographie et je voyais que le problème était sur le point d’être réglé, mais je ne savais pas quoi faire ensuite pour apporter la Liberté technologique au 21ème siècle. C’était en automne 1993 et j’ai réalisé que toute personne qui avait un souci concernant la Liberté Technologique ne connaissait qu’une seule adresse mail : rms AT gnu.org. Si RMS me transférait tout ses messages nécessitant l’intervention d’un juriste, je serais assez rapidement mis au courant de ce qu’il y avait à faire en ce bas monde. RMS avait la meilleure prospective stratégique qui soit.

Je me suis donc assis sur ses épaules pour quelques années, faisant tout le travail qu’il considérait comme important et me tenant au courant de tout ce que les gens lui écrivaient. A la fin, je lui ai dis « tu as besoin d’un conseiller juridique » et il a dit « bien sûr ! » et j’ai commencé à faire le travail qu’il y avait à faire. C’était juste du travail que je faisais sur mon temps libre, j’étais toujours un historien du droit, personne parmi mes collègues académiques n’avait la moindre idée de ce dont il s’agissait, tout le monde savait que je racontais que le logiciel libre allait conquérir le monde et il me répétaient « oui oui, c’est formidable, super, merci beaucoup, à bientôt » et ça en restait là. Mais je savais où nous allions et surtout j’avais compris que Stallman en personne était la plus haute des montagnes et qu’en étant assis sur ses épaules on voyait bien plus loin.

Newton et consorts jusqu’à Bernard de Chartres avaient raison. Nous sommes des nains juchés sur les épaules des géants et c’est ce qui s’est passé : Stallman était un géant, je me suis juché sur ses épaules et j’ai vu le monde. Donc d’une certaine manière on pourrait dire 1993, ou 1995, ce qu’on peut dire en tout cas c’est que j’en ai fait de plus en plus plus car il y avait de plus en plus de travail. Mais je ne pouvais pas me multiplier par neuf ! Et puis d’un coup l’espace temps à gonflé et on s’est tous rendu compte que c’était arrivé.

En gros, la réponse est que j’étais là avant le Big Bang et le temps n’existait pas encore. Beaucoup de personnes ont commencé à s’y référer seulement après que tout cela ait vraiment commencé. Mon point de vue est que tout cela entre dans la continuité de quelque chose qui a commencé il y a bien longtemps, c’est le renversement d’une singularité dans le déroulement du temps. Microsoft a, un temps, réussi à faire croire que le logiciel pouvait être un produit. Maintenant ce n’est que rarement un produit. L’information technologique précisant la façon dont nous et nos cerveaux numériques existent, ce n’est pas un produit, c’est une culture, c’est l’empreinte d’un être humain en interaction avec les autres. C’est comme la littérature, ça ne peut être un produit.

Donc, nous sommes en train de découvrir qu’il s’agit d’une culture engendrée par des communautés; nous aurions pu nous en rendre compte en 1965 où en 1970. C’était difficile à voir en 1990 mais c’est devenu évident (rires) en 2006. Pour moi il s’agit plus, d’un point de vue historique, de mettre un terme à une confusion temporaire plutôt que de parler d’un mystèrieux et étrange point de départ qui aurait surgit d’on ne sait où.

Notes

[1] Grand merci à Ripat, Ziouplaboum et Olivier pour la traduction.

[2] Grand merci à Xavier Marchegay pour le sous-titrage.