De Linux et de l’opportunité d’une synchronisation des distributions

Voici une traduction[1] un peu technique mais qui illustre bien la problématique de la démocratisation de GNU/Linux.

Elle fait suite à la proposition récente de Mark Shuttleworth (Monsieur Ubuntu) de synchroniser les cycles et donc les sorties des principales distributions Linux (outre Ubuntu il cite celles de Red Hat, Novell et Debian ainsi que le noyau, GNOME/KDE, X et OpenOffice.org). Histoire que tout ce petit monde avance groupés, ce qui d’après lui simplifierait la vie de tout le monde à commencer par celle des utilisateurs.

Mais Ryan Paul du site Ars Technica n’est visiblement pas tout à fait de cet avis. Au ce serait bien si… de Mark Shuttleworth il répond avec des arguments précis qui évoquent souvent le quotidien collaboratif d’un développeur de logiciels libres (en particulier tout ce qui touche à la gestion de versions). Et lorsque l’on est, comme moi, utilisateur mais non développeur de logiciels libres, c’est culturellement fort enrichissant.

On notera qu’à la suite de sa proposition et du vif débat suscité, Shuttleworth a précisé voire nuancé son propos quelques jours plus tard sur son blog.

Copie d'écran - Ars Technica

Pourquoi Linux n’est pas encore prêt pour des cycles de parution synchronisés

Why Linux isn’t yet ready for synchronized release cycles

Ryan Paul – 21 mai 2008 – ars technica

Le fondateur d’Ubuntu, Mark Shuttleworth a répété son appel aux développeurs des principaux logiciels libres et des distributions Linux pour une synchronisation des développements et des cycles de publication. Il avance que l’adhésion fidèle et universelle à un modèle de parution régulier encouragerait la collaboration entre les projets, assurerait aux utilisateurs l’accès aux dernières nouveautés des applications populaires et ferait de la plateforme Linux une cible plus stable et prévisible pour les vendeurs de logiciels.

Shuttleworth souhaite organiser les principales sorties en trois vagues distinctes, chacune formant un ensemble cohérent. La première vague concernerait les composants fondamentaux comme le noyau Linux, le compilateur GCC, les boîtes à outils graphiques comme GTK+ et les plateformes de développement comme Python et Java. La deuxième vague apporterait les environnements graphiques et les applications tandis que la troisième vague serait composée des distributions.

Bien qu’un cycle de sortie unifié rendrait plus aisée la création d’une distribution Linux, ce concept apporte d’importantes difficultés et n’est que peu gratifiant pour les développeurs de logiciels. Pour parvenir à une synchronisation à grande échelle comme Shuttleworth le souhaite, certains logiciels libres devraient radicalement changer leur modèle de développement actuel et adopter une nouvelle approche qui ne sera pas viable pour nombreux d’entre eux.

Comprendre les cycles de sorties réguliers

Un cycle de sorties régulier nécessite de sortir de nouvelles versions à une fréquence donnée. Le processus de développement pour les projets qui emploient ce modèle implique en général une planification des fonctionnalités prévues et ensuite une implémentation maximale jusqu’à ce que le projet gèle le code lorsque l’échéance approche. À partir de ce moment là, les fonctionnalités qui ne sont pas terminées sont reportées. On se concentre alors sur la correction des bogues et sur l’assurance qualité jusqu’à la date butoir, quand le logiciel est officiellement sorti.

Ce modèle fonctionne bien pour de nombreux projets, en particulier pour l’environnement GNOME. Mais, une conséquence de ce modèle est que les développeurs doivent travailler par incrémentation et il décourage les modifications de grande ampleur, celles qui nécessiteraient plus de temps que n’en offre le cycle. Parfois cet intervalle n’est simplement pas suffisant pour ajouter au code principal et tester des changements d’architecture importants qui sont incubés en parallèle en dehors de l’arbre principal du code.

Quand cela se produit, les développeurs doivent se demander si les avantages de la nouvelle fonctionnalité compensent les effets néfastes de la régression (comme avec l’adoption de GVFS dans GNOME 2.22 par exemple). Ils doivent parfois décider de retirer des fonctionnalités à la dernière minute ou de repousser la date de sortie pour améliorer la stabilité. Ce sont des choix difficiles à prendre et, comme le reconnaît Shuttleworth lui-même, faire ces choix demande beaucoup de discipline.

Même si des cycles réguliers peuvent convenir à certains projets, tenter d’imposer l’adoption de cette approche à tous les projets et ensuite les faire correspondre universellement pourrait gravement endommager le processus de développement. Si les projets deviennent dépendants de la synchronisation, alors un retard à n’importe quelle étape aurait des conséquences sur toutes les autres étapes. Chaque projet subirait alors une pression énorme pour tenir les délais et ce serait néfaste pour le programme et ses utilisateurs finaux.

L’utilisation des branches pour faciliter des sorties régulières

D’après Shuttleworth, de bons outils, en particulier des systèmes de contrôle de version possédant de bonnes capacités de création de branches et de fusion, peuvent rendre ce problème obsolète. Il se réfère spécifiquement à Bazaar, un système de contrôle de version mis au point par Canonical qui s’intègre à la plateforme de développement Launchpad de l’entreprise. J’ai beaucoup testé Bazaar durant ces deux dernières semaines en cherchant des technologies de contrôle de version distribuées et je ne peux qu’être d’accord avec l’argument de Shuttleworth.

Bazaar rend très facile le portage du flot continu de petits changements, du tronc vers les branches, où les fonctionnalités importantes sont développées, afin que ces fonctionnalités puissent être fusionnées sans accroc dans la branche principale quand elles sont achevées. En utilisant cette approche, où la majeure partie du développement est faite dans des branches, le code du tronc est naturellement et systématiquement plus robuste qu’il ne le serait autrement. Shuttleworth va même plus loin encore et théorise que lorsque cette approche est employée en parallèle à des tests automatisés le code du tronc est toujours prêt à être sorti à n’importe quel moment.

« Un ensemble de tests complet vous permet d’être plus ouvert aux gros ajouts au tronc parce que les tests assurent les fonctionnalités que les gens ont avant l’ajout. Un ensemble de tests agit comme un champ de force, il protège l’intégrité du code dont le comportement était connu le jour précédent face au changement perpétuel. » écrivait ainsi Shuttleworth sur son blog.

« La plupart des projets que je finance maintenant ont adopté une politique de tests avant ajout. Les ajouts au tronc sont gérés par un robot qui refuse de valider l’ajout s’il ne satisfait pas à tous les tests. Vous ne pouvez pas discuter avec un robot ! Ce que je trouve beau là-dedans c’est que le tronc est toujours dans un état publiable. Ce n’est pas complètement vrai ; on peut toujours faire un peu plus d’assurance qualité avant de sortir quelque chose, mais vous avez cette garantie que l’ensemble de tests est toujours satisfait. Toujours. »

Les ensembles de tests et les très bons systèmes de contrôle de version peuvent simplifier le développement et améliorer la qualité du code, mais ils ne sont pas la panacée. Shuttleworth surestime largement la capacité de ces outils à pallier aux problèmes associés aux sorties régulières. Des bogues surgiront toujours quand de grosses nouveautés sont fusionnées au code existant et parfois ces bogues nécessitent un report de la date de sortie. Si les développeurs ne peuvent ou ne veulent pas faire cela, la qualité du logiciel s’en retrouvera forcément affectée.

Ubuntu 8.04 est le parfait exemple de la voie à ne pas suivre

Pas besoin de chercher très loin pour constater la baisse de qualité résultante d’un engagement sans compromis à un cycle de sorties régulières. Prenez l’exemple de la dernière version d’Ubuntu. Shuttleworth vante Ubuntu 8.04 comme l’exemple d’une gestion plus intelligente des sorties et soutient que cela démontre la capacité des développeurs à s’en tenir à un programme strict.

« 8.04 LTS représente pour nous un grand pas en avant dans notre conception de la gestion d’une sortie. Pour autant que je sache, jamais une sortie de cette envergure ne s’est faite exactement le jour prévu jusqu’à maintenant, dans le monde des OS propriétaires ou des OS libres. » commente Shuttleworth sur son blog. « Nous avons non seulement démontré que l’on peut préparer une version LTS dans les 6 mois impartis, mais cela prouve également que l’on peut s’engager par anticipation sur un tel cycle LTS. Félicitations aux preneurs de décisions techniques, aux responsables versions et à toute la communauté qui a calqué nos efforts sur le but fixé. »

Ubuntu 8.04, qui est parue le mois dernier, est une version avec support à long terme (LTS pour Long Terme Support), ce qui signifie qu’elle sera maintenue trois ans pour la version Desktop et 5 ans pour la version serveur. Depuis le début, Shuttleworth affirmait aux utilisateurs que la qualité et la fiabilité seraient les mots d’ordre pour la 8.04 et qu’elle serait faite pour durer. Malheureusement, la version n’a pas atteint ces objectifs et est sortie avec quelques bogues importants. Le problème le plus frustrant que nous avons relevé dans notre test d’Ubuntu 8.04 est la configuration défectueuse de PulseAudio, qui affecte à la fois les fonctionnalités audio et vidéo.

Un léger retard aurait permis de résoudre les problèmes de ce genre avant la sortie, mais ce n’est jamais arrivé, peut-être parce que l’engagement de faire la sortie à temps l’a emporté sur l’engagement de la qualité. Mais certains diront qu’une version défaillante n’est pas un problème parce que les bogues peuvent être réparés par des petites mises à jour après sa sortie.

« Les grands déploiements attendent la première ou la deuxième version consolidée de toute façon » fait noter Shuttleworth en réponse à un commentaire sur ton blog (NdT : La sortie de Ubuntu 8.04.1 est prevue pour le 3 juillet). Je me doute que je ne suis pas seul à avoir pensé aux Service Packs de Microsoft en voyant cette remarque. Mais une version officielle n’est-elle pas censée être un gage de qualité ? Si les sorties sont basées sur des jalons arbitraires posés sur une chronologie plutôt que sur une réelle amélioration, alors elles perdent leur sens ou leur pertinence pour les utilisateurs finaux.

D’autres approches

Les cycles de sortie devraient être flexibles et les développeurs devraient pouvoir en ajuster la durée pour qu’ils collent à leur activité. Selon les projets, la culture de développement et les buts peuvent être très différents, les stratégies de publication sont par conséquent différentes. L’appel de Shuttleworth en faveur d’une synchronisation reflète une forme d’incapacité à reconnaître la valeur et la profondeur de la diversité dans la communauté du logiciel libre. Des distributions qui visent des publics différents et qui ont des priorités différentes pourraient ne pas rentrer dans le même moule que les distributions généralistes comme Ubuntu. On retrouve également des logiciels libres multi-plateformes, comme le navigateur Web Firefox par exemple, qui réunissent beaucoup d’utilisateurs sur d’autres systèmes d’exploitation et qui peuvent avoir d’autres priorités que la fréquence de sortie des distributions Linux.

Je tiens à dire quand même que je ne rejette pas catégoriquement les idées de Shuttleworth. Même si je suis vraiment contre une approche descendante et centralisée de la planification des sorties synchronisées je pense qu’il y pourrait y avoir des bénéfices à tirer d’un meilleur alignement du calendrier de quelques distributions principales qui partagent déjà des buts, une technologie et une méthodologie similaires.

La simultanéité des sorties est déjà à l’ordre du jour (Fedora 9, Ubuntu 8.04 et OpenSolaris 2008.05 ont toutes vu le jour à quelques semaines d’intervalle) et je suis convaincu que de meilleurs résultats sont atteignables si on laisse cette tendance se développer d’elle-même. Encourager trop d’interdépendance créerait des risques sévères, on parle d’un domaine où une planification consciencieuse et un calendrier gravé dans la roche seraient à l’origine de plus de problèmes qu’ils n’en résolvent.

Aaron Seigo, développeur KDE, est l’un des détracteurs ayant exprimé des inquiétudes convaincantes et perspicaces au sujet de la proposition de Shuttleworth. Seigo met à plusieurs reprises en avant que le genre de synchronisation que souhaite Shuttleworth améliore l’efficacité d’intégration au dépend de l’efficacité des développeurs, une concession qu’il décrit comme contre-productive car c’est dans le développement que se trouve le richesse des logiciels.

« Mark parle de processus en flux tendu, mais seulement du point de vue de l’intégration ; il existe aussi des processus en flux tendu dans le développement et définir le cycle de développement à l’aune du cycle de sorties, surtout s’il n’est pas bon, érode la fluidité du flux de développement », écrit Seigo sur son blog. « Il ne faut pas oublier que c’est le processus de développement qui fait toute la valeur d’une distribution Linux. La distribution rend cette valeur accessible à grande échelle et crée un autre type de valeur ajoutée par-dessus (le support, le marketing, etc.) mais c’est le développement, pas l’intégration, qui est la source primaire de valeur. Il devrait alors être évident que le processus de développement n’est pas quelque chose qu’on peut prendre comme ça à la légère. »

Seigo propose une alternative qui faciliterait la synchronisation en aval sans nécessiter de synchronisation ou de chamboulement en amont. D’après lui, les distributions devraient gérer par elle-mêmes les sorties en créant leurs propres branches et en tenant compte des contraintes de leurs propres cycles.

« Puisqu’il y a cette volonté en aval pour des cycles de parution synchronisés… pourquoi est-ce que l’aval ne prendrait pas en charge les sorties ? Pourquoi attendre que les tarballs soient livrées devant leur porte pour mettre en place une équipe de publication ? » s’interroge Seigo. « Pourquoi ne pas demander à la communauté d’intégration (les vendeurs de systèmes d’exploitation en gros) de coordonner leur efforts pour créer une branche en vue d’une sortie à un moment donné, moment qu’ils définissent eux-mêmes, et travailler avec l’amont pour la stabilisation de cette branche ? Plutôt que d’espérer que l’amont fasse ce qu’ils désirent, pourquoi ne peuvent-ils pas regrouper un tas de gars des communautés de chez Novell, Red Hat, Debian, Mandriva, MacOS et Microsoft, de chez Canonical ou encore de chez n’importe qui qui voudrait s’impliquer et offrir un vrai processus sérieux de sortie par lequel l’amont pourrait s’intégrer naturellement ? »

Les suggestions de Seigo sont plus viables que les propositions de Shuttleworth. Elles permettraient aux distributions Linux de bénéficier des avantages pratiques de la synchronisation dont bénéficieraient également les utilisateurs finaux sans avoir à bouleverser ou synchroniser le développement en amont. Cela engendrerait cependant un coût additionnel et un défi nouveau pour les distributeurs et leur ferait porter le poids de la gestion des sorties. Seigo assure que si les distributeurs veulent vraiment des sorties synchronisées en aval autant que ça ils seront prêts à accepter cette charge supplémentaire et trouveront un bon moyen pour y parvenir.

Il est bien probable que cette discussion dure pendant encore quelques temps à mesure que les acteurs principaux pèsent le pour et le contre. La communication a déjà fait avancer le débat de bien des manières et a déjà fait émerger des alternatives attirantes et des variations de la proposition initiale. Le résultat final pourrait avoir des implications importantes sur la gestion des sorties par les logiciels libres et les distributions, mais pour l’instant aucune des idées proposées n’est suffisamment mature pour être appliquée à grande échelle.

Notes

[1] Traduction : Olivier – Relecture : Daria – Café : Framalang.




Firefox : Et 1, et 2, et 3.0 !

Le titre de ce billet est inversement proportionnel aux qualités de la très attendue nouvelle version de Firefox (d’autant que ce n’est pas forcément le moment d’abuser des références footballistiques). J’aurais peut-être mieux fait de choisir un plus classique Firefox 3, très bientôt sur vos écrans !

Toujours est-il que demain (soir) c’est donc la sortie officielle et planétaire de Firefox 3.0. Un évènement majeur qui méritait bien un passage en revue détaillé des principales nouveautés.

Et comme on n’avait pas envie de réinventer la roue, il s’agit d’une nouvelle traduction Framalang (Yonnel, relecture assurée par Olivier et Yostral).

Firefox 3

Petit guide de Firefox 3

Field Guide to Firefox 3

Deb Richardson – 12 juin 2008 – Dria.org

Nous y voilà. Firefox 3 sera lancé dans très peu de temps. Avant cet événement tant attendu, les membres de la communauté Mozilla ont beaucoup écrit à propos des nouvelles fonctionnalités et des améliorations que vous allez voir avec ce navigateur. Les nouvelles fonctionnalités sont pour certaines énormes et innovantes et pour d’autres si subtiles que vous ne les remarquerez peut-être pas avant de vous dire que l’utilisation de Firefox est d’une certaine manière plus simple et plus performante. La gamme des fonctionnalités améliorées est tout aussi large, des pans entiers de traitement des données ont été repris à zéro, alors que des fonctionnalités ont été légèrement modifiées ou redéfinies dans de petites proportions. Globalement le résultat est la version de Firefox la plus rapide, la plus sûre, la plus légère et la plus facile à utiliser qui soit. Nous espérons qu’il vous plaira.

Voici la liste des fonctionnalités traitées dans ce guide :

Gestionnaire de modules complémentaires

Firefox 3

Le gestionnaire de modules complémentaires dans Firefox 3 a été étendu pour inclure un nouvel onglet "Catalogue" où vous pouvez voir les modules complémentaires recommandés, en chercher de nouveaux, voir les descriptions et les notes, mais aussi installer des modules complémentaires d’un simple clic. Le gestionnaire de modules complémentaires est maintenant complètement intégré au site addons.mozilla.org (AMO), ce qui rend plus facile que jamais la recherche et l’expérimentation de nouvelles extensions et de nouveaux thèmes pour votre navigateur.

Pour en savoir plus Get Add-ons in Firefox 3 de Madhava Enros.

Marque-pages

Firefox 3

Firefox 3 introduit de nouvelles fonctionnalités pour les marque-pages qui les rend beaucoup plus faciles à utiliser, plus utiles en général et beaucoup plus utiles pour les cancres de l’organisation. Les trois principales fonctionnalités sont les étoiles de marque-pages, les tags de marque-pages et les dossiers de marque-pages intelligents.

Les étoiles sont une façon facile et rapide de marquer une page en un simple clic. Les tags sont une façon d’ajouter "plus" d’informations à un marque-page, ce qui vous permet de les organiser de manière beaucoup plus flexible qu’avec les dossiers à l’ancienne. Les dossiers intelligents sont les "recherches sauvegardées" qui sont automatiquement mis à jour quand vous ajoutez de nouveaux items qui correspondent à cette recherche dans vos marque-pages.

Pour en savoir plus Firefox 3: Bookmarks de Deb Richardson.

Feuilles de style (CSS)

Firefox 3

Un grand nombre d’améliorations pour les CSS ont été apportées à Firefox 3 dont le support de : inline-block et inline-table, font-size-adjust sur toutes les plate-formes, la pseudo-classe :default, les soft-hyphen HTML (­) (barre de césure semi-automatique), la propriété ime-mode, la valeur pre-wrap de l’attibut white-space, ainsi que la mise à jour dynamique des sélecteurs tels :first-child, :only-child, :last-child et :empty. Le Mozilla Developer Center a une liste complète et une documentation pour tous les changements de CSS de Firefox 3, que vous trouverez ici : CSS improvements in Firefox 3.

Pour en savoir plus Some new CSS features in Firefox 3 de David Baron.

Support des profils de couleurs

Firefox 3

Firefox 2 n’inclut pas le support des profils de couleurs, donc le navigateur interprète les couleurs du mieux qu’il peut, sans adaptations spéciales selon le système ou les profils de couleurs personnalisés. Firefox 3 supporte parfaitement les profils de couleurs, ce qui donne une gamme de couleurs plus riche et plus vivante affichée par le navigateur. Toutefois, pour nombre de raisons, le support des profils de couleurs est désactivé par défaut, il doit être activé dans les préférences du navigateur. Il est probable que dans une future version de Firefox, cette fonctionnalité sera activée par défaut, ce qui devrait faire plaisir à tous les photographes et graphistes.

Pour en savoir plus Firefox 3: Color profile support de Deb Richardson.

Gestionnaire de téléchargements

Firefox 3

Le gestionnaire de téléchargements a pas mal changé pour Firefox 3 et peut maintenant, comme on nous l’a souvent réclamé, mettre les téléchargements en pause et les reprendre, manuellement ou automatiquement. Parmi les autres changements, on note l’ajout d’un indicateur de statut de téléchargement dans la barre de statut en bas de fenêtre, la possibilité de faire une recherche dans les fichiers téléchargés, un affichage amélioré des fichiers qui inclut des informations plus détaillées et la possibilité de retourner sur la page originale du téléchargement par un clic droit sur le fichier dans le gestionnaire de téléchargements.

Pour en savoir plus Download Manager in Firefox 3 de Madhava Enros.

Rendu des polices et des textes

Firefox 3

Lorsque les développeurs de Mozilla ont décidé d’incorporer le sous-système Cairo et de repartir de zéro pour une nouvelle couche graphique, ils ont aussi décidé de retravailler complètement le système qui affiche le texte dans le navigateur. Le résultat est que Firefox 3 supporte mieux le crénage des polices, les ligatures, les textes internationaux, les ligatures partielles, les indices pour afficher les caractères, l’anti-crénelage, les types et la sélection de polices. Firefox 3 représente un énorme pas en avant dans le support des polices et le rendu des textes et les développeurs de Mozilla travaillent déjà sur de nouvelles améliorations pour les versions futures.

Pour en savoir plus Firefox 3: Fonts and text de Stuart Parmenter et Deb Richardson.

Zoom plein écran

Firefox 3

Le zoom a été complètement retravaillé pour Firefox 3 et inclut maintenant à la fois le zoom plein écran et le zoom texte seulement.

Le zoom plein écran agrandit à l’échelle la mise en page et la structure de la page tout en permettant de garder parfaitement le contrôle sur la taille du contenu affiché. Par contre, le zoom uniquement sur le texte laisse les images et la mise en page telles quelles.

Une fonctionnalité nouvelle et extrêmement utile du zoom de page est que Firefox garde maintenant automatiquement en mémoire le niveau de zoom que vous avez réglé site par site. Une fois que vous agrandissez (ou que vous réduisez) une page d’un site, Firefox s’en rappellera et restaurera ce niveau de zoom la prochaine fois que vous vous rendrez sur toute page qui fait partie de ce site.

Pour en savoir plus Full Page Zoom de Seth Bindernagel.

Historique

Firefox 3

Firefox 3 rend l’historique du navigateur incroyablement utile. Non seulement l’historique est une source essentielle d’information pour la nouvelle barre de navigation intelligente, mais il a été amélioré de plusieurs autres façons. L’historique garde maintenant les favicons des sites (des petits logos identifiants) ainsi que les autres données de localisation, pour rendre beaucoup plus aisées la recherche et l’identification des entrées de l’historique. Le panneau d’historique et le menu ont aussi été modifiés et une toute nouvelle bibliothèque d’historique a été ajoutée à la bibliothèque de Firefox (autrefois le gestionnaire de marque-pages). Dans l’ensemble, Firefox 3 a fait passer l’historique d’occasionnellement utile à absolument essentiel dans l’usage quotidien du navigateur.

Pour en savoir plus Firefox 3: History de Deb Richardson.

Canvas HTML

Firefox 3

L’implémentation du canvas HTML de Firefox 3 a été améliorée et comprend maintenant une interface expérimentale d’affichage du texte. Cette interface est décrite en détail dans l’article Dessiner avec canvas du Mozilla Developer Center (MDC). Une autre nouveauté est le support des méthodes de transformation transform() et setTransform() dont la documentation fait partie du fantastique Tutoriel canvas du MDC. La performance en deux dimensions de canvas a également été améliorée, le résultat est plus rapide sur toutes les plate-formes.

En voici deux excellents démonstrations : John Resig’s Processing.js et Aza Raskin’s Algorithm Ink.

Pour en savoir plus HTML Canvas in Firefox 3 de Vlad Vukicevic.

Support UTF-8 dans la barre de navigation

Firefox 3

Ceux qui utilisent principalement le web US-ASCII ne remarqueront peut-être pas un des gros changements de la barre de navigation de Firefox 3 : le support multi-octets de l’UTF-8. C’est une très grande victoire en termes d’accessibilité, parce que les URI en langue non-ASCII étaient du code machine illisible dans Firefox 2, alors que maintenant dans Firefox 3 ils sont interprétés comme des polices lisibles.

Pour en savoir plus Firefox 3: UTF-8 support in location bar de Gen Kenai.

Protection contre les malwares

Firefox 3

Les "malwares" sont notre appellation pour les sites web qui essaient d’installer des logiciels non souhaités ou encore faire des choses non autorisées sur votre ordinateur. Firefox 3 garde une trace de tous les sites sur lesquels ont été vus des malwares et vous protège en les bloquant avant même que les pages ne soient chargées pour s’assurer que votre ordinateur ne courre jamais un risque. Vous pouvez ignorer les avertissements si vous le voulez, c’est votre navigateur, après tout, mais nous espérons que cette sécurité supplémentaire aidera à protéger les utilisateurs et à rendre le Web plus sûr pour tous.

Pour en savoir plus Mal-what? Firefox 3 vs. Bad People de Johnathan Nightingale.

Interface microformats

Firefox 3

Les microformats sont des formats simples, avec des données ouvertes, construits sur des standards existants. Firefox 3 inclut une nouvelle interface de microformats (API) qui peut être utilisée pour construire des greffons, mais sinon ils ne sont pas montrés dans l’interface utilisateur de Firefox 3.

Pour en savoir plus Use the new microformats API in Firefox 3 extensions du site d’IBM et Where are the microformats in Firefox 3? de Mike Kaply.

Support des applications web hors connexion

Firefox 3

Firefox 3 implémente des événements online et offline selon la spécification 1.0 des applications Web WHATWG. Cela signifie que les développeurs Web peuvent créer de nouvelles applications Web qui fonctionneront dans Firefox même quand l’ordinateur n’est pas connecté. Dans le mode "offline", les données d’une application Web sont stockées localement sur votre ordinateur qui est ensuite synchronisé avec le serveur quand la connexion est rétablie.

Pour en savoir plus Online and offline events, Offline resources in Firefox et Firefox 3: Offline App Demo de Mark Finkle et Offline Web Applications de Robert O’Callahan.

Gestionnaire de mots de passe

Firefox 3

Dans Firefox 3, les fonctionnalités du gestionnaire de mots de passe sont significativement améliorées et beaucoup mieux pensées. La boite de dialogue qui vous demande si vous voulez que Firefox sauvegarde un mot de passe est complètement remplacée, au lieu d’un pop-up auquel vous êtes forcé(e) de répondre avant que le login ait réussi, Firefox 3 donne le choix d’enregistrer un mot de passe donné grâce à une barre d’information qui se déroule depuis le haut de l’écran après que vous ayez entré votre mot de passe. Cette barre d’information n’est pas modale, vous pouvez donc continuer à utiliser le web normalement sans avoir à la supprimer préalablement. Cette barre restera jusqu’à ce que vous lui disiez que faire ou que vous quittiez le site sur lequel vous êtes.

En plus, le gestionnaire de mots de passe vous offre la possibilité de filtrer et de rechercher ce qui rend significativement plus facile de trouver et de gérer les mots de passe pour des sites particuliers. Ces changements sont relativement subtils, mais si vous avez des centaines de mots de passe stockés au bout du compte ces petits changements peuvent faire une énorme différence.

Pour en savoir plus Firefox 3: Password Management de Deb Richardson.

Améliorations de performance

Firefox 3

Firefox 3 est la version la plus rapide et la plus légère de Firefox à ce jour. Les tests de vitesse montrent une amélioration d’un facteur 2 à 4 par rapport à Firefox 2 et d’un facteur 9 par rapport à Internet Explorer 7. Les tests d’utilisation mémoire montrent que Firefox est 2 fois plus efficace que Firefox 2 et 4,7 fois plus efficace que IE7. L’accent a vraiment été mis sur les performances pour cette version et d’incroyables efforts ont été consacrés à l’obtention de ces chiffres.

Pour en savoir plus Firefox 3 Memory Usage de Stuart Parmenter.

Protection contre le phishing

Firefox 3

En plus de la nouvelle protection contre les malwares qui a été ajoutée à cette version, Firefox 3 protège également mieux contre le phishing. Les sites identifiés comme phishing sont maintenant bloqués tout de suite, avant même que les pages ne soient chargées, pour que votre navigateur ne soit jamais en danger. Firefox 2 chargeait la page, mais vous prévenait que c’était un site identifié comme dangereux en le mettant en gris et en affichant un message d’avertissement. La méthode de Firefox 3, qui correspond au comportement de protection contre les malwares, est plus sûre et vous expose à globalement moins de risques.

Pour en savoir plus Mal-what? Firefox 3 vs. Bad People de Johnathan Nightingale.

Plugins

Firefox 3

Les plugins sont de petits programmes de tierce-parties qui peuvent être ajoutés à Firefox pour gérer du contenu que Firefox ne gère pas lui-même. Sans le plugin Flash, par exemple, vous ne pourriez pas regarder des vidéos de YouTube. Firefox 3 propose une nouvelle fonctionnalité faisant partie du gestionnaire de modules complémentaires remanié que vous pouvez utiliser pour voir, activer et désactiver tout plugin que vous avez installé. Vous pouvez aussi utiliser l’affichage des plugins pour visiter la page d’origine du plugin (si elle est spécifiée) en faisant un clic droit sur le nom du plugin et en sélectionnant "Visiter la page Web".

De la même façon que d’autres greffons de Firefox 3, si un plugin est détecté comme contenant une vulnérabilité, Firefox le désactivera automatiquement et vous dira où obtenir une version à jour. C’est une amélioration de sécurité significative pour Firefox qui auparavant n’avait aucun moyen pour vous dire que vous aviez installé des plugins dangereux.

Pour en savoir plus Firefox 3: Plugins de Deb Richardson.

Bouton d’identification de site

Firefox 3

S’assurer que les utilisateurs sont en sécurité, à l’abri et protégés lorqu’ils naviguent sur le web est l’un des plus grands défis pour les concepteurs de navigateurs. Firefox 3 présente une nouvelle fonctionnalité de sécurité extrêmement importante, connue sous le nom de bouton d’identification de site. Ce bouton remplace et s’appuie sur l’omniprésente icône de "cadenas" qui était depuis si longtemps le premier indicateur de sécurité utilisé par les navigateurs. Plutôt que d’afficher simplement un petit cadenas quelque part, Firefox trouve tout ce qu’il peut sur le site que vous visitez et rend ces informations facilement accessibles grâce à un bouton à l’extrêmité gauche de la barre de navigation.

Firefox 3

Le bouton peut être dans une des trois couleurs – gris, bleu ou vert – et affiche le nouveau message d’identification de site quand on clique. Le message inclut une icône correspondante "Passport Officer" en gris, bleu ou vert et affiche un sommaire des informations disponibles sur l’identité du site. Maintenant, au lieu d’avoir un seul indicateur de l’état de cryptage (le cadenas), Firefox 3 vous fournit beaucoup plus de renseignements sur un large panel de niveaux de sécurité et de situations.

Pour en savoir plus Firefox 3: Site Identification button de Deb Richardson.

Barre d’adresse intelligente

Firefox 3

Dans Firefox 3 la barre d’adresse a été complètement refondue de manière extrêmement excitante. Surnommée affectueusement "AwesomeBar" (NdT : "Barre Géniale"), la nouvelle barre d’adresse intelligente vous laisse utiliser le champ d’URL de votre navigateur pour faire une recherche sur un mot clé dans votre historique et vos marque-pages. Vous n’avez plus à vous souvenir du nom de domaine de la page que vous cherchez, la barre d’adresse intelligente affichera les URL, les titres de pages et les tags de vos marque-pages et de votre historique correspondants à ce que vous tapez (même en plusieurs mots !) et trie les résultats selon un algorithme qui combine la fréquence et la nouveauté.

Les résultats montrent également les favicons des pages, les titres en entier, les URL et si vous avez marqué ou tagué le site précédemment. Alors que le passage de Firefox 2 à Firefox 3 peut être un petit peu dérangeant pour certains, une fois que vous aurez utilisé la barre d’adresse intelligente un moment vous vous demanderez comment vous faisiez pour vivre sans.

Pour en savoir plus AwesomeBar is awesome de Deb Richardson ainsi que ce petit screencast de Mike Beltzner.

Onglets

Firefox 3

Les onglets n’ont pas tant changé que ça entre Firefox 2 et 3 sauf en ce qui concerne l’ajout de nouvelles animations de défilement doux. Lorsque vous faisiez défiler votre barre d’onglets dans Firefox 2, les onglets changeaient un à un. Cela rendait le défilement un petit peu haché et brouillon. Avec le défilement doux, il est beaucoup plus facile de comprendre le mouvement et où les onglets vont. Cela se voit très clairement avec un film de démonstration, j’en ai donc créé un rapide, que vous pouvez voir ici : Smooth tab scrolling (.swf).

Thèmes

Firefox 3

Un des premiers buts du rafraîchissement visuel de Firefox 3 était de mieux intégrer le navigateur sur chaque plate-forme, tout en conservant une identité visuelle et une présence uniques. Firefox 2 ressemblait plus ou moins à la même chose sous Windows, Mac et Linux, mais ce n’est pas le cas de Firefox 3. Il y a quatre nouveaux thèmes distincts pour Firefox 3 – un pour Linux, Mac OS X, Windows XP et Windows Vista – et le changement touche chaque aspect de l’application. Chaque bouton, fenêtre, onglet, icone et boite de dialogue s’intègre maintenant à la plate-forme native, ce qui donne l’impression que Firefox fait naturellement partie de l’environnement de votre ordinateur.

Pour en savoir plus Firefox 3 Themes de Alex Faaborg et Firefox 3 for theme developers de Gavin Sharp..

Flux vidéo et audio

Firefox 3

Firefox 3 comprend une page améliorée de prévisualisation de flux qui détecte et affiche maintenant le contexte à côté des entrées de blog associées. De plus, Firefox 3 peut associer les podcasts vidéo avec une application, les podcasts audio avec une autre et tous les autres types de flux avec une troisième. Ces modifications sont relativement subtiles, mais fantastiquement utiles une fois que vous commencez à en tirer avantage.

Pour en savoir plus Firefox 3 and enclosures de Will Guaraldi.

Support des contrôles parentaux de Vista

Firefox 3

Windows Vista inclut des contrôles parentaux qui vous aident à gérer ce que vos enfants ont le droit de faire sur l’ordinateur. Firefox 3 inclut le support de ces contrôles parentaux, le gestionnaire de téléchargements est informé des situations où le contenu est bloqué par des proxys et les téléchargements bloqués déclenchent maintenant les bons messages de l’interface pour indiquer ce qui s’est produit. Cette fonctionnalité n’est disponible que sur la plate-forme Vista et sera développée et améliorée dans les futures versions de Firefox.

Pour en savoir plus Firefox 3: Parental controls de Jim Mathies et Mark Finkle.

Gestion des protocoles par des applications web

Firefox 3

La gestion des protocoles par des applications web est une nouvelle fonctionnalité de Firefox 3 qui donne plus de puissance aux applications web. Lorsque vous cliquez sur un liens avec un protocole spécifique Firefox peut maintenant envoyer les informations de ce lien à une application Web définie si cette application web dispose de cette fonctionnalité. Par exemple, les liens "mailto:" peuvent maintenant être gérées par une application web comme Yahoo! mail à la place du client de messagerie par défaut de votre ordinateur. Parmi d’autres protocoles actuellement supportés, on trouve "webcal:", "tel:" et "fax:".

Les développeurs qui sont intéressés par l’ajout du support de protocoles par des applications web devraient lire l’article Gestionnaires de protocoles web du Mozilla Developer Center.

Pour en savoir plus Firefox 3: Web protocol handlers de Mark Finkle.

Conclusion

Et voilà, un large tour du propriétaire (en aucun cas exhaustif) des nouvelles fonctionnalités et des améliorations de Firefox 3, des gestionnaires de modules complémentaires à la gestion de protocoles par des applications Web. Presque toutes les parties du navigateur ont été améliorées d’une manière ou d’une autre.

Firefox 3 a été développé sur approximativement trois ans en définitive et des milliers de développeurs, de designers, de localisateurs, de testeurs, de marketeurs et d’auteurs de documentation y ont contribué autour du monde. Le navigateur Firefox est produit par une des plus grandes communautés open source du monde et nous en sommes tous extrêmement fiers et enthousiastes d’enfin le mettre entre les mains de millions de gens.

Si vous ne l’avez pas encore fait vous devriez aller sur le site du Firefox Download Day pour aider à établir un nouveau record du monde Guinness. Une fois que c’est fait, rendez-vous sur le Mozilla Party Central pour trouver ou organiser un événement. Nous espérons que vous nous rejoindrez tous pour aider à fêter la sortie du meilleur Firefox de tous les temps.

Cet article (et ses copies d’écran) sont sous licence Creative Commons By-Sa.

Firefox 3 - Download Day

Cette dernière illustration est extraite de l’opération Download Day 2008 qui vise lors de la sortie de Firefox 3 à établir un nouveau record du monde Guinness du logiciel le plus téléchargé en 24h. J’avoue ne pas être un grand fan de ce type de marketing à l’américaine. Par contre parcourir la carte du monde de ceux qui se sont déjà enregistrés pour participer a quelques chose de fascinant. Ainsi ils sont déjà 61 au Tadjikistan. United Colors of a Free Software World en quelque sorte…




1 heure de votre temps pour écouter Eben Moglen

Vous avez une petite heure devant vous ? Vous ne le regretterez pas.

Il s’agit de Software and Community in the Early 21st Century, une intervention d’Eben Moglen à la Conférence Plone d’octobre 2006 à Seattle.

Nous avons mis un petit bout de temps à la traduire puis la sous-titrer[1] mais cela valait vraiment le coup parce que Eben Moglen est à n’en pas douter l’un des meilleurs orateurs de la communauté du logiciel libre. Et cette conférence, certainement l’une des plus intéressantes qu’il m’ait été donné de voir, ne fait que le confirmer.

De quoi cela parle-t-il ? De logiciel bien sûr mais aussi et surtout de liberté. Si je devais expliquer pourquoi j’ai commencé Framasoft il y a quelques années je pourrais aisément fournir cette ressource en guise de première voire d’unique réponse…

Notes

[1] Un énorme merci à toute l’équipe Framalang pour ce travail collectif de longue haleine (dont Daria, Don Rico, GaeliX, Jessminder, Yostral et notre sous-titreur Xavier Marchegay).




Plus qu’une simple histoire d’argent

L’un des gros challenges qui nous attend est le développement de la culture du don, qui nécessite souvent de quitter certaines habitudes héritées de la culture du gratuit (entretenues par une économie classique qui ne nous voit pas autrement qu’en simple consommateur).

Dans ce contexte cette petite histoire a peut-être valeur d’exemple pour ne pas dire de symbole. Quand l’excellent lecteur audio Amarok intègre l’excellent site musical Magnatune dans son logiciel, il le fait spontanément, parce qu’il pense que c’est un plus pour ses utilisateurs. Mais quand Magnatune s’aperçoit alors que ça leur apporte des visiteurs mais aussi des sous puisque ces visiteurs achètent des titres, alors il décide spontanément lui aussi de faire quelque chose en retour…

Une traduction LVI pour Framalang.

Copie d'écran - Magnatune

Donner de l’argent pour l’Open Source

Giving money to open source

John Buckman – 28 avril – Magnatune (blog)

Il y a un an et demi, l’excellent lecteur de musique sur GNU/Linux Amarok a ajouté un support étendu pour Magnatune. Le programmeur, Nikolaj Hald Nielsen, a fait cela de sa propre initiative, simplement parce qu’il trouvait que ce serait une chose élégante à inclure dans son lecteur de musique favori, et parce qu’il appréciait Magnatune et la philosophie derrière son business model.

J’aime vraiment Amarok, et je me suis alors engagé à offrir 10% du produit des ventes de Magnatune apportées par Amarok. J’étais aussi tellement content de la qualité du travail de Nikolaj, que je l’ai embauché, et maintenant il passe 50% de son temps pour Magnatune, et je le paie pour qu’il passe les 50% restant pour Amarok.

Je suis vraiment très heureux d’annoncer que les utilisateurs d’Amarok ont acheté une belle quantité de musique sur Magnatune. Ils peuvent écouter gratuitement la musique depuis Amarok, et les albums en streaming apparaissent dans Amarok comme si c’était de la musique en local, et ils peuvent facilement acheter la musique dans différents formats ouverts.

Jusqu’ici, Amarok a apporté 11 557 $ de ventes de musique sur Magnatune !

Ce matin, j’ai fait de bon coeur une donation de 1 155,70 $ à Amarok.

J’ai également fait la même offre à Rhythmbox, un autre bon lecteur de musique pour Linux, et je vais bientôt leur envoyer un don. Leur support intégré pour Magnatune est lui aussi excellent, et je l’ai personnellement utilisé pour écouter notre propre musique issue de Magnatune.

Rhythmnox est installé par défaut dans la toute récente et ultra-populaire Ubuntu 8.04.

Mark Shuttleworth, la force derrière Ubuntu, a récemment déclaré ceci :

« Je suis particulièrement ravi que nous supportions Magnatune, qui a imaginé un très bel avenir pour l’industrie de la musique, Le problème avec l’industrie de la musique n’est pas les musiciens ; ça n’est pas la musique ; et ce ne sont pas les téléchargements. Ce sont les compagnies de disques. Alors, avoir une compagnie de disques qui dise : Il y a une autre manière de travailler semble être quelque chose de positif que nous pouvons soutenir. Et ça, c’est super ! »

J’ai parlé au programmeur qui est derrière le support de Magnatune pour Rhythmbox, et il prévoit d’y ajouter un tas de fonctionnalités cet été. Cool !




Comparaison graphique entre Windows et Linux

Un peu de mathématiques. Enfin, c’est un bien grand mot. Il s’agit d’un petit schéma trouvé sur un blog qui explique pourquoi d’un côté (temps court) ce n’est pas évident de se mettre à Linux mais d’un autre côté (temps long) pourquoi c’est un investissement plus que rentable sur la durée.

En fin d’article, l’auteur nous invite à donner notre avis sur sa petite théorie. Idem avec sa traduction[1]. D’accord, pas d’accord ? Est-ce trop simplifié ? Et le poids des habitudes Windows ? Et si l’utilisateur découvre Linux sans connaître préalablement Windows ? Et quid des nuances apportées par les différentes distributions Linux ? Et le Mac dans tout ça ? etc.

Windows - Linux

Windows vs Linux : Comprendre le fossé de la complexité

Windows vs. Linux: Understanding the Difficulty Divide

Q Hartman – 26 Mai 2008 – WorksWithU.com

Avec le temps j’ai développé une théorie généralisée des coûts que cela représente d’effectuer une tâche sous Windows et sous Linux, un corollaire de cette théorie est que beaucoup de gens pensent que Linux est trop compliqué ou "pas encore prêt pour le grand public".

L’essence de cette théorie peut être illustrée par ce graphique :

Difficulty Divide - Linux vs Windows

Evidemment, aucune donnée ne vient étayer ce graphique. C’est simplement un support visuel pour aider à expliquer un concept que j’ai déjà souvent vu illustré. L’axe des x représente la complexité de la tâche à réaliser. Ca peut être la création d’un réseau, l’ouverture d’une image, la conception d’un film, la construction et la maintenance d’un site Web, l’automatisation de la migration d’une base de données complexe ; vraiment n’importe quelle tâche qui peut être réalisée par un ordinateur, grand ou petit. Sur l’axe des y on retrouve le coût relatif pour mener cette tâche à bien. Je prends ici "coût" dans un sens très général. Ce coût peut représenter votre temps, le coût d’une licence pour un logiciel, le coût de la formation ou le coût de l’embauche d’un développeur pour écrire le programme dont vous avez besoin.

Logiquement, le coût pour mener à bien une tâche augmente, que ce soit sous Windows ou sous Linux, avec la complexité de la tâche. Je vous invite par contre à regarder l’ampleur de la différence. La courbe pour Linux est quasiment linéaire et tend même vers une asymptote à mesure que la complexité augmente. En d’autres termes, l’augmentation du coût est proportionnelle à l’augmentation de la complexité de la tâche et l’apprentissage de nouvelles compétences est immédiatement mis à profit pour des tâches plus ardues. Le coût est proportionnel à la difficulté et l’apprentissage est progressif, ce qui rend les tâches les plus dures plus accessibles. J’aime appeler cela "le juste prix de l’accès à la technologie".

Pour Windows la courbe est très plate au début. La réalisation de tâches modérément complexes ne coûte pas beaucoup plus que la réalisation de tâches triviales. Voilà qui nous amène au fossé de la complexité. C’est l’espace borné par les courbes où Windows l’emporte. Il est plus simple de compléter des tâches de ce niveau de complexité sous Windows que sous Linux. Je suis de l’avis que les gens qui abandonnent Linux sont ceux qui ne parviennent pas à franchir le fossé de la complexité. Que ce soit parce qu’ils n’ont pas le temps ou l’intérêt nécessaire pour atteindre ce niveau supérieur importe peu, le fait est qu’ils n’y parviennent pas.

Je vous invite également à observer cependant que la courbe pour Windows devient presque verticale très rapidement. Plus les besoins et les compétences de quelqu’un augmentent, plus le coût pour atteindre un nouveau pallier sous Windows augmente et ce de plus en plus vite. Vous vous retrouvez rapidement à chercher partout des logiciels parce que les outils qui vous permettent de mener à bien votre tâche ne sont pas facilement accessibles. Le plus souvent ces outils n’existent pas ou sont très coûteux. Même si vous avez le savoir-faire pour créer une solution, les outils nécessaires pour la mettre en œuvre sont souvent très chers. L’opacité relative et la nature monolithique de Windows joue également un rôle ici. Les maigres rapports, les erreurs mystérieuses et les interactions complexes cachées peuvent faire perdre beaucoup de temps pour deviner la source d’un problème, même pour un administrateur système expérimenté comme moi. Souvent, même une fois que la cause du problème est détectée il est fort probable qu’absolument aucun outil ne fera ce que vous désirez et réussir à faire fonctionner tous les outils ensemble présente encore un autre défi en lui-même. Tous ces facteurs alourdissent le coût de la réalisation d’une tâche.

C’est à ce niveau de complexité que Linux l’emporte. Grâce à la libre disponibilité de puissants outils et grâce au partage sans entraves d’informations au sein de la communauté d’utilisateurs de Linux le coût de la réalisation des tâches augmente bien plus lentement. Il est surprenant de voir à quelle vitesse les besoins et les compétences de quelqu’un peuvent atteindre ce niveau où les problèmes sont plus simples à résoudre sous Linux. Pour ceux que je classerais dans la catégorie "Technologiste Typique" il ne faut pas plus de quelques mois pour y parvenir sans connaissance préalable de Linux. J’en ai été témoin. Pour les gens qui ne sont pas aussi mordus de technologie ça peut prendre plus de temps, mais selon toute probabilité ils y parviendront. Pour ceux qui sont vraiment à fond dedans ça peut ne prendre que quelques jours ou semaines.

J’ai récemment eu à modifier ma théorie sur le fossé de la complexité, je vous ferai part de son évolution la semaine prochaine. En attendant j’aimerais savoir ce que vous en pensez. Est-ce que le fossé de la complexité existe vraiment ? Est-ce que mon explication le décrit avec précision ?

Notes

[1] Traduction Framalang : Olivier (+ Daria).




Lorsque vous démarrez votre ordinateur vous vous engagez politiquement

« Mais que fais-tu donc derrière ton ordinateur ? » est une question qui me revient assez souvent. Lorsque je dispose d’un peu de temps devant moi il m’arrive de répondre d’applomb : « Je participe à la prochaine révolution ! ».

C’est vrai après tout. Tant qu’à y passer du temps autant que ce soit pour une bonne raison 😉

C’est évidemment une boutade à la limite de la provocation mais elle a le mérite de piquer la curiosité de mon interlocuteur. Et alors de lui évoquer en vrac le logiciel libre, son mouvement, sa culture, ses extensions du domaine comme Wikipédia, Creative Commons, PLoS, etc.

Bref, en gros, tout ce que contient cette nouvelle traduction (by Olivier et Daria from Framalang Institute). C’est un article exotique puisqu’il nous vient d’Inde. Mais il m’est plus familier que bon nombres d’articles de mes propres compatriotes. En imaginant qu’il y ait des V. Sasi Kumar dans tous les pays du monde, il y a de quoi être optimiste…

Crédit photo : Vibrantly Rabari par Meanest Indian (Creative Commons By)

Vibrantly Rabari - Meanest Indian - CC by

Une nouvelle vague de liberté

A new wave of freedom

V. Sasi Kumar – Mai 2008 – Frontline Magazine (India)

Le nouveau mouvement de liberté, dans les logiciels, le savoir, la publication et le commerce va complètement bouleverser notre manière de penser, de faire les choses et d’interagir.

« Toute action qui est dictée par la peur ou par la contrainte de quelque nature que ce soit cesse d’être morale »
Mahatma Gandhi

Politiquement, nous ne jouissons pas de certaines libertés que nous méritons. Une nouvelle vague de mouvements pour la liberté, pour rendre concrètes ces libertés, balaie actuellement le monde, un mouvement qui modifiera notre façon de penser, notre façon de faire les choses et notre manière d’interagir. Il a pris sa source aux États-Unis et vise à libérer les gens des serres des monopoles capitalistes. Ici le rôle de Gandhi est joué par une personne extraordinaire qui porte les cheveux longs et a une longue barbe, un homme qui répond au nom de Richard Mathew Stallman, qui rejette avec énergie toute comparaison à Gandhi ou Nelson Mandela.

Gandhi disait « Tant que nous ne sommes pas complètement libres nous sommes des esclaves ». L’évolution des technologies a permis à l’humanité de jouir d’une plus grande liberté. Cependant, des intérêts particuliers, avec l’aide des législateurs, parviennent maintenant à empêcher la société de jouir de cette liberté. Par exemple, avec l’avènement des ordinateurs et d’Internet, les données, les informations et la connaissance peuvent être transmises instantanément à la condition que des deux côtés il y ait ordinateur raccordé à Internet. Toutefois, certaines de nos lois conçues pour une ère dépassée empêchent les peuples de profiter pleinement de cette technologie.

Le nouveau mouvement de liberté parvient à se frayer un chemin autour de ces lois. Et, de façon intéressante, ce mouvement n’est mené par aucun parti politique ni aucun activiste politique, mais bien par des programmeurs informatiques (ou hackers). Voyons de quelles manières nos libertés sont réduites et par quels moyens nous pouvons les reconquérir même au sein du paradigme actuel.

Lorsque vous démarrez votre ordinateur vous vous engagez politiquement. Cela peut vous paraitre absurde de chercher un aspect politique à une chose aussi triviale. Mais c’est là un fait. A l’aube de l’informatique, ce sont les utilisateurs qui écrivaient leurs propres programmes et se les échangeaient selon leurs besoins. Personne alors ne détenait de droit exclusif sur ces programmes. A l’époque les ordinateurs étaient imposants et chers, ils occupaient souvent une salle entière mais étaient bien moins puissants que les PC d’aujourd’hui, même les plus petits. A mesure que la technologie a évolué les ordinateurs sont devenus plus petits et aussi plus puissants.

C’est vers le début des années 80 que les fabricants d’ordinateurs ont commencé à imposer ce qu’on appelait des accords de dissimulation aux programmeurs qu’ils engageaient pour écrire les logiciels. Ces accords interdisaient aux développeurs de révéler le code source de leurs programmes (NdT : leur secret de fabrication). Et ainsi les logiciels sont devenus un produit que les utilisateurs doivent payer. Évidemment, certains utilisateurs ont continué à écrire des programmes pour leurs propres besoins, et ils continuent encore aujourd’hui, mais les logiciels tout-prêts sont devenus accessibles en échange d’un paiement et les utilisateurs d’ordinateurs se sont mis à les utiliser de plus en plus.

Les logiciels pour tous

C’est en réaction à cette marchandisation du logiciel que Richard Stallman, alors employé du Laboratoire d’Intelligence Artificielle du Massachusetts Institute of Technology (MIT), a décidé de créer un système d’exploitation (ou OS pour operating system) et des programmes qui rendraient aux utilisateurs la liberté. Il croyait que les logiciels sont comme la connaissance (il les compare souvent à des recettes de cuisine) et que comme la connaissance les logiciels ne devraient pas être la propriété d’une personne ou d’un organisme. Ils devraient appartenir à l’humanité toute entière.

Stallman a écrit : « De quoi à donc besoin la société ? Elle a besoin d’informations qui sont réellement disponibles aux citoyens, par exemple des programmes que des gens peuvent lire, réparer, adapter et améliorer, pas seulement utiliser. Mais en général les propriétaires des logiciels ne fournissent qu’une boîte noire qu’on ne peut ni étudier ni modifier. La société a également besoin de liberté. Quand un programme est possédé, les utilisateurs perdent la liberté de contrôler une partie de leur propre vie. » (source)

Stallman a initié un projet nommé GNU pour créer des logiciels libres et il a décidé de façonner son OS libre d’après Unix qui était alors très populaire. Unix était un OS propriétaire qui pouvait gérer plusieurs utilisateurs simultanément, il pouvait interconnecter les ordinateurs et était très sécurisé. A l’époque, de nombreux programmeurs avaient pris l’habitude de baptiser un nouveau programme qui était similaire à un autre pré-existant en créant un acronyme signifiant que ce n’était justement pas ce programme.

Ainsi, par exemple, un nouvel éditeur de texte similaire à l’éditeur existant Emacs se nommait Eine pour Eine Is Not Emacs (NdT : Eine n’est pas Emacs). De même, Stallman baptisa son système d’exploitation GNU pour GNU is Not Unix. Il sera plus tard combiné avec le noyau Linux (la partie centrale d’un OS) pour donner naissance au système d’exploitation GNU/Linux. Il existe maintenant plusieurs noyaux qui peuvent être utilisés avec GNU, comme FreeBSD, Open Solaris etc.

« Pour les logiciels libres ce qui importe est la liberté, pas le coût. C’est une question de liberté, pas de prix. Le mot "libre" dans "logiciel libre" a une signification proche de celle dans liberté de parole, peuple libre ou pays libre et ne devrait être confondu avec une autre signification associée à coût zéro. Il faut que vous voyez "logiciel libre" comme libre de fardeau, pas nécessairement libre de frais. Il faut le voir comme logiciel swatantra (NdT : libre ou indépendant en sanskrit) » précise la Free Software Foundation d’Inde. Les logiciels libres apportent quatre libertés aux utilisateurs :

  1. La liberté de les utiliser sur un nombre illimité d’ordinateurs pour n’importe quelle tâche ;
  2. La liberté de partager le logiciel dans votre cercle familial ou d’amis ;
  3. La liberté d’étudier et de modifier le logiciel ;
  4. La liberté de redistribuer les modifications.

(NdT : toute la confusion entre libre et gratuit provient du double sens de "free" en anglais)

La troisième liberté implique que ce que l’on appelle le code source (le texte compréhensible par l’Homme) du programme devrait être mis à disposition de tout utilisateur souhaitant l’obtenir. Mais on peut se demander ce que peuvent en faire les utilisateurs. Alors que la plupart d’entre eux seraient certainement incapables de l’étudier ou de le comprendre, sans même parler de le modifier, cette liberté permet à tout un chacun de demander à un programmeur de le modifier et permet également aux programmeurs de par le monde au moins d’étudier le programme pour vérifier que rien de ce qu’il contient ne constitue une menace pour les utilisateurs. Concrètement, les sociétés et autres organisations peuvent modifier le programme pour qu’il réponde à leurs besoins.

Stallman a rapidement démissionné du MIT par crainte que le MIT revendique les droits sur son travail. Il était quasiment une entreprise à un seul employé lorsqu’il a démarré le projet GNU en 1984 mais des dizaines de milliers de personnes du monde entier l’on rejoint ensuite. En 1985 il a lancé la Free Software Foundation (FSF). Aujourd’hui, en plus de la FSF à Boston aux Etats-Unis on retrouve des FSF en Europe, en Inde et en Amérique Latine. Et les logiciels libres sont devenus suffisamment puissants, et populaires aussi, pour défier la puissance de nombreuses entreprises de logiciels propriétaires.

Libre et populaire

Par exemple, toutes les écoles du Kerala n’emploient que des logiciels libres et tous les ordinateurs du gouvernement du Kerala sont en cours de migration vers les logiciels libres. Les écoles de la province d’Estrémadure en Espagne en font de même. Mais bien avant eux la ville de Munich avait déjà décidé de faire migrer tous ses ordinateurs vers des logiciels libres. De nombreuses entreprises et organismes gouvernementaux ont déjà effectué la migration (comme ELCOT dans la Tamil Nadu) ou sont en train de le faire (comme le Kerala State Electricity Board par exemple). Bien que le gouvernement du Kerala ait adopté une politique des TIC promouvant explicitement les logiciels libres, le gouvernement de l’Inde n’a pas encore pris une telle décision. Espérons que le gouvernement de l’Inde à son tour proclame la liberté des logiciels.

Les logiciels sont vraiment identiques à la connaissance comme l’a découvert Stallman. La ressemblance peut être établie de manière très détaillée. Plutôt que d’énumérer tous les arguments on peut signaler qu’un vaste ensemble de savoirs est disponible au format numérique et, pour un ordinateur, il n’y a pas beaucoup de différence entre un programme et un savoir numérisé comme un fichier texte, une image ou une vidéo. Dans ce cas il devrait être possible de libérer aussi la connaissance, tout comme le projet GNU a libéré les logiciels.

En mars 2000, Jimmy Wales, un entrepreneur américain de l’Internet, a lancé Nupedia, une encyclopédie en ligne dont le contenu est libre, le précurseur du Wikipédia actuel. Le contenu de l’encyclopédie était sous licence Nupedia Open Content License qui autorisait à n’importe qui de la copier, modifier et distribuer mais qui défendait quiconque d’en faire payer le contenu. Le contenu était rédigé par des volontaires dont les connaissances dans le domaine étaient évaluées par un comité et le contenu était soumis à révision avant publication. Les coûts de fonctionnement de Nupedia étaient couverts par Bomis, une entreprise Internet que détenait Wales.

Mais le succès de Wikipédia apporta un coup d’arrêt à Nupedia en 2003. Une majorité des contributeurs n’étaient pas satisfaits des lourdeurs du contrôle éditorial exercé sur les contributions et Stallman et la FSF étaient en faveur d’une plus grande liberté laissée aux contributeurs. Par conséquent la FSF a lancé une nouvelle encyclopédie appelée GNUPedia en 2001. Mais comme Wales possédait déjà le nom de domaine gnupedia.org elle a été renommée GNE (pour GNE is Not an Encyclopedia) sur la même idée que GNU.

GNE a eu une vie plus courte encore, en partie à cause de son incapacité à décider du poids du contrôle éditorial mais surtout parce que Nupedia a lancé Wikipédia en 2001 qui offrait une liberté totale et dont le contenu était placé sous la GNU Free Documentation Licence. Apparemment ce serait Stallman qui aurait le premier évoqué l’idée d’une encyclopédie en ligne libre en 1999.

Même s’il a lancé GNE, depuis son échec, il supporte Wikipédia. Aujourd’hui Wikipédia est l’encyclopédie la plus populaire avec plus de deux millions d’articles rien que pour la langue anglaise et bien plus encore dans d’autres langues. Parmi ces autres langues on en dénombre huit qui dépassent les 300 000 articles chacune et huit autres encore qui dépassent la barre des 100 000 articles chacune.

On recense 254 langues du monde possédant au moins une page Wikipédia. Les dialectes indiens ne sont pas bien représentés dans Wikipedia. Le premier est le telugu avec 38 000 articles, suivi par le bishnupriya manipuri avec 23 000 articles, le bengali (17 000), l’hindi (16 500), le marathi (16 200) et le tamil (13 000). Aucun autre langage indien ne compte plus de 10 000 articles. Il est acquis maintenant que l’encyclopédie Malayalam, publiée par le gouvernement du Kerala, mettra tous ses articles sur Wikipédia.

Même s’il est vrai que le nombre d’utilisateurs d’Internet ne représente qu’un infime pourcentage de la population, ce pourcentage est amené à croitre et la disponibilité de l’information en langues indiennes sera certainement d’une grande utilité à tous les Indiens, en Inde et à l’étranger.

Wikipédia est actuellement dirigée par une organisation à but non lucratif, la Wikimedia Foundation, grâce aux contributions du public. D’autres projets sont dans les cartons aujourd’hui, comme Wikibooks, Wikinews et Wiktionary. Tous les documents, y compris le texte et les illustrations, sur tous ces sites peuvent être copiés, modifiés et utilisés librement à toute fin sans violer de lois du droit d’auteur. C’est réellement la liberté du savoir.

Un autre projet connexe est WikiMapia. En reprenant une citation de Wikipédia : « WikiMapia est un projet inspiré par Google Maps et par Wikipédia. WikiMapia utilise les vues satellitaires de Google Maps et permet de les annoter avec un système wiki. Les Russes Alexandre Koriakine et Evgeniy Saveliev ont lancé ce projet le 24 mai 2006. Le projet est destiné à « cartographier et décrire la planète Terre » vue par satellite. Il fait partie des 1 000 sites les plus visités et recense plus de 6 millions d’endroits annotés. Alors qu’aucune inscription n’est requise pour éditer WikiMapia, plus de 153 000 utilisateurs partout dans le monde sont actuellement inscrits. »

Le terme "connaissance" est utilisé ici dans une conception large et désigne aussi bien des articles que des livres, des histoires, des images, de la musique, des films, etc. Il faut se rappeler que chaque support possède certaines particularités que les autres n’ont pas. Ainsi par exemple, un article sur l’astronomie indienne contient principalement de la documentation issue de sources variées même si la présentation finale de l’information est celle propre à l’auteur. Mais une histoire (un roman, une nouvelle…) est le travail créatif émergeant complètement de l’imagination de l’auteur.

Ainsi, pour les humains, la connaissance se distingue des logiciels par une différence fondamentale. En effet, contrairement aux logiciels, certaines formes de connaissance ne se prêtent pas aux modifications anonymes. Par exemple, une interview avec une personnalité doit conserver sa forme et son contenu puisque c’est le compte-rendu d’une vraie conversation. Il serait dangereux de laisser quiconque la modifier.

D’un autre côté, la liberté pourrait être accordée, par exemple, de la publier ailleurs sans modification. De même, un artiste ne souhaiterait peut-être pas que n’importe qui puisse modifier sa peinture, même si cela ne poserait pas de problème. Il n’est donc pas suffisant de disposer d’une seule licence pour toutes les formes de savoir contrairement aux logiciels. Mais alors quelle est la solution ?

Creative Commons

La solution a d’abord était proposée par Creative Commons (CC) en décembre 2002. CC a été lancé par Lawrence Lessig, Professeur à la Stanford Law School, avec quelques amis pour répondre précisément à ce problème. « Creative Commons a repris l’idée "offrir des licences de droit d’auteur libres" du Free Software Movement. Mais le problème que nous essayions de résoudre était quelque peu différent » dit Lessig.

En quoi était-il différent ? « Nous ne partions pas d’un monde sans culture propriétaire. Au contraire, la culture propriétaire avait toujours été là, les œuvres étaient protégées par un droit exclusif. (…) Mais globalement, le fardeau imposé par le droit d’auteur aux autres créateurs et sur la culture en général était léger. Et une somme importante de travail créatif pouvait se faire hors des contraintes de la loi. Tout ceci a commencé à changer avec la naissance des technologies numériques et pour une raison que personne n’a vraiment cherché à comprendre. » (source).

Une autre raison a entraîné la formulation de ces licences. Après la Convention de Berne en 1886 il n’était plus nécessaire de déclarer un droit d’auteur. Tout œuvre originale tombe automatiquement sous le régime du droit d’auteur. Et finalement il n’est plus devenu nécessaire de marquer un document comme protégé par le droit d’auteur. Sauf déclaration contraire, tout document qui n’appartient pas au domaine public est protégé par le droit d’auteur.

Rien que de savoir si un document est protégé par les lois du droit d’auteur devient par conséquent difficile. Cela rend la ré-utilisation d’œuvres déjà disponibles très compliquée. De plus, les auteurs désirant offrir certaines libertés aux autres n’ont aucun moyen de le faire. Ils n’avaient le choix qu’entre le droit d’auteur et le domaine public (qui concède tous les droits à tout le monde).

Creative Commons propose plusieurs licences grâce auxquelles le créateur peut offrir certaines libertés aux gens, ou, comme le dit CC, Certains Droits Réservés en opposition au Tous Droits Réservés du régime "classique" du droit d’auteur. CC dispose de quatre licences principales : Attribution (notée by), Noncommercial (nc), No Derivative Work (nd) et Share Alike (sa) (NdT : Paternité, Pas d’Utilisation Commerciale, Pas d’œuvre Dérivée et Partage à l’Identique). Ces licences peuvent être combinées pour produire de nouvelles licences comme by-sa, by-nc-nd etc. qui sont plus utiles que les licences principales.

CC a également élaboré une Licence de Sample qui permet aux autres d’utiliser des portions de votre œuvre dans leur propre œuvre. Vous vous souvenez de la jeune auteure indienne, Kaavya Viswanathan, punie il y a quelques temps pour l’utilisation de passages d’autres livres dans sa nouvelle, même si les lecteurs appréciaient sa nouvelle ?

Un développement intéressant permis par CC a été la création d’un morceau de musique par la collaboration d’artistes qui ne se sont jamais rencontrés. Colin Mutchler, un défenseur de l’utilisation des média et de la technologie pour donner envie aux gens de prendre des mesures en faveur d’une économie durable, a envoyé My Life, une chanson joué à la guitare acoustique, sur Opsound, un répertoire de musique qui impose aux morceaux soumis d’être sous licence Attribution-Share Alike ; Cora Beth, une personne complètement inconnue de Colin, y a ajouté un violon pour créer My Life Changed. Aucun avocat de la Propriété Intellectuelle n’a été consulté, ou maltraité, pour cela. Gilberto Gil, le ministre brésilien de la Culture et musicien lauréat d’un Grammy Award supporte la liberté de la culture et a sorti quelques-unes de ses musiques sous la licence CC Sampling.

Rentable également

Une question qu’il est naturel de se poser est alors : est-ce que le créateur ne va pas perdre ses revenus s’il permet aux gens d’utiliser ses créations librement ? L’expérience montre que ça n’est pas le cas. Par exemple, les groupes de musique affirment que les téléchargements de musique libre en fait les aident à faire plus de concerts et leur source de revenus principale est la scène (source). Une recherche sur Google vous fera découvrir d’autres études de ce genre.

Comme Stallman et d’autres l’ont suggéré, un lien sur la page de téléchargement peut permettre aux utilisateurs d’effectuer un paiement volontairement. Pour une œuvre assez bonne cela peut apporter à son auteur une somme appréciable. De toute façon des copies illégales de la plupart des films ou des musiques sont disponibles gratuitement, particulièrement dans les pays émergents et rien n’est arrivé, ni à l’industrie de la musique, ni à celle du film.

Cependant, à long terme, les industries de l’édition, du disque et du cinéma pourraient avoir à adopter un nouveau paradigme qui pourrait être défini par les nouvelles technologies qui émergeront à coup sûr, même si ces industries se sont toujours montrées très attachés aux anciens paradigmes et qu’elles font tout ce qu’elles peuvent pour ne pas changer. Souvenez-vous des protestations de l’industrie de la musique lorsque l’enregistreur cassette a été inventé. Pourtant jusqu’à maintenant aucun changement drastique n’est en vue.

L’industrie du disque aux États-Unis a réussi à mettre le législateur de son côté pour subvenir à ses propres besoins au travers de la technologie des DRM (NdT : Digital Rights Managements ou Mesures Techniques de Protection) et une loi associée et le DMCA (NdT : Digital Millenium Copyright Act dont la loi DADVSI est la transposition en droit français). Stallman et les partisans du logiciel libre appellent les DRM Digital Restrictions Managements (ou Mesures Techniques de Privation). Les DRM empêchent en fait les gens de copier les œuvres incorporant cette technologie ou encore de jouer l’enregistrement sur un autre lecteur. Par conséquent, le mot Restrictions (Privations) semble plus approprié.

Les fans de musique se sont opposés à cette politique et on peut trouver beaucoup d’articles sur le Web à ce sujet. Ils disent que les DRM les empêchent même d’exercer leur droit à la copie privée. Les opposants ont créé des logiciels qui peuvent outrepasser la technologie DRM. Mais le DMCA (NdT : tout comme la DADVSI) rend illégal la création ou l’utilisation d’une technologie visant à briser les DRM. Heureusement, ces lois ne sont actuellement en vigueur que dans quelques pays. L’industrie du disque fait pression sur l’Inde et d’autres pays pour adopter ces lois. Mais espérons que l’Inde choisisse d’offrir les bénéfices des technologies à son peuple plutôt qu’aux industriels.

Les publications dans des revues scientifiques étaient à l’origine faites pour communiquer les résultats des recherches à d’autres scientifiques. La première revue scientifique au sens moderne est le Philosophical Transactions de la Royal Society of London dont la publication a commencé en 1665. A l’époque, seule l’imprimerie permettait cette communication. La plupart des premiers journaux étaient édités par des sociétés de chercheurs comme la Royal Society. Avec l’augmentation du nombre de revues et de chercheurs, les éditeurs se sont dits qu’une manne leur tendait les bras.

Quelques grandes maisons d’édition ont investi le marché et, bizarrement, le prix des revues s’est aussi mis à augmenter. Finalement, la communauté scientifique a commencé à se révolter contre les revues qui faisaient payer le prix fort. En 2001, deux organisations ont co-publié Declaring Independence.

Rémunérer l’éditeur

L’édition scientifique est à bien des égards différente des autres formes d’édition. Ici les articles sont rédigés par les chercheurs et relus par des chercheurs. Les éditeurs du journal sont souvent eux-mêmes des chercheurs également. Les maisons d’édition ne font qu’imprimer et envoyer le journal aux abonnés. Le salaire des chercheurs provient essentiellement de l’argent public. Leur travail de recherche est également financé par l’argent public. Et pourtant c’est la maison d’édition qui détient les droits sur les articles.

Les chercheurs et le public doivent s’abonner à ces journaux (ils doivent payer l’éditeur) pour avoir accès aux informations obtenues grâce à l’argent public. Et le prix des journaux a commencé à augmenter au point que certaines universités parmi les plus aisées dans les pays industrialisés ont de plus en plus de mal à s’abonner à tous les journaux qui traitent de leurs activités. C’est dans ces conditions que les scientifiques ont commencé leur révolte. On attribue la naissance du mouvement à une pétition de 2001 à l’initiative de Patrick Brown et de Michael Eisen même si des voix isolées les précédaient.

Ainsi, Prof. Donald Knuth, auteur du classique Art of Computer Programming et inventeur de Tex, un langage de traitement de texte pour documents techniques, écrit : « J’adore ma bibliothèque et les autres bibliothèques que je visite fréquemment et ça me met en rage de voir les prix qu’ils imposent aux bibliothèques. J’ai donc écrit une lettre salée à Elsevier en août 2001 pour leur faire part de ma grande inquiétude quant à leur future politique de prix pour le Journal of Algorythms. Elsevier a cependant ignoré ma lettre et ne m’a pas répondu. » (source)

La pétition de Brown et Eisen appelait tous les scientifiques à s’engager à partir de septembre 2001 à ne plus soumettre leurs papiers aux journaux qui ne rendaient pas le texte complet de leurs travaux accessible à tous, librement et sans entraves, que ce soit immédiatement ou après un délai de quelques mois.

La fondation de la Public Library of Science (PLoS) a été la grande étape suivante du mouvement vers la libération des éditions scientifiques. Malgré le soutien d’un éminent prix Nobel, Dr. Harold Varmus, ils ont dû patienter quelques temps avant de devenir complètement opérationnels et de publier le journal PLoS Biology en 2003.

Maintenant ils éditent sept journaux dont le contenu est disponible librement sur Internet. Ils ont adopté un modèle où les auteurs des articles paient pour être publiés. Ils conservent un fond, comme le font d’autres journaux du même type, pour affranchir de tout paiement les auteurs de pays émergents ou les auteurs qui n’ont pas les moyens suffisants.

En Europe, la Budapest Open Access Initiative, qui est à la fois une déclaration d’intention, de stratégie et d’engagement, a été signée par plusieurs scientifiques lors d’une réunion organisée par l’Open Society Institute en décembre 2001. Aujourd’hui des milliers de scientifiques sont signataires de l’initiative. Elle a eu un impact très fort dans le monde entier, en particulier en Europe.

Plusieurs agences de recherche et de financement, comme le Organisation Européenne pour la Recherche Nucléaire (CERN) et le National Institutes of Health (NIH), ont imposé l’accès libre pour toutes les publications issues de recherches qu’ils ont financées.

L’Accès Libre (AL) signifie que toutes les publications sont librement accessibles par les autres scientifiques et par le public. En fait, il offre toute liberté aux utilisateurs et demande simplement que l’auteur soit reconnu et que l’intégrité des documents soit conservée. Bien sûr il ne permet pas la ré-édition des documents, dans leur forme originale ou modifiée, comme les licences CC le font. Mais L’Accès Libre aux publications scientifiques est une avancée très importante dans des pays comme l’Inde.

Le gouvernement d’Inde devrait par conséquent imposer l’Accès Libre pour toutes les publications issues de recherches financées par l’argent public. Cela peut-être réalisé de deux manières : soit l’auteur affiche l’article sur son site Web, sur le site de son institut ou sur un site de centralisation (les revues qui permettent cela sont appelés AL vert) soit il peut publier dans des revues Accès Libre qui affichent leur contenu sur leur propre site Web (appelées AL d’or). Heureusement, une grande partie des journaux indiens sont AL. Mais la plupart des bons articles d’Inde sont publiés dans des journaux étrangers qui ne sont pas nécessairement AL.

La liberté dans le commerce

Nous allons parler ici d’une nouvelle expérience menée en Inde. L’idée est de parvenir à une transparence totale du commerce. Une entreprise technologique nommée WikiOcean a vu le jour à Pune. L’entreprise est unique de part le fait qu’elle expose tout son fonctionnement sur son site Web, même ses transactions financières. Ils appellent ce genre de système un wékosystème, un jeu de mot entre wiki et écosystème. Comme l’explique le site Web : « WikiOcean est une organisation participative, non-propriétaire où les professionnels rejoignent un modèle de partage des bénéfices comme expliqué dans le wékosystème. »

Cette entreprise a été inspirée par la transparence des logiciels libres et, en fait, l’un de ceux que l’on pourrait appeler les catalyseurs (ceux qui régulent la structure et la dynamique de Wékosystème) est le président de la Free Software Foundation of India, Prof. G. Nagarjuna. L’entreprise travaille déjà sur quelques projets. Mais il est encore trop tôt pour juger des chances de survie d’une telle entreprise. Souhaitons que tout se passe pour le mieux.

Une autre idée complètement exotique est de copier le modèle des logiciels libres pour d’autres produits. En d’autres termes rendre tous les besoins librement disponibles pour tous. Bien que ça puisse sembler absurde il ne faudrait pas rejeter cette idée puisque certains efforts à petite échelle ont été lancés et semblent fonctionner.

Cette idée est envisagée par un groupe pas si petit que ça qui s’appelle Oekonux (dérivé de oekonomie, le terme allemand pour économie et Linux). Vous pourrez en apprendre plus sur www.oekonux.org et vous pouvez rejoindre leur liste de diffusion si vous êtes vraiment intéressés.

Comme nous l’avons vu, les nouvelles technologies apportent de nouveaux défis, de nouvelles idées. Et nous serons peut-être amenés à ré-écrire de vieilles lois qui avaient été créées pour des situations complètement différentes, un autre paradigme technologique.

Quand de nouvelles technologies apparaissent il nous faut changer nos lois pour nous adapter à la nouvelle donne afin que la société puisse pleinement bénéficier de la nouvelle technologie ou alors seule une petite portion de la société en récoltera tous les bienfaits. Et au rythme auquel la technologie évolue il ne va pas être facile de suivre toutes ses implications. Nos technocrates et nos législateurs vont devoir suivre le rythme.

Cet article (et sa traduction) est publié sous licence Creative Commons Attribution Share Alike 2.5.




Qu’est-ce qu’une oeuvre culturelle libre ?

Star Wars – Episode XIV – Acte III – Scène 2

Jeune Padawan : Bonjour Maître, je viens vous présenter ma dernière création libre.

Maître Jedi : Création intéressante… Elle est « libre » dis-tu. Qu’est-ce qui te permet de l’affirmer ?

Jeune Padawan : Je lui ai associée une licence prise chez les scribes de la planète Creative Commons.

Maître Jedi : Mais encore…

Jeune Padawan : C’est-à-dire ?

Maître Jedi : Mais encore, laquelle d’entre toutes les licences Creative Commons possibles ?

Jeune Padawan : La licence Creative Commons BY-NC-ND.

Maître Jedi : Je vois… Tu autorises donc quiconque à diffuser ta création pourvu que sa paternité soit conservée et qu’elle ne subisse ni modification ni commerce sans ton assentiment. C’est bien cela ?

Jeune Padawan : Oui, Maître.

Maître Jedi : Cette libre diffusion te fait alors dire que ta création est « libre » ?

Jeune Padawan : Oui, Maître.

Maître Jedi : Je comprends. Mais sache qu’il existe des galaxies entières qui ne considèrent pas ton œuvre comme libre.

Jeune Padawan : Ah bon !

Maître Jedi : Oui. Tu vois la galaxie Logiciels Libres, là-bas, derrière Cassiopée ?

Jeune Padawan : Celle dont toute la République vante la maîtrise technologique et l’éthique sociale ?

Maître Jedi : Celle-là oui. Cette galaxie est associée au logiciel depuis bien longtemps déjà mais elle a pris ce nom le jour où l’un de nos meilleurs éléments, Maître Jedi Stallman, est venu leur dire que leur principale activité était menacée par l’Empire et qu’il fallait agir pour s’en préserver. C’est ainsi que furent adoptées les quatre libertés du logiciel libre. Ces libertés sont précises voire sévères. Elle peuvent même t’apparaître contraignantes puisqu’on ne te demande plus ton autorisation pour altérer (ils disent modifier) ou exploiter (ils disent diffuser) ton œuvre. Mais elles ont permis à cette galaxie de résister d’abord, de poursuivre son développement ensuite et enfin de s’épanouir. Pour les rebelles de l’Alliance mais également pour de très nombreux simples citoyens de notre République, elle représente un modèle et une source d’espoir. As-tu envie que ta création entre un jour dans le Grand Livre de la Connaissance du peuple Wikipédia ?

Jeune Padawan : Oh ! J’en serais honoré Maître.

Maître Jedi : Alors là encore tu n’as pas choisi la bonne licence Creative Commons.

Jeune Padawan : Je ne le savais pas, Maître.

Maître Jedi : Les scribes de la planète Creative Commons non plus. Enfin si mais ils n’avaient pas pleinement pris conscience de ces nuances. C’est pourquoi ils ont récemment décidé d’ajouter un sceau particulier à certaines de leurs licences. Ce sceau est un symbole qui relie les habitants de la galaxie Logiciels Libres, le peuple Wikipédia et tous ceux qui placent leurs créations sous ces licences. Ce sceau est également la garantie que l’on peut travailler ensemble, sans entraves et en confiance, au bien commun de toute la République

Jeune Padawan : …Permettant alors aussi de mieux se défendre face à l’Empire.

Maître Jedi : En effet, oui.

Jeune Padawan : Je vais peut-être changer ma licence alors…

Maître Jedi : Telle n’était pas mon intention jeune Padawan. Ne sois pas si influençable !

Jeune Padawan : Oui, Maître. Toujours être libre de son choix mais savoir que le choix du libre n’a pas toujours la même définition en tout point de notre République.

Maître Jedi : C’est exactement cela. Tu seras bientôt prêt jeune Padawan.

Moi : Fin de cette introduction-divagation qui n’avait pas d’autre but que de vous présenter lyriquement la traduction ci-dessous annonçant le pourquoi du comment de ce nouveau label. Un label qui mine de rien donne du sens aux licences Creative Commons selon qu’on le possède ou non.

France Gall : C’est peut-être un détail pour vous mais pour moi ça veut dire beaucoup.

Certifié œuvres culturelles libres

Approved for Free Cultural Works

Mike Linksvayer – 20 février 2008 – CreativeCommons.org
(Traduction Framalang : Olivier Rosseler)

CC - Approved for Free Cultural WorksLa famille des licences Creative Commons s’aggrandit avec le sceau ci-dessus pour les licences qui remplissent les critères des Licences Culture Libre (NdT : Free Culture Licenses) selon la Définition des Œuvres Culturelles Libres, Parternité (BY) et Paternité-Partage à l’identique (BY-SA). Le domaine public n’est pas une licence mais est qualifiable d’œuvre culturelle libre d’après la Définition.

Une manière simple d’appréhender la définition est de la voir comme l’application des principes du logiciel libre au contenu. La liberté de modification, sans distinction de l’usage ou de l’usager, est un préalable nécessaire, ce qui signifie que les licences Creative Commons Pas d’utilisation commerciale (NC) et Pas de modification (ND) ne remplissent pas les conditions. Évidemment on ne vous demande pas d’accepter la définition de la liberté du mouvement des logiciels libres ou la Définition des Œuvres Culturelles Libres, et même si vous les acceptez des licences plus restrictives sont nécessaires dans certains cas. Quoiqu’il en soit, ce sceau marque une démarcation importante entre les licences plus restrictives et celles qui le sont moins, une démarcation dont les créateurs et les utilisateurs de contenu devraient être conscients.

Pourquoi les utilisateurs devraient-ils être conscients de ces distinctions ? Voici un exemple concret : certains projets importants n’acceptent que du contenu sous licence libre (conformément à la définition) ou appartenant au domaine public. C’est la cas en particulier de Wikipédia et les sites Wikimédia qui emploient la Définition des Œuvres Culturelles Libres dans leur politique de licence. L’identification claire des licences CC que l’on peut qualifier de libres est en effet l’un des problèmes à résoudre pour une potentielle migration de Wikipedia vers une licence CC Paternité-Partage à l’identique (BY-SA).

Cette signalétique supplémentaire est au cœur de nos efforts pour rendre plus lisible l’éventail de licences Creative Commons, ne parlez jamais de la licence Creative Commons car elle n’existe pas. Nos actes de licence ont toujours exprimés les propriétés particulières de chacune des licences grâce à une icône et un descriptif bref. En décembre 2006 nous avons ajouté à notre signalétique la distinction entre les licences libres et moins libres par un fond vert ou un fond jaune (voyez la différence entre Paternité et Paternité – Pas d’utilisation commerciale) et nous avons commencé à proposer des bandeaux pour les licences contenant des icônes relatives aux propriétés des licences afin que l’on puisse directement identifier visuellement la licence utilisée sans avoir à cliquer pour lire l’acte.

Nous espérons pouvoir répondre à d’autres suggestions de la communauté et présenter à l’avenir d’autres améliorations des actes des licences CC et du sélécteur de licence dans un futur proche. Alors ne zappez pas !




Un Linux toujours plus cinéphile qui mériterait une palme

Le festival de Cannes vient de s’achever. J’étais tous les jours derrière les barrières pour assister à la montée des marches mais je n’ai pas vu passer de manchot (aux palmes d’or). Il l’aurait pourtant mérité tant est forte l’utilisation de GNU/Linux dans la profession.

Une double traduction Framalang (by Miss Daria and Mr Olivier). Le premier article expose la situation actuelle à Hollywood (et en France ?) tandis que le second demande à ce que GNU/Linux ne soit pas oublié dans les génériques de fin. Les illustrations sont issues d’une présentation accompagnant le premier article.

Linux et le cinéma 1

Linux 1er système d’exploitation à Hollywood

Linux #1 Operating System in Hollywood

Robin Rowe – février 2008 – LinuxMovies.org

Dans l’industrie cinématographique, Linux a gagné. Il fonctionne sur pratiquement tous les serveurs et postes de travail utilisés pour produire les animations et effets spéciaux. LinuxMovies.org s’est réuni chaque mois à Hollywood pendant des années, mais maintenant il se réunit rarement.

Linux est utilisé pour créer la quasi-totalité des super-productions dans les salles de cinéma aujourd’hui, les films produits par Disney / Pixar, DreamWorks Animation, Sony, ILM, et d’autres studios.

Linux est le système d’exploitation le plus populaire pour les films d’animation ou d’effets spéciaux à gros budgets, avec plus de 95% des serveurs et postes de travail des grosses compagnies d’animation et d’effets spéciaux. Les gens hors de l’industrie cinématographique, et même parfois du métier, ne se rendent pas compte que Linux est si important dans les grands studios. Linux est la norme à Hollywood et est considéré comme le nec plus ultra. Dans ce monde sans dessus dessous où Windows et Mac sont des systèmes d’exploitation minoritaires, les évangélistes de Linux auraient bien du mal à trouver encore quelqu’un à convertir. Le système d’exploitation libre construit par les gens pour les gens, a été adopté en premier lieu par les studios de cinéma.

Hollywood préfère Linux parce que, dans de bonnes mains, c’est meilleur, plus rapide et moins cher. Dans les grandes entreprises qui ont des milliers de serveurs et postes de travail, l’économie et l’efficacité massive de Linux est mieux ressentie. Dans les petites sociétés de production, Windows ou Mac sont souvent plus populaires, car l’économie d’échelle ne s’applique pas. Malgré cela, certaines petites maisons fonctionnent avec Linux principalement. Certaines sociétés de production utilisent un environnement mixte. Par exemple, South Park est produit en utilisant des stations de travail Mac et des serveurs Linux. Bien qu’étant le roi dans l’industrie cinématographique, Linux est rarement rencontré dans l’industrie de la télévision en raison de besoins informatiques beaucoup plus modestes.

Contrairement à Windows ou Macintosh, aucune société ne possède Linux. Les développeurs de nombreuses entreprises contribuent au code de Linux qui est disponible gratuitement et fonctionne sur tous types de matériel informatique. Des sociétés comme HP, Dell, IBM, Verari, BoxX, et d’autres construisent des systèmes Linux spécifiquement pour l’industrie du film.

LinuxMovies.org est un groupe de plus de 300 techniciens qui s’entraident pour soutenir Linux dans les applications de l’industrie du film et qui font progresser Linux dans la technologie du cinéma.

Linux et le cinéma 2

Lettre ouverte – S’il vous plait, n’oubliez pas Linux dans le générique de fin

Open Letter – Please Show Linux Credit at Movie Endings

Shannon VanWagner – 10 avril 2008

Aux : cinéastes qui utilisent GNU/Linux

Cher cinéaste respecté,

J’ai récemment lu un article sur la façon dont votre entreprise utilise le système GNU/Linux pour créer le contenu de vos films. J’ai été heureux d’apprendre cela parce que je suis moi-même utilisateur/amateur de GNU/Linux et j’aimerai voir GNU/Linux gagner plus de parts de marché, de sorte que partout plus de gens puisse profiter de ce merveilleux logiciel. Le truc vraiment génial avec GNU/Linux c’est sa structure, et le potentiel qu’il a d’évoluer continuellement pour devenir un système d’exploitation encore meilleur à l’avenir.

Je vous écris donc pour demander que vous citiez GNU/Linux lorsque les crédits défilent à la fin des films que vous faites avec GNU/Linux. J’ai l’habitude de voir certains crédits accordés à beaucoup de choses dans les films (et même des choses plutôt étranges d’ailleurs), mais je ne me souviens d’aucune mention du système d’exploitation GNU/Linux dans les films que j’ai vus récemment. Donc, voir un petit logo Tux et les mots  »Fait avec le système d’exploitation GNU/Linux » permettraient non seulement de montrer un peu de respect, oh combien mérité, à la grande masse de développeurs (et aux autres participants) qui rendent GNU/Linux possible tous les jours, mais permettrait aussi de promouvoir les idéaux du système d’exploitation libre (NdT : Free as in Freedom) connu sous le nom de GNU/Linux. Peut-être même que davantage de personnes pourraient bénéficier de GNU/Linux si les grands cinéastes mentionnaient qu’ils l’utilisent dans les crédits de leurs films.

Merci d’aider GNU/Linux et à la promotion de la liberté pour l’avenir de l’informatique.

Respectueusement,

Shannon VanWagner
Amateur enthousiaste de Linux et informaticien