Appel à traduction pour un livre sur les ressources éducatives libres

Copie d'écran - WikiEducator

Dans la série Traductions Ambitieuses nous sommes déjà impliqués sur de gros chantiers comme La bio de Stallman et Producing Open Source Software (tous deux en phase de relecture d’ailleurs et donc bientôt sur framabook).

Mais puisqu’il n’y pas de raison de s’arrêter en si bon chemin et puisque c’est la rentrée des classes, que ne diriez-vous de traduire ensemble, de l’anglais vers le français, le très intéressant (et tout récent) Open Educational Resources Handbook sous licence Creative Commons BY-SA et disponible au format PDF en noir et blanc ou en couleur.

Parce que si vous voulez mon humble avis, ce serait un livre majeur à mettre entre les mains des éducateurs (au sens large) de France et de Navarre. Histoire de faire découvrir, d’informer et d’inciter afin que nous soyons toujours plus nombreux à participer à l’aventure collective de la diffusion, de la création, de la modification et du partage de ressources éducatives sous licences libres et ouvertes.

(j’ajoute, et ceci n’engage que moi, que ce ne serait pas du luxe si l’on présuppose que globalement la culture actuelle du corps enseignant dans ce domaine est encore en pleine phase d’apprentissage)

Véritable guide pratique, ce livre se décompose en plusieurs chapitres : chercher, créer, adapter, utiliser, partager et licencier de telles ressources. On peut le parcourir linéairement mais aussi le picorer en puisant dans un chapitre particulier au gré de nos besoins.

Précisons que cette traduction nécessiterait, nous semble-t-il, quelques petites adaptations locales. Il conviendrait ainsi par exemple de substituer certaines références et liens anglophones vers leurs pendants francophones si ils existent. Il conviendrait également de contextualiser juridiquement la notion anglophone de fair use qui n’existe pas chez nous. C’est un travail supplémentaire mais c’est un travail, nous semble-t-il là encore, fort enrichissant (et non réservé à des traducteurs soit dit en passant).

Précisons également que la version originale ayant été conçue dans un wiki, cela devrait grandement nous faciliter la tâche.

Voilà. Nous serions vraiment fiers et ravis d’apporter nous aussi et avec vous notre pierre à l’édifice en réussissant à mener à bien ce projet utile et enthousiasmant.

Un enthousiasme partagé ?

Cela tombe bien parce qu’avec de l’enthousiasme, un peu de réseau et des licences libres, on peut déplacer des montagnes (voire même des mammouths) !

Si vous souhaitez en être, ce dont nous vous remercions, il suffit de nous laisser un petit message à openeducation@framasoft.net. Nous commencerons pour nous compter sur une liste de discussion puis nous verrons alors ensemble comment organiser la chose.




De Linux et de l’opportunité d’une synchronisation des distributions

Voici une traduction[1] un peu technique mais qui illustre bien la problématique de la démocratisation de GNU/Linux.

Elle fait suite à la proposition récente de Mark Shuttleworth (Monsieur Ubuntu) de synchroniser les cycles et donc les sorties des principales distributions Linux (outre Ubuntu il cite celles de Red Hat, Novell et Debian ainsi que le noyau, GNOME/KDE, X et OpenOffice.org). Histoire que tout ce petit monde avance groupés, ce qui d’après lui simplifierait la vie de tout le monde à commencer par celle des utilisateurs.

Mais Ryan Paul du site Ars Technica n’est visiblement pas tout à fait de cet avis. Au ce serait bien si… de Mark Shuttleworth il répond avec des arguments précis qui évoquent souvent le quotidien collaboratif d’un développeur de logiciels libres (en particulier tout ce qui touche à la gestion de versions). Et lorsque l’on est, comme moi, utilisateur mais non développeur de logiciels libres, c’est culturellement fort enrichissant.

On notera qu’à la suite de sa proposition et du vif débat suscité, Shuttleworth a précisé voire nuancé son propos quelques jours plus tard sur son blog.

Copie d'écran - Ars Technica

Pourquoi Linux n’est pas encore prêt pour des cycles de parution synchronisés

Why Linux isn’t yet ready for synchronized release cycles

Ryan Paul – 21 mai 2008 – ars technica

Le fondateur d’Ubuntu, Mark Shuttleworth a répété son appel aux développeurs des principaux logiciels libres et des distributions Linux pour une synchronisation des développements et des cycles de publication. Il avance que l’adhésion fidèle et universelle à un modèle de parution régulier encouragerait la collaboration entre les projets, assurerait aux utilisateurs l’accès aux dernières nouveautés des applications populaires et ferait de la plateforme Linux une cible plus stable et prévisible pour les vendeurs de logiciels.

Shuttleworth souhaite organiser les principales sorties en trois vagues distinctes, chacune formant un ensemble cohérent. La première vague concernerait les composants fondamentaux comme le noyau Linux, le compilateur GCC, les boîtes à outils graphiques comme GTK+ et les plateformes de développement comme Python et Java. La deuxième vague apporterait les environnements graphiques et les applications tandis que la troisième vague serait composée des distributions.

Bien qu’un cycle de sortie unifié rendrait plus aisée la création d’une distribution Linux, ce concept apporte d’importantes difficultés et n’est que peu gratifiant pour les développeurs de logiciels. Pour parvenir à une synchronisation à grande échelle comme Shuttleworth le souhaite, certains logiciels libres devraient radicalement changer leur modèle de développement actuel et adopter une nouvelle approche qui ne sera pas viable pour nombreux d’entre eux.

Comprendre les cycles de sorties réguliers

Un cycle de sorties régulier nécessite de sortir de nouvelles versions à une fréquence donnée. Le processus de développement pour les projets qui emploient ce modèle implique en général une planification des fonctionnalités prévues et ensuite une implémentation maximale jusqu’à ce que le projet gèle le code lorsque l’échéance approche. À partir de ce moment là, les fonctionnalités qui ne sont pas terminées sont reportées. On se concentre alors sur la correction des bogues et sur l’assurance qualité jusqu’à la date butoir, quand le logiciel est officiellement sorti.

Ce modèle fonctionne bien pour de nombreux projets, en particulier pour l’environnement GNOME. Mais, une conséquence de ce modèle est que les développeurs doivent travailler par incrémentation et il décourage les modifications de grande ampleur, celles qui nécessiteraient plus de temps que n’en offre le cycle. Parfois cet intervalle n’est simplement pas suffisant pour ajouter au code principal et tester des changements d’architecture importants qui sont incubés en parallèle en dehors de l’arbre principal du code.

Quand cela se produit, les développeurs doivent se demander si les avantages de la nouvelle fonctionnalité compensent les effets néfastes de la régression (comme avec l’adoption de GVFS dans GNOME 2.22 par exemple). Ils doivent parfois décider de retirer des fonctionnalités à la dernière minute ou de repousser la date de sortie pour améliorer la stabilité. Ce sont des choix difficiles à prendre et, comme le reconnaît Shuttleworth lui-même, faire ces choix demande beaucoup de discipline.

Même si des cycles réguliers peuvent convenir à certains projets, tenter d’imposer l’adoption de cette approche à tous les projets et ensuite les faire correspondre universellement pourrait gravement endommager le processus de développement. Si les projets deviennent dépendants de la synchronisation, alors un retard à n’importe quelle étape aurait des conséquences sur toutes les autres étapes. Chaque projet subirait alors une pression énorme pour tenir les délais et ce serait néfaste pour le programme et ses utilisateurs finaux.

L’utilisation des branches pour faciliter des sorties régulières

D’après Shuttleworth, de bons outils, en particulier des systèmes de contrôle de version possédant de bonnes capacités de création de branches et de fusion, peuvent rendre ce problème obsolète. Il se réfère spécifiquement à Bazaar, un système de contrôle de version mis au point par Canonical qui s’intègre à la plateforme de développement Launchpad de l’entreprise. J’ai beaucoup testé Bazaar durant ces deux dernières semaines en cherchant des technologies de contrôle de version distribuées et je ne peux qu’être d’accord avec l’argument de Shuttleworth.

Bazaar rend très facile le portage du flot continu de petits changements, du tronc vers les branches, où les fonctionnalités importantes sont développées, afin que ces fonctionnalités puissent être fusionnées sans accroc dans la branche principale quand elles sont achevées. En utilisant cette approche, où la majeure partie du développement est faite dans des branches, le code du tronc est naturellement et systématiquement plus robuste qu’il ne le serait autrement. Shuttleworth va même plus loin encore et théorise que lorsque cette approche est employée en parallèle à des tests automatisés le code du tronc est toujours prêt à être sorti à n’importe quel moment.

« Un ensemble de tests complet vous permet d’être plus ouvert aux gros ajouts au tronc parce que les tests assurent les fonctionnalités que les gens ont avant l’ajout. Un ensemble de tests agit comme un champ de force, il protège l’intégrité du code dont le comportement était connu le jour précédent face au changement perpétuel. » écrivait ainsi Shuttleworth sur son blog.

« La plupart des projets que je finance maintenant ont adopté une politique de tests avant ajout. Les ajouts au tronc sont gérés par un robot qui refuse de valider l’ajout s’il ne satisfait pas à tous les tests. Vous ne pouvez pas discuter avec un robot ! Ce que je trouve beau là-dedans c’est que le tronc est toujours dans un état publiable. Ce n’est pas complètement vrai ; on peut toujours faire un peu plus d’assurance qualité avant de sortir quelque chose, mais vous avez cette garantie que l’ensemble de tests est toujours satisfait. Toujours. »

Les ensembles de tests et les très bons systèmes de contrôle de version peuvent simplifier le développement et améliorer la qualité du code, mais ils ne sont pas la panacée. Shuttleworth surestime largement la capacité de ces outils à pallier aux problèmes associés aux sorties régulières. Des bogues surgiront toujours quand de grosses nouveautés sont fusionnées au code existant et parfois ces bogues nécessitent un report de la date de sortie. Si les développeurs ne peuvent ou ne veulent pas faire cela, la qualité du logiciel s’en retrouvera forcément affectée.

Ubuntu 8.04 est le parfait exemple de la voie à ne pas suivre

Pas besoin de chercher très loin pour constater la baisse de qualité résultante d’un engagement sans compromis à un cycle de sorties régulières. Prenez l’exemple de la dernière version d’Ubuntu. Shuttleworth vante Ubuntu 8.04 comme l’exemple d’une gestion plus intelligente des sorties et soutient que cela démontre la capacité des développeurs à s’en tenir à un programme strict.

« 8.04 LTS représente pour nous un grand pas en avant dans notre conception de la gestion d’une sortie. Pour autant que je sache, jamais une sortie de cette envergure ne s’est faite exactement le jour prévu jusqu’à maintenant, dans le monde des OS propriétaires ou des OS libres. » commente Shuttleworth sur son blog. « Nous avons non seulement démontré que l’on peut préparer une version LTS dans les 6 mois impartis, mais cela prouve également que l’on peut s’engager par anticipation sur un tel cycle LTS. Félicitations aux preneurs de décisions techniques, aux responsables versions et à toute la communauté qui a calqué nos efforts sur le but fixé. »

Ubuntu 8.04, qui est parue le mois dernier, est une version avec support à long terme (LTS pour Long Terme Support), ce qui signifie qu’elle sera maintenue trois ans pour la version Desktop et 5 ans pour la version serveur. Depuis le début, Shuttleworth affirmait aux utilisateurs que la qualité et la fiabilité seraient les mots d’ordre pour la 8.04 et qu’elle serait faite pour durer. Malheureusement, la version n’a pas atteint ces objectifs et est sortie avec quelques bogues importants. Le problème le plus frustrant que nous avons relevé dans notre test d’Ubuntu 8.04 est la configuration défectueuse de PulseAudio, qui affecte à la fois les fonctionnalités audio et vidéo.

Un léger retard aurait permis de résoudre les problèmes de ce genre avant la sortie, mais ce n’est jamais arrivé, peut-être parce que l’engagement de faire la sortie à temps l’a emporté sur l’engagement de la qualité. Mais certains diront qu’une version défaillante n’est pas un problème parce que les bogues peuvent être réparés par des petites mises à jour après sa sortie.

« Les grands déploiements attendent la première ou la deuxième version consolidée de toute façon » fait noter Shuttleworth en réponse à un commentaire sur ton blog (NdT : La sortie de Ubuntu 8.04.1 est prevue pour le 3 juillet). Je me doute que je ne suis pas seul à avoir pensé aux Service Packs de Microsoft en voyant cette remarque. Mais une version officielle n’est-elle pas censée être un gage de qualité ? Si les sorties sont basées sur des jalons arbitraires posés sur une chronologie plutôt que sur une réelle amélioration, alors elles perdent leur sens ou leur pertinence pour les utilisateurs finaux.

D’autres approches

Les cycles de sortie devraient être flexibles et les développeurs devraient pouvoir en ajuster la durée pour qu’ils collent à leur activité. Selon les projets, la culture de développement et les buts peuvent être très différents, les stratégies de publication sont par conséquent différentes. L’appel de Shuttleworth en faveur d’une synchronisation reflète une forme d’incapacité à reconnaître la valeur et la profondeur de la diversité dans la communauté du logiciel libre. Des distributions qui visent des publics différents et qui ont des priorités différentes pourraient ne pas rentrer dans le même moule que les distributions généralistes comme Ubuntu. On retrouve également des logiciels libres multi-plateformes, comme le navigateur Web Firefox par exemple, qui réunissent beaucoup d’utilisateurs sur d’autres systèmes d’exploitation et qui peuvent avoir d’autres priorités que la fréquence de sortie des distributions Linux.

Je tiens à dire quand même que je ne rejette pas catégoriquement les idées de Shuttleworth. Même si je suis vraiment contre une approche descendante et centralisée de la planification des sorties synchronisées je pense qu’il y pourrait y avoir des bénéfices à tirer d’un meilleur alignement du calendrier de quelques distributions principales qui partagent déjà des buts, une technologie et une méthodologie similaires.

La simultanéité des sorties est déjà à l’ordre du jour (Fedora 9, Ubuntu 8.04 et OpenSolaris 2008.05 ont toutes vu le jour à quelques semaines d’intervalle) et je suis convaincu que de meilleurs résultats sont atteignables si on laisse cette tendance se développer d’elle-même. Encourager trop d’interdépendance créerait des risques sévères, on parle d’un domaine où une planification consciencieuse et un calendrier gravé dans la roche seraient à l’origine de plus de problèmes qu’ils n’en résolvent.

Aaron Seigo, développeur KDE, est l’un des détracteurs ayant exprimé des inquiétudes convaincantes et perspicaces au sujet de la proposition de Shuttleworth. Seigo met à plusieurs reprises en avant que le genre de synchronisation que souhaite Shuttleworth améliore l’efficacité d’intégration au dépend de l’efficacité des développeurs, une concession qu’il décrit comme contre-productive car c’est dans le développement que se trouve le richesse des logiciels.

« Mark parle de processus en flux tendu, mais seulement du point de vue de l’intégration ; il existe aussi des processus en flux tendu dans le développement et définir le cycle de développement à l’aune du cycle de sorties, surtout s’il n’est pas bon, érode la fluidité du flux de développement », écrit Seigo sur son blog. « Il ne faut pas oublier que c’est le processus de développement qui fait toute la valeur d’une distribution Linux. La distribution rend cette valeur accessible à grande échelle et crée un autre type de valeur ajoutée par-dessus (le support, le marketing, etc.) mais c’est le développement, pas l’intégration, qui est la source primaire de valeur. Il devrait alors être évident que le processus de développement n’est pas quelque chose qu’on peut prendre comme ça à la légère. »

Seigo propose une alternative qui faciliterait la synchronisation en aval sans nécessiter de synchronisation ou de chamboulement en amont. D’après lui, les distributions devraient gérer par elle-mêmes les sorties en créant leurs propres branches et en tenant compte des contraintes de leurs propres cycles.

« Puisqu’il y a cette volonté en aval pour des cycles de parution synchronisés… pourquoi est-ce que l’aval ne prendrait pas en charge les sorties ? Pourquoi attendre que les tarballs soient livrées devant leur porte pour mettre en place une équipe de publication ? » s’interroge Seigo. « Pourquoi ne pas demander à la communauté d’intégration (les vendeurs de systèmes d’exploitation en gros) de coordonner leur efforts pour créer une branche en vue d’une sortie à un moment donné, moment qu’ils définissent eux-mêmes, et travailler avec l’amont pour la stabilisation de cette branche ? Plutôt que d’espérer que l’amont fasse ce qu’ils désirent, pourquoi ne peuvent-ils pas regrouper un tas de gars des communautés de chez Novell, Red Hat, Debian, Mandriva, MacOS et Microsoft, de chez Canonical ou encore de chez n’importe qui qui voudrait s’impliquer et offrir un vrai processus sérieux de sortie par lequel l’amont pourrait s’intégrer naturellement ? »

Les suggestions de Seigo sont plus viables que les propositions de Shuttleworth. Elles permettraient aux distributions Linux de bénéficier des avantages pratiques de la synchronisation dont bénéficieraient également les utilisateurs finaux sans avoir à bouleverser ou synchroniser le développement en amont. Cela engendrerait cependant un coût additionnel et un défi nouveau pour les distributeurs et leur ferait porter le poids de la gestion des sorties. Seigo assure que si les distributeurs veulent vraiment des sorties synchronisées en aval autant que ça ils seront prêts à accepter cette charge supplémentaire et trouveront un bon moyen pour y parvenir.

Il est bien probable que cette discussion dure pendant encore quelques temps à mesure que les acteurs principaux pèsent le pour et le contre. La communication a déjà fait avancer le débat de bien des manières et a déjà fait émerger des alternatives attirantes et des variations de la proposition initiale. Le résultat final pourrait avoir des implications importantes sur la gestion des sorties par les logiciels libres et les distributions, mais pour l’instant aucune des idées proposées n’est suffisamment mature pour être appliquée à grande échelle.

Notes

[1] Traduction : Olivier – Relecture : Daria – Café : Framalang.




Firefox : Et 1, et 2, et 3.0 !

Le titre de ce billet est inversement proportionnel aux qualités de la très attendue nouvelle version de Firefox (d’autant que ce n’est pas forcément le moment d’abuser des références footballistiques). J’aurais peut-être mieux fait de choisir un plus classique Firefox 3, très bientôt sur vos écrans !

Toujours est-il que demain (soir) c’est donc la sortie officielle et planétaire de Firefox 3.0. Un évènement majeur qui méritait bien un passage en revue détaillé des principales nouveautés.

Et comme on n’avait pas envie de réinventer la roue, il s’agit d’une nouvelle traduction Framalang (Yonnel, relecture assurée par Olivier et Yostral).

Firefox 3

Petit guide de Firefox 3

Field Guide to Firefox 3

Deb Richardson – 12 juin 2008 – Dria.org

Nous y voilà. Firefox 3 sera lancé dans très peu de temps. Avant cet événement tant attendu, les membres de la communauté Mozilla ont beaucoup écrit à propos des nouvelles fonctionnalités et des améliorations que vous allez voir avec ce navigateur. Les nouvelles fonctionnalités sont pour certaines énormes et innovantes et pour d’autres si subtiles que vous ne les remarquerez peut-être pas avant de vous dire que l’utilisation de Firefox est d’une certaine manière plus simple et plus performante. La gamme des fonctionnalités améliorées est tout aussi large, des pans entiers de traitement des données ont été repris à zéro, alors que des fonctionnalités ont été légèrement modifiées ou redéfinies dans de petites proportions. Globalement le résultat est la version de Firefox la plus rapide, la plus sûre, la plus légère et la plus facile à utiliser qui soit. Nous espérons qu’il vous plaira.

Voici la liste des fonctionnalités traitées dans ce guide :

Gestionnaire de modules complémentaires

Firefox 3

Le gestionnaire de modules complémentaires dans Firefox 3 a été étendu pour inclure un nouvel onglet "Catalogue" où vous pouvez voir les modules complémentaires recommandés, en chercher de nouveaux, voir les descriptions et les notes, mais aussi installer des modules complémentaires d’un simple clic. Le gestionnaire de modules complémentaires est maintenant complètement intégré au site addons.mozilla.org (AMO), ce qui rend plus facile que jamais la recherche et l’expérimentation de nouvelles extensions et de nouveaux thèmes pour votre navigateur.

Pour en savoir plus Get Add-ons in Firefox 3 de Madhava Enros.

Marque-pages

Firefox 3

Firefox 3 introduit de nouvelles fonctionnalités pour les marque-pages qui les rend beaucoup plus faciles à utiliser, plus utiles en général et beaucoup plus utiles pour les cancres de l’organisation. Les trois principales fonctionnalités sont les étoiles de marque-pages, les tags de marque-pages et les dossiers de marque-pages intelligents.

Les étoiles sont une façon facile et rapide de marquer une page en un simple clic. Les tags sont une façon d’ajouter "plus" d’informations à un marque-page, ce qui vous permet de les organiser de manière beaucoup plus flexible qu’avec les dossiers à l’ancienne. Les dossiers intelligents sont les "recherches sauvegardées" qui sont automatiquement mis à jour quand vous ajoutez de nouveaux items qui correspondent à cette recherche dans vos marque-pages.

Pour en savoir plus Firefox 3: Bookmarks de Deb Richardson.

Feuilles de style (CSS)

Firefox 3

Un grand nombre d’améliorations pour les CSS ont été apportées à Firefox 3 dont le support de : inline-block et inline-table, font-size-adjust sur toutes les plate-formes, la pseudo-classe :default, les soft-hyphen HTML (­) (barre de césure semi-automatique), la propriété ime-mode, la valeur pre-wrap de l’attibut white-space, ainsi que la mise à jour dynamique des sélecteurs tels :first-child, :only-child, :last-child et :empty. Le Mozilla Developer Center a une liste complète et une documentation pour tous les changements de CSS de Firefox 3, que vous trouverez ici : CSS improvements in Firefox 3.

Pour en savoir plus Some new CSS features in Firefox 3 de David Baron.

Support des profils de couleurs

Firefox 3

Firefox 2 n’inclut pas le support des profils de couleurs, donc le navigateur interprète les couleurs du mieux qu’il peut, sans adaptations spéciales selon le système ou les profils de couleurs personnalisés. Firefox 3 supporte parfaitement les profils de couleurs, ce qui donne une gamme de couleurs plus riche et plus vivante affichée par le navigateur. Toutefois, pour nombre de raisons, le support des profils de couleurs est désactivé par défaut, il doit être activé dans les préférences du navigateur. Il est probable que dans une future version de Firefox, cette fonctionnalité sera activée par défaut, ce qui devrait faire plaisir à tous les photographes et graphistes.

Pour en savoir plus Firefox 3: Color profile support de Deb Richardson.

Gestionnaire de téléchargements

Firefox 3

Le gestionnaire de téléchargements a pas mal changé pour Firefox 3 et peut maintenant, comme on nous l’a souvent réclamé, mettre les téléchargements en pause et les reprendre, manuellement ou automatiquement. Parmi les autres changements, on note l’ajout d’un indicateur de statut de téléchargement dans la barre de statut en bas de fenêtre, la possibilité de faire une recherche dans les fichiers téléchargés, un affichage amélioré des fichiers qui inclut des informations plus détaillées et la possibilité de retourner sur la page originale du téléchargement par un clic droit sur le fichier dans le gestionnaire de téléchargements.

Pour en savoir plus Download Manager in Firefox 3 de Madhava Enros.

Rendu des polices et des textes

Firefox 3

Lorsque les développeurs de Mozilla ont décidé d’incorporer le sous-système Cairo et de repartir de zéro pour une nouvelle couche graphique, ils ont aussi décidé de retravailler complètement le système qui affiche le texte dans le navigateur. Le résultat est que Firefox 3 supporte mieux le crénage des polices, les ligatures, les textes internationaux, les ligatures partielles, les indices pour afficher les caractères, l’anti-crénelage, les types et la sélection de polices. Firefox 3 représente un énorme pas en avant dans le support des polices et le rendu des textes et les développeurs de Mozilla travaillent déjà sur de nouvelles améliorations pour les versions futures.

Pour en savoir plus Firefox 3: Fonts and text de Stuart Parmenter et Deb Richardson.

Zoom plein écran

Firefox 3

Le zoom a été complètement retravaillé pour Firefox 3 et inclut maintenant à la fois le zoom plein écran et le zoom texte seulement.

Le zoom plein écran agrandit à l’échelle la mise en page et la structure de la page tout en permettant de garder parfaitement le contrôle sur la taille du contenu affiché. Par contre, le zoom uniquement sur le texte laisse les images et la mise en page telles quelles.

Une fonctionnalité nouvelle et extrêmement utile du zoom de page est que Firefox garde maintenant automatiquement en mémoire le niveau de zoom que vous avez réglé site par site. Une fois que vous agrandissez (ou que vous réduisez) une page d’un site, Firefox s’en rappellera et restaurera ce niveau de zoom la prochaine fois que vous vous rendrez sur toute page qui fait partie de ce site.

Pour en savoir plus Full Page Zoom de Seth Bindernagel.

Historique

Firefox 3

Firefox 3 rend l’historique du navigateur incroyablement utile. Non seulement l’historique est une source essentielle d’information pour la nouvelle barre de navigation intelligente, mais il a été amélioré de plusieurs autres façons. L’historique garde maintenant les favicons des sites (des petits logos identifiants) ainsi que les autres données de localisation, pour rendre beaucoup plus aisées la recherche et l’identification des entrées de l’historique. Le panneau d’historique et le menu ont aussi été modifiés et une toute nouvelle bibliothèque d’historique a été ajoutée à la bibliothèque de Firefox (autrefois le gestionnaire de marque-pages). Dans l’ensemble, Firefox 3 a fait passer l’historique d’occasionnellement utile à absolument essentiel dans l’usage quotidien du navigateur.

Pour en savoir plus Firefox 3: History de Deb Richardson.

Canvas HTML

Firefox 3

L’implémentation du canvas HTML de Firefox 3 a été améliorée et comprend maintenant une interface expérimentale d’affichage du texte. Cette interface est décrite en détail dans l’article Dessiner avec canvas du Mozilla Developer Center (MDC). Une autre nouveauté est le support des méthodes de transformation transform() et setTransform() dont la documentation fait partie du fantastique Tutoriel canvas du MDC. La performance en deux dimensions de canvas a également été améliorée, le résultat est plus rapide sur toutes les plate-formes.

En voici deux excellents démonstrations : John Resig’s Processing.js et Aza Raskin’s Algorithm Ink.

Pour en savoir plus HTML Canvas in Firefox 3 de Vlad Vukicevic.

Support UTF-8 dans la barre de navigation

Firefox 3

Ceux qui utilisent principalement le web US-ASCII ne remarqueront peut-être pas un des gros changements de la barre de navigation de Firefox 3 : le support multi-octets de l’UTF-8. C’est une très grande victoire en termes d’accessibilité, parce que les URI en langue non-ASCII étaient du code machine illisible dans Firefox 2, alors que maintenant dans Firefox 3 ils sont interprétés comme des polices lisibles.

Pour en savoir plus Firefox 3: UTF-8 support in location bar de Gen Kenai.

Protection contre les malwares

Firefox 3

Les "malwares" sont notre appellation pour les sites web qui essaient d’installer des logiciels non souhaités ou encore faire des choses non autorisées sur votre ordinateur. Firefox 3 garde une trace de tous les sites sur lesquels ont été vus des malwares et vous protège en les bloquant avant même que les pages ne soient chargées pour s’assurer que votre ordinateur ne courre jamais un risque. Vous pouvez ignorer les avertissements si vous le voulez, c’est votre navigateur, après tout, mais nous espérons que cette sécurité supplémentaire aidera à protéger les utilisateurs et à rendre le Web plus sûr pour tous.

Pour en savoir plus Mal-what? Firefox 3 vs. Bad People de Johnathan Nightingale.

Interface microformats

Firefox 3

Les microformats sont des formats simples, avec des données ouvertes, construits sur des standards existants. Firefox 3 inclut une nouvelle interface de microformats (API) qui peut être utilisée pour construire des greffons, mais sinon ils ne sont pas montrés dans l’interface utilisateur de Firefox 3.

Pour en savoir plus Use the new microformats API in Firefox 3 extensions du site d’IBM et Where are the microformats in Firefox 3? de Mike Kaply.

Support des applications web hors connexion

Firefox 3

Firefox 3 implémente des événements online et offline selon la spécification 1.0 des applications Web WHATWG. Cela signifie que les développeurs Web peuvent créer de nouvelles applications Web qui fonctionneront dans Firefox même quand l’ordinateur n’est pas connecté. Dans le mode "offline", les données d’une application Web sont stockées localement sur votre ordinateur qui est ensuite synchronisé avec le serveur quand la connexion est rétablie.

Pour en savoir plus Online and offline events, Offline resources in Firefox et Firefox 3: Offline App Demo de Mark Finkle et Offline Web Applications de Robert O’Callahan.

Gestionnaire de mots de passe

Firefox 3

Dans Firefox 3, les fonctionnalités du gestionnaire de mots de passe sont significativement améliorées et beaucoup mieux pensées. La boite de dialogue qui vous demande si vous voulez que Firefox sauvegarde un mot de passe est complètement remplacée, au lieu d’un pop-up auquel vous êtes forcé(e) de répondre avant que le login ait réussi, Firefox 3 donne le choix d’enregistrer un mot de passe donné grâce à une barre d’information qui se déroule depuis le haut de l’écran après que vous ayez entré votre mot de passe. Cette barre d’information n’est pas modale, vous pouvez donc continuer à utiliser le web normalement sans avoir à la supprimer préalablement. Cette barre restera jusqu’à ce que vous lui disiez que faire ou que vous quittiez le site sur lequel vous êtes.

En plus, le gestionnaire de mots de passe vous offre la possibilité de filtrer et de rechercher ce qui rend significativement plus facile de trouver et de gérer les mots de passe pour des sites particuliers. Ces changements sont relativement subtils, mais si vous avez des centaines de mots de passe stockés au bout du compte ces petits changements peuvent faire une énorme différence.

Pour en savoir plus Firefox 3: Password Management de Deb Richardson.

Améliorations de performance

Firefox 3

Firefox 3 est la version la plus rapide et la plus légère de Firefox à ce jour. Les tests de vitesse montrent une amélioration d’un facteur 2 à 4 par rapport à Firefox 2 et d’un facteur 9 par rapport à Internet Explorer 7. Les tests d’utilisation mémoire montrent que Firefox est 2 fois plus efficace que Firefox 2 et 4,7 fois plus efficace que IE7. L’accent a vraiment été mis sur les performances pour cette version et d’incroyables efforts ont été consacrés à l’obtention de ces chiffres.

Pour en savoir plus Firefox 3 Memory Usage de Stuart Parmenter.

Protection contre le phishing

Firefox 3

En plus de la nouvelle protection contre les malwares qui a été ajoutée à cette version, Firefox 3 protège également mieux contre le phishing. Les sites identifiés comme phishing sont maintenant bloqués tout de suite, avant même que les pages ne soient chargées, pour que votre navigateur ne soit jamais en danger. Firefox 2 chargeait la page, mais vous prévenait que c’était un site identifié comme dangereux en le mettant en gris et en affichant un message d’avertissement. La méthode de Firefox 3, qui correspond au comportement de protection contre les malwares, est plus sûre et vous expose à globalement moins de risques.

Pour en savoir plus Mal-what? Firefox 3 vs. Bad People de Johnathan Nightingale.

Plugins

Firefox 3

Les plugins sont de petits programmes de tierce-parties qui peuvent être ajoutés à Firefox pour gérer du contenu que Firefox ne gère pas lui-même. Sans le plugin Flash, par exemple, vous ne pourriez pas regarder des vidéos de YouTube. Firefox 3 propose une nouvelle fonctionnalité faisant partie du gestionnaire de modules complémentaires remanié que vous pouvez utiliser pour voir, activer et désactiver tout plugin que vous avez installé. Vous pouvez aussi utiliser l’affichage des plugins pour visiter la page d’origine du plugin (si elle est spécifiée) en faisant un clic droit sur le nom du plugin et en sélectionnant "Visiter la page Web".

De la même façon que d’autres greffons de Firefox 3, si un plugin est détecté comme contenant une vulnérabilité, Firefox le désactivera automatiquement et vous dira où obtenir une version à jour. C’est une amélioration de sécurité significative pour Firefox qui auparavant n’avait aucun moyen pour vous dire que vous aviez installé des plugins dangereux.

Pour en savoir plus Firefox 3: Plugins de Deb Richardson.

Bouton d’identification de site

Firefox 3

S’assurer que les utilisateurs sont en sécurité, à l’abri et protégés lorqu’ils naviguent sur le web est l’un des plus grands défis pour les concepteurs de navigateurs. Firefox 3 présente une nouvelle fonctionnalité de sécurité extrêmement importante, connue sous le nom de bouton d’identification de site. Ce bouton remplace et s’appuie sur l’omniprésente icône de "cadenas" qui était depuis si longtemps le premier indicateur de sécurité utilisé par les navigateurs. Plutôt que d’afficher simplement un petit cadenas quelque part, Firefox trouve tout ce qu’il peut sur le site que vous visitez et rend ces informations facilement accessibles grâce à un bouton à l’extrêmité gauche de la barre de navigation.

Firefox 3

Le bouton peut être dans une des trois couleurs – gris, bleu ou vert – et affiche le nouveau message d’identification de site quand on clique. Le message inclut une icône correspondante "Passport Officer" en gris, bleu ou vert et affiche un sommaire des informations disponibles sur l’identité du site. Maintenant, au lieu d’avoir un seul indicateur de l’état de cryptage (le cadenas), Firefox 3 vous fournit beaucoup plus de renseignements sur un large panel de niveaux de sécurité et de situations.

Pour en savoir plus Firefox 3: Site Identification button de Deb Richardson.

Barre d’adresse intelligente

Firefox 3

Dans Firefox 3 la barre d’adresse a été complètement refondue de manière extrêmement excitante. Surnommée affectueusement "AwesomeBar" (NdT : "Barre Géniale"), la nouvelle barre d’adresse intelligente vous laisse utiliser le champ d’URL de votre navigateur pour faire une recherche sur un mot clé dans votre historique et vos marque-pages. Vous n’avez plus à vous souvenir du nom de domaine de la page que vous cherchez, la barre d’adresse intelligente affichera les URL, les titres de pages et les tags de vos marque-pages et de votre historique correspondants à ce que vous tapez (même en plusieurs mots !) et trie les résultats selon un algorithme qui combine la fréquence et la nouveauté.

Les résultats montrent également les favicons des pages, les titres en entier, les URL et si vous avez marqué ou tagué le site précédemment. Alors que le passage de Firefox 2 à Firefox 3 peut être un petit peu dérangeant pour certains, une fois que vous aurez utilisé la barre d’adresse intelligente un moment vous vous demanderez comment vous faisiez pour vivre sans.

Pour en savoir plus AwesomeBar is awesome de Deb Richardson ainsi que ce petit screencast de Mike Beltzner.

Onglets

Firefox 3

Les onglets n’ont pas tant changé que ça entre Firefox 2 et 3 sauf en ce qui concerne l’ajout de nouvelles animations de défilement doux. Lorsque vous faisiez défiler votre barre d’onglets dans Firefox 2, les onglets changeaient un à un. Cela rendait le défilement un petit peu haché et brouillon. Avec le défilement doux, il est beaucoup plus facile de comprendre le mouvement et où les onglets vont. Cela se voit très clairement avec un film de démonstration, j’en ai donc créé un rapide, que vous pouvez voir ici : Smooth tab scrolling (.swf).

Thèmes

Firefox 3

Un des premiers buts du rafraîchissement visuel de Firefox 3 était de mieux intégrer le navigateur sur chaque plate-forme, tout en conservant une identité visuelle et une présence uniques. Firefox 2 ressemblait plus ou moins à la même chose sous Windows, Mac et Linux, mais ce n’est pas le cas de Firefox 3. Il y a quatre nouveaux thèmes distincts pour Firefox 3 – un pour Linux, Mac OS X, Windows XP et Windows Vista – et le changement touche chaque aspect de l’application. Chaque bouton, fenêtre, onglet, icone et boite de dialogue s’intègre maintenant à la plate-forme native, ce qui donne l’impression que Firefox fait naturellement partie de l’environnement de votre ordinateur.

Pour en savoir plus Firefox 3 Themes de Alex Faaborg et Firefox 3 for theme developers de Gavin Sharp..

Flux vidéo et audio

Firefox 3

Firefox 3 comprend une page améliorée de prévisualisation de flux qui détecte et affiche maintenant le contexte à côté des entrées de blog associées. De plus, Firefox 3 peut associer les podcasts vidéo avec une application, les podcasts audio avec une autre et tous les autres types de flux avec une troisième. Ces modifications sont relativement subtiles, mais fantastiquement utiles une fois que vous commencez à en tirer avantage.

Pour en savoir plus Firefox 3 and enclosures de Will Guaraldi.

Support des contrôles parentaux de Vista

Firefox 3

Windows Vista inclut des contrôles parentaux qui vous aident à gérer ce que vos enfants ont le droit de faire sur l’ordinateur. Firefox 3 inclut le support de ces contrôles parentaux, le gestionnaire de téléchargements est informé des situations où le contenu est bloqué par des proxys et les téléchargements bloqués déclenchent maintenant les bons messages de l’interface pour indiquer ce qui s’est produit. Cette fonctionnalité n’est disponible que sur la plate-forme Vista et sera développée et améliorée dans les futures versions de Firefox.

Pour en savoir plus Firefox 3: Parental controls de Jim Mathies et Mark Finkle.

Gestion des protocoles par des applications web

Firefox 3

La gestion des protocoles par des applications web est une nouvelle fonctionnalité de Firefox 3 qui donne plus de puissance aux applications web. Lorsque vous cliquez sur un liens avec un protocole spécifique Firefox peut maintenant envoyer les informations de ce lien à une application Web définie si cette application web dispose de cette fonctionnalité. Par exemple, les liens "mailto:" peuvent maintenant être gérées par une application web comme Yahoo! mail à la place du client de messagerie par défaut de votre ordinateur. Parmi d’autres protocoles actuellement supportés, on trouve "webcal:", "tel:" et "fax:".

Les développeurs qui sont intéressés par l’ajout du support de protocoles par des applications web devraient lire l’article Gestionnaires de protocoles web du Mozilla Developer Center.

Pour en savoir plus Firefox 3: Web protocol handlers de Mark Finkle.

Conclusion

Et voilà, un large tour du propriétaire (en aucun cas exhaustif) des nouvelles fonctionnalités et des améliorations de Firefox 3, des gestionnaires de modules complémentaires à la gestion de protocoles par des applications Web. Presque toutes les parties du navigateur ont été améliorées d’une manière ou d’une autre.

Firefox 3 a été développé sur approximativement trois ans en définitive et des milliers de développeurs, de designers, de localisateurs, de testeurs, de marketeurs et d’auteurs de documentation y ont contribué autour du monde. Le navigateur Firefox est produit par une des plus grandes communautés open source du monde et nous en sommes tous extrêmement fiers et enthousiastes d’enfin le mettre entre les mains de millions de gens.

Si vous ne l’avez pas encore fait vous devriez aller sur le site du Firefox Download Day pour aider à établir un nouveau record du monde Guinness. Une fois que c’est fait, rendez-vous sur le Mozilla Party Central pour trouver ou organiser un événement. Nous espérons que vous nous rejoindrez tous pour aider à fêter la sortie du meilleur Firefox de tous les temps.

Cet article (et ses copies d’écran) sont sous licence Creative Commons By-Sa.

Firefox 3 - Download Day

Cette dernière illustration est extraite de l’opération Download Day 2008 qui vise lors de la sortie de Firefox 3 à établir un nouveau record du monde Guinness du logiciel le plus téléchargé en 24h. J’avoue ne pas être un grand fan de ce type de marketing à l’américaine. Par contre parcourir la carte du monde de ceux qui se sont déjà enregistrés pour participer a quelques chose de fascinant. Ainsi ils sont déjà 61 au Tadjikistan. United Colors of a Free Software World en quelque sorte…




Plus qu’une simple histoire d’argent

L’un des gros challenges qui nous attend est le développement de la culture du don, qui nécessite souvent de quitter certaines habitudes héritées de la culture du gratuit (entretenues par une économie classique qui ne nous voit pas autrement qu’en simple consommateur).

Dans ce contexte cette petite histoire a peut-être valeur d’exemple pour ne pas dire de symbole. Quand l’excellent lecteur audio Amarok intègre l’excellent site musical Magnatune dans son logiciel, il le fait spontanément, parce qu’il pense que c’est un plus pour ses utilisateurs. Mais quand Magnatune s’aperçoit alors que ça leur apporte des visiteurs mais aussi des sous puisque ces visiteurs achètent des titres, alors il décide spontanément lui aussi de faire quelque chose en retour…

Une traduction LVI pour Framalang.

Copie d'écran - Magnatune

Donner de l’argent pour l’Open Source

Giving money to open source

John Buckman – 28 avril – Magnatune (blog)

Il y a un an et demi, l’excellent lecteur de musique sur GNU/Linux Amarok a ajouté un support étendu pour Magnatune. Le programmeur, Nikolaj Hald Nielsen, a fait cela de sa propre initiative, simplement parce qu’il trouvait que ce serait une chose élégante à inclure dans son lecteur de musique favori, et parce qu’il appréciait Magnatune et la philosophie derrière son business model.

J’aime vraiment Amarok, et je me suis alors engagé à offrir 10% du produit des ventes de Magnatune apportées par Amarok. J’étais aussi tellement content de la qualité du travail de Nikolaj, que je l’ai embauché, et maintenant il passe 50% de son temps pour Magnatune, et je le paie pour qu’il passe les 50% restant pour Amarok.

Je suis vraiment très heureux d’annoncer que les utilisateurs d’Amarok ont acheté une belle quantité de musique sur Magnatune. Ils peuvent écouter gratuitement la musique depuis Amarok, et les albums en streaming apparaissent dans Amarok comme si c’était de la musique en local, et ils peuvent facilement acheter la musique dans différents formats ouverts.

Jusqu’ici, Amarok a apporté 11 557 $ de ventes de musique sur Magnatune !

Ce matin, j’ai fait de bon coeur une donation de 1 155,70 $ à Amarok.

J’ai également fait la même offre à Rhythmbox, un autre bon lecteur de musique pour Linux, et je vais bientôt leur envoyer un don. Leur support intégré pour Magnatune est lui aussi excellent, et je l’ai personnellement utilisé pour écouter notre propre musique issue de Magnatune.

Rhythmnox est installé par défaut dans la toute récente et ultra-populaire Ubuntu 8.04.

Mark Shuttleworth, la force derrière Ubuntu, a récemment déclaré ceci :

« Je suis particulièrement ravi que nous supportions Magnatune, qui a imaginé un très bel avenir pour l’industrie de la musique, Le problème avec l’industrie de la musique n’est pas les musiciens ; ça n’est pas la musique ; et ce ne sont pas les téléchargements. Ce sont les compagnies de disques. Alors, avoir une compagnie de disques qui dise : Il y a une autre manière de travailler semble être quelque chose de positif que nous pouvons soutenir. Et ça, c’est super ! »

J’ai parlé au programmeur qui est derrière le support de Magnatune pour Rhythmbox, et il prévoit d’y ajouter un tas de fonctionnalités cet été. Cool !




Lorsque vous démarrez votre ordinateur vous vous engagez politiquement

« Mais que fais-tu donc derrière ton ordinateur ? » est une question qui me revient assez souvent. Lorsque je dispose d’un peu de temps devant moi il m’arrive de répondre d’applomb : « Je participe à la prochaine révolution ! ».

C’est vrai après tout. Tant qu’à y passer du temps autant que ce soit pour une bonne raison 😉

C’est évidemment une boutade à la limite de la provocation mais elle a le mérite de piquer la curiosité de mon interlocuteur. Et alors de lui évoquer en vrac le logiciel libre, son mouvement, sa culture, ses extensions du domaine comme Wikipédia, Creative Commons, PLoS, etc.

Bref, en gros, tout ce que contient cette nouvelle traduction (by Olivier et Daria from Framalang Institute). C’est un article exotique puisqu’il nous vient d’Inde. Mais il m’est plus familier que bon nombres d’articles de mes propres compatriotes. En imaginant qu’il y ait des V. Sasi Kumar dans tous les pays du monde, il y a de quoi être optimiste…

Crédit photo : Vibrantly Rabari par Meanest Indian (Creative Commons By)

Vibrantly Rabari - Meanest Indian - CC by

Une nouvelle vague de liberté

A new wave of freedom

V. Sasi Kumar – Mai 2008 – Frontline Magazine (India)

Le nouveau mouvement de liberté, dans les logiciels, le savoir, la publication et le commerce va complètement bouleverser notre manière de penser, de faire les choses et d’interagir.

« Toute action qui est dictée par la peur ou par la contrainte de quelque nature que ce soit cesse d’être morale »
Mahatma Gandhi

Politiquement, nous ne jouissons pas de certaines libertés que nous méritons. Une nouvelle vague de mouvements pour la liberté, pour rendre concrètes ces libertés, balaie actuellement le monde, un mouvement qui modifiera notre façon de penser, notre façon de faire les choses et notre manière d’interagir. Il a pris sa source aux États-Unis et vise à libérer les gens des serres des monopoles capitalistes. Ici le rôle de Gandhi est joué par une personne extraordinaire qui porte les cheveux longs et a une longue barbe, un homme qui répond au nom de Richard Mathew Stallman, qui rejette avec énergie toute comparaison à Gandhi ou Nelson Mandela.

Gandhi disait « Tant que nous ne sommes pas complètement libres nous sommes des esclaves ». L’évolution des technologies a permis à l’humanité de jouir d’une plus grande liberté. Cependant, des intérêts particuliers, avec l’aide des législateurs, parviennent maintenant à empêcher la société de jouir de cette liberté. Par exemple, avec l’avènement des ordinateurs et d’Internet, les données, les informations et la connaissance peuvent être transmises instantanément à la condition que des deux côtés il y ait ordinateur raccordé à Internet. Toutefois, certaines de nos lois conçues pour une ère dépassée empêchent les peuples de profiter pleinement de cette technologie.

Le nouveau mouvement de liberté parvient à se frayer un chemin autour de ces lois. Et, de façon intéressante, ce mouvement n’est mené par aucun parti politique ni aucun activiste politique, mais bien par des programmeurs informatiques (ou hackers). Voyons de quelles manières nos libertés sont réduites et par quels moyens nous pouvons les reconquérir même au sein du paradigme actuel.

Lorsque vous démarrez votre ordinateur vous vous engagez politiquement. Cela peut vous paraitre absurde de chercher un aspect politique à une chose aussi triviale. Mais c’est là un fait. A l’aube de l’informatique, ce sont les utilisateurs qui écrivaient leurs propres programmes et se les échangeaient selon leurs besoins. Personne alors ne détenait de droit exclusif sur ces programmes. A l’époque les ordinateurs étaient imposants et chers, ils occupaient souvent une salle entière mais étaient bien moins puissants que les PC d’aujourd’hui, même les plus petits. A mesure que la technologie a évolué les ordinateurs sont devenus plus petits et aussi plus puissants.

C’est vers le début des années 80 que les fabricants d’ordinateurs ont commencé à imposer ce qu’on appelait des accords de dissimulation aux programmeurs qu’ils engageaient pour écrire les logiciels. Ces accords interdisaient aux développeurs de révéler le code source de leurs programmes (NdT : leur secret de fabrication). Et ainsi les logiciels sont devenus un produit que les utilisateurs doivent payer. Évidemment, certains utilisateurs ont continué à écrire des programmes pour leurs propres besoins, et ils continuent encore aujourd’hui, mais les logiciels tout-prêts sont devenus accessibles en échange d’un paiement et les utilisateurs d’ordinateurs se sont mis à les utiliser de plus en plus.

Les logiciels pour tous

C’est en réaction à cette marchandisation du logiciel que Richard Stallman, alors employé du Laboratoire d’Intelligence Artificielle du Massachusetts Institute of Technology (MIT), a décidé de créer un système d’exploitation (ou OS pour operating system) et des programmes qui rendraient aux utilisateurs la liberté. Il croyait que les logiciels sont comme la connaissance (il les compare souvent à des recettes de cuisine) et que comme la connaissance les logiciels ne devraient pas être la propriété d’une personne ou d’un organisme. Ils devraient appartenir à l’humanité toute entière.

Stallman a écrit : « De quoi à donc besoin la société ? Elle a besoin d’informations qui sont réellement disponibles aux citoyens, par exemple des programmes que des gens peuvent lire, réparer, adapter et améliorer, pas seulement utiliser. Mais en général les propriétaires des logiciels ne fournissent qu’une boîte noire qu’on ne peut ni étudier ni modifier. La société a également besoin de liberté. Quand un programme est possédé, les utilisateurs perdent la liberté de contrôler une partie de leur propre vie. » (source)

Stallman a initié un projet nommé GNU pour créer des logiciels libres et il a décidé de façonner son OS libre d’après Unix qui était alors très populaire. Unix était un OS propriétaire qui pouvait gérer plusieurs utilisateurs simultanément, il pouvait interconnecter les ordinateurs et était très sécurisé. A l’époque, de nombreux programmeurs avaient pris l’habitude de baptiser un nouveau programme qui était similaire à un autre pré-existant en créant un acronyme signifiant que ce n’était justement pas ce programme.

Ainsi, par exemple, un nouvel éditeur de texte similaire à l’éditeur existant Emacs se nommait Eine pour Eine Is Not Emacs (NdT : Eine n’est pas Emacs). De même, Stallman baptisa son système d’exploitation GNU pour GNU is Not Unix. Il sera plus tard combiné avec le noyau Linux (la partie centrale d’un OS) pour donner naissance au système d’exploitation GNU/Linux. Il existe maintenant plusieurs noyaux qui peuvent être utilisés avec GNU, comme FreeBSD, Open Solaris etc.

« Pour les logiciels libres ce qui importe est la liberté, pas le coût. C’est une question de liberté, pas de prix. Le mot "libre" dans "logiciel libre" a une signification proche de celle dans liberté de parole, peuple libre ou pays libre et ne devrait être confondu avec une autre signification associée à coût zéro. Il faut que vous voyez "logiciel libre" comme libre de fardeau, pas nécessairement libre de frais. Il faut le voir comme logiciel swatantra (NdT : libre ou indépendant en sanskrit) » précise la Free Software Foundation d’Inde. Les logiciels libres apportent quatre libertés aux utilisateurs :

  1. La liberté de les utiliser sur un nombre illimité d’ordinateurs pour n’importe quelle tâche ;
  2. La liberté de partager le logiciel dans votre cercle familial ou d’amis ;
  3. La liberté d’étudier et de modifier le logiciel ;
  4. La liberté de redistribuer les modifications.

(NdT : toute la confusion entre libre et gratuit provient du double sens de "free" en anglais)

La troisième liberté implique que ce que l’on appelle le code source (le texte compréhensible par l’Homme) du programme devrait être mis à disposition de tout utilisateur souhaitant l’obtenir. Mais on peut se demander ce que peuvent en faire les utilisateurs. Alors que la plupart d’entre eux seraient certainement incapables de l’étudier ou de le comprendre, sans même parler de le modifier, cette liberté permet à tout un chacun de demander à un programmeur de le modifier et permet également aux programmeurs de par le monde au moins d’étudier le programme pour vérifier que rien de ce qu’il contient ne constitue une menace pour les utilisateurs. Concrètement, les sociétés et autres organisations peuvent modifier le programme pour qu’il réponde à leurs besoins.

Stallman a rapidement démissionné du MIT par crainte que le MIT revendique les droits sur son travail. Il était quasiment une entreprise à un seul employé lorsqu’il a démarré le projet GNU en 1984 mais des dizaines de milliers de personnes du monde entier l’on rejoint ensuite. En 1985 il a lancé la Free Software Foundation (FSF). Aujourd’hui, en plus de la FSF à Boston aux Etats-Unis on retrouve des FSF en Europe, en Inde et en Amérique Latine. Et les logiciels libres sont devenus suffisamment puissants, et populaires aussi, pour défier la puissance de nombreuses entreprises de logiciels propriétaires.

Libre et populaire

Par exemple, toutes les écoles du Kerala n’emploient que des logiciels libres et tous les ordinateurs du gouvernement du Kerala sont en cours de migration vers les logiciels libres. Les écoles de la province d’Estrémadure en Espagne en font de même. Mais bien avant eux la ville de Munich avait déjà décidé de faire migrer tous ses ordinateurs vers des logiciels libres. De nombreuses entreprises et organismes gouvernementaux ont déjà effectué la migration (comme ELCOT dans la Tamil Nadu) ou sont en train de le faire (comme le Kerala State Electricity Board par exemple). Bien que le gouvernement du Kerala ait adopté une politique des TIC promouvant explicitement les logiciels libres, le gouvernement de l’Inde n’a pas encore pris une telle décision. Espérons que le gouvernement de l’Inde à son tour proclame la liberté des logiciels.

Les logiciels sont vraiment identiques à la connaissance comme l’a découvert Stallman. La ressemblance peut être établie de manière très détaillée. Plutôt que d’énumérer tous les arguments on peut signaler qu’un vaste ensemble de savoirs est disponible au format numérique et, pour un ordinateur, il n’y a pas beaucoup de différence entre un programme et un savoir numérisé comme un fichier texte, une image ou une vidéo. Dans ce cas il devrait être possible de libérer aussi la connaissance, tout comme le projet GNU a libéré les logiciels.

En mars 2000, Jimmy Wales, un entrepreneur américain de l’Internet, a lancé Nupedia, une encyclopédie en ligne dont le contenu est libre, le précurseur du Wikipédia actuel. Le contenu de l’encyclopédie était sous licence Nupedia Open Content License qui autorisait à n’importe qui de la copier, modifier et distribuer mais qui défendait quiconque d’en faire payer le contenu. Le contenu était rédigé par des volontaires dont les connaissances dans le domaine étaient évaluées par un comité et le contenu était soumis à révision avant publication. Les coûts de fonctionnement de Nupedia étaient couverts par Bomis, une entreprise Internet que détenait Wales.

Mais le succès de Wikipédia apporta un coup d’arrêt à Nupedia en 2003. Une majorité des contributeurs n’étaient pas satisfaits des lourdeurs du contrôle éditorial exercé sur les contributions et Stallman et la FSF étaient en faveur d’une plus grande liberté laissée aux contributeurs. Par conséquent la FSF a lancé une nouvelle encyclopédie appelée GNUPedia en 2001. Mais comme Wales possédait déjà le nom de domaine gnupedia.org elle a été renommée GNE (pour GNE is Not an Encyclopedia) sur la même idée que GNU.

GNE a eu une vie plus courte encore, en partie à cause de son incapacité à décider du poids du contrôle éditorial mais surtout parce que Nupedia a lancé Wikipédia en 2001 qui offrait une liberté totale et dont le contenu était placé sous la GNU Free Documentation Licence. Apparemment ce serait Stallman qui aurait le premier évoqué l’idée d’une encyclopédie en ligne libre en 1999.

Même s’il a lancé GNE, depuis son échec, il supporte Wikipédia. Aujourd’hui Wikipédia est l’encyclopédie la plus populaire avec plus de deux millions d’articles rien que pour la langue anglaise et bien plus encore dans d’autres langues. Parmi ces autres langues on en dénombre huit qui dépassent les 300 000 articles chacune et huit autres encore qui dépassent la barre des 100 000 articles chacune.

On recense 254 langues du monde possédant au moins une page Wikipédia. Les dialectes indiens ne sont pas bien représentés dans Wikipedia. Le premier est le telugu avec 38 000 articles, suivi par le bishnupriya manipuri avec 23 000 articles, le bengali (17 000), l’hindi (16 500), le marathi (16 200) et le tamil (13 000). Aucun autre langage indien ne compte plus de 10 000 articles. Il est acquis maintenant que l’encyclopédie Malayalam, publiée par le gouvernement du Kerala, mettra tous ses articles sur Wikipédia.

Même s’il est vrai que le nombre d’utilisateurs d’Internet ne représente qu’un infime pourcentage de la population, ce pourcentage est amené à croitre et la disponibilité de l’information en langues indiennes sera certainement d’une grande utilité à tous les Indiens, en Inde et à l’étranger.

Wikipédia est actuellement dirigée par une organisation à but non lucratif, la Wikimedia Foundation, grâce aux contributions du public. D’autres projets sont dans les cartons aujourd’hui, comme Wikibooks, Wikinews et Wiktionary. Tous les documents, y compris le texte et les illustrations, sur tous ces sites peuvent être copiés, modifiés et utilisés librement à toute fin sans violer de lois du droit d’auteur. C’est réellement la liberté du savoir.

Un autre projet connexe est WikiMapia. En reprenant une citation de Wikipédia : « WikiMapia est un projet inspiré par Google Maps et par Wikipédia. WikiMapia utilise les vues satellitaires de Google Maps et permet de les annoter avec un système wiki. Les Russes Alexandre Koriakine et Evgeniy Saveliev ont lancé ce projet le 24 mai 2006. Le projet est destiné à « cartographier et décrire la planète Terre » vue par satellite. Il fait partie des 1 000 sites les plus visités et recense plus de 6 millions d’endroits annotés. Alors qu’aucune inscription n’est requise pour éditer WikiMapia, plus de 153 000 utilisateurs partout dans le monde sont actuellement inscrits. »

Le terme "connaissance" est utilisé ici dans une conception large et désigne aussi bien des articles que des livres, des histoires, des images, de la musique, des films, etc. Il faut se rappeler que chaque support possède certaines particularités que les autres n’ont pas. Ainsi par exemple, un article sur l’astronomie indienne contient principalement de la documentation issue de sources variées même si la présentation finale de l’information est celle propre à l’auteur. Mais une histoire (un roman, une nouvelle…) est le travail créatif émergeant complètement de l’imagination de l’auteur.

Ainsi, pour les humains, la connaissance se distingue des logiciels par une différence fondamentale. En effet, contrairement aux logiciels, certaines formes de connaissance ne se prêtent pas aux modifications anonymes. Par exemple, une interview avec une personnalité doit conserver sa forme et son contenu puisque c’est le compte-rendu d’une vraie conversation. Il serait dangereux de laisser quiconque la modifier.

D’un autre côté, la liberté pourrait être accordée, par exemple, de la publier ailleurs sans modification. De même, un artiste ne souhaiterait peut-être pas que n’importe qui puisse modifier sa peinture, même si cela ne poserait pas de problème. Il n’est donc pas suffisant de disposer d’une seule licence pour toutes les formes de savoir contrairement aux logiciels. Mais alors quelle est la solution ?

Creative Commons

La solution a d’abord était proposée par Creative Commons (CC) en décembre 2002. CC a été lancé par Lawrence Lessig, Professeur à la Stanford Law School, avec quelques amis pour répondre précisément à ce problème. « Creative Commons a repris l’idée "offrir des licences de droit d’auteur libres" du Free Software Movement. Mais le problème que nous essayions de résoudre était quelque peu différent » dit Lessig.

En quoi était-il différent ? « Nous ne partions pas d’un monde sans culture propriétaire. Au contraire, la culture propriétaire avait toujours été là, les œuvres étaient protégées par un droit exclusif. (…) Mais globalement, le fardeau imposé par le droit d’auteur aux autres créateurs et sur la culture en général était léger. Et une somme importante de travail créatif pouvait se faire hors des contraintes de la loi. Tout ceci a commencé à changer avec la naissance des technologies numériques et pour une raison que personne n’a vraiment cherché à comprendre. » (source).

Une autre raison a entraîné la formulation de ces licences. Après la Convention de Berne en 1886 il n’était plus nécessaire de déclarer un droit d’auteur. Tout œuvre originale tombe automatiquement sous le régime du droit d’auteur. Et finalement il n’est plus devenu nécessaire de marquer un document comme protégé par le droit d’auteur. Sauf déclaration contraire, tout document qui n’appartient pas au domaine public est protégé par le droit d’auteur.

Rien que de savoir si un document est protégé par les lois du droit d’auteur devient par conséquent difficile. Cela rend la ré-utilisation d’œuvres déjà disponibles très compliquée. De plus, les auteurs désirant offrir certaines libertés aux autres n’ont aucun moyen de le faire. Ils n’avaient le choix qu’entre le droit d’auteur et le domaine public (qui concède tous les droits à tout le monde).

Creative Commons propose plusieurs licences grâce auxquelles le créateur peut offrir certaines libertés aux gens, ou, comme le dit CC, Certains Droits Réservés en opposition au Tous Droits Réservés du régime "classique" du droit d’auteur. CC dispose de quatre licences principales : Attribution (notée by), Noncommercial (nc), No Derivative Work (nd) et Share Alike (sa) (NdT : Paternité, Pas d’Utilisation Commerciale, Pas d’œuvre Dérivée et Partage à l’Identique). Ces licences peuvent être combinées pour produire de nouvelles licences comme by-sa, by-nc-nd etc. qui sont plus utiles que les licences principales.

CC a également élaboré une Licence de Sample qui permet aux autres d’utiliser des portions de votre œuvre dans leur propre œuvre. Vous vous souvenez de la jeune auteure indienne, Kaavya Viswanathan, punie il y a quelques temps pour l’utilisation de passages d’autres livres dans sa nouvelle, même si les lecteurs appréciaient sa nouvelle ?

Un développement intéressant permis par CC a été la création d’un morceau de musique par la collaboration d’artistes qui ne se sont jamais rencontrés. Colin Mutchler, un défenseur de l’utilisation des média et de la technologie pour donner envie aux gens de prendre des mesures en faveur d’une économie durable, a envoyé My Life, une chanson joué à la guitare acoustique, sur Opsound, un répertoire de musique qui impose aux morceaux soumis d’être sous licence Attribution-Share Alike ; Cora Beth, une personne complètement inconnue de Colin, y a ajouté un violon pour créer My Life Changed. Aucun avocat de la Propriété Intellectuelle n’a été consulté, ou maltraité, pour cela. Gilberto Gil, le ministre brésilien de la Culture et musicien lauréat d’un Grammy Award supporte la liberté de la culture et a sorti quelques-unes de ses musiques sous la licence CC Sampling.

Rentable également

Une question qu’il est naturel de se poser est alors : est-ce que le créateur ne va pas perdre ses revenus s’il permet aux gens d’utiliser ses créations librement ? L’expérience montre que ça n’est pas le cas. Par exemple, les groupes de musique affirment que les téléchargements de musique libre en fait les aident à faire plus de concerts et leur source de revenus principale est la scène (source). Une recherche sur Google vous fera découvrir d’autres études de ce genre.

Comme Stallman et d’autres l’ont suggéré, un lien sur la page de téléchargement peut permettre aux utilisateurs d’effectuer un paiement volontairement. Pour une œuvre assez bonne cela peut apporter à son auteur une somme appréciable. De toute façon des copies illégales de la plupart des films ou des musiques sont disponibles gratuitement, particulièrement dans les pays émergents et rien n’est arrivé, ni à l’industrie de la musique, ni à celle du film.

Cependant, à long terme, les industries de l’édition, du disque et du cinéma pourraient avoir à adopter un nouveau paradigme qui pourrait être défini par les nouvelles technologies qui émergeront à coup sûr, même si ces industries se sont toujours montrées très attachés aux anciens paradigmes et qu’elles font tout ce qu’elles peuvent pour ne pas changer. Souvenez-vous des protestations de l’industrie de la musique lorsque l’enregistreur cassette a été inventé. Pourtant jusqu’à maintenant aucun changement drastique n’est en vue.

L’industrie du disque aux États-Unis a réussi à mettre le législateur de son côté pour subvenir à ses propres besoins au travers de la technologie des DRM (NdT : Digital Rights Managements ou Mesures Techniques de Protection) et une loi associée et le DMCA (NdT : Digital Millenium Copyright Act dont la loi DADVSI est la transposition en droit français). Stallman et les partisans du logiciel libre appellent les DRM Digital Restrictions Managements (ou Mesures Techniques de Privation). Les DRM empêchent en fait les gens de copier les œuvres incorporant cette technologie ou encore de jouer l’enregistrement sur un autre lecteur. Par conséquent, le mot Restrictions (Privations) semble plus approprié.

Les fans de musique se sont opposés à cette politique et on peut trouver beaucoup d’articles sur le Web à ce sujet. Ils disent que les DRM les empêchent même d’exercer leur droit à la copie privée. Les opposants ont créé des logiciels qui peuvent outrepasser la technologie DRM. Mais le DMCA (NdT : tout comme la DADVSI) rend illégal la création ou l’utilisation d’une technologie visant à briser les DRM. Heureusement, ces lois ne sont actuellement en vigueur que dans quelques pays. L’industrie du disque fait pression sur l’Inde et d’autres pays pour adopter ces lois. Mais espérons que l’Inde choisisse d’offrir les bénéfices des technologies à son peuple plutôt qu’aux industriels.

Les publications dans des revues scientifiques étaient à l’origine faites pour communiquer les résultats des recherches à d’autres scientifiques. La première revue scientifique au sens moderne est le Philosophical Transactions de la Royal Society of London dont la publication a commencé en 1665. A l’époque, seule l’imprimerie permettait cette communication. La plupart des premiers journaux étaient édités par des sociétés de chercheurs comme la Royal Society. Avec l’augmentation du nombre de revues et de chercheurs, les éditeurs se sont dits qu’une manne leur tendait les bras.

Quelques grandes maisons d’édition ont investi le marché et, bizarrement, le prix des revues s’est aussi mis à augmenter. Finalement, la communauté scientifique a commencé à se révolter contre les revues qui faisaient payer le prix fort. En 2001, deux organisations ont co-publié Declaring Independence.

Rémunérer l’éditeur

L’édition scientifique est à bien des égards différente des autres formes d’édition. Ici les articles sont rédigés par les chercheurs et relus par des chercheurs. Les éditeurs du journal sont souvent eux-mêmes des chercheurs également. Les maisons d’édition ne font qu’imprimer et envoyer le journal aux abonnés. Le salaire des chercheurs provient essentiellement de l’argent public. Leur travail de recherche est également financé par l’argent public. Et pourtant c’est la maison d’édition qui détient les droits sur les articles.

Les chercheurs et le public doivent s’abonner à ces journaux (ils doivent payer l’éditeur) pour avoir accès aux informations obtenues grâce à l’argent public. Et le prix des journaux a commencé à augmenter au point que certaines universités parmi les plus aisées dans les pays industrialisés ont de plus en plus de mal à s’abonner à tous les journaux qui traitent de leurs activités. C’est dans ces conditions que les scientifiques ont commencé leur révolte. On attribue la naissance du mouvement à une pétition de 2001 à l’initiative de Patrick Brown et de Michael Eisen même si des voix isolées les précédaient.

Ainsi, Prof. Donald Knuth, auteur du classique Art of Computer Programming et inventeur de Tex, un langage de traitement de texte pour documents techniques, écrit : « J’adore ma bibliothèque et les autres bibliothèques que je visite fréquemment et ça me met en rage de voir les prix qu’ils imposent aux bibliothèques. J’ai donc écrit une lettre salée à Elsevier en août 2001 pour leur faire part de ma grande inquiétude quant à leur future politique de prix pour le Journal of Algorythms. Elsevier a cependant ignoré ma lettre et ne m’a pas répondu. » (source)

La pétition de Brown et Eisen appelait tous les scientifiques à s’engager à partir de septembre 2001 à ne plus soumettre leurs papiers aux journaux qui ne rendaient pas le texte complet de leurs travaux accessible à tous, librement et sans entraves, que ce soit immédiatement ou après un délai de quelques mois.

La fondation de la Public Library of Science (PLoS) a été la grande étape suivante du mouvement vers la libération des éditions scientifiques. Malgré le soutien d’un éminent prix Nobel, Dr. Harold Varmus, ils ont dû patienter quelques temps avant de devenir complètement opérationnels et de publier le journal PLoS Biology en 2003.

Maintenant ils éditent sept journaux dont le contenu est disponible librement sur Internet. Ils ont adopté un modèle où les auteurs des articles paient pour être publiés. Ils conservent un fond, comme le font d’autres journaux du même type, pour affranchir de tout paiement les auteurs de pays émergents ou les auteurs qui n’ont pas les moyens suffisants.

En Europe, la Budapest Open Access Initiative, qui est à la fois une déclaration d’intention, de stratégie et d’engagement, a été signée par plusieurs scientifiques lors d’une réunion organisée par l’Open Society Institute en décembre 2001. Aujourd’hui des milliers de scientifiques sont signataires de l’initiative. Elle a eu un impact très fort dans le monde entier, en particulier en Europe.

Plusieurs agences de recherche et de financement, comme le Organisation Européenne pour la Recherche Nucléaire (CERN) et le National Institutes of Health (NIH), ont imposé l’accès libre pour toutes les publications issues de recherches qu’ils ont financées.

L’Accès Libre (AL) signifie que toutes les publications sont librement accessibles par les autres scientifiques et par le public. En fait, il offre toute liberté aux utilisateurs et demande simplement que l’auteur soit reconnu et que l’intégrité des documents soit conservée. Bien sûr il ne permet pas la ré-édition des documents, dans leur forme originale ou modifiée, comme les licences CC le font. Mais L’Accès Libre aux publications scientifiques est une avancée très importante dans des pays comme l’Inde.

Le gouvernement d’Inde devrait par conséquent imposer l’Accès Libre pour toutes les publications issues de recherches financées par l’argent public. Cela peut-être réalisé de deux manières : soit l’auteur affiche l’article sur son site Web, sur le site de son institut ou sur un site de centralisation (les revues qui permettent cela sont appelés AL vert) soit il peut publier dans des revues Accès Libre qui affichent leur contenu sur leur propre site Web (appelées AL d’or). Heureusement, une grande partie des journaux indiens sont AL. Mais la plupart des bons articles d’Inde sont publiés dans des journaux étrangers qui ne sont pas nécessairement AL.

La liberté dans le commerce

Nous allons parler ici d’une nouvelle expérience menée en Inde. L’idée est de parvenir à une transparence totale du commerce. Une entreprise technologique nommée WikiOcean a vu le jour à Pune. L’entreprise est unique de part le fait qu’elle expose tout son fonctionnement sur son site Web, même ses transactions financières. Ils appellent ce genre de système un wékosystème, un jeu de mot entre wiki et écosystème. Comme l’explique le site Web : « WikiOcean est une organisation participative, non-propriétaire où les professionnels rejoignent un modèle de partage des bénéfices comme expliqué dans le wékosystème. »

Cette entreprise a été inspirée par la transparence des logiciels libres et, en fait, l’un de ceux que l’on pourrait appeler les catalyseurs (ceux qui régulent la structure et la dynamique de Wékosystème) est le président de la Free Software Foundation of India, Prof. G. Nagarjuna. L’entreprise travaille déjà sur quelques projets. Mais il est encore trop tôt pour juger des chances de survie d’une telle entreprise. Souhaitons que tout se passe pour le mieux.

Une autre idée complètement exotique est de copier le modèle des logiciels libres pour d’autres produits. En d’autres termes rendre tous les besoins librement disponibles pour tous. Bien que ça puisse sembler absurde il ne faudrait pas rejeter cette idée puisque certains efforts à petite échelle ont été lancés et semblent fonctionner.

Cette idée est envisagée par un groupe pas si petit que ça qui s’appelle Oekonux (dérivé de oekonomie, le terme allemand pour économie et Linux). Vous pourrez en apprendre plus sur www.oekonux.org et vous pouvez rejoindre leur liste de diffusion si vous êtes vraiment intéressés.

Comme nous l’avons vu, les nouvelles technologies apportent de nouveaux défis, de nouvelles idées. Et nous serons peut-être amenés à ré-écrire de vieilles lois qui avaient été créées pour des situations complètement différentes, un autre paradigme technologique.

Quand de nouvelles technologies apparaissent il nous faut changer nos lois pour nous adapter à la nouvelle donne afin que la société puisse pleinement bénéficier de la nouvelle technologie ou alors seule une petite portion de la société en récoltera tous les bienfaits. Et au rythme auquel la technologie évolue il ne va pas être facile de suivre toutes ses implications. Nos technocrates et nos législateurs vont devoir suivre le rythme.

Cet article (et sa traduction) est publié sous licence Creative Commons Attribution Share Alike 2.5.




MSN Windows Live Messenger : Un succès qui interpelle

Copie d'écran - MSN Windows Live Messenger

– Papa tu m’achètes un ordinateur ?
– Euh, oui, enfin, pourquoi faire, pour les cours ?
– Pour tchater avec mes copines sur MSN.

Il y a quelque chose dont je n’arrive pas du tout à mesurer la portée c’est l’usage de MSN chez les jeunes. C’est bien simple, j’ai l’impression qu’ils l’utilisent tous ![1] (en dehors de l’école où il est en général prohibé)

Notons que ce qu’ils appellent MSN n’est autre que le logiciels MSN Messenger qui a récemment changé de nom en Windows Live Messenger (nous en ferons de même pour ce billet). Mais, plus révélateur, ce qu’ils appellent MSN est purement et simplement synonyme de messagerie instantanée. Un peu comme quand mon nouveau voisin me parle de Word lorsqu’il veut évoquer le traitement de texte (alors qu’évidemment mon ancien voisin, désormais sous OOo, il fait bien la distinction lui).

Tirer de grandes généralités sur la base de quelques témoignages est pour le moins dangereux, mais quand j’aborde la question avec mes élèves, rarissimes sont ceux qui ne l’utilisent pas. Il faut alors soit ne pas être connecté à la maison, soit être connecté mais subir les foudres de l’interdiction parentale, soit être connecté mais être barré par la grande sœur qui est déjà dessus (l’accès à MSN étant certainement aujourd’hui dans le top five des engueulades fratricides lorsqu’il n’y qu’une seule machine par foyer), soit enfin, dernière et étrange catégorie, l’avoir… décidé ainsi ! « J’aime pas MSN » proclame fièrement l’ado dark-rebelle schtroumpf-grognon par pur esprit de contradiction, quitte à ce que cet acte héroïque mais désocialisant ne lui fasse plus conserver qu’un seul ami : son psy. Quant à celui qui vous dirait : « J’aime pas MSN parce que derrière MSN il y a Microsoft dont je n’aime pas la vision du monde depuis que j’ai découvert le logiciel libre » alors là ce n’est plus chez le psy qu’il faut l’emmener mais directement en centre de rééducation !

Mais redevenons un peu sérieux. Et répétons-nous pour le moment cette hypothèse de travail : Tous les jeunes connectés sont sur MSN ! (même mon lycéen).

Il faut dire que pour confirmer ou informer cette radicale supposition, je ne suis guère aidé par la blogosphère et autres grands médias présents sur le net qui semblent briller par leur quasi-silence sur le sujet (encore plus que pour le logiciel libre, c’est vous dire…). On pourrait néanmoins penser qu’ils sont au courant mais juge le phénomène indigne d’intérêt ou marginal. J’y vois quant à moi plutôt une énième illustration d’un fossé générationnel d’autant plus troublant que tout se passe dans la maison où la génération du dessus sont les parents de la génération d’en dessous. « Il est tranquille dans sa chambre, on ne va tout de même aller le déranger, et puis, vous savez, on peut apprendre plein de choses avec internet… »

Petite parenthèse. Pour être tout à fait exact, il arrive que MSN soit évoqué dans la presse mais on le trouve alors le plus souvent dans la rubrique faits divers lorsque tel enfant a rencontré tel adulte d’abord virtuellement via MSN puis ensuite physiquement (malheureusement parfois dans tous les sens du terme). Il est absolument FONDAMENTAL d’éduquer nos enfants à reconnaitre et éviter ces risques bien réels (lien 1, lien 2, lien 3). Mais se borner à citer MSN dans ce seul cas de figure me fait penser à ceux qui n’évoquent Wikipédia que pour pointer ses bouts d’articles malveillants ou erronés, histoire de mettre en doute sa pertinence voire d’inspirer la méfiance. Inconsciemment ou non, une certaine presse continue encore de nous communiquer sa crainte du réseau (qui participe il est vrai du bouleversement actuel de la profession).

En attendant MSN est bien omniprésent dans l’univers numérique de nos adolescents jusqu’à faire office de véritable plaque tournante de leurs sessions internet (bien plus que le navigateur, il faudra que j’en parle à Tristan Nitot). Ouvrir son compte MSN est en effet de loin la première chose que fait notre jeune lorsqu’il se connecte (quand il ne l’a pas automatiquement paramétré), compte qu’il laissera ouvert en toile de fond pendant toute la durée de la session. Et quand bien même il s’en irait par la suite consulter son blog ou plutôt, correction, son skyblog (parce qu’un contact MSN vient de lui dire qu’il y a laissé un commentaire), voir une vidéo YouTube (parce qu’un autre contact lui signale le lien), ou consulter Wikipédia (parce qu’il y a la dissert’ de français à finir et qu’un contact propose d’y copier/coller un passage de l’encyclopédie), il y revient toujours sachant que tout contact peut le solliciter à tout moment.

Faut pas croire, c’est important cette histoire de contacts. « Combien t’as de contacts MSN ? » est une question courante dans une cour de récré. Et, si elle ne se confond pas (encore) avec « Combien t’as d’amis ? », elle n’en constitue pas moins un repère majeur chez nos adolescents. Il y a bien sûr quantité et qualité, mais pour faire bonne figure il convient impérativement de donner une réponse à deux chiffres sous peine d’éveiller les soupçons !

Bon, le décor étant planté, un certain nombres de questions affleurent inévitablement.

Il y a toutes celles, plus ou moins sociologiques, concernant la messagerie instantanée en général. Pourquoi un tel attrait chez les jeunes ? Combien de temps y passent-ils dessus ? Les filles plus que les garçons ? Pour quels usages ? Peut-on évoquer une sorte de réseau social entre contacts ? La langue, la lecture et l’écriture sortent-elles renforcées de leur passage sur MSN au style SMS si particulier (où l’on a vite fait de se disqualifier si l’on commence à… rédiger normalement). Les options à disposition (VoIP, MSN sur votre mobile, webcam, partage de fichiers, de musique, jeux en ligne…) sont-elles prisées ? Quelles perceptions ont les parents de ce jardin secret cultivé par leurs enfants ? (souvenez-vous des temps préhistoriques où les parents contrôlaient de près ou de loin toutes les communications via le seul et unique téléphone fixe du salon !). N’oublions pas non plus la fracture numérique, quid d’une jeune sans MSN parce que sans ordinateur ? Etc.

Mais il y a également toutes les questions qui concernent MSN en particulier. Regardez un peu comment Microsoft présente la nouvelle version de son logiciel sur le site dédié dont on comprend tout de suite à qui il s’adresse. C’est beau, c’est lisse, c’est clair et la jeune fille qui en fait la démonstration vidéo est souriante et pleine d’énergie (pour ne pas dire tout à fait craquante). Idem pour la version MSN pour votre mobile qui permet donc potentiellement d’être absolument tout le temps en contact avec vos contacts !

On se retrouve donc peu ou prou avec un logiciel qui a su capter toute une génération. Et pas n’importe quel logiciel, un logiciel propriétaire de l’éditeur Microsoft qui a visiblement mis tout son savoir faire technique et marketing à son service pour aboutir au succès actuel. Le tout… gratuitement. Pourquoi ? Pourquoi Microsoft accorde-t-il tant d’attentions et d’efforts à son logiciel de messagerie qu’il s’en va proposer gratuitement à la jeune génération ?

Je passe outre les réponses du type « parce que les enfants aiment et qu’on veut leur faire plaisir » qui ne peuvent convaincre que ceux qui pensent que Microsoft est une association à but non lucratif. Les mêmes sans doute qui pensent que Microsoft le philanthrope accompagnent les enseignants sans arrière-pensée.

Plus sûrement il y a la publicité. Elle est en effet présente dans MSN sous la forme d’onglets à gauche de la fenêtre de contacts et en bannière sous cette même fenêtre. Sachant que MSN est utilisé par plusieurs millions d’utilisateurs globalement moins publiphobes que leurs ainés, si ça n’est pas le pactole ça y ressemble fortement.

J’en veux pour preuve la récente nouveauté de Windows Live Messenger : le module de contrôle parental. Quand bien même il aura mis un certain temps à arriver, c’est une excellente initiative : les parents peuvent désormais surveiller la liste des contacts MSN de leurs enfants et autoriser ou non les nouveaux ajouts (moyennant, tiens, tiens, création d’un identifiant Windows Live ID). Par contre rien n’a été fait pour proposer de bloquer également la publicité, ce qui aurait pourtant été dans la logique d’une meilleure protection. Du coup, même si vos parents ont installé ce contrôle, rien n’empêche des publicités pour, par exemple, des sites de rencontres d’apparaitre dans MSN ! Si vous n’y voyez pas une contradiction…

Et l’on pourrait multiplier les exemples éducativement problématiques. On trouve ainsi une étude de cas fort intéressante sur la page McDonalds goûte au succès de MSN pour toucher un public jeune et branché du site Microsoft Advertising. Cela concerne l’Espagne mais j’imagine que la France n’a pas été épargnée. Extraits. « Des publicités élégantes sous forme de bannières et de skyscrapers sur la page d’accueil de MSN Espagne, sur MSN Hotmail, MSN Entertainment et MSN Messenger attiraient l’attention des utilisateurs par une question teaser avant de les rediriger vers le mini-site et leur donner la possibilité de recevoir gratuitement une ceinture tendance ». Quant aux résultats : « La campagne en ligne a généré 180400 clics en seulement deux mois » et un peu plus loin « La campagne globale a généré une augmentation de 19 % de la perception de McDonalds comme une marque « tendance », dépassant de 15 % l’objectif pré-campagne ».

Certains m’objecteront alors peut-être qu’il existe le généreux programme i’m où l’utilisateur MSN a la possibilité de choisir une organisation caritative à qui sera versée une partie (combien exactement ?) des bénéfices issues de son propre affichage publicitaire. Depuis le lancement de l’opération c’est ainsi plus d’un millions de dollars qui ont été distribués à l’Unicef ou la Croix Rouge américaine. Agir pour un monde meilleur grâce à la pub de mon MSN, je tire un grand coup de chapeau à la division marketing de Microsoft !

Toujours est-il que les 180400 clics en deux mois de la campagne McDonalds uniquement circonscrite à l’Espagne me laissent songeur. Il est vrai qu’ils ne provenaient pas tous de MSN Messenger mais également des autres services MSN. Or justement, blog (Spaces), mail (Hotmail), galerie photographique (Gallery), espace de stockage (SkyDrive), bureautique en ligne (Office Live), etc. MSN constitue une excellente porte d’entrée vers les autres services et produits Microsoft avec qui il est en totale synergie. Il y a clairement là une volonté de contrer Google en retenant l’utilisateur sur sa plate-forme, concurrence de la publicité en ligne oblige. Mais ce que je vois surtout c’est que lorsqu’un élève me poste un message avec son email perso il s’agit presque exlusivement d’une adresse Hotmail, conséquence directe de son inscription à MSN. Du coup on se retrouve non seulement avec une génération MSN messenger mais également avec une génération Hotmail. Il n’y a pas à dire, c’est bien pensé.

L’intégration est en effet poussée à son maximum. Une fois sur MSN vous pouvez d’une simple clic accéder à votre Spaces (blog) ou votre Gallery (photo). De plus lorsque vous recevez une nouvel email Hotmail (et uniquement Hotmail) vous êtes automatiquement prévenu. Tout comme vous êtes prévenu lorsque le Spaces d’un contact vient de se mettre à jour. Autant de raisons de conserver tous ces avantages et donc de rester dans l’univers Microsoft. Dernier élément concernant la publicité inhérentes à tous ces services. Très souvent il s’agit d’autro-promotion Microsoft. Nos millions d’adolescents MSN peuvent donc très souvent voir apparaitre telle ou telle info-promo sur par exemple Windows Vista ou la suite MS Office 2007. Et la boucle est bouclée en quelque sorte.

Si je résume mon propos on pourrait dire que, vis-à-vis de la jeunesse, MSN est un peu à Microsoft ce que l’iPod est à Apple. Une petite poule aux œufs d’or qui rapport directement, doublée d’un formidable produit d’appel, qui justifierait presqu’à lui tout seul l’achat d’un ordinateur sous Windows, triplée d’une fonction cheval de Troie susceptible par la suite de faire adopter les autres logiciels et services de l’univers Microsoft. Le tout en donnant au passage à la société une excellente image de marque auprès des adolescents, futurs étudiants puis futurs travailleurs et donc futurs clients et consommateurs. C’est a priori imparable et l’on comprend bien dans ces conditions que Microsoft fasse tout pour bichonner son joyau (comprendre mettre un paquet de développeurs sur le coup pour ajouter toujours plus de fonctionnalités et de confort à l’utilisateur).

Tout ceci m’interpelle. En tant que parent, en tant que prof, mais aussi en tant que rédacteur du Framablog.

Admettons que je n’exagère pas l’importance de MSN chez les adolescents, ou tout du moins chez les adolescents français (parce que j’ai cru comprendre que le taux de pénétration de MSN était très différent d’un pays à l’autre). Admettons que les nouveaux entrants comme MySpace mais surtout Facebook ne soient pas encore à même de rivaliser dans la tranche d’âge. On peut alors se demander si la situation, telle que décrite ci-dessus, est un problème lorsque l’on souhaite faire la promotion du logiciel libre et son état d’esprit ? N’y a-t-il pas là, quelque part, un frein à sa diffusion ?

Culture du gratuit, publicité banalisée, contrat que l’on signe les yeux fermés et donc absence totale de réflexion sur le devenir de ses données personnelles (qui transitent par les serveurs de Microsoft), protocole de communication centralisé et fermé (était-il besoin de préciser que c’est bien le cas ici ?), hégémonie Microsoft renforcée, etc. J’ai bien peur qu’il ne faille répondre affirmativement à cette ultime question.

Le logiciel libre est certes habitué à faire face à des situations de monopole : « Tout le monde travaille sous Word, pourquoi changer ? ». Mais ici c’est encore plus complexe parce que MSN n’est pas une activité solitaire et capte des citoyens en devenir.

Que faire alors ? Impossible de demander à un jeune de quitter son réseau de contacts, ce qui serait à peu près équivalent pour lui a s’en aller sur une île déserte. Il n’y donc plus que la solution de créer des clones libres de MSN qui ont de bons arguments et font de réels efforts pour se rapprocher de l’original mais ont néanmoins du mal à suivre (notamment à cause de cette histoire de protocole fermé que Microsoft ouvre de temps en temps selon son bon vouloir). Allez-y, faites l’expérience, montrer à un jeune qu’on peut faire du MSN via aMSN, emesene ou PixaMSN. Il vous dira « Ouais c’est pas mal mais il n’y a pas ceci ou cela » (comme par exemple l’audio/vidéo) et il retournera invariablement à son MSN. Et ce n’est pas qu’une question d’habitudes parce qu’il y a l’ergonomie, le confort, les options… bref tout ce qui fait qu’aujourd’hui MSN est, me semble-t-il, intrinsèquement le meilleur logiciel de messagerie instantanée disponible sur le marché (et je ne demande qu’à être contredit).

Vous pouvez bien sûr sans crier gare, dans une double crise d’autorité parentale et d’éveil mystique à la culture libre, décréter unilatéralement qu’à partir d’aujourd’hui tous les ordinateurs de la famille passent désormais aux logiciels libres à commencer par le système d’exploitation. Bon courage alors, je suis de tout cœur avec vous. Parce qu’il faudra tenir bon, surtout quand la petite dernière arrivera les yeux plein de larme vous soupirer : « C’est nul, y’a plus mon MSN, mais pourquoi papaaa tu me fais çaaa à môaaa ? »

Ne reste plus qu’à faire preuve d’écoute, de dialogue et de pédagogie où vous évoquerez avec votre enfant non seulement la messagerie instantanée en général mais aussi (voire surtout) MSN en particulier. Et qui sait, peut-être arriverez-vous à le convaincre de renoncer au client Microsoft pour adopter un client libre comme Pidgin, Kopete ou Miranda, (en plus de ceux cités plus haut). Peut-être aussi, rêvons un peu, en fera-t-il de même avec tous ces amis/contact. Jusqu’à, soyons fous, abandonner le circuit MSN et adopter ensemble un protocole de communication ouvert comme Jabber.

Sauf à penser qu’il faut bien que jeunesse numérique se passe (c’est-à-dire reconnaitre à demi-mot que Microsoft est trop fort sur ce terrain-là). Et d’attendre alors qu’il soit un peu plus grand pour envisager que ce fils chéri mais un poil conditionné devienne un homme de plus en plus libre.

Couverture de la BD @accrocs d'MSN par Lol et Mdr

Notes

[1] L’illustration initiale est une copie d’écran de la page d’accueil de site officiel de Windows Live Messenger. L’illustration finale est un détail de la couverture de la BD @ccrocs d’MSN tome 1 de Lol et Mdr.




Dossier OLPC : 6 Sic Transit Gloria Laptopi par Ivan Krstic

Dossier One Laptop Per Child (un portable par enfant)

Sic transit gloria mundi est une locution latine qui signifie « Ainsi passe la gloire du monde » et qui vient rappeler aux hommes qu’aussi puissants soient-ils ils n’en demeurent pas moins mortels…

Sic Transit Gloria Laptopi est un article du blog d’Ivan Krstic[1], hier encore Monsieur Sécurité du projet OLPC, et qui vient rappeler à tous ceux qui s’intéressent au projet quelques vérités qui ne sont pas forcément toutes librement correctes à entendre.

Parce que si l’OLPC est un projet éducatif alors sa technologie libre ne peut constituer une fin en soi…

Copie d'écran - Ivan Krsti? - Sic Transit Gloria Laptopi

Sic Transit Gloria Laptopi

Sic Transit Gloria Laptopi

Ivan Krstic – 13 mai 2008

J’ai été assez mécontent de la qualité des discours de la communauté autour des récentes annonces de passage à Windows comme système d’exploitation. J’ai décidé sur le moment de me retenir de commenter, et n’ai été influencé que par la demi-douzaine de volontaires m’ayant écris personnellement pour de me demander s’il avaient travaillé en vain. Ce n’est pas le cas. Puis je suis parti en voyage quelques jours.

Je ne me suis alors occupé que de mes courriels et flux RSS, et ce que j’ai pu lire a transformé mon mécontentement en colère. Du coup, me voilà finalement parti pour commenter moi aussi la situation, et ce sera le dernier essai que je pense écrire au sujet de l’OLPC. Mais tout d’abord, remettons nous dans le contexte.

Le commencement

Tout au long de sa vie, Nicholas Negroponte à travaillé avec des visionnaires de l’éducation et des technologies tels qu’Alan Kay et Seymour Papert. Au début des années ’80, Nicholas et Seymour lancèrent un programme pilote soutenu pour le gouvernement français qui plaça des machines Apple dans un centre informatique d’une banlieue de Dakar au Sénégal. Ce projet fut un flop spectaculaire pour cause de mauvaise gestion et de conflits de personnalité. En 1983, approximativement un an après le début de l’expérience, le magazine de revue technologique du MIT (NdT : "MIT’s Technology Review") publia cette terrible épitaphe :

Naturellement ça a échoué. Rien n’est aussi indépendant, spécialement une organisation soutenue par un gouvernement socialiste et composée de visionnaires industriels, individualistes forcenés, provenant des quatre coins du globe. De plus, l’altruisme a un problème de crédibilité dans une industrie qui prospère par d’intenses compétitions commerciales.

À la fin de la première année du centre, Papert est parti, tout comme les experts américains Nicholas Negroponte et Bob Lawler. C’est devenu un champs de bataille, marqué par des affrontements de style de direction, de personnalité et de convictions politiques. Le projet ne s’en ai jamais vraiment relevé. Le nouveau gouvernement Français a fait une faveur au centre en le fermant.

Mais Nicholas et Seymour émergèrent tous les deux des cendres du projet pilote à Dakar avec leur foi en les prémisses d’enfants apprenant naturellement avec des ordinateurs intactes. Armés des leçons de l’échec au Sénégal, c’était peut être seulement une question de temps avant qu’ils ne recommencent.

En effet, Seymour essaya seulement deux ans plus tard : le Laboratoire Média (NdT : Media Lab) fut fondé en 1985 et commença immédiatement à supporter le Projet Phare (NdT : Project Headlight), une tentative d’introduction de l’apprentissage constructionniste dans le cursus complet de l’école Hennigan, une école primaire publique à Boston, composée d’étudiants principalement issus de minorités.

Avance rapide d’à peu près deux décennies, aux environs de l’an 2000. L’ancien correspondant étranger du Newsweek devint philanthrope, Bernie Krisher "l’homme unique des Nations Unies", convainquit Nicholas et sa femme Elaine de rejoindre son programme de construction d’école au Cambodge. Nicholas acheta des Panasonic Toughbooks (NdT : ordinateurs portables robustes de la marque Panasonic) d’occasion pour une école, et son fils Dimitri y enseigna quelque temps.

« Il y a sûrement moyen de reproduire ça en plus grand ». C’est l’idée qui s’imposa peu à peu, et le reste de l’histoire est connu : Nicholas courtisa Mary Lou Jepsen alors qu’elle passait un entretien pour un poste dans le corps professoral du Laboratoire, et lui parla de sa folle idée d’une organisation nommée Un Ordinateur portable Par Enfant (NdT : One Laptop Per a Child). Elle vint à bord du CTO (NdT : Chief technical officer, responsable technique). Vers la fin de l’année 2005, l’organisation sorti de l’ombre par un coup d’éclat : Nicholas l’annonça avec Kofi Annan, prix Nobel de la paix et alors secrétaire général des Nations Unies, lors d’un sommet à Tunis.

La partie qui mérite d’être répétée est que le projet éducatif basé sur le constructionnisme de Nicholas au Sénégal fut un désastre complet, à part des commentaires sur les personnalités et égos impliqués, il ne démontra rien. Et le projet de Krisher au Cambodge, celui qui rencontra évidemment un succès suffisant pour motiver Nicholas a démarrer véritablement le projet OLPC, utilisa des pc-portable du commerce, fonctionnant avec Windows, sans aucune personnalisation constructiviste que ce soit du système d’exploitation. (Ils avaient des outils constructivistes, installés sous la forme d’applications normales)

Ce que nous savons

La vérité c’est, lorsqu’il s’agit de passer un programme d’informatique personnelle à une échelle supérieure, que nous sommes complètement dans le noir à propos de ce qui fonctionne véritablement, parce que Eh ! Personne n’a jamais développé un programme d’informatique personnelle à grande échelle avant. Mako Hill écrit :

Nous savons que les bénéficiaires d’ordinateurs portables seront avantagés de pouvoir réparer, améliorer et traduire les logiciels fournis avec leurs ordinateurs dans leur propres langues et contextes. (…) Nous pouvons aider à favoriser un monde où les technologies sont au service de leurs utilisateurs et où l’apprentissage se fait suivant les modalités des étudiants, un monde où tous ceux qui possèdent des ordinateurs portables sont libres car ils contrôlent la technologie qu’ils utilisent pour communiquer, collaborer, créer et apprendre. C’est la raison pour laquelle l’engagement de l’OLPC dans la philosophie constructionniste est si importante à sa mission, et la raison pour laquelle sa mission a besoin de continuer à être menée avec des logiciels libres. C’est pourquoi le projet OLPC doit être sans compromis à propos de la liberté des logiciels.

Ce type d’idéalisme lumineux est séduisant, mais hélas, non soutenu par les faits. Non nous ne savons pas si les bénéficiaires d’ordinateurs portables seront avantagés de pouvoir réparer des bogues dans leurs PC. En effet, je suppose qu’ils vont largement préférer que leur satané logiciel fonctionne et n’ait pas besoin d’être réparé. Alors que nous pensons et même espérons que les principes constructionnistes, comme incarnés dans la culture du logiciel libre, sont utiles à l’éducation, présenter ces espoirs comme des faits encrés dans la réalité est simplement trompeur.

Pour ce que j’en sais, il n’y a pas de réelle étude qui démontre que le constructionnisme fonctionne à grande échelle. Il n’y a pas de projet pilote documenté d’éducation constructionniste à moyenne échelle qui soit un succès convainquant ; Lorsque Nicholas parle de « décennies de travail avec Seymour Papert, Alan Kay et Jean Piaget », il parle de théorie. Il aime à mentionner Dakar, mais n’aime pas trop parler de comment le projet s’est terminé, ou qu’aucun fait à propos de la validité de l’approche n’en soit ressorti. Et, aussi sûrement que l’enfer existe, on ne trouve aucune étude évaluée par des pairs (ou tout autre type, à ma connaissance) montrant que les logiciels libres font mieux que les logiciels propriétaires quand il s’agit d’aider à l’apprentissage, ou que les enfants préfèrent l’ouverture (NdT : du code source) ou qu’ils se préoccupent le moins du monde de liberté des logiciels.

Ayant cela en tête, la missive de Richard Stallman sur le sujet ne fit que m’énerver davantage :

Les logiciels propriétaires laissent les utilisateurs divisés et impotents. Leur fonctionnement est secret, il est donc incompatible avec l’esprit de l’enseignement. Apprendre aux enfants à utiliser un système propriétaire (non-libre) comme Windows ne rend pas le monde meilleur, parce qu’il les met sous le pouvoir du développeur du système – peut-être pour toujours. Ce serait comme initier les enfants à une drogue qui les rendrait dépendants.

Oh, pour l’amour de *$¼?# ! (NdT : la vulgarité employée ne gagnerait pas à être traduite) Tu viens vraiment d’employer une souriante comparaison des systèmes d’exploitation propriétaires avec les drogues dures ? Tu sais, celles qui causent de véritables dommages corporels voire la mort ? Vraiment, Stallman ? Vraiment ?

Si les logiciels propriétaires sont moitié moins efficaces que les logiciels libres pour aider à l’éducation des enfants, alors tu as vraiment raison, ça améliore le monde de faire ces logiciels pour les enfants. Mince, si cela ne limite pas activement l’apprentissage, ça aide à faire un monde meilleur. Le problème est que Stallman ne semble pas se soucier le moins du monde d’éducation (NdT : le langage fleuri employé par l’auteur a ici aussi été adouci) et qu’il ne voit les OLPC que comme un moyen de favoriser son agenda politique. Tout cela est honteux.

Tant qu’on en est à ce sujet

L’un des arguments favoris de la communauté de l’open source et du logiciel libre concernant l’évidente supériorité de ces derniers sur leurs alternatives propriétaires est la capacité supposée de l’utilisateur à prendre le contrôle et modifier un logiciel inadéquat, pour le faire correspondre à leurs souhaits. Comme on pouvait s’y attendre, l’argument à souvent été répété au sujet de l’OLPC.

Je ne peux pas être le seul à voir que le roi est nu.

J’ai commencé à utiliser Linux en 1995, avant que la majorité des internautes actuels n’apprennent l’existence d’un système d’exploitation en dehors de Windows. Il m’a fallu une semaine pour configurer X afin qu’il fonctionne correctement avec ma carte graphique, et j’ai appris d’importantes choses en programmation car j’ai eu ensuite besoin d’ajouter le support d’un disque dur SCSI mal reconnu. (Comme je ne savais pas que la programmation en C et du noyau sont sensés être difficile, je suis resté dessus pendant trois mois avant d’en avoir suffisamment appris pour écrire un patch qui fonctionne.) J’ai été depuis lors principalement un utilisateur d’UNIX, alternant entre Debian, FreeBSD puis ensuite Ubuntu, et j’ai récemment co-écrit un livre à succès à propos de Linux.

Il y a huit mois, alors que je me retrouvais encore en train de me battre avec la fonctionnalité d’hibernation/réveil de mon pc-portable sous Linux, je me suis tellement fâché que je suis allé chez le revendeur agréé Apple le plus proche, acheter un MacBook. Après 12 ans d’utilisation quasi-exclusive de logiciels libres, je suis passé à Mac OS X. Et vous savez quoi, la mauvaise gestion des ressources et les autres fonctionnalités bancales ne sont pas dues à Linux. C’est de la faute des vendeurs inutilement cachotiers qui ne rendent pas publiques les documentations pouvant permettre à Linux de mieux gérer le matériel. Mais, le jour où les vendeurs de matériel et les développeurs de logiciels libres se retrouveront main dans la main pour spontanément travailler d’arrache-pied en une gigantesque et festive communion (NdT : one giant orgiastic Kumbaya) n’étant pas encore venu, c’est le monde dans lequel nous vivons. Donc pendant ce temps, je suis passé à OS X et j’ai trouvé que c’était une expérience informatique faramineusement plus agréable. J’ai toujours mon shell UNIX libre, mon langage de programmation libre, mon système de ports libre, mon éditeur de texte libre, et j’utilise un bon paquet de logiciels libres dans une machine virtuelle Linux. La majorité, voire la quasi-totalité des utilisateurs d’ordinateurs ne sont pas programmeurs. Et parmi les programmeurs, une majorité, voire la quasi-totalité d’entre eux ne s’aventurent pas au pays des roulements internes du noyau. Faisant partie de ceux qui peuvent effectivement bidouiller à gré leur noyau, je trouve que cette capacité ne me manque pas en fait. Ça y est, je l’ai dit. Pendez moi pour trahison.

Ma théorie est que les techniciens, en particulier quand ils sont jeunes, ont un plaisir particulier à fourrer leur nez un peu partout dans leur logiciel. (NdT : ici aussi une chaste expression française protège le lectorat de l’impudeur de l’auteur) Exactement comme les confectionneurs de boîtiers d’ordinateur fantaisistes et/ou personnalisés, ces gars trouvent honorifique le fait de passer un nombre incalculable d’heures à compiler et configurer leurs logiciels jusqu’à l’oubli. Eh, j’en était là moi aussi. Et plus je me fais vieux, plus j’attends des choses qu’elles fonctionnent « clé en main ». Ubuntu progresse dans ce domaine pour les utilisateurs novices. Mais certains utilisateurs exigeants semblent penser qu’OS X est inégalé en la matière.

J’avais l’habitude de penser que quelque chose clochait chez moi quand je pensais ça. Puis je me suis mis à regarder les en-têtes des mails sur les listes de diffusions auxquelles je suis abonné, curieux de voir ce que les autres utilisaient parmi les gars que je respecte. Et c’était comme si la majorité des experts lumineux de la communauté de la sécurité informatique, une des communautés les plus sévèrement techniques sur la planète, utilisait OS X.

Et, au cas où vous penseriez que je sois payé par Apple, je mentionnerai Mitch Bradley. Avez-vous lu l’histoire de Mel, le programmeur « réel » ? C’est Mitch, en 2008. Super-hacker de microgiciel (NdT : Firmware), auteur du standard IEEE de microgiciel ouvert, auteur du microgiciel que Sun vendit sur ses machines pendant bien deux décennies, et plus généralement une des rares personnes avec qui j’ai jamais eu le plaisir de travailler et dont les compétences dépassaient si extraordinairement les miennes que ça me donnait l’impression de ne pas savoir par où commencer pour le rattraper. L’ordinateur portable principal de Mitch fonctionne avec Windows.

Tour de passe-passe

Mais vraiment, je me perds en digression. Le fait est que l’OLPC était supposé aider l’éducation, pas les logiciels libres. Et la partie la plus énervante de l’annonce à propos de Windows n’est pas qu’elle révéla que les préoccupations d’un certain nombre de participants au projet n’ont rien à voir avec l’éducation, mais le fait que les erreurs et tours de passe-passe de Nicholas furent mise à jour.

La manœuvre qui consiste à dire « nous sommes en train d’inspecter Sugar, il fonctionnera sous Windows » est un simple non-sens. Nicholas sait assez bien que Sugar ne deviendra pas magiquement meilleur par la simple vertu de fonctionner sous Windows au lieu de Linux. En vérité, Nicholas veut livrer des XP complets, il me l’avait dit. Ce qui n’empêchait pas de poursuivre dans un coin le financement de Sugar, pour éviter un désastre dans les relations publiques du projet, et faire savoir mollement et pour la forme sa « disponibilité », comme une option, aux pays acheteurs.

En fait, j’ai arrêté quand Nicholas m’a dit, et pas qu’à moi, que l’apprentissage n’avait jamais fait partie de la mission. Que la mission était, dans son esprit, d’obtenir le plus d’ordinateurs portables possibles ; que de dire quoi que se soit à propos de l’apprentissage serait présomptueux, et que donc il ne voulait pas que le projet OLPC ait une équipe de développement logiciel, une équipe pour le matériel ou une équipe de déploiement qui aille plus avant.

Ouais, je sais pas vraiment ce qui reste du coup.

Il y a trois problèmes clés dans les projets d’informatique personnelle : choisir un dispositif technique qui convient, l’apporter aux enfants et l’utiliser pour créer une expérience pérenne d’apprentissage et d’éducation. Ils sont listés par ordre de difficulté exponentielle croissante.

L’industrie n’a pas voulu aborder le premier car il n’y avait que peu de profit en jeu. Le projet OLPC a réussi à le leur faire faire de la manière la plus efficace possible : en les menaçant de leur voler leur nourriture. Mais l’industrie des fabricants d’ordinateurs portables ne veut toujours pas aborder le déploiement, car c’est vraiment, vraiment sacrément compliqué, ce n’est pas dans un rayon de 200 kilomètres autour de leur compétences de base, et généralement, ça a un retour sur investissement commercial qui fait pleurer le bébé Cthulhu. (NdT : voir Wikipédia à propos de Cthulhu)

Le premier module de déploiement au Pérou était composé de 40 mille pc-portables, à déployer dans 570 écoles à travers jungles, montagnes, plaines et avec une totale variation dans la disponibilité de l’électricité et une uniforme absence d’infrastructure réseau. Un certain nombre d’écoles cibles sont dans des endroits qui nécessitent plusieurs modes de transports pour les atteindre, et sont tellement retirées qu’elles ne sont même pas desservies par le service postal. La livraison des ordinateurs portables allait être accomplie par des vendeurs non sûrs qui allaient être en position de voler les machines en masse. Il n’y a pas de façon simple de collecter des preuves de ce qui a effectivement été livré, où et à qui. Ce n’est pas évident d’établir une procédure pour s’occuper des unités défectueuses, ou de celles qui étaient mortes à l’arrivée. Comparé à cette problématique, le travail technique que je fais c’est des vacances.

À part l’incroyable Carla Gomez-Monroy, qui travailla à mettre en place les projets pilotes, il n’y avait personne d’autre embauché à travailler au déploiement lorsque j’étais au sein du projet OLPC, avec un total de 360 000 pc-portables en cours de dissémination en Uruguay et au Pérou. J’ai été parachuté la dedans, en tant qu’unique membre à m’occuper de l’Uruguay, et envoyé au Pérou à la dernière minute. Et j’ai plutôt un bon sens pratique, mais qu’est-ce que j’y connais moi en déploiement ? C’est à cette époque que Walter fut rétrogradé et théoriquement fait « directeur du déploiement », un poste où il dirigeait la coûteuse équipe qu’il formait à lui tout seul. Puis il démissionna, et voyez-vous ça : à ce moment là, la compagnie avait un demi million d’ordinateurs portables disséminés dans la nature, avec personne pour ne serait-ce que prétendre être officiellement en charge du déploiement. « J’ai démissionné » me dit Walter au téléphone après être parti, « parce que je ne pouvais pas continuer de travailler sur un mensonge. ».

Mais on ne peut pas dire que le projet OLPC fut pris au dépourvu, ou oublia en quelque sorte que ça allait être un problème. J’ai écrit dans un mémo interne en décembre :

Nous avons en cours de nombreux déploiements en parallèle, de différentes échelles. En Uruguay avec huit mille machines, G1G1 avec potentiellement un quart de million, et avec au moins le Pérou et la Mongolie en prévision dans le mois qui vient. Nous n’avons pas de réelle infrastructure pour supporter ces déploiements, notre processus de développement n’alloue aucune marge pour s’occuper de problème critiques de déploiement qui pourrait (vont inévitablement) arriver, et nous n’avons aucun processus pour gérer les crises qui s’ensuivront. Je voudrais pouvoir dire que c’est la plus grande partie de nos problèmes, mais j’ai mentionné ceux-là en premier simplement parce que je prévois que ce sont ces déploiements qui imposeront le fardeau le plus lourd sur cette organisation dans les mois qui viennent, un fardeau que nous ne sommes présentement entièrement pas préparés à assumer.

(…)

Nous n’avons toujours pas un seul employé concentré sur le déploiement, aidant à le planifier, travaillant avec nos pays cibles pour apprendre ce qui fonctionne et ce qui ne fonctionne pas. De toute évidence notre « plan de déploiement » est d’envoyer selon nos disponibilités un champion super-hacker dans chaque pays, de façon à ce qu’il règle tous les problèmes qui apparaissent une fois sur place. Si ce n’est pas notre plan, alors nous n’avons pas de plan du tout.

Que le projet OLPC n’ait jamais été sérieux à propos de réussir son déploiement, et qu’il semble ne même plus s’intéresser à au moins essayer, est criminel. Laissé sans solution, cela fera du projet un raté historique de la technologie de l’information sans précédent par son ampleur.

Et pour le dernier problème clé, transformer des pc-portables en objet d’apprentissage est un saut logique non trivial, qui demeure inadéquatement expliqué. Non, nous ne savons pas si ça va marcher, spécialement sans professeurs. Et c’est ok — une manière de savoir si ça fonctionne peut très bien être en s’y essayant. Parfois il faut courir avant de pouvoir marcher, ouais ? Mais la plupart d’entre nous qui rejoignirent le projet OLPC étaient convaincus que la philosophie éducative derrière le projet est ce qui en faisait un projet différent des tentatives similaires du passé. Un apprentissage qui soit ouvert, collaboratif, partagé et exploratoire, nous pensions que c’était ça qui pouvait faire fonctionner le projet OLPC. Car certains avaient participé à des projets d’éducation avec des ordinateurs portables ordinaires par le passé, et comme le New York Times le nota en couverture il n’y a pas si longtemps, ils échouèrent lamentablement.

Le nouveau OLPC de Nicholas abandonne ces fantastiques objectifs d’éducation, et oriente le projet vers une organisation sans but lucratif de 50 personnes produisant des ordinateurs portables, en compétition avec Lenovo, Dell, Apple, Asus, HP et Intel sur leur propre terrain, et en utilisant la stratégie que nous savons vouée à l’échec. Mais eh ! Je suppose qu’ils vendront plus d’ordinateurs portables ainsi.

La théorie bancale de Windows

J’ai déjà essayé d’établir qu’il n’existe aucune preuve tangible quant à la supériorité des logiciels libres concernant l’éducation, lorsqu’ils sont comparés à un système d’exploitation propriétaire. Ce point appelle à quelques précisions. Bernie Innocenti, encore récemment CTO de la jeune section Europe de l’OLPC, a écrit il y a quelques jours :

Je ne m’opposerai pas personnellement à un port de Sugar pour Windows. Je ne perdrai jamais mon temps à ça, ni n’encouragerai quiconque à perdre du temps dessus, mais c’est un logiciel libre et donc n’importe qui est libre de le porter vers tout ce qu’il veut.

Stallman a également récemment qualifié de « pas bonne chose à faire » le port de Sugar vers Windows. En fait, un tel port n’est qu’une perte de temps si le logiciel libre n’est pas un moyen ici, mais une finalité. Sur une sollicitation de Nicholas, j’ai écrit un mémo interne à propos de la stratégie logicielle au début de mars. Il fut co-signé par Marco Pesenti Gritti, l’inimitable leader de l’équipe Sugar. Je n’ai pas la liberté de reproduire l’intégralité du document, mais je vais en citer les parties les plus importantes qui tiennent en un minimum de lignes :

… Nous (avons fortement argumenté que nous devrions) découpler l’interface graphique de Sugar du reste des technologies Sugar que nous avons développées comme le partage, la collaboration, le stockage de données et ainsi de suite. Nous devrions peut être alors faire fonctionner ces services dans des environnement Linux normaux, et redéfinir le concept d’activité de Sugar comme étant simplement des applications Linux classiques capables d’utiliser les services Sugar. L’interface graphique de Sugar pourrait elle même, optionnellement et à une date ultérieure, être fournie comme un lanceur graphique, peut être développé pour la communauté.

L’erreur principale de l’approche actuelle de Sugar est qu’elle associe des idées extraordinairement puissantes à propos d’apprentissage, qui devraient être partagées, collaboratives, de pair à pair et ouvertes, avec la notion que ces idées doivent être présentée dans un nouveau paradigme graphique. Cette association est intenable.

Choisir de ré-inventer le paradigme de l’environnement graphique signifie que nous utilisons nos ressources extrêmement limitées à lutter contre des interfaces graphiques, et non à développer de meilleurs outils pour l’éducation. (…) Il est très important de reconnaître que des changements de paradigme graphique ne sont essentiels ni à notre principale mission, ni aux principales idées de Sugar.

Nous gagnerions énormément à détacher les technologies qui supportent directement le mode d’apprentissage qui nous intéresse de l’interface graphique de Sugar. Il devient notamment beaucoup plus facile de répandre ces idées et technologies au travers des plate-formes car nos composants d’interface graphique sont les parties les plus dures à porter. Si les technologies inhérentes à Sugar étaient facilement accessibles à tous les principaux systèmes d’exploitation, nous pourrions favoriser la créativité et travailler à l’élargissement de la communauté pour construire des outils logiciels. Ces outils pourraient ensuite être utilisés globalement par tous les élèves et sur n’importe que ordinateur, XO ou autre. Ça aurait dû être notre constant objectif. Beaucoup des technologies que nous avons construites seraient alors accueillies à bras ouverts dans les système Linux modernes, et un grand nombre de développeurs viendraient nous aider si nous leurs en donnions la possibilité. Au contraire de la situation actuelle, un tel modèle devrait être la direction à prendre : le projet OLPC dirigeant bénévolement des développements eux-mêmes principalement réalisés par la communauté.

Finalement, au regard de la question politiquement sensible de l’engagement de l’OLPC par rapport à l’open source, nous pensons qu’il y a une réponse simple : la politique du projet OLPC devrait être de ne développer que des logiciels libres, utilisant des standards ouverts et des formats ouverts. Nous ne pensons pas qu’un engagement plus grand soit nécessaire. Notre préférence pour la liberté des logiciels ne devrait résulter que de la conviction qu’elle offre un meilleur environnement éducatif que les alternatives propriétaires. À ce titre posséder un ensemble de technologies open source multi plates-formes pour construire des applications d’apprentissage collaboratif fait véritablement sens. Mais fondamentalement, nécessiter une interface graphique particulière ou même un certain système d’exploitation semble entièrement superflu ; nous devrions nous satisfaire de n’importe quel environnement où nos technologies de base peuvent être utilisées comme des briques de base pour délivrer l’expérience éducative qui nous importe tant.

Finalement, il importe peu à notre mission éducative de savoir sur quel noyau fonctionne Sugar. Si Sugar lui même demeure libre, ce qui n’a jamais été remis en question, toutes les fonctionnalités concernées, comme la touche visualisation du code source restent opérationnelles, qu’elles soit sous Windows ou sous un autre OS. Le projet OLPC ne devrait jamais aller dans une direction qui limite volontairement l’audience de ses logiciels éducatifs. Windows aujourd’hui est le système d’exploitation le plus diffusé. Un Sugar compatible-Windows pourrait potentiellement apporter sa riche vision de l’apprentissage à des dizaines voire des centaines de millions d’enfants de par le monde dont le parents ont un ordinateur équipé de Windows, que ce soit des ordinateurs fixes ou portables. Suggérer que cette façon de procéder soit mauvaise car philosophiquement impure est carrément démoniaque.

Et eh, peut être qu’une version Windows de Sugar intéressera suffisamment les enfants au fonctionnement des ordinateurs (et des programmes) pour vouloir vraiment passer à Linux. Trolltech, la compagnie derrière le toolkit graphique Qt fut récemment achetée par Nokia et annonça qu’elle allait ajouter une plate-forme de support pour les versions mobiles de Windows, essuyant alors les accusations de trahison de la communauté du logiciel libre. Mais le responsable technique de Trolltech, Benoit Schillings, ne voit pas les choses ainsi :

Certaines critiques concernent le fait que le support de Windows mobile par Trolltech pourrait limiter la croissance des technologies Linux mobiles et embarquées, mais Schillings voit les choses différemment. En permettant aux développeurs d’application de créer un seul code de base qui puisse être porté sur différentes plateformes de manière transparente, il dit que Trolltech rend la transition à Linux plus simple pour les compagnies qui utilisent actuellement Windows mobile, ce qui signifie pour lui plus d’adoptions du système d’exploitation libre à long terme.

L’homme parle sagement.

Maintenant, faites particulièrement attention : autant je suis clairement enthousiaste à l’idée de porter Sugar pour n’importe quel système d’exploitation, autant je suis absolument opposé à ce que Windows devienne l’unique système d’exploitation que le projet OLPC offre pour ses XOs. Les deux sujets sont complètement orthogonaux, et la tentative de Nicholas de confondre les deux en qualifiant la communauté du logiciel libre de « fondamentaliste » (et regarder la communauté écumer de rage au lieu d’épingler sa logique) est simplement une autre erreur. Ce n’est pas qu’il faille ne pas se sentir légitimement offensé. C’est seulement qu’il a pris l’habitude d’appeler terroristes ses employés.

Le projet OLPC devrait être philosophiquement pur à propos de ses propres machines. Être un organisme à but non lucratif qui attire la bonne volonté d’un grand nombre de volontaires communautaires de par son succès et dont la mission principale est un objectif de progrès social, cela implique une grande responsabilité. Ça ne devrait pas devenir un moyen de créer une incitation économique pour un vendeur particulier. Il ne faudrait pas croire le non-sens qui veut que Windows soit une obligation pour le monde du travail après l’école. Windows est demandé parce que suffisamment d’enfant ont grandit avec, et non l’inverse. Si le projet OLPC faisait grandir un milliard de personne avec Linux, Linux ne serait qu’un dandy pour le monde du travail. Et le projet OLPC ne devrait pas choisir un unique système d’exploitation qui paralyse le matériel des ordinateurs du projet : les versions courantes de Windows ne peuvent ni utiliser intelligemment la gestion de l’énergie des XO, ni son maillage complet ou ses capacités avancées d’affichage.

Plus important encore, le système d’exploitation fourni avec l’OLPC devrait incarner la culture de l’éducation à laquelle le projet adhère. La culture d’enquête ouverte, de divers travaux coopératifs, de la liberté d’utiliser et déboguer, ça c’est important. Le projet OLPC a la responsabilité de diffuser la culture de la liberté et les idées que sa mission éducative soutient ; ceci ne peut être fait en offrant uniquement un système d’exploitation propriétaire pour ses ordinateurs portables.

Dit différemment, le projet OLPC ne peut pas clamer qu’il est préoccupé par l’éducation et dans le même temps entrainer les enfants à être des drones d’informatique de bureau, contraints par l’invisible rhétorique des drones de bureau à déployer des ordinateurs contenant des logiciels de drones de bureau. Nicholas avait l’habitude de dire qu’imaginer que les XOs puissent être utilisés pour enseigner à des enfants de six ans comment se servir de Word et Excel le faisait grincer des dents. Apparemment, ce n’est plus le cas. Qu’en est-il aujourd’hui ? L’indécision doit prendre fin. Comme on dit chez nous : relance ou casse-toi (NdT : shit or get off the pot)

Comment aller plus loin

Voici un extrait d’un de mes derniers mails à Nicholas, envoyé peu de temps avant ma démission :

Je continue de penser qu’ils est fort dommage que tu ne tires pas avantage de la position actuelle de l’OLPC. Maintenant qu’il a réussi à faire travailler l’industrie sur des ordinateurs portables à bas prix, le projet OLPC pourrait devenir le point de rassemblement de la défense du constructionnisme, publiant du contenu éducatif, fournissant des logiciels d’apprentissage, et gardant trace des déploiements mondiaux et des leçons à en tirer. Quand un pays choisit cette option, le projet OLPC pourrait être l’endroit où s’arrêter en travaillant véritablement avec ce pays pour aider à sa réalisation, sans s’occuper du fabriquant qui aura été choisi, capitalisant ainsi sur les plans de déploiement, l’expérience et la base de logiciels et contenus facilement disponibles. Dit autrement, le projet OLPC pourrait être le service global IBM des programmes d’informatique personnelle. C’est, je le maintiens, la bonne voie à suivre pour avancer.

Je suis en train d’essayer de convaincre Walter de ne pas démarrer une Fondation Sugar, mais une Fondation de l’Éducation Libre (NdT : Open Learning Foundation). Pour ceux qui s’intéressent encore à l’éducation dans ce panier de crabes, la mission pourrait être de lancer cette organisation, puisque le projet OLPC ne veut pas l’être. Avoir une compagnie indépendante de tout matériel et concentrée entièrement sur l’écosystème éducatif, depuis le déploiement jusqu’au contenu de Sugar, ce n’est pas seulement ce que je pense être prioritaire pour vraiment porter les efforts d’informatique personnelle à un autre niveau, mais c’est également une approche qui a une bonne chance de faire en sorte que cette organisation fasse des choses à peu près auto-financées.

Donc voilà pour l’éducation ouverte, le logiciel libre, la force des convictions personnelles, et pour avoir suffisamment de foutu humilité pour se souvenir que le but est d’apporter l’éducation à un milliard d’enfants de par le monde. Le milliard attend que nous mettions nos idiotes querelles de côté, que nous finissions nos interminables complaintes, pour y aller enfin.

Allons-y maintenant.

Notes

[1] Merci à Simon Descarpentries pour la traduction.




Dossier OLPC : 1 Présentation du projet One Laptop Per Child

Dossier One Laptop Per Child (un portable par enfant)

Nos récents articles sur l’OLPC nous ont donné envie d’une nouvelle traduction / introduction en direction d’un public plus large qui, au delà de la polémique, présente bien selon nous le projet et ses enjeux.

Merci à Yonnel pour tout le travail de traduction.

Copie d'écran - Free Software Magazine

La liberté pour tous avec le projet One Laptop Per Child

Impossible thing #6: Freedom for all with the One Laptop Per Child project

Terry Hancock – Avril 2008 – FreeSoftware Magazine

Plus les années passent et plus on s’inquiète de l’émergence d’une « fracture numérique » entre les riches et les pauvres. L’idée, c’est que ceux qui n’atteignent pas un certain seuil de revenu ne pourront pas se permettre d’investir dans des ordinateurs et une connexion internet qui rendent possible une éducation et un développement avancés. Ils seront pris au piège de leurs contingences. Avec les systèmes d’exploitation propriétaires et payants, qui imposent une sorte de plancher sur le prix des systèmes, cela pourrait bien être le cas. Mais GNU/Linux, le matériel en constante amélioration et une implication de tous pour réduire les coûts plutôt que d’améliorer le matériel, ont amené une nouvelle vague d’ordinateurs à très bas prix, à commencer par le XO d’OLPC. Ces ordinateurs à base de logiciels libres seront le premier contact à l’informatique pour des millions de nouveaux utilisateurs, et ceci annonce un avenir plus libre.

One Laptop Per Child, un portable par enfant

Kofi Annan, ancien Secrétaire Général des Nations Unies, fut à l’origine de l’idée il y a quelques années : un projet pour changer les méthodes d’apprentissage des enfants partout dans le monde. Nicholas Negroponte, professeur au MIT, a décidé de s’occuper du problème, et avec le temps, après un long examen des options possibles, une solution d’apprentissage constructiviste a été choisie : fournir aux enfants un outil pour « apprendre à apprendre » (selon les termes de l’expert de l’éducation Seymour Papert). Le type d’ordinateur sélectionné est un « portable », même si le terme doit être compris dans un sens plutôt large, car l’OLPC XO 1, étant conçu pour une mission totalement différente de celle du portable typique de l’homme d’affaires en voyage, ne ressemble à aucun design antérieur.[1]

OLPC - 1

Un des principaux critères pour le design est que le XO doit être très très peu coûteux. L’objectif était d’arriver à 100$ US. Les premiers exemplaires devraient plutôt s’approcher de 200$, même si on espère que cela baissera suivant les prix des composants et la stabilisation du design. Le projet s’est engagé à baisser les coûts plutôt que d’améliorer les performances, puisque tout l’intérêt du portable OLPC est de créer un produit que les ministères de l’éducation des pays du Tiers-Monde auront les moyens d’acquérir pour les enfants de leur pays.

« Absolument tous les composants logiciels de la machine seront sous licence libre – même jusqu’au BIOS, qui sera LinuxBIOS, écrit en langage Forth. »

Vous ne pouvez vraiment pas faire un ordinateur comme celui-ci avec des logiciels propriétaires pour plusieurs raisons. D’abord, évidemment, vous ne pouvez pas vous permettre d’acheter les licences pour 100 millions de copies de Windows – ce qui coûterait plus que le matériel ! Deuxièmement, même si des rabais importants étaient accordés pour le rendre abordable, ce choix de système serait une énorme contrainte pour le design, à cause du manque de flexibilité des logiciels basés uniquement sur des binaires. Troisièmement, puisque tout l’intérêt est d’aider les gamins dans leur apprentissage-exploration, il est contre-productif de cacher les mécanismes – l’open source pour le système d’exploitation est vraiment un élément de l’expérience d’apprentissage.

Ce ne devrait donc pas être une surprise de voir le portable OLPC tourner sous Linux. En fait, absolument tous les composants logiciels de la machine seront sous licence libre – même jusqu’au BIOS, qui sera LinuxBIOS, écrit en langage Forth. A cause de la complexité liée à la présence du code source pour tous les logiciels sur des ordinateurs si minuscules, avec de telles contraintes de stockage, l’équipe a également décidé d’écrire une énorme partie du système en Python, un langage de programmation interprété qui simplifie grandement cette exigence. En Python, la source est le programme fonctionnel, donc il n’y a en fait qu’une seule chose à distribuer ; la source est particulièrement facile à lire, même pour des élèves de secondaire ; de plus, aucun compilateur ou système pour le build n’est requis pour qu’ils utilisent ou modifient le logiciel sur l’ordinateur. Les changements se voient immédiatement, dans l’environnement d’exécution. [2]

OLPC - 2

En fait, les portables OLPC sont conçus pour faciliter autant que possible ce genre d’exploration. Le développement de logiciels est une des nombreuses « activités » qu’un enfant est invité à explorer dans Sugar, l’interface utilisateur de la machine. Chaque programme est conçu pour permettre à l’enfant d’appuyer sur une simple touche « View source » pour voir le code Python qui se cache derrière l’application (vous avez peut-être remarqué que la plupart des navigateurs web disposent d’une telle fonctionnalité, ce qui rend le HTML hautement accessible, même aux « non-programmeurs » partout dans le monde).

« Le développement de logiciels est une des nombreuses activités qu’un enfant est invité à explorer dans l’interface utilisateur de la machine Sugar. »

Les conséquences de cette décision donnent le vertige et font et rêver. Autour du monde, peut-être avant 2010 ou 2012, il pourrait y avoir jusqu’à cent millions d’enfants, de six à dix ans, qui utiliseraient un environnement de programmation Python complet et facile d’accès, ainsi qu’un système d’exploitation rempli de programmes amusants à bidouiller. Il est difficile d’imaginer un enfant qui ne serait pas attiré. [3]

OLPC - 3

Juste pour dire, imaginez qu’en fait seul un enfant sur mille soit réellement impliqué, et atteigne le point où l’on puisse légitimement l’appeler un « développeur open source ». Cela ferait cent mille personnes. Rappel : Debian GNU/Linux, dont nous avons déjà vu que la valeur peut être évaluée à dix milliards de dollars ou plus, a été produit par bien moins de développeurs.

Toujours est-il que le projet OLPC lui-même a été cité dans la presse pour des raisons moins positives. Il y eut des accusations de mauvaise gestion, et des conflits de personnalité sont apparus. Il y eut une brouille avec Intel, et une réorganisation de certains aspects de la gestion du projet est actuellement étudiée. Certains craignent que les grandioses objectifs ne soient pas atteints. Mais sur le long terme ce ne sont pas des considérations très importantes, parce que même si OLPC en lui-même échoue, le concept de la mission est déjà validé, et c’est la mission qui importe. Si ce n’est pas XO, alors une autre machine à très bas coût sera déployée de par le monde pour occuper la même niche. Certains concurrents ont déjà fait leur apparition sur ce marché.

Un marché totalement nouveau pour les ordinateurs

Assez de gens dans les pays développés ont été impressionnés par le design du XO, pour que les grands fabricants et concepteurs s’y intéressent. Clairement, il y a une demande pour un ordinateur entre 200 et 400 dollars qui fasse ce que le XO fait. Et comme les chaînes de production et de distribution pour OLPC sont en quelque sorte handicapées par les spécificités de sa mission, les développeurs commerciaux apparaissent pour occuper l’espace vide de ce marché.

Une nouvelle gamme de portables à bas coût, basés sur de la mémoire flash, des processeurs faibles, un design extrêmement rustique, et des systèmes d’exploitation GNU/Linux sont en cours de conception et de fabrication pour répondre à la demande. [4]

OLPC - 4

Par chance, ces ordinateurs auront au moins le même impact dans les pays riches que le XO en aura dans les pays pauvres : des millions et des millions de personnes seront exposées à une expérience immédiate, grâce à GNU/Linux et aux logiciels libres. De tels utilisateurs ne demanderont pas « pourquoi devrais-je passer au logiciel libre ? », mais « pourquoi est-ce que je voudrais un jour passer à quoi que ce soit d’autre ? ». La motivation du garde-ce-que-tu-connais est puissante, et cet avantage s’appliquera alors au logiciel libre.

« Des millions et des millions de personnes seront exposées à une expérience immédiate, grâce à GNU/Linux et aux logiciels libres. »

Pourtant, le plus intéressant est que, avec une telle exposition supplémentaire (et tellement de publics différents), le potentiel pour de nouvelles implications, de nouvelles idées, et de nouveaux développements de logiciels augmente également. Et bien sûr, chaque morceau grignoté entraîne dix fois plus de gens, ce qui signifie qu’il y a aussi un plus vaste bassin de ressources pour la croissance des infrastructures (plus souvent dans le cas de systèmes déployés dans des pays riches, évidemment).

Les pionniers et la nouvelle vague

Ce qui en découlera, bien sûr, est que la « culture libre » actuelle n’est vraiment que le « projet pilote ». Le vrai phénomène social est encore à venir. Et si les développeurs de logiciels libres, les hackers de matériel ouvert, et les créateurs de culture libre peuvent faire bouger le monde autant que nous l’avons déjà vu, alors il est clair que cette nouvelle vague d’un toute autre ampleur réinventera tout simplement le monde.

Notes

[1] Figure 1 : Les ordinateurs One Laptop Per Child « XO » sortant de la chaîne d’assemblage, pour leur première utilisation. Dans le sens des aiguilles d’une montre, depuis le coin en bas à gauche : les tout premiers portables qui sortent de la chaîne d’assemblage ; des enseignants lors d’un séminaire OLPC ; des enseignants à Oulan-Bator, en Mongolie ; une représentante du ministère de l’éducation mongol, lors de la cérémonie de remise des premiers exemplaires (Images : OLPC Project / CC-By 2.5).

[2] Figure 2 : les portables OLPC sont déjà déployés dans beaucoup d’endroits du monde technologiquement sous-équipés (les données de participation sont basées sur la fin de l’année 2007, depuis des informations présentes sur le site http://www.laptop.org).

[3] Figure 3 : Des enfants à la découverte de la technologie. L’OLPC, à cause de sa conception à base de logiciels libres, offre des possibilités sans précédent pour ses nouveaux utilisateurs partout dans le monde (Images : OLPC Project / CC-By 2.5).

[4] Figure 4 : Bien que OLPC vise les pays en développement, il oriente le marché et des concurrents commerciaux viennent rapidement occuper le vide dans le marché (Crédits: OLPC Project / CC-By-2.5 (XO), S2RD2@Flickr/CC-By-2.0 (Classmate), Red@Wikipedia/CC-By-3.0 (Eee), Sinomanic et ONE sont des photos provenant de communiqués de presse des entreprises respectives).