Appel de soutien de la FSF à l’occasion des 25 ans du projet GNU

Appenz - CC byDans un récent entretien que nous avions traduit, Richard Stallman évoquait le fait d’être parfois marginalisé au sein d’une communauté qu’il a lui même contribué à construire.

Son regret ne concerne bien entendu pas l’efficience, la qualité et les succès toujours plus nombreux que remportent le logiciel libre. Mais celui de constater que certains en chemin minimisent voire écartent le mouvement social et éthique qui sous-tend à ses yeux le logiciel libre.

C’est l’historique et classique opposition entre « open source » et « free software ». Et il serait dommage que le premier phagocyte le second sous prétexte qu’il est bien plus politiquement correct.

Voici très grossièrement synthétisé pourquoi nous soutenons la Free Software Foundation, et ne manquons pas de traduire et relayer bon nombre de ses appels et communiqués[1].

25 ans de GNU – Soutenons la liberté du logiciel

25 years of GNU – support software freedom!

Peter Brown – 29 septembre 2009 – FSF.org
(Traduction Framalang : Quentin et Goofy)

Chers supporters du logiciel libre,

Demain s’achèvera une année de célébrations du 25ème anniversaire du projet GNU. Une célébration démarrée en trombe en septembre 2008 avec l’excellente vidéo de l’auteur et comédien Stephen Fry.

Aujourd’hui, nous célébrons le fait que nous avons passé le cap des 25 000 personnes inscrites à notre newsletter mensuelle, la Free Software Supporter, et nous remercions les 3 200 personnes qui ont rejoint la Free Software Foundation comme membres associés pour financer notre travail. Vous pouvez rejoindre leur rang tout de suite et arborer fièrement votre carte de membre en :

Je suis fier que la FSF ait autant d’activistes et de membres dévoués, qui chaque jour proclament leur soutien à notre cause et plaident pour une société libre.

Le mouvement du logiciel libre a passé une excellente année, et son importance sur le plan éthique est de plus en plus reconnue. Ensemble, nous combattons le fléau du logiciel propriétaire, des brevets logiciels, des DRM, et de l’informatique pleine de chausse-trappes, dans un effort pour construire un monde de logiciels libres où nous, les utilisateurs, nous serons libres.

« J’aurais pu gagner de l’argent (en rejoignant le monde des logiciels propriétaires), et peut-être pris du bon temps à écrire du code. Mais je savais qu’à la fin de ma carrière, j’aurais fait le bilan de ces années passées à ériger des murs entre les individus, et j’aurais eu le sentiment d’avoir gâché ma vie en rendant le monde pire qu’il n’aurait pu l’être. »

Richard Stallman, projet GNU.

Aidez-nous à finir en beauté cette année faste pour le GNU en devenant membre ou en effectuant un don, et merci pour votre soutien sans faille !

Notes

[1] Crédit photo : Appenz (Creative Commons By)




La liberté ambigüe du paramétrage par défaut

Manuel Cernuda - CC byMon lycée a, depuis un certain temps déjà, opté pour un déploiement massif de la suite bureautique libre OpenOffice.org. Sauf que notre informaticien l’installe sur les postes en modifiant systématiquement l’option du format d’enregistrement « par défaut », substituant au format natif et ouvert ODF la famille de formats fermés bien connus de la suite Microsoft Office (le .DOC pour Word, le .XLS pour Excel et le .PPT pour Powerpoint).

Et lorsque je lui signifie, outré, mon mécontentement, il me répond qu’il convient de ne surtout pas perturber les enseignants, qui ont tous MS Office chez eux, et qui sont habitués à travailler dessus depuis des années (« Tu comprends, sinon ils vont rentrer à la maison avec leurs fichiers ODF dans leur clé, cliquer dessus pour ouvrir le document et… ça va être le bordel parce qu’aucune application ne sera trouvée par le système. Ils vont râler, m’assaillir de questions et c’est bibi qui assurera la hotline ! »).

Et c’est ainsi que l’on passe à côté de toute la problématique des formats (excellente porte d’entrée pour engager une discussion plus générale sur « le libre »). En tirant un peu le trait, on pourrait presque dire que l’on ne réalise finalement ici qu’une « fausse » migration, ou tout du moins que l’on s’est arrêté au milieu du chemin.

Fin de l’anecdote qui n’avait pour but que d’introduire le sujet (et la traduction) du jour : le paramétrage par défaut.

Lorsqu’on découvre un logiciel (ou carrément un système d’exploitation) pour la première fois, un certain nombre de choix ont été réalisés pour nous, afin, en théorie, de nous faciliter la tâche pour que nous soyons de suite opérationnels. Mais ces choix ne sont pas forcément neutres. D’abord parce que nous sommes tous différents (« l’utilisateur lambda » n’existe pas). Mais aussi, voire surtout, parce que nous savons fort bien qu’une forte majorité d’utilisateurs, pour de multiples raisons (inertie, crainte…) ne modifieront jamais ces options de démarrage.

Vous êtes un utilisateur désormais aguerri de GNU/Linux. Vous avez choisi votre distribution (Ubuntu, Mandriva, Fedora…), vous avez choisi votre environnement graphique (GNOME, KDE…), vous avez configuré le tout aux petits oignons en rivalisant d’esthétisme et d’ergonomie pour vous offrir un magnifique bureau personnalisé (illustration[1]). Vous naviguez sur un Firefox bourré d’extensions toutes plus utiles les unes que les autres eu égard à vos propres besoins et intérêts… Alors, félicitations, vous baignez dans l’univers culturel numérique de la richesse, de la diversité et de l’autonomie. Vous y êtes même tellement habitué que vous avez certainement oublié le nombre de paramétrages par défaut qu’il vous aura fallu lever pour arriver à cette situation qui est la vôtre aujourd’hui.

Parce que votre univers est malheureusement passablement éloigné de celui de Madame Michu (qui, je suis d’accord, n’existe pas non plus). Elle a acheté un ordinateur avec « par défaut » Windows à l’intérieur, dans lequel se trouvait « par défaut » Internet Explorer (page d’accueil Microsoft, Google ou FAI, inchangée), Outlook Express, Windows Media Player etc. et elle s’y tient. Elle s’y cramponne même, en résistant dur comme fer si jamais on s’en vient lui montrer, avec pourtant moultes précautions, qu’un « autre monde informatique est possible » (dans ce contexte là j’en arrive même parfois à me demander, un brin provocateur, si ce n’est pas « l’utilisateur par défaut » qu’il convient de paramétrer plutôt que ses logiciels !). C’est frustrant et dommage, parce que si il y a paramétrage par défaut, cela signifie également qu’il y a liberté de changer ces paramètres. Comme dirait l’autre, la liberté ne s’use que si l’on ne s’en sert pas…

Mais je m’égare, puisqu’il s’agissait juste de présenter l’article ci-dessous qui, bien que ne se souciant nullement des conséquences du paramétrage par défaut sur le logiciel libre, nous offre ici un exposé original et intéressant.

Remarque (à la lisière du troll) : C’est peut-être aussi là que réside le succès d’Ubuntu, dont la relative absence de choix à l’installation (un seul bureau, un seul logiciel par application, etc.) a grandement rassuré les nouveaux venus issus de Windows. De là à affirmer qu’Ubuntu est devenue « la distribution par défaut de l’OS GNU/Linux », il n’y a qu’un pas que je me garderais bien de franchir 😉

Le triomphe du « par défaut »

Triumph of the Default

Kevin Kelly – 22 juin 2009 – The Technium
(Traduction Framalang : Olivier et Julien R.)

Peu reconnu, le « par défaut » est l’une des plus grandes inventions de l’ère moderne. « Par défaut » est un concept technique introduit par l’informatique dans les années 1960 pour désigner les réglages pré-sélectionnés (comme par exemple dans « Ce programme accepte par défaut les dates au format jj/mm/aa, et non jj/mm/aaaa »). De nos jours, la notion de réglage par défaut dépasse le simple cadre de l’informatique et s’est répandue dans la vie de tous les jours. Aussi insignifiant que cela puisse paraître, l’idée de réglage par défaut est fondamentale pour « The Technium » (NdT : le livre qu’est en train de rédiger l’auteur dont cet article fait partie).

Difficile de concevoir aujourd’hui une époque où le « par défaut » n’existait pas. Mais le « par défaut » n’a gagné en popularité qu’à mesure que l’informatique s’est démocratisée ; c’est l’héritage de systèmes technologiques complexes. Le « par défaut » n’existait pas sous l’ère industrielle. À l’aube de l’ère moderne, quand les ordinateurs plantaient souvent et qu’entrer les variables était un vrai calvaire, une valeur par défaut était la valeur que le système s’assignait automatiquement si le programme échouait ou s’il était démarré pour la première fois. C’était une idée brillante. Sauf si l’utilisateur ou un programmeur prenait la peine de le modifier, le réglage par défaut régnait, assurant ainsi que le système hôte fonctionne. Chaque produit électronique et chaque logiciel était livré dans sa configuration par défaut. Les réglages par défaut répondent aux normes attendues par les acheteurs (par exemple la tension des appareils électriques aux États-Unis), ou à ce qu’ils attendent d’un produit (les sous-titres désactivés pour les films), ou encore aux questions de bon sens (anti-virus activé). La plupart du temps les réglages par défaut satisfont les clients, et ils ont maintenant envahi tout ce qui est personnalisable : automobiles, assurances, réseaux, téléphones, assurance maladie, cartes de crédit, etc.

En effet, chaque objet contenant un tant soit peu d’intelligence informatique (c’est à dire tout équipement moderne) est paramétré par défaut. Ces présélections sont autant de partis pris implantés dans le gadget, le système ou l’institution. Mais les réglages par défaut ne sont pas que des hypothèses silencieuses matérialisées dans tout objet manufacturé. Par exemple, tous les outils manuels sont faits, par défaut, pour les droitiers. Faire l’hypothèse que l’utilisateur sera droitier étant simplement normal, pas besoin d’en faire étalage. De même, la forme des outils est généralement faite pour des mains d’hommes. Mais ça ne se limite pas qu’aux outils : les premières automobiles étaient construites sur l’hypothèse que le conducteur serait un homme. Pour toute chose manufacturée, le constructeur doit faire des hypothèses sur ses clients potentiels et leurs motivations ; ces hypothèses trouvent naturellement leur place aussi dans tout ce qui est technologique. Plus le système est vaste, plus le constructeur doit faire des hypothèses. En examinant attentivement une infrastructure technologique particulière vous pouvez deviner les hypothèses cachées dans sa conception. Ainsi, on retrouve dans des domaines aussi variés que le réseau électrique, le système ferroviaire, les autoroutes ou l’enseignement certaines caractéristiques du citoyen américain : optimisme, importance de l’individu et penchant pour le changement.

Mais, alors que ces choix arbitraires, communs à toutes les technologies, sont à bien des égards semblables au concept de « défaut », ce n’est plus vrai aujourd’hui et ce pour une raison essentielle : les réglages par défaut sont des hypothèses qui peuvent être modifiées. Vous ne pouvez pas adapter des outils faits pour les droitiers à l’usage des gauchers. À l’époque, l’hypothèse que le conducteur était un homme se retrouvait dans la position du siège dans les automobiles. En changer n’était pas simple. Mais ce que l’on ne pouvait faire hier est désormais permis par la technologie actuelle. En effet presque tous les systèmes technologiques d’aujourd’hui ont en commun la facilité à être rebranchés, modifiés, reprogrammés, adaptés et changés pour convenir à de nouveaux usages ou à de nouveaux utilisateurs. Beaucoup (pas toutes) des hypothèses faites ne sont pas immuables et définitives. La multiplication des paramètres par défauts et leur modularité offre aux utilisateurs un vrai choix, s’ils le désirent. Les technologies peuvent être adaptées à vos préférences et optimisées pour mieux vous correspondre.

L’inconvénient de toutes cette personnalisation, cependant, est qu’on se retrouve un peu noyé sous le choix. Trop d’alternatives et pas assez de temps (sans parler de l’envie) de toutes les tester. Ne vous-êtes vous pas déjà retrouvé paralysé par l’indécision devant les 99 variétés de moutardes sur les étalages du supermarché, ou devant les 2 536 options de votre assurance santé, ou encore devant les 36 000 coupes de cheveux différentes pour votre avatar dans un monde virtuel ? Il existe une solution toute simple à cette sur-abondance délirante de choix : les paramètres par défaut. Les « défauts » vous permettent de choisir quand choisir. Votre avatar par défaut pourrait pas exemple être un avatar quelconque, un gamin en jean par exemple. Vous pouvez vous soucier de la personnalisation plus tard. C’est un peu un choix guidé. Ces milliers de variables, de vrais choix, peuvent être guidés en optant pour un choix par défaut intelligent, un choix fait à notre place, mais qui ne nous prive pas de notre liberté de le changer dans le futur, à notre convenance. Mes libertés ne sont pas restreintes, mais sont étalées dans le temps. Quand je me sens plus à l’aise, je peux revenir sur mes préférences pour mieux les adapter, en ajouter ou en retirer, en changer ou les personnaliser. Dans les systèmes par défaut bien pensés, je conserve toujours mon entière liberté, mais les choses me sont présentées de telle sorte que je peux prendre mon temps pour faire mes choix, au fur et à mesure et quand je me sens mieux à même de les faire.

Comparez maintenant cette sur-abondance de choix à ce que vous propose un marteau, une automobile ou le réseau téléphonique des années 1950. L’utilisation de ces outils vous était imposée. Les meilleurs ingénieurs ont planché des années pour proposer une conception qui s’adapte le mieux à la majorité, de nos jours encore, certains sont des chef-d’œuvre d’ingéniosité. Si ces objets et infrastructures étaient peu modulables, ils étaient remarquablement conçus pour être utilisés par la majorité des personnes. Peut-être qu’aujourd’hui vous ne personnalisez pas plus votre téléphone qu’il y a cinquante ans, mais la possibilité existe. Et les options disponibles sont toujours plus nombreuses. Cette myriade de choix possibles reflète la nature adaptative des téléphones portables et des réseaux. Les choix s’offrent à vous quand vous faites appel à eux, ce qui n’était pas possible quand toutes les décisions étaient prises pour vous.

Les paramètres par défaut ont fait leur apparition dans le monde complexe de l’informatique et des réseaux de communication, mais il n’est pas ridicule pour autant d’envisager leur utilisation pour les marteaux, les voitures, les chaussures, les poignées de portes, etc. En rendant ces objets personnalisables, en y injectant une pincée de puces informatiques et de matériaux intelligents, nous leur ouvrons le monde des paramètres par défaut. Imaginez le manche d’un marteau qui se moulerait automatiquement pour s’adapter à votre prise en main de gaucher, ou à la main d’une femme. On peut très bien envisager d’entrer son genre, son âge, son expertise ou son environnement de travail directement dans les petits neurones du marteau. Si un tel marteau existait, il serait livré avec des paramètres par défauts pré-programmés.

Mais les paramètres par défauts sont tenaces. De nombreuses études psychologiques ont montré que le petit effort supplémentaire demandé pour modifier les paramètres par défaut est souvent de trop et les utilisateurs s’en tiennent aux pré-réglages, malgré la liberté qui leur est offerte. Ils ne prennent pas la peine de régler l’heure sur leur appareil photo, le « 12:00 » entré par défaut continue de clignoter, ou encore ils ne s’embettent pas à changer le mot de passe temporaire qui leur est attribué. La dure vérité, n’importe quel ingénieur vous le confirmera, est que souvent les paramètres par défaut restent inchangés. Prenez n’importe quel objet, 98 options sur 100 seront celles préconfigurées en usine. Je reconnais que, moi-même, j’ai très rarement touché aux options qui m’étaient offertes, je m’en suis tenu aux paramètres par défaut. J’utilise un Macintosh depuis le début, voilà plus de 25 ans, et je découvre encore des paramètres par défaut et des préférences dont je n’avais jamais entendu parler. Du point de vue de l’ingénieur, cette inertie est un signe de réussite, cela signifie que les paramètres par défaut sont bien choisis. Leurs produits sont utilisés sans beaucoup de personnalisation et leurs systèmes ronronnent doucement.

Décider d’une valeur par défaut est synonyme de puissance et d’influence. Les paramètres par défaut ne sont pas qu’un outil pour aider les utilisateurs à apprivoiser leurs options, c’est aussi un levier puissant dont disposent les fabricants, ceux qui décident de ces valeurs, pour diriger le système. Les orientations profondes que traduisent ces valeurs par défaut façonnent l’usage que l’on fait du système. Même le degré de liberté qui vous est accordé, avec les choix occasionnels que l’on vous demande de faire, est primordial. Tout bon vendeur sait ça. Ils agencent magasins et sites Web pour canaliser vos décisions et ainsi augmenter leurs ventes. Disons que vous laissez des étudiants affamés choisir leur dessert en premier plutôt qu’en dernier, cet ordre par défaut a une influence énorme sur leur nutrition.

Chaque rouage d’une technologie complexe, du langage de programmation, à l’aspect de l’interface utilisateur, en passant par la sélection de périphériques, renferme d’innombrables paramètres par défaut. L’accès est-il anonyme ? Les intentions des utilisateurs sont-elles bonnes ou mauvaises ? Les paramètres par défaut encouragent-ils l’échange ou le secret ? Les règles devraient-elles expirer à une période donnée ou le renouvellement est-il tacite ? Avec quelle facilité peut-on revenir sur une décision ? Telle décision devrait-elle être activée par défaut ou l’utilisateur doit-il la valider lui-même ? Rien que la combinaison de quatre ou cinq choix par défaut engendre des centaines de possibilités.

Prenez deux infrastructures technologiques, disons deux réseaux d’ordinateurs basés sur le même matériel et sur les mêmes logiciels. L’expérience sur les deux réseaux peut être complètement différente selon les options par défaut imposées. Leur influence est telle qu’on peut presque parler d’effet papillon. En modifiant légèrement un paramètre par défaut, on peut transformer des réseaux gigantesques. Par exemple, la plupart des plans épargne retraite, comme le plan « Corporate 401k », demandent des mensualités très basses, en partie parce qu’ils proposent un choix phénoménal d’options. L’économiste/comportementaliste Richard Thaler rapporte des expériences où les épargnants amélioraient nettement leur épargne lorsque les options étaient sélectionnées par défaut (« choix guidé »). Chacun avait la possiblité de résilier leur programme quand il le désirait et ils étaient libres de modifier leur contrat quand bon leur semblait. Mais le simple fait de passer de « souscription » à « inscription automatique » changeait complètement l’intérêt du système. On peut prendre également l’exemple du don d’organe. Si on déclarait que chacun est donneur à moins qu’il n’émette le souhait contraire, le nombre d’organes donnés augmenterait largement.

Chaque paramètre par défaut est un levier pour façonner le déploiement d’une innovation. L’élaboration d’une infrastructure à l’échelle d’un continent, par exemple, comme le réseau électrique 110V aux États-Unis, peut s’imposer à mesure qu’elle reçoit le soutien d’autres infrastructures (comme les générateurs diesels ou les lignes d’assemblage dans les usines). Ainsi il peut obtenir le suffrage nécessaire pour s’imposer face à une technologie pré-existante, mais à chaque nœud du réseau électrique se cache un paramètre par défaut. Tous ces petits choix par défaut définissent la nature du réseau, ouvert et évolutif mais plus fragile ou fermé et plus sûr. Chaque paramètre par défaut est un levier permettant de façonner le réseau, s’il peut s’accroître facilement ou pas, s’il accepte les sources de puissance non-conventionnelle ou pas, s’il est centralisé ou décentralisé… La technologie définit les systèmes technologiques, mais c’est à nous d’en établir la nature.

Aucun système n’est neutre. Chacun a ses options naturels. On dompte les choix en cascade engendrés par l’accélération de la technologie par petites touches, en adoptant nos propres options afin de les faire tendre vers nos objectifs communs, ce qui a pour conséquence d’augmenter la diversité, la complexité, la spécialisation, la sensibilité et la beauté.

Le « par défaut » nous rappelle également une autre vérité. Par définition, le « par défaut » entre en jeu lorsque nous — utilisateur, consommateur ou citoyen — ne faisons rien. Mais ne rien faire n’est pas neutre, car cela entraîne une option par défaut. Ce qui signifie que « ne pas faire de choix » est un choix lui-même. Il n’y a rien de neutre, même, ou surtout, dans l’absence d’action. Malgré ce que certains veulent bien nous faire croire, la technologie n’est jamais neutre. Même quand vous ne choisissez pas ce que vous en faites, un choix est fait. Un système s’orientera dans une direction plutôt qu’une autre selon que l’on agit ou non sur lui. Le mieux que l’on puisse faire est de lui donner la direction qui va dans notre sens.

Notes

[1] Crédit photo : Manuel Cernuda (Creative Commons By-Sa)




Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire

Rudolf Schuba - CC bySéquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Daria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard dans les communications de l’ACM (CACM), le journal de l’Association for Computer Machinery. « Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité d’utilisation ».

Apparemment ils y sont arrivés. Unix va évoluer pour devenir une pierre angulaire de l’informatique, largement installé sur les serveurs et les postes de travail dans les universités, les gouvernements et les entreprises. Et son influence s’est étendue bien au-delà de ses déploiements, comme l’a noté l’ACM en 1983, lorsqu’ils ont attribué leur prix le plus élevé à Thompson et Ritchie, le A.M. Turing Award pour leur contribution à l’informatique : « Le modèle du système Unix a conduit une génération de concepteurs logiciels à repenser leur manière de programmer ».

Les premiers pas

Bien sûr, le succès d’Unix n’est pas arrivé d’un coup. En 1971, il a été porté sur le mini-ordinateur PDP-11, une plateforme plus puissante que le PDP-7 pour laquelle il avait été écrit à l’origine. Des programmes d’édition et de formatage de texte ont été ajoutés, et il a été déployé pour quelques dactylos du département des Brevets des Bell Labs, ses premiers utilisateurs en dehors de l’équipe de développement.

En 1972, Ritchie écrivait le langage de programmation de haut-niveau C (basé sur un langage précédent de Thompson, le B) ; suite à cela, Thompson réécrivit Unix en C, ce qui permit d’améliorer la portabilité de l’OS sur différents environnements. En cours de chemin, il acquit le nom de Unics (Uniplexed Information and Computing Services), un jeu de mots sur Multics ; l’orthographe se transforma rapidement en Unix.

Il était temps d’envahir le monde. L’article de Ritchie et Thompson de Juillet 1974 dans le CACM, « Le système temps-partagé UNIX », prit le monde de l’informatique dans un ouragan. Jusqu’alors, Unix avait été confiné à une poignée d’utilisateurs dans les Laboratoires Bell. Mais maintenant, avec l’Association for Computing Machinery derrière lui, un éditeur l’ayant qualifié comme étant élégant, Unix était à un moment crucial.

« L’article du CACM avait eu un impact très fort », raconte l’historien de l’informatique Peter Salus dans son livre The Daemon, the Gnu and the Penguin (NdT : Le démon, le Gnou et le manchot). « Peu de temps après, Ken était assailli de demandes concernant Unix ».

Un paradis pour les hackers

Thompson et Ritchie étaient des hackers accomplis, quand ce terme désignait quelqu’un qui combinait une créativité hors pair, une intelligence à toute épreuve et de l’huile de coude pour résoudre des problèmes logiciels que l’on a peine à imaginer.

Leur approche, et le code qu’ils avaient écrit, étaient attractifs pour les programmeurs des universités, et plus tard pour des entreprises qui démarraient sans les méga budgets de IBM, Hewlett-Packard ou Microsoft. Unix était tout ce dont les autres hackers, comme Bill Joy à l’Université de Californie, Rick Rashid à l’Université Carnegie Mellon et David Korn plus tard aux Laboratoires Bell avaient rêvé.

« Presque depuis le début, le système était capable de se maintenir seul, et il l’avait prouvé », écrivaient Thompson et Ritchie dans l’article du CACM. « Comme tous les programmes sources étaient toujours disponibles et facilement modifiables en ligne, nous étions volontaires pour réviser et modifier le système et ses logiciels lorsque de nouvelles idées étaient inventées, découvertes ou suggérées par d’autres ».

Korn, maintenant membre d’AT&T, travaillait comme programmeur aux Bell Labs dans les années 1970. « L’une des caractéristiques de Unix était que des outils pouvaient être écrits, et de meilleurs outils pouvaient les remplacer », se souvient-il. « Ce n’était pas un monolithe dans lequel il fallait tout approuver ; vous pouviez en fait développer de meilleures versions ». Il a développé l’influent Korn shell, un langage de programmation permettant d’interagir directement avec Unix, maintenant disponible en open source.

Salus, auteur et historien des technologies, se souvient de son travail avec le langage de programmation APL sur un mainframe IBM tournant sous System/360, en tant que professeur à l’Université de Toronto dans les années 1970. Mais le lendemain de Noël 1978, un ami à l’Université de Colombia lui fit une démonstration de Unix, tournant sur un mini-ordinateur. « Je me suis exclamé : Oh mon Dieu !, et j’étais totalement converti », raconte Salus.

Il dit que pour lui, l’un des avantages clés de Unix était la fonctionnalité pipe, introduite en 1973, qui rendait facile le passage de données d’un programme à l’autre. Le concept de pipeline, inventé par McIlroy des Bell Labs, fut par la suite copié dans de nombreux OS, parmi lesquels les variantes d’Unix, Linux, DOS et Windows.

Un autre avantage de Unix, le deuxième effet Wooow, comme le dit Salus, était qu’il n’avait pas besoin d’un mainframe d’un demi-million de dollars pour tourner. Il avait été écrit sur le petit mini-ordinateur DEC PDP-7, assez primitif, car c’était tout ce que Thompson et Ritchie avaient sous la main en 1969. « Le PDP-7 était presque incapable de quoi que ce soit », se souvient Salus. « J’étais scotché ».

Pas mal de monde a également été rendu accro. Les chercheurs des universités ont adopté Unix car il était assez simple et facilement modifiable, ne demandait pas beaucoup de ressources, et le code source était libre pour une bonne partie. Des startups comme Sun Microsystems et un ensemble d’entreprises maintenant défuntes qui se spécialisaient dans l’informatique scientifique, comme Multiflow Computer, en ont fait leur système d’exploitation de choix pour les mêmes raisons.

La progéniture d’Unix

Unix a grandi comme un système non-propriétaire car en 1956 AT&T avait été enjoint par une décret fédéral à ne pas s’écarter de sa mission de production de service téléphonique. Il pouvait développer du logiciel, et même le licencier pour un tarif raisonnable, mais l’entreprise ne pouvait pas entrer sur le marché de l’informatique.

Unix, qui avait été développé sans encouragement du management, avait d’abord été vu par AT&T comme quelque chose entre une curiosité et un casse-tête légal.

C’est à ce moment là, à la fin des années 1970, AT&t a réalisé qu’ils avaient quelque chose de commercialement intéressant en main. Ses avocats ont commencé à adopter une interprétation plus favorable de l’ordonnance de 1956, comme ils cherchaient des manières de protéger Unix comme un secret de fabrication. A partir de 1979, avec la sortie de la Version 7, les licences Unix interdisaient aux universités d’utiliser le code source Unix pour l’étudier pendant leurs cours.

Pas de problème, se dit alors le professeur d’informatique Andrew Tanenbaum, qui avait utilisé Unix V6 à l’Université Vrije à Amsterdam. En 1987, il écrivit un clone de Unix pour utiliser lors de ses cours, en créant le système d’exploitation open source Minix, qui tournait sur un microprocesseur Intel 80286.

« Minix comprenait toutes les idées d’Unix, et c’était un travail brillant », raconte Salus. « Seul un programmeur majeur, quelqu’un qui comprenait en profondeur les mécanismes internes d’un système d’exploitation, pouvait faire cela ». Minix allait devenir le point de départ pour la création de Linux par Linus Torvalds en 1991. Si ce n’était pas exactement un clone d’Unix, il s’agissait à n’en pas douter d’un Unix-like.

En reculant d’une décade ou à peu près, Bill Joy, qui était un étudiant diplômé et programmeur à l’Université de Californie de Berkeley dans les années 1970, mit la main sur une copie de l’Unix des Laboratoires Bell, et il pensa que c’était une bonne plateforme pour son propre travail sur un compilateur Pascal et un éditeur de texte.

Les modifications et extensions que lui et d’autres firent à Berkeley ont résulté dans la seconde branche majeure de Unix, appelée Berkeley Software Distribution (BSD) Unix. En mars 1978, Joy envoyait des copies de 1BSD, vendues 50$.

Ainsi en 1980 il y avait deux lignes majeures de Unix, l’une de Berkeley et l’autre de AT&T, et la scène était montée pour ce qui allait devenir la Guerre des Unix. La bonne nouvelle était que les développeurs de logiciels pouvaient avoir accès de partout au code source Unix, et l’adapter à leurs besoins et caprices. La mauvaise nouvelle c’est qu’ils firent exactement cela. Unix a proliféré, et les variantes ont divergé.

En 1982, Joy a contribué à fonder Sun Microsystems et offrait une station de travail, la Sun-1, qui utilisait une version de BSD appelée SunOS. (Solaris allait apparaitre environ 10 ans plus tard). L’année suivante, AT&T a sorti la première version de Unix System V, un système d’exploitation qui a eu une influence énorme et qui fut la base de IBM AIX et Hewlett-Packard HP-UX.

Les Guerres Unix

Unix History - Eraserhead1 et Infinity0 - CC by-saAu milieu des années 80, les utilisateurs, y compris le gouvernement fédéral, se sont plaints que si en théorie Unix était un système d’exploitation unique et portable, en fait on en était loin. Les éditeurs faisaient semblant d’adhérer à cette réclamation, mais travaillaient jour et nuit pour enfermer les clients avec des fonctionnalités et API uniques à leur Unix.

En 1987, Unix System Laboratories, qui faisait partie des Laboratoires Bell à cette époque, commença à travailler avec Sun sur un système qui pourrait unifier les deux branches majeures de Unix. Le produit de leur collaboration, appelé Unix System V Release 4.0, fut sorti deux ans plus tard, et combinait des fonctionnalités de System V Release 3, BSD, SunOS et du Xenix de Microsoft.

Les autres éditeurs Unix craignaient l’alliance AT&T/Sun. Les diverses parties ont formé des organismes standards concurrents, qui portaient des noms tels que X/Open, Open Software Foundation (ou OSF), Unix International et Corporation for Open Systems. Les arguments, contre-arguments et réussites de ces groupes pourraient remplir un livre, mais ils clamaient tous leur désir d’un Unix unifié, tout en se tirant dessus les uns les autres.

Dans un article écrit en 1988, mais non publié, pour la DARPA (Defense Advanced Research Projects Agency) (NdT : Agence pour les Projets de Recherche Avancée de la Défense), le pionnier des mini-ordinateurs Gordon Bell disait ceci de la toute nouvelle Open Software Foundation, qui incluait IBM, HP, DEC et d’autres, alliés contre le partenariat AT&T/Sun : « OSF est une manière pour ceux qui n’ont pas d’Unix d’entrer sur ce marché en devenir, tout en maintenant leur musées de code à hautes marges ».

Les Guerres Unix n’ont pas réussi à calmer les différences ou à créer un réel standard pour le système d’exploitation. Mais en 1993, la communauté Unix était réveillée par Microsoft, sous la forme de Windows NT, un système d’exploitation 32 bits utilisable en entreprise. Ce NT propriétaire visait directement Unix, et devait étendre l’hégémonie de Microsoft sur l’ordinateur de bureau aux centres serveurs et endroits similaires, tenus principalement par les serveurs Sun et autres.

Les utilisateurs Microsoft ont applaudi. Les fournisseurs Unix ont paniqué. Tous les principaux rivaux des Unix majeurs se sont réunis dans une initiative appelé Common Open Software Environnement (NdT : Environnement Logiciel Ouvert Commun), et l’année suivante ont plus ou moins déposé les armes en mixant le groupe Unix International, appuyé par AT&T/Sun avec l’Open Software Foundation. Cette coalition a évolué dans l’actuel The Open Group, organisme certificateur des systèmes Unix, et propriétaire de Single Unix Specification (SUS), maintenant la définition officielle de « Unix ».

D’un point de vue pratique, ces développements ont pu standardiser Unix au maximum possible, en fonction de la concurrence des éditeurs. Mais ils sont sans doute arrivés trop tard pour enrayer la montée d’une marée appelée Linux, le système d’exploitation open source dérivé de Minix du professeur Tanenbaum.

Mais qu’est ce que « Unix », finalement ?

Unix, vous diront la plupart des gens, est un système d’exploitation écrit il y a plusieurs dizaines d’années aux Laboratoires Bell de AT&T, et ses descendants. Les versions majeures d’Unix aujourd’hui proviennent de deux branches d’un même tronc : l’une émane directement de AT&T et l’autre vient de AT&T via l’Université de Californie de Berkeley. Les branches les plus robustes actuellement sont AIX d’IBM, HP-UX de HP et Solaris de Sun.

Toutefois, The Open Group, qui détient la marque déposée Unix, définit Unix comme n’importe quel système d’exploitation qui a été certifié par ses services pour se conformer à la Single Unix Specification (SUS) (NdT : Spécification Unix Unique). Ceci inclut des OS que l’on ne considère pas généralement comme étant des Unix, tel que Mac OS X Leopard (qui dérive d’un BSD Unix) et IBM z/OS (qui vient du système d’exploitation mainframe MVS), car ils se conforment au SUS et supportent les APIs SUS. L’idée basique est que c’est un Unix si cela agit comme Unix, quel que soit le code sous-jacent.

Une définition encore plus large d’Unix pourrait inclure les OS Unix Like (qui ressemblent à Unix), parfois appelé des clones d’Unix ou des sosies, qui ont copié une bonne partie des idées de Unix mais n’incorporent pas directement du code Unix. Le plus connu d’entre tous étant certainement Linux.

Finalement, même s’il est raisonnable d’appeler Unix un système d’exploitation, c’est finalement plus que cela. En plus du noyau de l’OS, les implémentations Unix embarquent typiquement des utilitaires tels que des éditeurs en ligne de commande, des interfaces de programmation applicatives (API), des environnements de développement, des librairies et de la documentation.

Le futur d’Unix

Le manque continuel de portabilité complète entre les différentes versions concurrentes d’Unix, de même que l’avantage financier de Linux et Windows sur les processeurs standards x86, vont inciter les organisations informatiques de quitter Unix, suggère un récent sondage du Gartner Group.

« Les résultats réaffirment l’enthousiasme continu pour Linux comme plate-forme serveur, avec Windows qui croît de la même manière, et Unix qui prend la route d’un long, mais graduel, déclin », décrit le sondage, publié en février 2009.

« Unix a eu un passé long et vivant, et même s’il n’est pas encore parti, il sera de plus en plus sous pression », dit l’analyste du Gartner George Weiss. « Linux est l’Unix de choix stratégique. Même si Linux n’a pas le long héritage de développement, de tuning et de tests de stress que Unix a pu avoir, il s’en approche et va bientôt égaler Unix en performance, stabilité et montée en charge », dit-il.

Mais un récent sondage de ComputerWorld suggère que le retrait d’Unix ne va pas arriver aussi rapidement. Dans cette enquête concernant 130 utilisateurs Unix sur 211 responsables informatiques, 90% ont déclaré que leur entreprise était « très ou extrêmement dépendante » de Unix. Un peu plus de la moitié a dit : « Unix est une plateforme essentielle pour nous et le restera indéfiniment », et seulement 12% ont dit « Nous pensons sortir de Unix dans le futur ». Les économies de coût, essentiellement au travers d’une consolidation de serveurs, étaient citées comme la raison n°1 pour migrer vers autre chose.

Weiss pense que la migration vers des processeurs x86 va s’accélérer à cause de l’avantage du coût du matériel. « Des architectures extensibles horizontalement ; le clustering ; le cloud computing ; la virtualisation sur x86, quand vous combinez toutes ces tendances, le système d’exploitation de choix tourne autour de Linux ou Windows », dit-il.

« Par exemple », déclare Weill, « dans l’annonce récente de Cisco de son architecture Unified Computing, vous avez dans un même équipement le réseau, le stockage, le calcul et la mémoire, et vous n’avez pas besoin d’Unix. Vous pouvez utiliser Linux ou Windows sur x86. Ainsi, Intel est en train de gagner la guerre pour le compte de Linux contre Unix ».

The Open Group, propriétaire des Single Unix Specification et organisme certificateur des systèmes Unix, concède peu à Linux, et déclare que Unix est le système de choix pour « le haut du panier en termes de fonctionnalités, montée en charge et performance pour des applications critiques ». Linux, dit-il, tend à être le standard pour les applications plus simples, moins critiques.

Korn, de AT&T, est parmi ceux qui pensent que Unix a encore un bel avenir. Korn dit que la force d’Unix pendant toutes ces années, depuis l’ajout des pipes en 1973, est qu’il peut facilement être éclaté en petits bouts et distribué. Ceci va pousser Unix en avant, dit-il. « La philosophie (du pipeline) fonctionne bien avec le cloud computing, dans lequel vous construisez des petits morceaux réutilisables plutôt qu’une grosse application monolithique ».

L’héritage d’Unix

Quel que soit le sort final d’Unix, le système d’exploitation né dans les Laboratoires Bell il y a 40 ans a établi un héritage qui risque de durer encore quelques dizaines d’années. Il peut revendiquer la paternité d’une longue liste de logiciels populaires, incluant l’offre Unix de IBM, HP, Sun, Apple Mac OS X et Linux. Il a également influencé des systèmes qui ont leurs racines dans Unix, comme Microsoft Windows NT et les versions IBM et Microsoft de DOS.

Unix a permis à de nombreuses entreprises qui démarraient de réussir, en leur offrant une plateforme peu onéreuse sur laquelle construire. C’était une des briques de base pour la construction d’Internet, et il fait partie du cœur des systèmes de télécommunications aujourd’hui. Il a engendré de nombreux concepts d’architecture, comme l’utilisation du pipeline, et le dérivé de Unix, Mach, a contribué énormément à l’informatique scientifique, distribuée et multiprocesseurs.

C’est peut-être l’ACM qui l’a mieux énoncé en 1983 dans sa citation du prix Turing en l’honneur de Thompson et Ritchie sur leur travail sur Unix : « Le génie du système Unix est dans sa structure, qui permet aux programmeurs de bâtir sur le travail des autres ».

Notes

[1] Crédit photos : 1. Rudolf Schuba (Creative Commons By) / 2. Hoshie (Domaine Public) / 3. Eraserhead1 et Infinity0 (Creative Commons By-Sa)




Mésentente cordiale entre Stallman et le Parti Pirate suédois sur le logiciel libre

Mecredis - CC byPourquoi les propositions du Parti Pirate suédois sont paradoxalement susceptibles de se retourner contre le logiciel libre ?

C’est ce que nous relate Richard Stallman[1] dans un récent article traduit pas nos soins, où l’on s’apercevra que la réduction du copyright et la mise dans le domaine public ont peut-être plus d’inconvénients que d’avantages lorsqu’il s’agit du cas très particulier des logiciels libres.

Remarque : Cette traduction vous est proposée par Framalang dans le cadre d’une collaboration avec l’April (dont Cédric Corazza a assuré la relecture finale).

Pourquoi les propositions du Parti Pirate suédois se retournent contre le logiciel libre

How the Swedish Pirate Party Platform Backfires on Free Software
URL d’origine de la traduction

Richard Stallman – 24 juillet 2009 – GNU.org
(Traduction Framalang : Don Rico, Goofy et aKa)

La campagne de harcèlement à laquelle se livre l’industrie du copyright en Suède a conduit à la création du premier parti politique dont le programme vise à réduire les restrictions dues au copyright : le Parti Pirate. Parmi ses propositions, on trouve l’interdiction des DRM, la légalisation du partage à but non lucratif d’œuvres culturelles, et la réduction à une durée de cinq ans du copyright pour une utilisation commerciale. Cinq ans après sa publication, toute œuvre publiée passerait dans le domaine public.

Dans l’ensemble, je suis favorable à ces changements, mais l’ironie de la chose, c’est que ce choix particulier effectué par le Parti Pirate aurait un effet néfaste sur le logiciel libre. Je suis convaincu qu’ils n’avaient nulle intention de nuire au logiciel libre, mais c’est pourtant ce qui se produirait.

En effet, la GNU General Public License (NdT : ou licence GPL) et d’autres licences copyleft se servent du copyright pour défendre la liberté de tous les utilisateurs. La GPL permet à chacun de publier des programmes modifiés, mais à condition de garder la même licence. La redistribution d’un programme qui n’aurait pas été modifié doit elle aussi conserver la même licence. Et tous ceux qui redistribuent doivent donner aux utilisateurs l’accès au code source du logiciel.

Pourquoi les propositions du Parti Pirate suédois affecteraient-elles un logiciel libre placé sous copyleft ? Au bout de cinq ans, son code source passerait dans le domaine public, et les développeurs de logiciel privateur pourraient alors l’inclure dans leurs programmes. Mais qu’en est-il du cas inverse ?

Le logiciel privateur est soumis à des CLUF, pas seulement au copyright, et les utilisateurs n’en ont pas le code source. Même si le copyright permet le partage à but non commercial, il se peut que les CLUF, eux, l’interdisent. Qui plus est, les utilisateurs, n’ayant pas accès au code source, ne contrôlent pas les actions du programme lorsqu’ils l’exécutent. Exécuter un de ces programmes revient à abandonner votre liberté et à donner au développeur du pouvoir sur vous.

Que se passerait-il si le copyright de ce programme prenait fin au bout de cinq ans ? Cela n’obligerait en rien les développeurs à libérer le code source, et il y a fort à parier que la plupart ne le feront jamais. Les utilisateurs, que l’on privera toujours du code source, se verraient toujours dans l’impossibilité d’utiliser ce programme en toute liberté. Ce programme pourrait même contenir une « bombe à retardement » conçue pour empêcher son fonctionnement au bout de cinq ans, auquel cas les exemplaires passés dans le « domaine public » ne fonctionneraient tout simplement pas.

Ainsi, la proposition du Parti Pirate donnerait aux développeurs de logiciels privateurs la jouissance du code source protégé par la GPL, après cinq ans, mais elle ne permettrait pas aux développeurs de logiciel libre d’utiliser du code propriétaire, ni après cinq ans, ni même cinquante. Le monde du Libre ne récolterait donc que les inconvénients et aucun avantage. La différence entre code source et code objet, ainsi que la pratique des CLUF, permettraient bel et bien au logiciel privateur de déroger à la règle générale du copyright de cinq ans, ce dont ne pourrait profiter le logiciel libre.

Nous nous servons aussi du copyright pour atténuer en partie le danger que représentent les brevets logiciels. Nous ne pouvons en protéger complètement nos programmes, nul programme n’est à l’abri des brevets logiciels dans un pays où ils sont autorisés, mais au moins nous empêchons qu’on les utilise pour rendre le programme non-libre. Le Parti Pirate propose d’abolir les brevets logiciels, et si cela se produisait, ce problème ne se poserait plus. Mais en attendant, nous ne devons pas perdre notre seul moyen de protection contre les brevets.

Aussitôt après que le Parti Pirate a annoncé ses propositions, les développeurs de logiciel libre ont décelé cet effet secondaire et proposé qu’on établisse une règle à part pour le logiciel libre : on allongerait la durée du copyright pour le logiciel libre, de sorte que l’on puisse le garder sous licence copyleft. Cette exception explicite accordée au logiciel libre contrebalancerait l’exception de fait dont bénéficierait le logiciel privateur. Dix ans devraient suffire, à mon sens. Toutefois, cette proposition s’est heurtée à une forte résistance des dirigeants du Parti Pirate, qui refusent de faire un cas particulier en allongeant la durée du copyright.

Je pourrais approuver une loi par laquelle le code source d’un logiciel placé sous licence GPL passerait dans le domaine public au bout de cinq ans, à condition que cette loi ait le même effet sur le code source des logiciels privateurs. Car le copyleft n’est qu’un moyen pour atteindre une fin (la liberté de l’utilisateur), et pas une fin en soi. En outre, j’aimerais autant ne pas me faire le chantre d’un copyright plus fort.

J’ai donc proposé que le programme du Parti Pirate exige que le code source des logiciels privateurs soit déposé en main tierce dès la publication des binaires. Ce code source serait ensuite placé dans le domaine public au bout de cinq ans. Au lieu d’accorder au logiciel libre une exception officielle à la règle des cinq ans de copyright, ce système éliminerait l’exception officieuse dont bénéficierait le logiciel privateur. D’un côté comme de l’autre, le résultat est équitable.

Un partisan du Parti Pirate a proposé une variante plus large de ma première suggestion : une règle générale selon laquelle le copyright serait allongé à mesure que l’on accorde plus de liberté au public dans l’utilisation du programme. Cette solution présente l’avantage d’insérer le logiciel libre dans un mouvement collectif de copyright à durée variable au lieu de n’en faire qu’une exception isolée.

Je préfèrerais la solution de la main tierce, mais l’une ou l’autre de ces méthodes éviterait un retour de flamme, particulièrement nuisible au logiciel libre. Il existe sans doute d’autres solutions. Quoi qu’il en soit, le Parti Pirate suédois devrait éviter d’infliger un handicap à un mouvement spécifique lorsqu’il se propose de défendre la population contre les géants prédateurs.

Notes

[1] Crédit photo : Mecredis (Creative Commons By)




Projet Shtooka – Interview de Nicolas Vion

Cesarastudillo - CC byDans l’expression Rencontres Mondiales du Logiciel Libre, il y a le mot rencontre. Et c’est ainsi que nous avons fait connaissance avec Nicolas Vion, fondateur du fort intéressant Projet Shtooka qu’il nous a semblé judicieux de mettre en avant sur ce blog à la faveur de cette courte interview.

L’objectif du projet vise la création de matériel audio libre pour l’apprentissage des langues étrangères en mettant en place un ensemble de collections sonores de mots et expressions telle la base audio libre de mots français (cf démo en ligne) ainsi que les outils logiciels capables d’en tirer parti. Outre le français, on trouve aussi des corpus pour d’autres langues telles que le russe, l’ukrainien, le biélorusse, le wolof, le tchèque ou le chinois[1].

Un entretien réalisé par Emmanuel Poirier (alias LeBidibule) pour Framasoft.


Bonjour Nicolas, je vais te demander de te présenter.

Je m’appelle Nicolas Vion, je m’intéresse depuis quelques années aux langues slaves. Après une licence de russe, je suis actuellement en licence d’ukrainien et travaille comme développeur système. Je m’occupe du Projet Shtooka depuis son origine.

En quoi consiste ton projet ?

Le projet Shtooka consiste à enregistrer des collections audio libres de mots, d’expressions idiomatiques et d’éléments du langage avec des locuteurs natifs pour toutes les langues.

C’est aussi un ensemble de logiciels permettant d’enregistrer, d’organiser et d’exploiter ces collections. Cela permet, par exemple, d’ajouter l’audio dans des dictionnaires électroniques (les fichiers sont d’ores et déjà utilisés pour le Wiktionnaire), mais aussi de faciliter l’apprentissage du vocabulaire d’une langue étrangère en se faisant des fiches de vocabulaire audio à l’aide d’outils comme le Kit Shtooka (ou bientôt les SWAC Tools) et ainsi de réviser son vocabulaire à l’aide d’un baladeur MP3 ou Ogg Vorbis en baladodiffusion. Il est également possible de créer à partir de ces fiches de vocabulaire des activités pédagogiques au format JClic pour les plus petits…

Au delà de l’aspect pédagogique, ces collections représentent, à mon sens, un intérêt linguistiques et scientifique en regroupant en un ensemble cohérent un tel matériel audio qui, je pense, comptera à l’avenir.

Depuis quelque temps, le Projet Shtooka s’est monté en association, ce qui a permis au projet de s’agrandir un peu. Nous sommes aujourd’hui environ quatre personnes actives dans le projet, de plus cela va nous permettre de contacter différents organismes en tant qu’association.

Quelles est la différence entre le Kit Shtooka et les SWAC Tools ?

Le Kit Shtooka, qui est un ensemble de programmes pour Microsoft Windows (mais qui marche aussi sous GNU/Linux avec Wine), est en quelque sorte l’héritier du petit programme à l’origine du projet. Ce petit programme était une sorte de «bidouille» que j’avais écrit pour mes besoins personnels alors que je me trouvais en Russie, où les connexions Internet ne sont pas forcément bon marché. Aussi, j’ai trouvé un CD de Delphi et ai donc commencé à coder pour cet environnement.

Le Kit Shtooka est en fait issu d’une refonte de ce programme originel. Il est mûr et utilisable, l’ayant moi-même utilisé au cours de mes études de Russe, mais des limitations sont apparues liées au choix techniques initiaux… Il y a maintenant un an j’ai commencé un travail de ré-écriture du Kit Shtooka en C++ et utilisant des libraires standards telles que GTK+ et QT, ce qui permet une meilleure portabilité entre plate-formes et une plus grande modularité.

A l’heure actuelle, si le Kit Shtooka est pleinement utilisable, les SWAC Tools sont encore assez jeunes et d’utilisation plutôt difficile (NdR : il manque notamment le logiciel d’enregistrement, le logiciel exerciseur « Repeat ») mais devraient à terme remplacer les vieux outils. C’est en quelque sorte la nouvelle génération du Kit Shtooka.

Quand as-tu pensé à utiliser des licences libres pour vos productions et vos logiciels ?

A l’origine, je n’imaginais pas qu’il serait aussi facile d’enregistrer la prononciation d’autant de mots. Tout a commencé par intérêt personnel. Je faisais enregistrer la prononciation de mots russes par mes amis afin de me faciliter l’apprentissage du vocabulaire, sans penser à la licence de ces enregistrements.

Au bout d’un an, je me suis rendu compte que je disposais d’un corpus important (NdR : mais inutilisable pour le futur projet, faute d’accord avec les locuteurs de l’époque), et j’ai pensé faire une base de mots audio en français afin d’aider des professeurs de français FLE (Français Langue Étrangère), ou encore pour les étudiants en auto-apprentissage.

C’est au cours de ces enregistrements que j’ai amélioré la technique d’enregistrement (grâce à quelques modifications de l’interface, je pouvais désormais enregistrer plus de 1500 mots de suite sans me fatiguer). J’ai alors décidé de diffuser cette première collection qui regroupait plus de 7000 enregistrements sur une site Internet sous une licence libre (la Creative Commons By) et un ami m’a soufflé l’idée de faire une dépêche sur le site d’information LinuxFr.

Très vite, j’ai été contacté par Eric Streit qui était enthousiasmé par le projet et qui a rapidement enregistré une collection de mots russes avec sa femme originaire du Kazakhstan. Un ami chinois m’a également permis de réaliser le corpus chinois : le projet Shtooka était bel et bien lancé.

À mon sens, la licence libre s’imposait car c’était la seule façon de permettre la créativité. En effet, on ne peut imaginer soi-même toutes les applications possibles à partir d’une telle « matière première » sonore.

Enfin en voulant proposer mon outil d’enregistrement à des contributeurs du projet Wiktionnaire (entre autre Betsy Megas) j’ai eu à ré-écire cet outil, pour en faire un programme séparé, plus facile à utiliser. Cela m’a permis par la même occasion de formaliser la façon des stocker les informations sur les mots enregistrés et les locuteurs, et ai proposé l’adoption des « SWAC Metatags ». En effet, s’il est possible d’enregistrer dans les fichiers audio Ogg Vorbis des informations pour les collections musicales (nom de l’album, nom de la chanson, style de musique) les « SWAC Metatags » permettent de faire la même chose avec les collections linguistiques grâce à une quarantaine de champs d’information : nom du locuteur, sa langue maternelle, région d’origine…

Avez-vous eu beaucoup de retours jusqu’alors ?

Jusqu’à présent, les retours d’expérience ont été peu nombreux; mais je remercie les personnes, notamment les professeurs de Langues Vivantes qui ont permis de faire évoluer le logiciel, et faire remonter les problèmes liés à la formation de l’outil.

Il est vrai que l’outil a été plus pensé pour des apprenants autonomes que pour des professeurs. Les RMLL 2009 ont d’ailleurs été l’occasion de rencontrer des gens d’autres projets qui utilisent nos collections. Nous avons également pris contact avec des libristes marocains qui ont l’intention de développer le Projet Shtooka dans leur pays (nous avons d’ailleurs pu enregistrer avec eux une petite collection de mots arabes durant les RMLL).

Quelles sont les aides que l’on peut vous apporter si l’on souhaite participer au projet ?

Les aides sont les bienvenues !

Tout d’abord, si l’on a des compétences pour une langue en particulier, il est possible de créer des listes de mots et expressions qui serviront lors de sessions d’enregistrements avec un locuteur natif. Pour cela il suffit de rassembler les éléments à enregistrer dans un simple fichier texte. Pour ce travail il faut quand même avoir une bonne connaissance de la langue en question : par exemple, pour le corpus français, se pose la question : faut-il prononcer les substantifs avec ou sans article ? Si oui, lesquels : définis ou indéfinis ? Pour d’autres langues se pose le problème des déclinaisons, du déplacement des accents toniques, des mutations, ou encore des cas d’homographie… Ce travail préparatoire peut être fait par un professeur, mais aussi par un apprenant.


Ensuite vous pouvez participer au projet en tant que « locuteur natif » de votre langue maternelle en enregistrant des mots ou expressions. Ceci-dit, il est important d’avoir un matériel d’enregistrement de qualité convenable, quelques connaissances sur la prise de son avec un ordinateur, et de disposer d’un endroit calme. Le logiciel d’enregistrement est très pratique et permet d’enregistrer plus de 1000 mots par heure. Ici, la communauté Shtooka peut aider (dans la mesure du possible) en trouvant le matériel, en organisant l’enregistrement…

Les professeurs de langues peuvent également nous aider en proposant des listes de vocabulaire bilingues organisées par thèmes ou par leçons, car en fait chaque collection audio est indépendante. De même, tous les travaux dérivés (exercices interactifs, imagiers pour les écoles primaires…) sont intéressants et bienvenus, et peuvent donner des idées pour compléter les collections audio.

Si vous êtes développeur C++ (ou autre) vous pouvez aider au développement des nos logiciels. Les développeurs Web et les graphistes peuvent nous donner un coup de main sur le site Internet…

Globalement, nous cherchons des aides ponctuelles mais aussi dans la durée. Il nous faudrait, par exemple, des personnes pour s’occuper du développement de telle ou telle langue (au passage, nous aurions besoin de quelqu’un qui puisse s’occuper de la collection espagnole), alors n’hésitez pas !

Notes

[1] Crédit photo : Cesarastudillo (Creative Commons By)




Firefox 3.5 en vidéo 3 minutes chrono

Ce n’est pas peu dire qu’on attend avec impatience la sortie officielle (et désormais imminente) de la première version stable 3.5 du célèbre navigateur qui a changé la face du Web !

Vous voulez savoir pourquoi ? Alors jetez un coup d’œil sur cette vidéo présentée par Mike Beltzner, le boss du développement Firefox chez Mozilla.

Cela dure moins de trois minutes, mais c’est normal puisqu’on vous dit que cette version est rapide, rapide…

Un sous-titrage collectif de toute l’équipe Framalang qui souhaitait marquer le coup et participer elle aussi à l’évènement 😉

What’s new in Firefox 3.5 ?

URL d’origine de la vidéo

—> La vidéo au format webm




Largage de liens en vrac #19

Silvio Tanaka - CC byCe n’est pas parce que les vacances approchent qu’il faut arrêter de farfouiller le Web à la recherche d’actualités logicielles intéressantes (ou supposées intéressantes).

Voici donc une sélection qui contrairement à beaucoup d’entre vous est loin d’être au régime.

Et n’oubliez jamais que « ebony and ivory live together in perfect harmony »[1].

  • Jake : Une application ambitieuse de synchronisation de documents (via le protocole XMPP). Le about tente d’expliquer en quoi c’est différent mais proche de SVN, CS, Git, Google Docs, Dropbox… (en gros la principale différence c’est qu’il n’y a plus de serveur central). I’m waiting for you dans les commentaires pour nous en dire plus (et mieux !).
  • Open Atrium : Basé sur Drupal, un ambitieux projet de « groupware réseau social ». Si vous connaissez, n’hésitez pas à partagez votre avis avec nous !
  • Hawkscope : Pour tout OS, une manière rapide d’accèder à votre disque dur via des menus popup dynamiques (en plus on peut paramétrer ses comptes Gmail, Delicious, Twitter, etc.).
  • Sugar on a stick : Sugar, l’interface de l’OLPC pensée pour l’éducation (théorie constructiviste) propose désormais une version portable. Ce qui fait dire à Technology Review que le PC à 100$ est aujourd’hui devenu une clé à 5$ !
  • MegaZine 3 : C’est encore du Flash mais ça pourra en intéresser quelques uns : c’est un logiciel de… pageflip ! Vous ne savez pas ce que c’est ? Moi non plus, enfin si cela permet de lire « agréablement » des livres ou des documents en ouvrant une fenêtre sur votre navigateur.
  • Open Melody : Un peu pris de vitesse par WordPress, le moteur de blog Movable Type libère lui aussi son code pour créer une communauté et plus si affinités.
  • TinyMCE : Peut-être le plus élégant (et le plus riche) des éditeur JavaScript WYSIWYG.
  • lilURL : Le clone libre de TinyURL (vous savez, ces réducteurs d’URL revenus sur le devant de la scène avec Twitter).
  • Open Source Designers : Un réseau social (Ning) de designers Open Source. Pas idiot de se regrouper ainsi.
  • Open Humanity : Nous aurons l’occasion d’en reparler. Pour le moment contentons-nous de ce résumé de Scoffoni : Open Humanity se situe « à mi-chemin entre un réseau social et un webOS ».
  • KeynoteTweet : Permet d’envoyer des tweets à partir du logiciel Apple Keynote dont les geeks se servent beaucoup en conférence. Vous arrivez au slide 23 et un message twitter est automatiquement envoyé à vos followers.
  • GDocBackup  : Utilise la techno Microsoft .NET mais c’est bien pratique si vous avec un compte Google Docs puisque cela permet de rapatrier sur votre disque dur tous vos fichiers d’un coup (typiquement le genre de fonctionnalités que Google ne propose pas exprès !)
  • The Pencil Project : C’est plus qu’une extension Firefox, c’est une véritable application intégrée pour faire des diagrammes et des prototypes d’interfaces utilisateur.. Là encore retours commentaires appréciés.
  • VideoSurf Videos at a Glance : Une extension Firefox plutôt pratique puisque cela permet de prévoir le contenu d’une vidéo (YouTube & co) à l’aide d’images fixes découpant la vidéo. Faut l’expérimenter pour mieux comprendre en fait !
  • Nuke Anything Enhanced : Et encore une extension Firefox, mais non des moindres ! Permet en effet de cacher temporairement ou durablement n’importe quel partie d’une page web. Ainsi par exemple je peux virer tout ce qui ne m’intéresse pas, pubs et autres, avant impression (cf vidéo démo sur LifeHacker).
  • Collections : Je ne connaissais pas (shame on me). Permet de compiler dans un seul pack tout plein d’extensions Firefox à installer d’un seul coup (top pratique surtout lorsque l’on change d’ordinateur). On vous explique ici comment faire. Des volontaires pour que Framasoft participe et vous propose aussi ses propres sélections ?
  • Recording music with Linux on an EEE PC : Toujours avec l’Eee Pc, que l’on transforme ici en parfait système pour la prise de son (par exemple pour partir jouer les reporter radio en herbe).
  • YouTube / Ogg/Theora comparison : YouTube va-t-il passer à Ogg Theora pour encoder ses videos (comme Dailymotion l’expériemente) ? Peut-être pas mais en attendant une petite comparaison qualité s’impose.
  • Library à la Carte : Joli titre et interface sexy. Un logiciel pour les bibliothécaires et les documentalistes. D’ailleurs si l’un d’entre vous passe par là…

Notes

[1] Crédit photo : Silvio Tanaka (Creative Commons By)




Le logiciel libre européen est-il politiquement de gauche ?

Celesteh - CC byL’April se félicite du succès rencontré par l’initiative du Pacte du Logiciel Libre au lendemain des élections européennes. Bravo pour la mobilisation, c’est effectivement une bonne nouvelle que d’avoir 34 députés issus de 7 pays différents signataires de ce Pacte (même si on pourra m’objecter que cela représente à peine 5% des 736 députés que totalise l’assemblée).

Mais c’est moins la quantité que la qualité des ces élus qui a retenu mon attention.

On dit souvent que le logiciel libre n’appartient à aucun parti ou courant politique. On dit également que le vieux clivage gauche-droite n’est plus forcément pertinent à l’aube de ce nouveau millénaire. On dit enfin que le mouvement écologiste ne doit pas (ou plus) être classé à gauche.

Il n’empêche que si vous regardez dans le détail la liste de ces 34 députes, vous serez peut-être comme moi frappé par la parenté commune de ces élus[1].

Le voici reproduit ci-dessous, accompagnés par des liens Wikipédia donnant de plus amples informations sur les partis auxquels ils appartiennent (j’y ai appris plein de choses personnellement) :

Au final, et à une exception britannique près, il n’y en a que pour « la gauche », prise au sens large (du centre-gauche, aux socialistes, en passant par les verts).

De là à en conclure qu’il n’y a que la gauche qui manifeste un intérêt assumé pour le logiciel libre en Europe, il n’y a qu’un pas que j’hésiterais cependant à franchir.

Et vous ?

Notes

[1] Crédit photo : Celesteh (Creative Commons By)