Geektionnerd : Le Windows nouveau est arrivé !

Une planche qui fait le lien entre cette étrange (et peu inspirée) campagne de publicité « Windows 7, c’était mon idée ! » pour la sortie du nouvel OS de Microsoft, et l’acte de vandalisme métropolitain de Noël que nous avions relaté précédemment.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




« Même pas mal ! » Le nouveau tee-shirt Framasoft signé L.L. de Mars

La seule consigne était d’illustrer notre slogan : « La route est longue, mais la voie est libre… ».

Je sais pas vous, mais moi, j’adore ! Merci L.L. de Mars 😉

Tee-shirt Framasoft 2010 - L.L. de Mars - Art Libre

C’est sous Licence Art Libre, of course (de haies) !

PS : Reste plus qu’à faire les tee-shirts et les inclure dans notre boutique EnVenteLibre.




La guerre du Web, par Tim O’Reilly

Phault - CC byUn article majeur de l’un des gourous de la Toile, qui met le doigt là où ça peut faire bientôt très mal.

Hubert Guillaud, nous le présente ainsi sur l’agrégateur Aaaliens :

« Tim O’Reilly revient sur la guerre du Web : entre Facebook qui ne transforme par les liens en hyperliens, Apple qui rejette certaines applications menaçant son coeur de métier… Tim O’reilly répète depuis longtemps qu’il y a deux modèles de systèmes d’exploitation de l’Internet : celui de « l’anneau pour les gouverner tous » et celui des « petites pièces jointes de manières lâche », le modèle Microsoft et le modèle Linux.

Allons-nous vers le prolongement du modèle du Web interopérable ? Ou nous dirigeons-nous vers une guerre pour le contrôle du Web ? Une guerre des plateformes (Google, Apple, Facebook…) ? Il est temps pour les développeurs de prendre position : si l’on ne veut pas rejouer la guerre des PC ou celle des navigateurs, il faut prendre fait et cause maintenant pour les systèmes ouverts ! »

La guerre du Web aura-t-elle lieu ?[1] La réponse dépend aussi de la capacité qu’aura « la communauté du Libre » à diffuser et défendre ses valeurs et ses idées.

On notera au passage un étonnante prédiction finale sur Microsoft, notre futur allié de circonstance !

La guerre du Web

The War For the Web

Tim O’Reilly – 16 novembre 2009 – O’Reilly Radar
(Traduction Framalang : Olivier Rosseler et Goofy)

Vendredi dernier, mon dernier message sur Twitter a également été publié automatiquement sur Facebook, comme d’habitude. À un détail près : le lien que contenait le message n’était plus actif, comme l’a remarqué Tom Scoville.

En fait, il est loin d’être le seul à l’avoir remarqué. Dès samedi matin, Mashable publiait un article à ce sujet : Facebook retire vos liens Twitter.

Si vous publiez des liens Web (Bit.ly, TinyURL) sur votre compte Twitter et que par le biais d’une application Twitter-Facebook vous les partagez également sur Facebook, ils perdent leur caractère d’hyperliens. Vos amis devront copier et coller l’adresse dans leur navigateur pour qu’ils fonctionnent.

Si Facebook tente d’améliorer son ergonomie, c’est une curieuse décision : il vaudrait mieux que ça soit juste un bogue, nous avons donc contacté Facebook pour en savoir plus. Toujours est-il que tout le site est affecté, et pas seulement vous.

Il se trouve que ce ne sont pas uniquement les liens postés depuis Twitter qui étaient affectés. Tous les liens externes ont été temporairement désactivés si les utilisateurs ne les avaient pas clairement ajoutés avec la fonction « Joindre ». Sur Facebook j’ai essayé de poster un lien direct vers ce blog dans mes nouveautés, mais le résultat est le même : les liens n’étaient plus automatiquement cliquables. Le premier lien de cet article renvoie à une image illustrant ma tentative.

Le problème a été rapidement résolu, les liens apparaissent à nouveau cliquables. On a dit que c’était un bogue, mais certains mettent évidemment cette explication en doute, surtout compte tenu des efforts de plus en plus visibles de Facebook pour prévenir les gens qu’ils quittent Facebook pour se rendre sur le grand méchant Internet.

Tout cela part d’un bon sentiment, je n’en doute pas. Après tout, Facebook met en place un meilleur contrôle de la vie privée, pour que les utilisateurs puissent mieux gérer la visibilité de leurs informations et la visibilité universelle qui fait loi sur le Web n’est pas forcément la mieux adaptée aux informations postées sur Facebook. Mais ne nous voilons pas la face : Facebook est un nouveau type de site Web (ou une ancienne version largement reliftée), un monde à part, avec ses propres règles.

Mais ça ne concerne pas que Facebook.

L’iPhone d’Apple est l’appareil connecté le plus à la mode et, comme Facebook, même s’il est connecté au Web, il joue avec ses propres règles. N’importe qui peut créer un site Web ou offrir une nouvelle application pour Windows, Mac OS X ou Linux, sans demander la permission à qui que ce soit. Vous voulez publier une application pour iPhone ? Il vous faudra obtenir l’approbation d’Apple.

Mais il y a une lacune flagrante : n’importe qui peut créer une application Web et les utilisateurs peuvent y accéder depuis leur téléphone. Mais ces applications connaissent des limitations : toutes les fonctionnalités du téléphone ne leur sont pas accessibles. HTML5 aura beau innover autant qu’il veut, les fonctionnalités principales du téléphone resteront hors de portée de ces applications sans la permission d’Apple. Et si l’on s’en réfère à l’interdiction de Google Voice sur iPhone il y a quelques temps, Apple n’hésite pas à interdire les applications qui menacent leur cœur d’activité et celui de ses partenaires.

Et ce n’est pas tout, une autre salve a été tirée contre les règles tacites d’interopérabilité du Web : Rupert Murdoch menace de retirer le Wall Street Journal de l’index de Google. Même si, de l’avis général, ce serait du suicide pour le journal, des voix contraires s’élèvent pour insister sur l’influence qu’à Murdoch. Pour Mark Cuban, Twitter a maintenant dépassé les moteurs de recherche pour ce qui est des informations en temps réel. Jason Calacanis va même plus loin, quelques semaines avant les menaces de Murdoch, il suggérait déjà que pour porter un gros coup à Google il faudrait que tous les groupes de radio/presse/télévision devraient bloquer Google et négocier un accord d’exclusivité avec Bing pour ne plus apparaître que dans l’index de Microsoft.

Évidemment, Google n’encaisserait pas sans broncher et signerait également des accords de son côté, on assisterait alors à une confrontation qui ferait passer la guerre des navigateurs des années 90 pour une petite bagarre de cours d’école.

Je ne suis pas en train de dire que News Corp et les autres groupes d’information devraient adopter la stratégie prônée par Jason, ni même qu’elle fonctionnerait, mais je vois une se profiler une période de concurrence meurtrière qui pourrait être très néfaste à l’interopérabilité du Web telle que nous la connaissons aujourd’hui.

Si vous suivez mes commentaires sur le Web 2.0 depuis le début, vous savez que je pense que nous sommes engagés dans un projet à long terme dont la finalité est le système d’exploitation Internet (jetez un œil au programme de la O’Reilly Emerging Technology Conference de 2002 (pdf)). Je soutiens depuis des années qu’il y a deux modèles de systèmes d’exploitation, que je décris comme "Un anneau pour les gouverner tous" et "Des petits morceaux faiblement coordonnés", ce dernier étant illustré par une carte d’Internet.

Dans le premier : malheur au vaincu, c’est le monde que nous avons connu avec Microsoft Windows et le PC, un monde où priment la simplicité et l’accessibilité, mais où le choix de l’utilisateur et du développeur sont réduits au bon vouloir du fournisseur de système d’exploitation.

Le second est une système d’exploitation qui fonctionne comme Internet lui-même, comme le Web et comme les systèmes d’exploitation Open Source comme Linux : un monde certes moins raffiné, moins contrôlé, mais un monde qui est par essence novateur car chacun peut apporter ses idées sans avoir à demander la permission à qui que ce soit.

J’ai déjà expliqué les tentatives des grands pontes comme Facebook, Apple et News Corp de grignoter le modèle « des petits morceaux faiblement coordonnés » de l’Internet. Mais peut-être que le plus grand danger réside dans les monopoles qu’a engendré l’effet réseau du Web 2.0.

Je ne cesse de répéter, à propos du Web 2.0, qu’il s’appuie sur un système auto-entretenu : plus il y a d’utilisateurs, plus l’expérience est intéressante. C’est un système qui tend naturellement vers des monopoles.

Nous nous sommes donc habitués à un monde où un seul moteur de recherche domine, où une seule encyclopédie en ligne domine, un seul cyber-marchand, un seul site d’enchères, un seul site de petites annonces dominent, et nous avons été préparés à un monde où un seul réseau social dominera.

Mais qu’advient-il lorsqu’une de ces entreprises, profitant de son monopole naturel, tente de dominer une activité connexe ? C’est avec admiration et inquiétude que j’ai observé Google utiliser sa mainmise sur la recherche pour tenter d’étendre son emprise sur d’autres activités concentrées sur les données. Le service qui m’a mis la puce à l’oreille était la reconnaissance vocale, mais c’est vraiment les services de géolocalisation qui ont eu le plus gros impact.

Il y a de cela quelques semaines, Google a lancé une application de navigation GPS gratuite pour les téléphones Android. Pour les clients c’est génial puisque auparavant ils devaient opter pour un GPS dédié ou des applications pour iPhone hors de prix. Mais il faut aussi y voir la compétitivité que le Web a acquise et la puissance que Google a gagnée en comprenant que les données sont le nouveau "Intel Inside" de la nouvelle génération d’applications pour ordinateurs.

Nokia a allongé 8 milliards de dollars pour NavTeq, leader de la navigation routière. Le fabricant de GPS TomTom a quant à lui payé 3,7 milliards de dollars pour TeleAtlas, numéro deux du secteur. Google développe un service équivalent dans son coin pour finalement l’offrir gratuitement… mais à ses seuls partenaires. Tous les autres doivent encore payer de lourdes redevances à NavTeq et TeleAtlas. Google va même plus loin puisqu’il y ajoute ses propres services, comme Street View.

Mais surtout, les camps sont maintenant bien établis entre Apple et Google (ne ratez pas l’analyse de Bill Gurley à ce sujet). Apple domine l’accès au Web mobile avec son appareil, Google contrôle l’accès à l’une des applications mobiles les plus importantes et limite son accès gratuit aux seuls terminaux Android pour l’instant. Google ne fait pas des merveilles que dans le domaine de la recherche, mais aussi en cartographie, en reconnaissance vocale, en traduction automatique et dans d’autres domaines adossés à des bases de données intelligentes phénoménales que seuls quelques fournisseurs peuvent s’offrir. Microsoft et Nokia disposent également de ces atouts, mais eux aussi sont en concurrence directe avec Apple et, contrairement à Google, leur économie repose sur la monétisation de ces atouts, pas sur la gratuité du service.

Il se peut qu’ils trouvent un moyen de co-exister pacifiquement, et dans ce cas nous pourrions continuer à jouir du Web interopérable que nous connaissons depuis deux décennies. Mais je parierais plutôt sur l’effusion de sang. Nous sommes à la veille d’une guerre pour le contrôle du Web. Au fond, c’est même plus que ça, c’est une guerre contre le Web en tant que plateforme interopérable. Nous nous dirigeons plutôt vers la plateforme Facebook, la plateforme Apple, la plateforme Google, la plateforme Amazon, les grandes entreprises s’étripant jusqu’à ce qu’il n’en reste plus qu’une.

C’est maintenant au développeur de s’affirmer. Si vous ne voulez pas voir l’histoire se répéter comme pour les PC, pariez sur les systèmes ouverts. N’attendez pas qu’il soit trop tard.

PS : Une prédiction : Microsoft sera le grand défenseur du Web ouvert, encourageant l’interopérabilité des services Web, tout comme IBM est devenu l’entreprise soutenant le plus Linux.

Je parlerai de ce sujet lors de mon discours d’introduction à la Web 2.0 Expo à New York mardi. J’espère vous y rencontrer.

Notes

[1] Crédit photo : Phault (Creative Commons By)




Devenir chasseur de primes pour la FSF (en débusquant du code non libre)

FSF - GNU BuckPeut-être ignoriez-vous que la Free Software Foundation (FSF) maintient une liste de ce qu’elle considère selon ses propres critères comme des distributions GNU/Linux libres.

Ses critères sont stricts, voire drastiques. Rares sont celles qui ont passé l’examen avec succès. Ubuntu, Fedora, Mandriva, openSUSE… les plus connus des distributions grand public n’en font pas partie ! Même Debian n’y est pas, c’est vous dire !

L’idée, me semble-t-il, n’est pas de désigner ces distributions comme le mal absolu, en nous invitant à nous en détourner, mais plutôt, en alertant ainsi publiquement l’opinion, d’inciter les développeurs à ne plus inclure du code non libre dans leurs distributions (que cette inclusion soit effective ou potentielle).

Et pour garantir que ces distributions soient bien libres et surtout le demeurent, la FSF vient d’annoncer une originale campagne visant à récompenser toute personne qui trouverait du code non libre accidentellement inclus dans les distributions de la fameuse liste.

Une campagne qui se veut pragmatique mais non dénuée d’un certain humour hacker.

FSF Gnu Bucks

FSF announces new bounty program, offering "GNU Bucks" for finding nonfree works in free distributions

Communiqué de presse – 1 octobre – FSF.org
(Traduction Framalang : Quentin et Claude)

La Free Software Foundation annonce un nouveau programme de récompenses, en offrant des « GNU Bucks » à toute personne qui découvrirait des travaux non libres dans les distributions libres.

BOSTON, Massachussets, USA, Jeudi 1er Octobre 2009. La Free Software Foundation (FSF) a annoncé aujourd’hui qu’elle allait récompenser, d’une reconnaissance publique accompagnée d’une rémunération honorifique en « GNU Buck », ceux qui débusqueraient des composants non-libres contenus dans les distributions de systèmes d’exploitation libres. La FSF tient une liste de directives définissant ce qui, selon elle, est une distribution libre, et approuve les distributions qui s’engagent à suivre ces directives.

« En incitant les utilisateurs à trouver et à rapporter les problèmes, ce nouveau programme de récompenses aidera à s’assurer que les distributions GNU/Linux approuvées par la FSF demeurent réellement libres », dit Peter Brown le directeur exécutif de la FSF.

« Depuis que nous avons publié les directives nécessaires pour être une distribution libre, nous avons cherché des solutions pratiques pour nous assurer que des composants non libres n’étaient pas inclus accidentellement dans ces distributions (dans la mesure de nos moyens et de ceux des responsables de distribution). Cette nouvelle initiative est un bon moyen de participer à la recherche de ces composants. » dit Brett Smith, l’ingénieur en charge de la conformité des licences pour la FSF.

Les personnes retenues pour les récompenses recevront des billets « GNU Buck », d’un montant égal au nombre Pi et signé par Richard Stallman, le président de la Free Software Foundation et « Chef de la GNUisance ».

Pour avoir droit à une récompense GNU Buck, la personne doit initialement envoyer à la FSF et aux responsables de la distribution, un rapport détaillé concernant l’élément non libre trouvé. Si ce rapport est confirmé, la personne recevra sa récompense et l’option d’une reconnaissance publique. La FSF avertira alors les autres distributions libres impactées pour s’assurer qu’elles traitent également du problème.

Ces récompenses s’inscrivent dans la tradition des chèques que le légendaire ingénieur informatique Donald Knuth envoyait à ceux qui trouvaient des erreurs dans son livre phare The Art of Computer Programming. Recevoir un chèque de Donald Knuth était un tel honneur qu’il était la plupart du temps affiché sur les murs du bureau et non encaissé. (Knuth a arrêté d’envoyer des chèques en 2008 pour cause de fraude.)

À propos de la Free Software Foundation

La Fondation pour le Logiciel Libre, fondée en 1985, est dédiée à la promotion des droits des utilisateurs d’ordinateurs à utiliser, copier, modifier et redistribuer les programmes informatiques. La FSF encourage le développement et l’emploi de logiciels libres, particulièrement du système d’exploitation GNU et de ses variantes et de la documentation libre pour le logiciel libre. La FSF renforce également la sensibilisation autour des problèmes éthiques et politiques de la liberté dans l’usage des logiciels.

Son site Internet, http://www.fsf.org/, est une importante source d’information sur GNU/Linux. Des contributions pour soutenir son travail peuvent être faites à http://donate.fsf.org/. Son siège est à Boston, MA, USA.

À propos du Logiciel Libre et de l’Open Source

Le mouvement du logiciel libre a pour but la liberté des utilisateurs. Certains, plus spécialement des sociétés, soutiennent un point de vue différent, connu sous le nom d‘open source, qui évoquent seulement les buts pratiques comme construire un logiciel solide et sûr, se concentrant sur les modèles de développement, et évitant les discussions d’éthiques et de liberté. Ces deux points de vue sont profondément différents.

Pour en savoir plus : http://www.gnu.org/philosophy/open-source-misses-the-point.html.

À propos du système d’exploitation GNU et de Linux

Richard Stallman annonça en Septembre 1983 le projet de développer un logiciel libre semblable au système d’exploitation Unix qui s’appelerait GNU. GNU est le seul système d’exploitation développé spécifiquement pour la liberté des utilisateurs.

Pour en savoir plus : http://www.gnu.org/gnu/the-gnu-project.html.

En 1992, les composants de GNU étaient complets, à une expression près : le noyau. Quand en 1992, le noyau Linux a été re-publié sous GNU GPL, faisant de lui un logiciel libre, la combinaison de GNU et de Linux a formé un système d’exploitation complètement libre, qui donnait la possibilité pour la première fois de faire tourner un PC sans logiciel non-libre. Leur combinaison est le système d’exploitation GNU/Linux.

Pour en savoir plus : http://www.gnu.org/gnu/gnu-linux-faq.html.




Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire

Rudolf Schuba - CC bySéquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Daria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard dans les communications de l’ACM (CACM), le journal de l’Association for Computer Machinery. « Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité d’utilisation ».

Apparemment ils y sont arrivés. Unix va évoluer pour devenir une pierre angulaire de l’informatique, largement installé sur les serveurs et les postes de travail dans les universités, les gouvernements et les entreprises. Et son influence s’est étendue bien au-delà de ses déploiements, comme l’a noté l’ACM en 1983, lorsqu’ils ont attribué leur prix le plus élevé à Thompson et Ritchie, le A.M. Turing Award pour leur contribution à l’informatique : « Le modèle du système Unix a conduit une génération de concepteurs logiciels à repenser leur manière de programmer ».

Les premiers pas

Bien sûr, le succès d’Unix n’est pas arrivé d’un coup. En 1971, il a été porté sur le mini-ordinateur PDP-11, une plateforme plus puissante que le PDP-7 pour laquelle il avait été écrit à l’origine. Des programmes d’édition et de formatage de texte ont été ajoutés, et il a été déployé pour quelques dactylos du département des Brevets des Bell Labs, ses premiers utilisateurs en dehors de l’équipe de développement.

En 1972, Ritchie écrivait le langage de programmation de haut-niveau C (basé sur un langage précédent de Thompson, le B) ; suite à cela, Thompson réécrivit Unix en C, ce qui permit d’améliorer la portabilité de l’OS sur différents environnements. En cours de chemin, il acquit le nom de Unics (Uniplexed Information and Computing Services), un jeu de mots sur Multics ; l’orthographe se transforma rapidement en Unix.

Il était temps d’envahir le monde. L’article de Ritchie et Thompson de Juillet 1974 dans le CACM, « Le système temps-partagé UNIX », prit le monde de l’informatique dans un ouragan. Jusqu’alors, Unix avait été confiné à une poignée d’utilisateurs dans les Laboratoires Bell. Mais maintenant, avec l’Association for Computing Machinery derrière lui, un éditeur l’ayant qualifié comme étant élégant, Unix était à un moment crucial.

« L’article du CACM avait eu un impact très fort », raconte l’historien de l’informatique Peter Salus dans son livre The Daemon, the Gnu and the Penguin (NdT : Le démon, le Gnou et le manchot). « Peu de temps après, Ken était assailli de demandes concernant Unix ».

Un paradis pour les hackers

Thompson et Ritchie étaient des hackers accomplis, quand ce terme désignait quelqu’un qui combinait une créativité hors pair, une intelligence à toute épreuve et de l’huile de coude pour résoudre des problèmes logiciels que l’on a peine à imaginer.

Leur approche, et le code qu’ils avaient écrit, étaient attractifs pour les programmeurs des universités, et plus tard pour des entreprises qui démarraient sans les méga budgets de IBM, Hewlett-Packard ou Microsoft. Unix était tout ce dont les autres hackers, comme Bill Joy à l’Université de Californie, Rick Rashid à l’Université Carnegie Mellon et David Korn plus tard aux Laboratoires Bell avaient rêvé.

« Presque depuis le début, le système était capable de se maintenir seul, et il l’avait prouvé », écrivaient Thompson et Ritchie dans l’article du CACM. « Comme tous les programmes sources étaient toujours disponibles et facilement modifiables en ligne, nous étions volontaires pour réviser et modifier le système et ses logiciels lorsque de nouvelles idées étaient inventées, découvertes ou suggérées par d’autres ».

Korn, maintenant membre d’AT&T, travaillait comme programmeur aux Bell Labs dans les années 1970. « L’une des caractéristiques de Unix était que des outils pouvaient être écrits, et de meilleurs outils pouvaient les remplacer », se souvient-il. « Ce n’était pas un monolithe dans lequel il fallait tout approuver ; vous pouviez en fait développer de meilleures versions ». Il a développé l’influent Korn shell, un langage de programmation permettant d’interagir directement avec Unix, maintenant disponible en open source.

Salus, auteur et historien des technologies, se souvient de son travail avec le langage de programmation APL sur un mainframe IBM tournant sous System/360, en tant que professeur à l’Université de Toronto dans les années 1970. Mais le lendemain de Noël 1978, un ami à l’Université de Colombia lui fit une démonstration de Unix, tournant sur un mini-ordinateur. « Je me suis exclamé : Oh mon Dieu !, et j’étais totalement converti », raconte Salus.

Il dit que pour lui, l’un des avantages clés de Unix était la fonctionnalité pipe, introduite en 1973, qui rendait facile le passage de données d’un programme à l’autre. Le concept de pipeline, inventé par McIlroy des Bell Labs, fut par la suite copié dans de nombreux OS, parmi lesquels les variantes d’Unix, Linux, DOS et Windows.

Un autre avantage de Unix, le deuxième effet Wooow, comme le dit Salus, était qu’il n’avait pas besoin d’un mainframe d’un demi-million de dollars pour tourner. Il avait été écrit sur le petit mini-ordinateur DEC PDP-7, assez primitif, car c’était tout ce que Thompson et Ritchie avaient sous la main en 1969. « Le PDP-7 était presque incapable de quoi que ce soit », se souvient Salus. « J’étais scotché ».

Pas mal de monde a également été rendu accro. Les chercheurs des universités ont adopté Unix car il était assez simple et facilement modifiable, ne demandait pas beaucoup de ressources, et le code source était libre pour une bonne partie. Des startups comme Sun Microsystems et un ensemble d’entreprises maintenant défuntes qui se spécialisaient dans l’informatique scientifique, comme Multiflow Computer, en ont fait leur système d’exploitation de choix pour les mêmes raisons.

La progéniture d’Unix

Unix a grandi comme un système non-propriétaire car en 1956 AT&T avait été enjoint par une décret fédéral à ne pas s’écarter de sa mission de production de service téléphonique. Il pouvait développer du logiciel, et même le licencier pour un tarif raisonnable, mais l’entreprise ne pouvait pas entrer sur le marché de l’informatique.

Unix, qui avait été développé sans encouragement du management, avait d’abord été vu par AT&T comme quelque chose entre une curiosité et un casse-tête légal.

C’est à ce moment là, à la fin des années 1970, AT&t a réalisé qu’ils avaient quelque chose de commercialement intéressant en main. Ses avocats ont commencé à adopter une interprétation plus favorable de l’ordonnance de 1956, comme ils cherchaient des manières de protéger Unix comme un secret de fabrication. A partir de 1979, avec la sortie de la Version 7, les licences Unix interdisaient aux universités d’utiliser le code source Unix pour l’étudier pendant leurs cours.

Pas de problème, se dit alors le professeur d’informatique Andrew Tanenbaum, qui avait utilisé Unix V6 à l’Université Vrije à Amsterdam. En 1987, il écrivit un clone de Unix pour utiliser lors de ses cours, en créant le système d’exploitation open source Minix, qui tournait sur un microprocesseur Intel 80286.

« Minix comprenait toutes les idées d’Unix, et c’était un travail brillant », raconte Salus. « Seul un programmeur majeur, quelqu’un qui comprenait en profondeur les mécanismes internes d’un système d’exploitation, pouvait faire cela ». Minix allait devenir le point de départ pour la création de Linux par Linus Torvalds en 1991. Si ce n’était pas exactement un clone d’Unix, il s’agissait à n’en pas douter d’un Unix-like.

En reculant d’une décade ou à peu près, Bill Joy, qui était un étudiant diplômé et programmeur à l’Université de Californie de Berkeley dans les années 1970, mit la main sur une copie de l’Unix des Laboratoires Bell, et il pensa que c’était une bonne plateforme pour son propre travail sur un compilateur Pascal et un éditeur de texte.

Les modifications et extensions que lui et d’autres firent à Berkeley ont résulté dans la seconde branche majeure de Unix, appelée Berkeley Software Distribution (BSD) Unix. En mars 1978, Joy envoyait des copies de 1BSD, vendues 50$.

Ainsi en 1980 il y avait deux lignes majeures de Unix, l’une de Berkeley et l’autre de AT&T, et la scène était montée pour ce qui allait devenir la Guerre des Unix. La bonne nouvelle était que les développeurs de logiciels pouvaient avoir accès de partout au code source Unix, et l’adapter à leurs besoins et caprices. La mauvaise nouvelle c’est qu’ils firent exactement cela. Unix a proliféré, et les variantes ont divergé.

En 1982, Joy a contribué à fonder Sun Microsystems et offrait une station de travail, la Sun-1, qui utilisait une version de BSD appelée SunOS. (Solaris allait apparaitre environ 10 ans plus tard). L’année suivante, AT&T a sorti la première version de Unix System V, un système d’exploitation qui a eu une influence énorme et qui fut la base de IBM AIX et Hewlett-Packard HP-UX.

Les Guerres Unix

Unix History - Eraserhead1 et Infinity0 - CC by-saAu milieu des années 80, les utilisateurs, y compris le gouvernement fédéral, se sont plaints que si en théorie Unix était un système d’exploitation unique et portable, en fait on en était loin. Les éditeurs faisaient semblant d’adhérer à cette réclamation, mais travaillaient jour et nuit pour enfermer les clients avec des fonctionnalités et API uniques à leur Unix.

En 1987, Unix System Laboratories, qui faisait partie des Laboratoires Bell à cette époque, commença à travailler avec Sun sur un système qui pourrait unifier les deux branches majeures de Unix. Le produit de leur collaboration, appelé Unix System V Release 4.0, fut sorti deux ans plus tard, et combinait des fonctionnalités de System V Release 3, BSD, SunOS et du Xenix de Microsoft.

Les autres éditeurs Unix craignaient l’alliance AT&T/Sun. Les diverses parties ont formé des organismes standards concurrents, qui portaient des noms tels que X/Open, Open Software Foundation (ou OSF), Unix International et Corporation for Open Systems. Les arguments, contre-arguments et réussites de ces groupes pourraient remplir un livre, mais ils clamaient tous leur désir d’un Unix unifié, tout en se tirant dessus les uns les autres.

Dans un article écrit en 1988, mais non publié, pour la DARPA (Defense Advanced Research Projects Agency) (NdT : Agence pour les Projets de Recherche Avancée de la Défense), le pionnier des mini-ordinateurs Gordon Bell disait ceci de la toute nouvelle Open Software Foundation, qui incluait IBM, HP, DEC et d’autres, alliés contre le partenariat AT&T/Sun : « OSF est une manière pour ceux qui n’ont pas d’Unix d’entrer sur ce marché en devenir, tout en maintenant leur musées de code à hautes marges ».

Les Guerres Unix n’ont pas réussi à calmer les différences ou à créer un réel standard pour le système d’exploitation. Mais en 1993, la communauté Unix était réveillée par Microsoft, sous la forme de Windows NT, un système d’exploitation 32 bits utilisable en entreprise. Ce NT propriétaire visait directement Unix, et devait étendre l’hégémonie de Microsoft sur l’ordinateur de bureau aux centres serveurs et endroits similaires, tenus principalement par les serveurs Sun et autres.

Les utilisateurs Microsoft ont applaudi. Les fournisseurs Unix ont paniqué. Tous les principaux rivaux des Unix majeurs se sont réunis dans une initiative appelé Common Open Software Environnement (NdT : Environnement Logiciel Ouvert Commun), et l’année suivante ont plus ou moins déposé les armes en mixant le groupe Unix International, appuyé par AT&T/Sun avec l’Open Software Foundation. Cette coalition a évolué dans l’actuel The Open Group, organisme certificateur des systèmes Unix, et propriétaire de Single Unix Specification (SUS), maintenant la définition officielle de « Unix ».

D’un point de vue pratique, ces développements ont pu standardiser Unix au maximum possible, en fonction de la concurrence des éditeurs. Mais ils sont sans doute arrivés trop tard pour enrayer la montée d’une marée appelée Linux, le système d’exploitation open source dérivé de Minix du professeur Tanenbaum.

Mais qu’est ce que « Unix », finalement ?

Unix, vous diront la plupart des gens, est un système d’exploitation écrit il y a plusieurs dizaines d’années aux Laboratoires Bell de AT&T, et ses descendants. Les versions majeures d’Unix aujourd’hui proviennent de deux branches d’un même tronc : l’une émane directement de AT&T et l’autre vient de AT&T via l’Université de Californie de Berkeley. Les branches les plus robustes actuellement sont AIX d’IBM, HP-UX de HP et Solaris de Sun.

Toutefois, The Open Group, qui détient la marque déposée Unix, définit Unix comme n’importe quel système d’exploitation qui a été certifié par ses services pour se conformer à la Single Unix Specification (SUS) (NdT : Spécification Unix Unique). Ceci inclut des OS que l’on ne considère pas généralement comme étant des Unix, tel que Mac OS X Leopard (qui dérive d’un BSD Unix) et IBM z/OS (qui vient du système d’exploitation mainframe MVS), car ils se conforment au SUS et supportent les APIs SUS. L’idée basique est que c’est un Unix si cela agit comme Unix, quel que soit le code sous-jacent.

Une définition encore plus large d’Unix pourrait inclure les OS Unix Like (qui ressemblent à Unix), parfois appelé des clones d’Unix ou des sosies, qui ont copié une bonne partie des idées de Unix mais n’incorporent pas directement du code Unix. Le plus connu d’entre tous étant certainement Linux.

Finalement, même s’il est raisonnable d’appeler Unix un système d’exploitation, c’est finalement plus que cela. En plus du noyau de l’OS, les implémentations Unix embarquent typiquement des utilitaires tels que des éditeurs en ligne de commande, des interfaces de programmation applicatives (API), des environnements de développement, des librairies et de la documentation.

Le futur d’Unix

Le manque continuel de portabilité complète entre les différentes versions concurrentes d’Unix, de même que l’avantage financier de Linux et Windows sur les processeurs standards x86, vont inciter les organisations informatiques de quitter Unix, suggère un récent sondage du Gartner Group.

« Les résultats réaffirment l’enthousiasme continu pour Linux comme plate-forme serveur, avec Windows qui croît de la même manière, et Unix qui prend la route d’un long, mais graduel, déclin », décrit le sondage, publié en février 2009.

« Unix a eu un passé long et vivant, et même s’il n’est pas encore parti, il sera de plus en plus sous pression », dit l’analyste du Gartner George Weiss. « Linux est l’Unix de choix stratégique. Même si Linux n’a pas le long héritage de développement, de tuning et de tests de stress que Unix a pu avoir, il s’en approche et va bientôt égaler Unix en performance, stabilité et montée en charge », dit-il.

Mais un récent sondage de ComputerWorld suggère que le retrait d’Unix ne va pas arriver aussi rapidement. Dans cette enquête concernant 130 utilisateurs Unix sur 211 responsables informatiques, 90% ont déclaré que leur entreprise était « très ou extrêmement dépendante » de Unix. Un peu plus de la moitié a dit : « Unix est une plateforme essentielle pour nous et le restera indéfiniment », et seulement 12% ont dit « Nous pensons sortir de Unix dans le futur ». Les économies de coût, essentiellement au travers d’une consolidation de serveurs, étaient citées comme la raison n°1 pour migrer vers autre chose.

Weiss pense que la migration vers des processeurs x86 va s’accélérer à cause de l’avantage du coût du matériel. « Des architectures extensibles horizontalement ; le clustering ; le cloud computing ; la virtualisation sur x86, quand vous combinez toutes ces tendances, le système d’exploitation de choix tourne autour de Linux ou Windows », dit-il.

« Par exemple », déclare Weill, « dans l’annonce récente de Cisco de son architecture Unified Computing, vous avez dans un même équipement le réseau, le stockage, le calcul et la mémoire, et vous n’avez pas besoin d’Unix. Vous pouvez utiliser Linux ou Windows sur x86. Ainsi, Intel est en train de gagner la guerre pour le compte de Linux contre Unix ».

The Open Group, propriétaire des Single Unix Specification et organisme certificateur des systèmes Unix, concède peu à Linux, et déclare que Unix est le système de choix pour « le haut du panier en termes de fonctionnalités, montée en charge et performance pour des applications critiques ». Linux, dit-il, tend à être le standard pour les applications plus simples, moins critiques.

Korn, de AT&T, est parmi ceux qui pensent que Unix a encore un bel avenir. Korn dit que la force d’Unix pendant toutes ces années, depuis l’ajout des pipes en 1973, est qu’il peut facilement être éclaté en petits bouts et distribué. Ceci va pousser Unix en avant, dit-il. « La philosophie (du pipeline) fonctionne bien avec le cloud computing, dans lequel vous construisez des petits morceaux réutilisables plutôt qu’une grosse application monolithique ».

L’héritage d’Unix

Quel que soit le sort final d’Unix, le système d’exploitation né dans les Laboratoires Bell il y a 40 ans a établi un héritage qui risque de durer encore quelques dizaines d’années. Il peut revendiquer la paternité d’une longue liste de logiciels populaires, incluant l’offre Unix de IBM, HP, Sun, Apple Mac OS X et Linux. Il a également influencé des systèmes qui ont leurs racines dans Unix, comme Microsoft Windows NT et les versions IBM et Microsoft de DOS.

Unix a permis à de nombreuses entreprises qui démarraient de réussir, en leur offrant une plateforme peu onéreuse sur laquelle construire. C’était une des briques de base pour la construction d’Internet, et il fait partie du cœur des systèmes de télécommunications aujourd’hui. Il a engendré de nombreux concepts d’architecture, comme l’utilisation du pipeline, et le dérivé de Unix, Mach, a contribué énormément à l’informatique scientifique, distribuée et multiprocesseurs.

C’est peut-être l’ACM qui l’a mieux énoncé en 1983 dans sa citation du prix Turing en l’honneur de Thompson et Ritchie sur leur travail sur Unix : « Le génie du système Unix est dans sa structure, qui permet aux programmeurs de bâtir sur le travail des autres ».

Notes

[1] Crédit photos : 1. Rudolf Schuba (Creative Commons By) / 2. Hoshie (Domaine Public) / 3. Eraserhead1 et Infinity0 (Creative Commons By-Sa)




Framakey Ubuntu-fr Remix

Patrice Vetsel - CC by-sa

Framasoft et Ubuntu-fr sont fiers de vous annoncer la naissance de leur fille « Framakey Ubuntu-fr Remix ». Elle est bien précoce car elle sait déjà marcher !

Pour en savoir plus :

  • La page officielle du projet sur le site Framakey
  • La billet blog de Patrice Vetsel (également auteur de la photo sous CC by-sa)

PS : Ouf, juste avant les RMLL !




Largage de liens en vrac #19

Silvio Tanaka - CC byCe n’est pas parce que les vacances approchent qu’il faut arrêter de farfouiller le Web à la recherche d’actualités logicielles intéressantes (ou supposées intéressantes).

Voici donc une sélection qui contrairement à beaucoup d’entre vous est loin d’être au régime.

Et n’oubliez jamais que « ebony and ivory live together in perfect harmony »[1].

  • Jake : Une application ambitieuse de synchronisation de documents (via le protocole XMPP). Le about tente d’expliquer en quoi c’est différent mais proche de SVN, CS, Git, Google Docs, Dropbox… (en gros la principale différence c’est qu’il n’y a plus de serveur central). I’m waiting for you dans les commentaires pour nous en dire plus (et mieux !).
  • Open Atrium : Basé sur Drupal, un ambitieux projet de « groupware réseau social ». Si vous connaissez, n’hésitez pas à partagez votre avis avec nous !
  • Hawkscope : Pour tout OS, une manière rapide d’accèder à votre disque dur via des menus popup dynamiques (en plus on peut paramétrer ses comptes Gmail, Delicious, Twitter, etc.).
  • Sugar on a stick : Sugar, l’interface de l’OLPC pensée pour l’éducation (théorie constructiviste) propose désormais une version portable. Ce qui fait dire à Technology Review que le PC à 100$ est aujourd’hui devenu une clé à 5$ !
  • MegaZine 3 : C’est encore du Flash mais ça pourra en intéresser quelques uns : c’est un logiciel de… pageflip ! Vous ne savez pas ce que c’est ? Moi non plus, enfin si cela permet de lire « agréablement » des livres ou des documents en ouvrant une fenêtre sur votre navigateur.
  • Open Melody : Un peu pris de vitesse par WordPress, le moteur de blog Movable Type libère lui aussi son code pour créer une communauté et plus si affinités.
  • TinyMCE : Peut-être le plus élégant (et le plus riche) des éditeur JavaScript WYSIWYG.
  • lilURL : Le clone libre de TinyURL (vous savez, ces réducteurs d’URL revenus sur le devant de la scène avec Twitter).
  • Open Source Designers : Un réseau social (Ning) de designers Open Source. Pas idiot de se regrouper ainsi.
  • Open Humanity : Nous aurons l’occasion d’en reparler. Pour le moment contentons-nous de ce résumé de Scoffoni : Open Humanity se situe « à mi-chemin entre un réseau social et un webOS ».
  • KeynoteTweet : Permet d’envoyer des tweets à partir du logiciel Apple Keynote dont les geeks se servent beaucoup en conférence. Vous arrivez au slide 23 et un message twitter est automatiquement envoyé à vos followers.
  • GDocBackup  : Utilise la techno Microsoft .NET mais c’est bien pratique si vous avec un compte Google Docs puisque cela permet de rapatrier sur votre disque dur tous vos fichiers d’un coup (typiquement le genre de fonctionnalités que Google ne propose pas exprès !)
  • The Pencil Project : C’est plus qu’une extension Firefox, c’est une véritable application intégrée pour faire des diagrammes et des prototypes d’interfaces utilisateur.. Là encore retours commentaires appréciés.
  • VideoSurf Videos at a Glance : Une extension Firefox plutôt pratique puisque cela permet de prévoir le contenu d’une vidéo (YouTube & co) à l’aide d’images fixes découpant la vidéo. Faut l’expérimenter pour mieux comprendre en fait !
  • Nuke Anything Enhanced : Et encore une extension Firefox, mais non des moindres ! Permet en effet de cacher temporairement ou durablement n’importe quel partie d’une page web. Ainsi par exemple je peux virer tout ce qui ne m’intéresse pas, pubs et autres, avant impression (cf vidéo démo sur LifeHacker).
  • Collections : Je ne connaissais pas (shame on me). Permet de compiler dans un seul pack tout plein d’extensions Firefox à installer d’un seul coup (top pratique surtout lorsque l’on change d’ordinateur). On vous explique ici comment faire. Des volontaires pour que Framasoft participe et vous propose aussi ses propres sélections ?
  • Recording music with Linux on an EEE PC : Toujours avec l’Eee Pc, que l’on transforme ici en parfait système pour la prise de son (par exemple pour partir jouer les reporter radio en herbe).
  • YouTube / Ogg/Theora comparison : YouTube va-t-il passer à Ogg Theora pour encoder ses videos (comme Dailymotion l’expériemente) ? Peut-être pas mais en attendant une petite comparaison qualité s’impose.
  • Library à la Carte : Joli titre et interface sexy. Un logiciel pour les bibliothécaires et les documentalistes. D’ailleurs si l’un d’entre vous passe par là…

Notes

[1] Crédit photo : Silvio Tanaka (Creative Commons By)




Largage de liens en vrac #18

Whatsername? - CC by-saCe n’est pas un grand cru de news logicielles, loin s’en faut (sans être non plus de la piquette).

Faut vous avouer aussi que je n’ai pas forcément été très attentif cette semaine à l’actualité. La faute à une entité virtuelle rencontrée sur GNM (Gnm is not Meetic).

Or justement ce soir, c’est notre premier rendez-vous. Tout comme mon port LPT1, j’espère faire bonne impression. À la question : mais comment vous reconnaitrais-je ? Elle m’a répondu qu’elle tiendrait un ballon vert à la main[1]. On a beau être éduqué à la grandeur d’âme, je l’espère tout de même un peu jolie…

  • Moovida : Un média player de plus ? Oui mais l’interface est vraiment bien pensée et très esthétique. Quelqu’un a testé ?
  • meta-iPod : Ce logiciel se présente comme un iTunes Cleaner. Comme je connais pas bien iTunes, je ne peux pas trop vous en parler. Mais je peux vous balancer telle quelle la description du site officiel : « meta-iPod can clean up an iTunes library with as many features as a Swiss Army Knife. From recovering ratings and play counts from your iPod to tracking down files or folders gone missing, meta-iPod analyzes all data sources containing your music to put the pieces of the puzzle back together. »
  • DSpace : Une plate-forme d’archivage de documents orientés recherche et enseignement. Le mieux c’est encore de take a tour si vous souhaitez aller au delà de ma présentation vague et floue.
  • BitBlinder : L’Hadopi va adorer puisqu’il s’agit du faire du Bittorrent mais de manière sécurisée et anonyme ! (on en parle sur TorrentFreak)
  • Hemlock : Tout nouveau. Un framework qui mélange le format Flash (bouh) et le protocole ouvert de messagerie instantanée XMPP (clap, clap) pour offrir la discussion en direct live aux développeurs qui souhaitent inclure ce module dans leurs applications Web.
  • Wagn : Je vous traduis l’équation qui figure en page d’accueil : un wiki (où les gens écrivent ensemble) + une base de données (où les gens organisent ce qu’ils ont écrit ensemble) + un CMS (pour faire de chouettes sites Web) = un Wagn (où les gens font tous ensemble de chouettes sites Web).
  • Appcelerator : Un framework de développement d’applications Internet riches (RIA) qui semble très ambitieux sur le papier et qui permet de créer rapidement des programmes non seulement pour Windows, Mac ou Linux mais également pour iPhone, Android & co (là encore cela dépasse de loin mes compétences, donc si quelqu’un veut nous en dire plus dans les commentaires…)
  • Tiny Core Linux : Sortie de la version 2.0 de cette mini-distribution GNU/Linux (env. 10 Mo) qui a ses adeptes. Et puis ça peut être utile sur une clé USB ne serait-ce que pour la vitesse au boot.
  • jQuery SuperBox! : Tout le monde connait désormais l’effet lightbox, ces fenêtre qui s’ouvrent pour vous montrer généralement une image pendant que le fond s’obscurcit (certains sites en abusent même que). Ici on vous en propose une version légère, accessible, extensible et évidemment sous licence libre.
  • Jokosher : Il s’agit de « rendre la production audio simple ». Une sorte de Audacity en version light et ergonomique ?
  • Engine Room Audition : Faut vraiment voir la vidéo (et ses effets) pour comprendre. Assez artistique ma foi.
  • The Guide : Une application Windows only permettant de créer des documents puis de la classer dans une structure en arbre. La encore, les copies d’écran aident à mieux capter la chose. On notera que vous pouvez paramétrer le logiciel pour qu’il devienne pleinement portable (par exemple sur une clés USB à la manière de la Framakey).

Notes

[1] Crédit photo : Whatsername? (Creative Commons By-Sa)