Un Centre de Formation Logiciels Libres pour les Universités d’Île-de-France !

CF2L - La salle de formation - Jean-Baptiste YunesIl reste beaucoup à faire pour améliorer la situation du logiciel libre dans l’éducation en général et dans l’enseignement supérieur en particulier.

C’est pourquoi nous sommes fiers et heureux de pouvoir annoncer une grande première dans le monde universitaire : l’ouverture prochaine du CF2L-UNPIdF, c’est-à-dire Centre de Formation Logiciels Libres – Université numérique Paris Île-de-France en direction de tous les personnels des universités de la région (enseignants, chercheurs, administratifs, techniciens, ingénieurs, bibliothécaires,…).

D’autant plus fiers que Framasoft est directement impliqué en participant de près à la logistique.

Le programme, planning et site officiel seront disponibles prochainement, mais en attendant nous vous proposons un entretien avec le principal artisan de ce projet, Thierry Stœhr (que beaucoup ici connaissent déjà sous d’autres casquettes).

Vous pouvez relayer dès maintenant l’information, maximisant ainsi les chances de toucher le public concerné (contact : cf2l AT unpidf.fr).

Faire en effet salle comble dès la première session (et aux suivantes aussi !) témoignerait du besoin et de l’intérêt du personnel universitaire pour les logiciels libres et nous permettrait de poursuivre et d’étendre les formations au cours des prochaines années. Et au libre de trouver une place logique et méritée[1].

CF2L : Entretien avec Thierry Stœhr

Bonjour Thierry, vous n’êtes pas inconnu en ces lieux mais pouvez-vous néanmoins vous présenter ?

Styeb - CC by-saBonjour Alexis et bonjour aux nombreux lecteurs de Framablog ! Je m’appelle Thierry Stœhr, en effet déjà cité en ces lieux 🙂 Je suis enseignant de formation et je suis dans le monde du logiciel libre depuis 1998. J’ai commencé à m’impliquer dans le libre au travers de l’Association francophone des utilisateurs de logiciels libres (AFUL) en étant au Bureau de son Conseil d’Administration depuis sa création. J’en suis l’actuel président.

J’ai participé à de nombreuses manifestations et actions (comme les RMLL, le groupe éducation de l’AFUL, des conférences,…). Je traitais notamment du sujet des formats et j’ai ouvert en juillet 2004 avec Sylvain Lhullier un site Web sur le sujet, Formats-Ouverts.org (FOo pour faire court). Les formats y sont envisagés et expliqués au sens large (le cas des fichiers, mais aussi avec les capsules de café ou les déménagements). Et donc 5 ans d’âge en juillet dernier pour FOo.

Mais cela fait ne fait pas vivre son homme ! Et dans votre vie professionnelle, il y a aussi du logiciel libre ?

Tout cela était bénévole et hors de mon temps de travail, c’est exact. Mais le logiciel libre est présent professionnellement depuis la rentrée 2009.

En effet j’ai été recruté par l’université Paris Diderot Paris 7 (dont le campus principal est dans le 13e arrondissement, quartier Paris Rive Gauche). Je travaille au SCRIPT (oui, le nom est un clin d’œil et signifie quelque chose de réel : Service Commun de Ressources Informatiques Pédagogiques et Technologiques !). Au sein du SCRIPT j’ai 2 missions. D’une part je suis chargé de coordonner le C2i (Certificat informatique et Internet) que tous les étudiants doivent pouvoir passer au cours de leur licence. Ils ont tous à Paris Diderot un enseignement en informatique général au cours duquel ils travaillent la bureautique et à propos d’Internet. Et le libre est très présent (mais c’est un autre sujet !). D’autre part les logiciels libres occupent la seconde moitié de mes activités au sein du SCRIPT : diffusion interne et externe, veille, information et surtout en ce moment le CF2L.

Le CF2L ?

C’est le Centre de Formation Logiciels Libres, qui pourrait s’écrire CFLL mais CF2L a été retenu. Il s’agit d’une structure mise en place par l’Université numérique Paris Île-de-France (UNPIdF) qui regroupe les 17 universités… d’Île-de-France ! L’UNPIdF a décidé d’ouvrir début 2010 un centre destiné à la formation aux logiciels libres de tous les personnels des universités de la Région (enseignants, chercheurs, administratifs, techniciens, ingénieurs, bibliothécaires,…). Dans le cadre de sa stratégie de formation aux usages du numérique à destination des personnels universitaires, un premier centre de formation, le RTC Apple, a été ouvert début 2009. Il est implanté à l’université Paris Descartes. La volonté de l’UNPIdF est d’avoir aussi des centres à propos des autres plate-formes. D’où l’appel à candidature qui a été lancé pour un centre à propos des logiciels libres. Suite aux réponses obtenues, deux implantations ont été retenues : l’université Paris Descartes et l’université Paris Diderot.

Et quel est votre rôle dans ce CF2L ?

D’une manière générale, il s’agit de le faire vivre, en employant mes compétences et connaissances à propos du libre. Plus concrètement, je suis chargé du volet pédagogique du centre (contenu, programme, calendrier, intervenants,…) avec aussi un volet technique pour s’assurer que tout fonctionne. Mais ce dernier point repose sur les compétences internes en libre, qui sont très importantes. L’université Paris Diderot s’appuie beaucoup sur le libre (mais c’est encore un autre sujet !). Le projet du CF2L est fortement soutenu en interne, notamment par la Mission TICE.

D’ailleurs la mission TICE de l’Université Paris Diderot avait annoncé cette excellente nouvelle, mais les 140 caractères limitaient la description du projet. Nous en savons un peu plus, mais quelques détails supplémentaires à nous donner ?

Le Centre de Formation Logiciels Libres doit ouvrir le 5 février 2010, un vendredi. Ce sera la première journée de formation. Elle devrait porter sur la découverte des systèmes d’exploitation libres, les principes et les concepts généraux, le fonctionnement, l’installation. Bref, les premiers pas, la prise en main et les premières utilisations. Enfin il faut annoncer une autre caractéristique importante à propos du CF2L : Framasoft est partenaire de l’opération auprès de l’UNPIdF. Je suis très content de ce montage qui devrait permettre de belles réalisations.

Un mot de fin ?

Oui, et même quatre : diffuser, montrer, copier, adapter !

Il ne faut pas hésiter à diffuser l’information. Les personnels des universités d’Ile de France seront bien sûr informés officiellement, mais voilà un premier canal, qui va même vers le monde 😉

Montrer au grand jour des logiciels libres développés par des personnels de l’université et pour l’université (et plus largement encore) est possible via le CF2L. Cela peut compléter ce que font déjà PLUME ou Framasoft (je pense par exemple à 2 logiciels libres de 2 universitaires qui se reconnaitront… ; encore un autre sujet !).

Enfin copier et adapter : les logiciels libres sont très présents dans l’enseignement supérieur. Qu’ils se montrent donc encore plus au grand jour… et que ce qui a été mis en place (mon recrutement, le CF2L) soit copié dans d’autres universités et d’autres universités numériques en région, en adaptant (et en améliorant) le dispositif.

Merci pour toutes ces précisions. Et sinon continuez-vous à murmurer ouverts à l’oreille des formats ?

Il faut sans cesse le murmurer et aussi l’affirmer fortement, notamment aux oreilles de tous les enseignants (et des étudiants). Rendez-vous pour la suite (avec le programme, des détails techniques,…) car il y a encore du travail avant l’ouverture du CF2L : La route est longue mais la voie est libre !

Pour de plus amples informations : thierry.stoehr AT script.univ-paris-diderot.fr

Notes

[1] Crédit photos : Jean-Baptiste Yunes et Styeb (Creative Commons By-Sa)




Première démonstration « open source » d’un théorème mathématique

Robynejay - CC by-saEst-ce uniquement par leur licence qu’un noyau Linux et une encyclopédie Wikipédia sont identifiés comme étant libres ?

Juridiquement parlant oui, mais s’en tenir là serait passer à côté du modèle collaboratif particulier que ce sont donnés ces deux fleurons de la culture libre pour développer leur projet.

Conséquence de la licence, c’est aussi voire surtout la puissance de ce modèle qui caractérise le Libre. Et ce modèle commence à se diffuser un peu partout dans la société…

Les mathématiques sont « libres » depuis la nuit des temps (enfin depuis que les pythagoriciens ont cessé de se cacher, pour être plus précis)[1]. Chacun est libre des les étudier, les copier et les améliorer en étant fortement encouragé à rendre évidemment publiques ces améliorations, dans la plus pure tradition universitaire.

C’est absurde, mais si il fallait a posteriori leur accoler une licence issue de la culture libre, ce pourrait être la plus simple des Creative Commons, la CC-By, puisque cette notion de paternité est très importante dans un monde scientifique avant tout motivé par la reconnaissance des pairs et la place laissée dans l’Histoire de leur champ disciplinaire.

On retrouve d’ailleurs souvent les crédits et les hommages dans les noms que l’on donne aux résultats. On parlera ainsi de la preuve selon Euclide du théorème de Thalès.

Les mathématiques seraient donc « libres », les professeurs également (enfin surtout en France dans le secondaire avec Sésamath), mais quid des mathématiciens eux-même et de leurs pratiques ? Et si ils s’organisaient à la manière d’un projet de développement d’un logiciel libre pour chercher et éventuellement trouver ensemble des résultats importants ?

Entendons-nous bien. Les mathématiciens ne vivent bien entendu pas dans une tour d’ivoire. Ils sont habitués à travailler et échanger ensemble au sein d’un laboratoire, lors d’un séminaire… et évidemment sur Internet. Mais l’aventure intellectuelle et collective du « Projet Polymath » que nous avons choisi de vous narrer ci-dessous est un peu différente, en ce sens que ses auteurs eux-mêmes la définissent comme une expérience « open source ».

Ne vous arrêtez surtout pas à la complexité mathématique de ce qu’ils cherchent à accomplir (à savoir une « meilleure » preuve d’un théorème déjà démontré !), c’est totalement secondaire ici. Ce qui nous intéresse en revanche c’est comment ils y sont arrivés (désolé d’avoir vendu la mèche) et les enseignements qu’ils en tirent pour l’avenir.

Parce qu’il se pourrait que cet mode opératoire, original et efficient, fasse rapidement des émules, et ce bien au delà des mathématiques.

Remarque : C’est le terme « open source » qui a été choisi tout du long par les auteurs et non « free software ». Contrairement au domaine logiciel, il ne s’agit pas d’un choix ou d’un parti pris mais tout simplement d’une question de sens : « open source mathematics » étant largement plus signifiant que « free software mathematics » !

Mathématiques massivement collaboratives

Massively collaborative mathematics

Timothy Gowers[2] et Michael Nielsen[3] – 24 octobre 2009 – Nature.com (Opinion)
(Traduction Framalang : Olivier et Goofy)

Le « Projet Polymath » est la preuve que l’union de nombreux cerveaux peut résoudre des problèmes mathématiques complexes. Timothy Gowers et Michael Nielsen nous livrent leurs réflexions sur ce qu’ils ont appris des sciences open source.

Le 27 janvier 2009, l’un d’entre nous, Gowers, a lancé une expérience inhabituelle par l’intermédiaire de son blog (NdT : avec ce billet Is massively collaborative mathematics possible?). Le Projet Polymath s’était fixé un but scientifique conventionnel : s’attaquer à un problème mathématique irrésolu. Mais son but plus ambitieux était d’innover dans la recherche en mathématiques. Reprenant l’idée des communauté open source comme Linux et Wikipédia, le projet s’appuyait sur des blogs et des wikis pour canaliser une collaboration complètement ouverte. Libre à tout un chacun d’en suivre la progression et s’il le désire d’apporter sa contribution. Les blogs et wikis étaient en quelque sorte une mémoire à court terme collective, un brainstorming ouvert à grande échelle dédié à l’amélioration des idées.

Le résultat de la collaboration dépassa de loin les espérances de Gowers, offrant une belle illustration de ce que nous pensons être une dynamique formidable pour les découvertes scientifiques : la collaboration de nombreux cerveaux connectés par Internet.

Le Projet Polymath visait à trouver une preuve élémentaire d’un cas particulier du théorème de Hales-Jewett sur la densité (NdT : DHJ pour Density Hales-Jewett), théorème central de l’analyse combinatoire, une branche des mathématiques qui étudie les structures discrètes (voir Morpion à plusieurs dimensions). Ce théorème avait déjà été démontré, mais les mathématiciens ne se contentent pas toujours d’un seul chemin. De nouvelles preuves peuvent déterminantes pour une meilleure compréhension du théorème. Trouver une nouvelle démonstration du théorème DHJ était important pour deux raisons. Tout d’abord il fait partie d’un ensemble de résultats fondamentaux possédant plusieurs démonstrations, alors que le théorème DHJ n’en avait jusqu’alors connu qu’une seule, longue, complexe, et très technique. Seul un élan de nouvelles idées pouvait amener à une preuve plus simple, s’appuyant sur des concepts de base plutôt que sur des techniques compliquées. Ensuite, du théorème DHJ découle un autre théorème important, le théorème de Szemerédi. La découverte de nouvelles preuves de ce théorème a conduit à de grandes avancées au cours de la dernière décennie, on pouvait donc raisonnablement s’attendre à ce qu’un même phénomène accompagne la découverte d’une nouvelle démonstration du théorème DHJ.

À l’origine du projet on retrouve Gowers. Il publia une description du problème, indiqua quelques ressources et établit une liste préliminaire de règles régissant la collaboration. Grâce à ces règles, les échanges sont restés polis et respectueux, elles encourageaient les participants à proposer une et une seule idée par commentaire, même sans la développer complètement. Ces règles stimulaient ainsi les contributions et aidaient à conserver le caractère informel de la discussion.

Mettre le projet sur les bons rails

La discussion collaborative a vraiment commencé le 1er février, doucement : il a fallu attendre plus de 7 heures avant que Jozsef Solymosi, un mathématicien de l’Université de la Colombie Britannique à Vancouver, fasse le premier commentaire. Quinze minutes après, un nouveau commentaire était posté par Jason Dyer, enseignant dans un lycée de l’Arizona. Trois minutes après, c’est Terence Tao (lauréat de la médaille Fields, la plus haute distinction en mathématiques), de l’Université de California à Los Angeles, qui écrivit son commentaire.

Au cours des 37 jours qui suivirent, ce sont pas moins de 27 personnes qui ont apporté leur contribution au travers d’environ 800 messages, pour un total de 170 000 mots. Personne n’a été spécialement invité à participer : la discussion était ouverte à tout le monde, des doctorants aux experts mathématiciens. Nielsen a mis en place un wiki pour mettre en avant les contributions importantes apparues dans les commentaires du blog. Au moins 16 autres blogs ont parlé du projet, il s’est hissé à la première page de l’agrégateur Slashdot technology et a donné naissance à un projet assez proche sur le blog de Tao.

Tout s’est déroulé sans accroc : pas de « trolls » (ces adeptes des posts non constructifs, voire malveillants), ni de commentaires bien intentionnés mais complètement inutiles (on peut malgré tout signaler que le wiki a été spammé). Le rôle de modérateur pris par Gowers se résumait essentiellement à corriger les fautes.

Le projet progressa bien plus rapidement qu’attendu. Le 10 mars, Gowers annonça qu’il était assez sûr que les participants au projet Polymath avaient découvert une preuve élémentaire d’un cas particulier du théorème DHJ et, qu’étonnamment (compte tenu des expériences avec des problèmes similaires), cette preuve pouvait être généralisée assez facilement pour prouver le théorème entier. La rédaction d’un article décrivant cette preuve est entreprise, ainsi que celle d’un second papier décrivant des résultats liés. De plus, alors que le projet était encore actif, Tim Austin, doctorant à l’Université de Californie, Los Angeles, publia une autre preuve (non élémentaire celle-ci) du théorème DHJ en s’appuyant largement sur les idées développées dans le projet Polymath.

Les archives du projet Polymath constituent une ressource exceptionnelle pour les étudiants en mathématiques, les historiens et autres philosophes des sciences. Pour la première fois, on peut suivre le cheminement intellectuel complet à l’origine d’un résultat mathématique sérieux. On y voit les idées naître, grandir, changer, s’améliorer ou être abandonnées, et on y découvre que la progression de la compréhension ne se fait pas nécessairement par un unique pas de géant, mais plutôt par le regroupement et le raffinement de plusieurs petites idées.

C’est un témoignage direct de la persévérance dont il faut faire preuve pour résoudre un problème complexe, pour progresser malgré les incertitudes et on réalise que même les meilleurs mathématiciens peuvent faire des erreurs simples et s’entêter à creuser une idée vouée à l’échec. Il y a des hauts et des bas et on ressent une vraie tension à mesure que les participants s’approchent d’une solution. Les archives d’un projet mathématique peuvent se lire comme un thriller, qui l’eût cru ?

Des implications plus larges

Le projet Polymath ne ressemble pas aux collaborations à grande échelle traditionnelles, comme on peut en trouver dans l’industrie ou dans les sciences. En général, ces organisations sont divisées hiérarchiquement. Le projet Polymath était complètement ouvert, chacun était libre d’apporter sa pierre à l’édifice… n’importe quelle pierre. La variété des points de vue a parfois apporté des résultats inattendus.

Se pose alors la question de la paternité : difficile de décréter une règle de paternité stricte sans heurt ou sans décourager des contributeurs potentiels. Quel crédit accorder aux contributeurs apportant uniquement une idée perspicace, ou à un contributeur très actif mais peu perspicace ? Le projet a adopté une solution provisoire : il signe ses articles du pseudonyme « DHJ Polymath » suivi d’un lien vers les archives (NdT : cf cette première publication ainsi signée A new proof of the density Hales-Jewett theorem). Grâce à la collaboration ouverte privilégiée par le projet Polymath, on sait exactement qui a fait quoi. Au besoin, une lettre de recommandation peut isoler les contributions d’un membre du projet en particulier, comme c’est déjà le cas en physique des particules où il est courant de voir des articles avec des centaines d’auteurs.

Se pose aussi le problème de la conservation. Les archives principales du projet Polymath sont dispersées sur deux blogs (1 et 2) et un wiki, le rendant très dépendant de la disponibilité de ces sites. En 2007, la bibliothèque du Congrès américain a initié un programme de conservation des blogs tenus par les professionnels du droit. De la même manière, mais à plus grande échelle, un programme similaire est nécessaire pour conserver les blogs et wikis de recherche.

D’autres projets, ayant vu le jour depuis, permettront d’en apprendre plus sur le fonctionnement des mathématiques collaboratives. Il est en particulier crucial de savoir si ce genre de projet peut être élargi à plus de contributeurs. Bien qu’il ait rassemblé plus de participants qu’une collaboration classique en mathématiques, le projet Polymath n’est pas devenu la collaboration massive que ses créateurs espéraient. Ceux qui y ont participé s’accordent sur le fait que pour grandir, il faudrait que le projet adapte sa manière de procéder. La narration linéaire du blog posait, entre autre, problème aux nouveaux arrivants. Difficile pour eux, parmi la masse d’informations déjà publiées, d’identifier où leur aide serait la plus précieuse. Il y avait également le risque qu’ils aient loupé un « épisode » et que leur apport soit redondant.

Les projets de logiciels libres utilisent des logiciels de suivi de version pour organiser le développement autour des « problèmes », des rapports de bogues ou des demandes de fonctionnalités en général. Ainsi, les nouveaux arrivants ont une vision claire de l’état du projet, ils peuvent concentrer leurs efforts sur un « problème » particulier. De même, la discussion est séparée en modules. Les futurs projets Polymath pourraient s’en inspirer.

Bientôt, les sciences ouvertes

L’idée derrière le projet Polymath est potentiellement applicable à tous les défis scientifiques, mêmes les plus importants comme ceux pour lesquels le Clay Mathematics Institute de Cambridge, Massachussets offre un prix d’un million de dollars. Même si certaines personnes souhaiteront toujours garder tout le mérite pour elles-mêmes et être pour ainsi dire refroidies par l’aspect collaboratif, d’autres au contraire pourraient y voir une excellente opportunité d’être associés à la résolution de l’un de ces problèmes.

Dans d’autres disciplines, l’approche open source ne gagne que très lentement du terrain. Un domaine s’y est ouvert avec succès : la biologie synthétique. Les informations ADN d’organismes vivants sont enregistrées numériquement et envoyées à un dépôt en ligne, comme celui du MIT Registry of Standard Biological Parts. D’autres groupes peuvent utiliser ces informations dans leur laboratoire et, s’ils le souhaitent, reverser leurs améliorations au dépôt. qui compte actuellement plus de 3 200 contributions, apportées par plus de 100 entités différentes. Les découvertes qui en découlent ont fait l’objet de nombreux articles comme par exemple Targeted Development of Registries of Biological Parts. La biologie open source et les mathématiques open source montrent comment la science peut progresser grâce aux diverses contributions apportées par des gens aux compétences variées.

On pourrait, de la même manière, employer ces techniques open source dans d’autres domaines, telle la physique et l’informatique théoriques, où les données brutes contiennent de nombreuses informations et peuvent être partagées librement en ligne. Appliquer les techniques open source aux travaux pratiques est plus délicat, les conditions expérimentales étant difficilement reproductibles. Quoiqu’il en soit, le partage libre des données expérimentales permet néanmoins leur analyse libre. Adopter ces techniques open source à grande échelle ne sera possible que grâce à un changement profond des mentalités en science et au développement de nouveaux outils en ligne. Nous croyons à un fort développement de la collaboration de masse dans de nombreux domaine des sciences, et que cette collaboration massive repoussera les limites de nos capacités à résoudre des problèmes.

Notes

[1] Crédit photo : Robynejay (Creative Commons By-Sa)

[2] Timothy Gowers appartient au Departement of Pure Mathematics and Mathematical Statistics de l’Université de Cambridge, Wilberforce Road, Cambridge CB3 0WB, UK et il est Royal Society 2010 Anniversary Research Professor.

[3] Michael Nielsen est écrivain et physicien, il habite à Toronto et travaille sur un livre sur le futur de la science.




Claude Bernard Lyon 1 offre les premières bourses Microsoft à ses étudiants

Stuartpilbrow - CC by-saL’université française ne doit plus pleurer sur le désengagement de l’État, le sauveur et bienfaiteur Microsoft est là pour y remédier.

Hier c’était Paris Descartes qui décidait de confier la communication numérique de ses étudiants à la firme de Redmond. Et aujourd’hui, fait unique dans les annales, ont vu le jour les premières bourses d’étudiants financées pour le privé.

C’est à l’Université Claude Bernard Lyon 1 que l’on doit cet acte pionnier et, vous l’aurez compris, c’est encore de Microsoft qu’il s’agit.

Extrait du communiqué de presse :

Alors qu’en novembre 2007, l’Université Claude Bernard Lyon 1 s’était engagée avec Microsoft France sur une série d’actions visant à rapprocher les deux structures en termes de partenariat économique, après plusieurs années de projets communs – l’Université et Microsoft France concrétisent aujourd’hui l’un de ses axes de partenariat qui était de contribuer financièrement au soutien d’étudiants boursiers, par le biais de la Fondation partenariale Lyon 1.

Cinq bourses sont accordées pour la rentrée universitaire 2009 à des étudiants débutants leurs études en première année de licence (…) La bourse d’un montant de 3 000 €, versée en une fois, doit permettre à des étudiants méritants d’entamer des études scientifiques dans de bonnes conditions financières.

(…) Ils recevront lundi 19 octobre 2009 à 14h30 dans la salle du conseil de l’Université leur bourse des mains d’Eric Le Marois, Directeur Education et Recherche de Microsoft France et de Lionel Collet, président de l’Université Lyon 1.

À l’issue de cette remise de bourse, Lionel Collet et Eric le Marois se prêteront au jeu des questions-réponses sur les thématiques des nouvelles technologies auprès de jeunes étudiants de l’Université.

Inclinons-nous et disons merci à la généreuse société américaine pour le soutien ainsi apporté au fleuron de notre jeunesse[1].

Quand on pense au coût annuel que représente la somme totale de toutes les licences Windows et MS Office de tous les postes de tous les établissements scolaires de France et de Navarre, on se dit que ces 5 bourses de 3 000 € ne méritent pas forcément une vaste opération de communication.

Il faut être naïf, malintentionné ou bien carrément parano pour n’y voir avant tout qu’une belle arnaque consistant à déshabiller l’élève Pierre pour habiller l’étudiant Paul sous l’œil bienveillant d’une puissance publique de moins en moins puissante et de moins en moins publique.

Notes

[1] Crédit photo : Stuartpilbrow (Creative Commons By-Sa)




Paris Descartes vend ses étudiants à Micro$oft !

TheeErin - CC by-saEncore un titre qui ne fait pas dans la dentelle ! Il ne vient pas de moi mais d’un tract qui est actuellement distribué sur le campus de l’Univesité Paris Descartes par le SNESup, le Syndicat national de l’enseignement supérieur. Tract que nous avons reproduit ci-dessous dans son intégralité.

Il est une conséquence indirecte (et non désirée) d’un vaste et ambitieux partenariat signé en juillet 2009 par Microsoft et la vénérable Université, partenariat « visant à développer des actions communes autour des nouvelles technologies » (liens html, pdf, vidéo[1] et… photo de famille !)

Ce qui frappe c’est la radicalité des mots et expressions employés (jusqu’à mettre un « $ » au « s » de Microsoft !). À la hauteur de l’exaspération suscitée par cette énième opération de marchandisation de l’éducation qui ne veut pas dire son nom ?

Je tenais cependant à apporter quelques éléments de réflexion qui sont autant de modestes tentatives de mise en perspective (en pensant aussi à un éventuel débat qui pourrait démarrer dans les commentaires) :

  • Les universités peuvent-elles résister à de telles offres dans le contexte économique actuel ? Prenez le temps de lire le communiqué de presse et vous constaterez avec moi la densité des services proposés, avec promesse de soutien de Microsoft à la future fondation de l’université (« soutien » étant pris ici dans tous les sens du terme). Même une direction rompue aux vertus du logiciel libre et sa culture aurait à mon avis du mal à ne pas sacrifier quelques unes de ses valeurs sur l’autel d’un certain pragmatisme dicté par le manque de moyens.
  • C’est le programme Live@edu de Microsoft qui est stigmatisé ici. Mais Google propose, à quelques nuances près, rigoureusement la même chose avec Google Apps Education. Ne serait-ce point « la guerre de l’informatique dans les nuages » qui pénètre ici directement le vulnérable secteur éducatif ? D’un côté on rend service aux étudiants, de l’autre on investit sur leur potentiel à… conserver les mêmes technologies une fois arrivés sur le marché du travail. Le plus dur étant d’entrer, parce qu’une fois que l’étudiant possède (sur vos serveurs) sa messagerie, son agenda, son espace de stockage, sa suite bureautique en ligne, ses documents, ses photos, ses habitudes de chat, etc. le plus dur est fait. Il lui sera alors fort difficile de migrer, même avec les meilleures volontés du monde ! Un dernier mot sur ces serveurs qui hébergent toutes ces données de nos étudiants : il est juridiquement et géographiquement presque impossible de les localiser !
  • Cet épisode interroge également sur la politique numérique française de l’éducation en général et du supérieur en particulier. Que ne nous avait-on pas dit et promis avec les ENT, les fameux Espaces numériques de travail ! À laisser Microsoft, Google et consors s’occuper de cela pour nous, nous sommes en présence d’un double aveu, celui d’un échec et d’une démission. Sans compter que dans l’intervalle sont apparus les réseaux sociaux qui risquent eux aussi de ringardiser les quelques ENT qui avec peine avaient tout de même réussi à se mettre en place (Facebook sera-t-elle la prochaine grosse société américaine à venir frapper aux portes de nos universités ?). On voit bien ici comment le public ne peut pas (ou plus) lutter contre le privé, et c’est fort inquiétant pour ceux qui demeurent attachés à la notion de biens communs. Dernier exemple en date, le risque de voir nos bibliothèques publiques numérisées par… Google et non pas nos propres moyens.

Sur ce je vous laisse avec ce tract qu’il me plait à imaginer entre les mains d’étudiants interloqués[2] mais conscients que cet accord peut en avantager quelques uns sur le court terme mais finir par freiner tout le monde sur le long terme.

Paris Descartes vend ses étudiants à Micro$oft !

SNESup – octobre 2009 – Tract


L’université s’apprête à signer avec Microsoft une convention d’utilisation du bouquet de services Live@edu. Il s’agit de confier à Microsoft le webmail des étudiants et des personnels volontaires. Une offre alléchante : gratuit, sans pub, avec 100 Go chacun, un chat intégré, un espace de stockage personnel, un accès au pack office web… et c’est compatible avec Linux, MacOS, Firefox ! Que demander de plus ?

Plus pour moins cher ?


Avec ce projet, l’université prétend offrir aux étudiants un service meilleur que le webmail actuel, pour un coût inférieur à ce que nos ingénieurs pourraient faire. Pourtant, les histoires d’externalisations sont toujours les mêmes : avant de signer le contrat, tout est rose, une fois signé on paye le prix fort. Un service a un coût, à long terme Microsoft nous le fera payer : Microsoft est un géant, qui nous imposera ses conditions s’il le souhaite.

Halte aux dealers !


Faciliter l’accès des étudiants au pack office web, c’est un cadeau empoisonné. Au lieu de former des utilisateurs avertis de l’informatique, l’université s’apprête à fabriquer des consommateurs dépendants des produits Microsoft. A la sortie de l’université, devenus accros, ils devront acheter au prix public les mêmes produits. L’université renonce donc à sa mission de formation pour servir les intérêts commerciaux d’une entreprise.


Aujourd’hui, les ingénieurs et les enseignants de Paris Descartes enseignent l’informatique via des logiciels libres : chacun peut ainsi utiliser les nouvelles technologies gratuitement et pour longtemps. Aurons-nous toujours cette liberté quand Paris Descartes sera pacsée avec Microsoft ?

Voulons-nous être les clients captifs de Microsoft ou rester des utilisateurs libres de l’informatique ?

Notes

[1] Pour rédiger cet article, je me suis tapé la vidéo de la conférence de presse jusqu’au bout et j’ai été assez stupéfait par la capacité de l’auditoire à ne pas poser les questions qui fâchent !

[2] Crédit photo : TheeErin (Creative Commons By-Sa)




Mon Université m’offre ma licence Microsoft Windows

James Wheare - CC byLorsque vous vous rendez sur le site de Microsoft, vous pouvez lire ceci : « MSDN Academic Alliance (MSDNAA) est une offre logicielle destinée à l’enseignement supérieur. Les établissements ayant souscrit à MSDNAA bénéficient des logiciels Microsoft pour la pédagogie (salles de cours, de TP, libre-service pour les étudiants,…) incluant de nombreux produits tels que Windows Vista, Windows XP, Windows Server 2008, Visual Studio 2008, Virtual PC, Visio… Ces logiciels peuvent également être installés sur les machines personnelles des étudiants et enseignants chez eux ! Le tout sans payer les licences des produits. »

Un étudiant d’un de ces établissements peut donc installer sur sa machine personnelle l’offre logicielle contenu dans cet accord, en particulier le logiciel d’exploitation Windows. Mais que se passe-t-il s’il cet étudiant compte s’acheter un nouveau PC pendant son cursus universitaire ? Il ira comme tout le monde dans un magasin spécialisé et achètera un ordinateur avec, encore trop souvent, un Windows préinstallé dedans[1]. Or il n’a aucune raison de le payer puisque son établissement peut le lui fournir gratuitement suite justement aux termes de l’accord MSDNAA !

C’est ce léger « bug dans le système » que souhaite exploiter l’équipe Racketiciel, dans sa dernière campagne Mon Université m’offre ma licence Microsoft Windows.

L’objectif est non seulement d’informer les étudiants pour qu’ils ne se retrouvent pas à payer deux fois leur système d’exploitation, mais aussi de continuer à alerter l’opinion sur la question de la vente liée afin de maintenir la pression sur les constructeurs.

Soutenant cette opération, nous relayons bien volontiers l’appel à la communauté ci-dessous.

Pour les libristes

URL d’origine du document

25 septembre 2009 – Racketiciel.info

Cher(e) Linuxien(ne), cher(e) BSDiste,

Nous, libristes, avons besoin d’une concurrence saine sur les systèmes d’exploitation.

C’est pourquoi nous, équipe racketiciel, nous nous battons contre la situation actuelle où la vente du matériel informatique est subordonnée à celle de la licence des logiciels préinstallés.

Aujourd’hui, nous sommes en train de lancer une campagne mondiale qui devrait marquer un pas de plus dans ce combat, et nous avons besoin de votre aide à tous.

Les actions

Sur le terrain juridique, plusieurs procès ont obligé les constructeurs à rembourser celui qui n’avait pas l’usage des logiciels, en partie grâce au guide du remboursement et à notre équipe accompagnement. Toujours sur le terrain juridique, quelques procès, initiés par l’UFC Que Choisir ou par le Ministère Public, ont obligé les constructeurs à afficher le prix de Microsoft Windows préinstallé. Sur le terrain politique, plusieurs questions au gouvernement ont été présentées par des députés, grâce au précieux travail d’explication de quelques membres de la communauté du libre. Sur le terrain administratif, les contacts sont réguliers avec la DGCCRF.

Le résultat

Ces derniers temps, vous avez peut-être noté l’apparition d’étiquettes dans le rayon informatique de certains magasins, annonçant une possibilité de se faire rembourser Microsoft Windows auprès du constructeur. C’est sans doute en grande partie le résultat de toutes ces actions.

Pour autant, c’est encore totalement insuffisant : l’affichage du prix de la licence n’est pas effectif auprès de l’appareil.

Néanmoins, cette possibilité de remboursement, présente pour certains constructeurs seulement, est irréversible : tout retour en arrière de leur part mettrait trop fortement en lumière la question de la vente subordonnée. Nous entendons profiter de cette évolution irréversible pour mettre la pression d’une manière différente.

C’est l’heure du combat sur le terrain économique

Nous lançons une campagne mondiale :
« Mon Université m’offre ma licence Microsoft Windows »

Les grandes écoles et les universités mettent souvent les licences Microsoft Windows à la disposition de leurs étudiants, y compris sur leur ordinateur personnel. Or, en magasin, les étudiants déboursent tout de même le prix de la licence lors de l’achat de leur ordinateur.

Le but de la campagne est donc d’inciter un maximum d’étudiants dans le monde entier à se faire rembourser la licence (dite OEM) du système Microsoft Windows préinstallé puisqu’ils bénéficient de la licence obtenue via leur institution.

Pourquoi ce type de campagne ?

Pour les étudiants sous Microsoft Windows (et ils sont les plus nombreux), c’est toujours quelques dizaines d’euros de pris. Pour nous, libristes, qui pâtissons à plein de la vente subordonnée, c’est l’effet de masse qui nous intéresse en faisant appel aux étudiants sous Windows. La pression économique sera d’autant plus forte sur les constructeurs, et la pression politique sur l’administration permettra d’imposer la simplification des procédures de remboursement voire de passer à l’optionnalité que nous réclamons.

À terme, l’abolition de la vente subordonnée libérera une place économique pour des offres commerciales autour de GNU-Linux et des autres systèmes libres, avec, nous l’espérons, leur plus large diffusion.

Quel peut être votre rôle ?

Nous cherchons parmi vous des étudiants volontaires pour relayer dans vos facs et écoles respectives l’information sur cette campagne par voie d’affiches, de mails ou tout autre moyen qui vous paraîtra approprié.

Nous comptons sur votre aide sans laquelle cette campagne est inconcevable ! Merci de vous signaler à l’adresse msdnaa@racketiciel.info en indiquant, dans le sujet du message :
Nom_du_Gull/Dépt/Ville/Sigle_Fac_ou_école.

Dans le corps de message, mettez l’adresse complète de votre unité universitaire dans laquelle vous pensez pouvoir relayer l’info (plusieurs si c’est dans vos cordes) et votre email de contact (si différent de celui utilisé pour nous écrire).

Un grand merci !

L’équipe racketiciel.

Notes

[1] Crédit photo : James Wheare (Creative Commons By)




Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire

Rudolf Schuba - CC bySéquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Daria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard dans les communications de l’ACM (CACM), le journal de l’Association for Computer Machinery. « Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité d’utilisation ».

Apparemment ils y sont arrivés. Unix va évoluer pour devenir une pierre angulaire de l’informatique, largement installé sur les serveurs et les postes de travail dans les universités, les gouvernements et les entreprises. Et son influence s’est étendue bien au-delà de ses déploiements, comme l’a noté l’ACM en 1983, lorsqu’ils ont attribué leur prix le plus élevé à Thompson et Ritchie, le A.M. Turing Award pour leur contribution à l’informatique : « Le modèle du système Unix a conduit une génération de concepteurs logiciels à repenser leur manière de programmer ».

Les premiers pas

Bien sûr, le succès d’Unix n’est pas arrivé d’un coup. En 1971, il a été porté sur le mini-ordinateur PDP-11, une plateforme plus puissante que le PDP-7 pour laquelle il avait été écrit à l’origine. Des programmes d’édition et de formatage de texte ont été ajoutés, et il a été déployé pour quelques dactylos du département des Brevets des Bell Labs, ses premiers utilisateurs en dehors de l’équipe de développement.

En 1972, Ritchie écrivait le langage de programmation de haut-niveau C (basé sur un langage précédent de Thompson, le B) ; suite à cela, Thompson réécrivit Unix en C, ce qui permit d’améliorer la portabilité de l’OS sur différents environnements. En cours de chemin, il acquit le nom de Unics (Uniplexed Information and Computing Services), un jeu de mots sur Multics ; l’orthographe se transforma rapidement en Unix.

Il était temps d’envahir le monde. L’article de Ritchie et Thompson de Juillet 1974 dans le CACM, « Le système temps-partagé UNIX », prit le monde de l’informatique dans un ouragan. Jusqu’alors, Unix avait été confiné à une poignée d’utilisateurs dans les Laboratoires Bell. Mais maintenant, avec l’Association for Computing Machinery derrière lui, un éditeur l’ayant qualifié comme étant élégant, Unix était à un moment crucial.

« L’article du CACM avait eu un impact très fort », raconte l’historien de l’informatique Peter Salus dans son livre The Daemon, the Gnu and the Penguin (NdT : Le démon, le Gnou et le manchot). « Peu de temps après, Ken était assailli de demandes concernant Unix ».

Un paradis pour les hackers

Thompson et Ritchie étaient des hackers accomplis, quand ce terme désignait quelqu’un qui combinait une créativité hors pair, une intelligence à toute épreuve et de l’huile de coude pour résoudre des problèmes logiciels que l’on a peine à imaginer.

Leur approche, et le code qu’ils avaient écrit, étaient attractifs pour les programmeurs des universités, et plus tard pour des entreprises qui démarraient sans les méga budgets de IBM, Hewlett-Packard ou Microsoft. Unix était tout ce dont les autres hackers, comme Bill Joy à l’Université de Californie, Rick Rashid à l’Université Carnegie Mellon et David Korn plus tard aux Laboratoires Bell avaient rêvé.

« Presque depuis le début, le système était capable de se maintenir seul, et il l’avait prouvé », écrivaient Thompson et Ritchie dans l’article du CACM. « Comme tous les programmes sources étaient toujours disponibles et facilement modifiables en ligne, nous étions volontaires pour réviser et modifier le système et ses logiciels lorsque de nouvelles idées étaient inventées, découvertes ou suggérées par d’autres ».

Korn, maintenant membre d’AT&T, travaillait comme programmeur aux Bell Labs dans les années 1970. « L’une des caractéristiques de Unix était que des outils pouvaient être écrits, et de meilleurs outils pouvaient les remplacer », se souvient-il. « Ce n’était pas un monolithe dans lequel il fallait tout approuver ; vous pouviez en fait développer de meilleures versions ». Il a développé l’influent Korn shell, un langage de programmation permettant d’interagir directement avec Unix, maintenant disponible en open source.

Salus, auteur et historien des technologies, se souvient de son travail avec le langage de programmation APL sur un mainframe IBM tournant sous System/360, en tant que professeur à l’Université de Toronto dans les années 1970. Mais le lendemain de Noël 1978, un ami à l’Université de Colombia lui fit une démonstration de Unix, tournant sur un mini-ordinateur. « Je me suis exclamé : Oh mon Dieu !, et j’étais totalement converti », raconte Salus.

Il dit que pour lui, l’un des avantages clés de Unix était la fonctionnalité pipe, introduite en 1973, qui rendait facile le passage de données d’un programme à l’autre. Le concept de pipeline, inventé par McIlroy des Bell Labs, fut par la suite copié dans de nombreux OS, parmi lesquels les variantes d’Unix, Linux, DOS et Windows.

Un autre avantage de Unix, le deuxième effet Wooow, comme le dit Salus, était qu’il n’avait pas besoin d’un mainframe d’un demi-million de dollars pour tourner. Il avait été écrit sur le petit mini-ordinateur DEC PDP-7, assez primitif, car c’était tout ce que Thompson et Ritchie avaient sous la main en 1969. « Le PDP-7 était presque incapable de quoi que ce soit », se souvient Salus. « J’étais scotché ».

Pas mal de monde a également été rendu accro. Les chercheurs des universités ont adopté Unix car il était assez simple et facilement modifiable, ne demandait pas beaucoup de ressources, et le code source était libre pour une bonne partie. Des startups comme Sun Microsystems et un ensemble d’entreprises maintenant défuntes qui se spécialisaient dans l’informatique scientifique, comme Multiflow Computer, en ont fait leur système d’exploitation de choix pour les mêmes raisons.

La progéniture d’Unix

Unix a grandi comme un système non-propriétaire car en 1956 AT&T avait été enjoint par une décret fédéral à ne pas s’écarter de sa mission de production de service téléphonique. Il pouvait développer du logiciel, et même le licencier pour un tarif raisonnable, mais l’entreprise ne pouvait pas entrer sur le marché de l’informatique.

Unix, qui avait été développé sans encouragement du management, avait d’abord été vu par AT&T comme quelque chose entre une curiosité et un casse-tête légal.

C’est à ce moment là, à la fin des années 1970, AT&t a réalisé qu’ils avaient quelque chose de commercialement intéressant en main. Ses avocats ont commencé à adopter une interprétation plus favorable de l’ordonnance de 1956, comme ils cherchaient des manières de protéger Unix comme un secret de fabrication. A partir de 1979, avec la sortie de la Version 7, les licences Unix interdisaient aux universités d’utiliser le code source Unix pour l’étudier pendant leurs cours.

Pas de problème, se dit alors le professeur d’informatique Andrew Tanenbaum, qui avait utilisé Unix V6 à l’Université Vrije à Amsterdam. En 1987, il écrivit un clone de Unix pour utiliser lors de ses cours, en créant le système d’exploitation open source Minix, qui tournait sur un microprocesseur Intel 80286.

« Minix comprenait toutes les idées d’Unix, et c’était un travail brillant », raconte Salus. « Seul un programmeur majeur, quelqu’un qui comprenait en profondeur les mécanismes internes d’un système d’exploitation, pouvait faire cela ». Minix allait devenir le point de départ pour la création de Linux par Linus Torvalds en 1991. Si ce n’était pas exactement un clone d’Unix, il s’agissait à n’en pas douter d’un Unix-like.

En reculant d’une décade ou à peu près, Bill Joy, qui était un étudiant diplômé et programmeur à l’Université de Californie de Berkeley dans les années 1970, mit la main sur une copie de l’Unix des Laboratoires Bell, et il pensa que c’était une bonne plateforme pour son propre travail sur un compilateur Pascal et un éditeur de texte.

Les modifications et extensions que lui et d’autres firent à Berkeley ont résulté dans la seconde branche majeure de Unix, appelée Berkeley Software Distribution (BSD) Unix. En mars 1978, Joy envoyait des copies de 1BSD, vendues 50$.

Ainsi en 1980 il y avait deux lignes majeures de Unix, l’une de Berkeley et l’autre de AT&T, et la scène était montée pour ce qui allait devenir la Guerre des Unix. La bonne nouvelle était que les développeurs de logiciels pouvaient avoir accès de partout au code source Unix, et l’adapter à leurs besoins et caprices. La mauvaise nouvelle c’est qu’ils firent exactement cela. Unix a proliféré, et les variantes ont divergé.

En 1982, Joy a contribué à fonder Sun Microsystems et offrait une station de travail, la Sun-1, qui utilisait une version de BSD appelée SunOS. (Solaris allait apparaitre environ 10 ans plus tard). L’année suivante, AT&T a sorti la première version de Unix System V, un système d’exploitation qui a eu une influence énorme et qui fut la base de IBM AIX et Hewlett-Packard HP-UX.

Les Guerres Unix

Unix History - Eraserhead1 et Infinity0 - CC by-saAu milieu des années 80, les utilisateurs, y compris le gouvernement fédéral, se sont plaints que si en théorie Unix était un système d’exploitation unique et portable, en fait on en était loin. Les éditeurs faisaient semblant d’adhérer à cette réclamation, mais travaillaient jour et nuit pour enfermer les clients avec des fonctionnalités et API uniques à leur Unix.

En 1987, Unix System Laboratories, qui faisait partie des Laboratoires Bell à cette époque, commença à travailler avec Sun sur un système qui pourrait unifier les deux branches majeures de Unix. Le produit de leur collaboration, appelé Unix System V Release 4.0, fut sorti deux ans plus tard, et combinait des fonctionnalités de System V Release 3, BSD, SunOS et du Xenix de Microsoft.

Les autres éditeurs Unix craignaient l’alliance AT&T/Sun. Les diverses parties ont formé des organismes standards concurrents, qui portaient des noms tels que X/Open, Open Software Foundation (ou OSF), Unix International et Corporation for Open Systems. Les arguments, contre-arguments et réussites de ces groupes pourraient remplir un livre, mais ils clamaient tous leur désir d’un Unix unifié, tout en se tirant dessus les uns les autres.

Dans un article écrit en 1988, mais non publié, pour la DARPA (Defense Advanced Research Projects Agency) (NdT : Agence pour les Projets de Recherche Avancée de la Défense), le pionnier des mini-ordinateurs Gordon Bell disait ceci de la toute nouvelle Open Software Foundation, qui incluait IBM, HP, DEC et d’autres, alliés contre le partenariat AT&T/Sun : « OSF est une manière pour ceux qui n’ont pas d’Unix d’entrer sur ce marché en devenir, tout en maintenant leur musées de code à hautes marges ».

Les Guerres Unix n’ont pas réussi à calmer les différences ou à créer un réel standard pour le système d’exploitation. Mais en 1993, la communauté Unix était réveillée par Microsoft, sous la forme de Windows NT, un système d’exploitation 32 bits utilisable en entreprise. Ce NT propriétaire visait directement Unix, et devait étendre l’hégémonie de Microsoft sur l’ordinateur de bureau aux centres serveurs et endroits similaires, tenus principalement par les serveurs Sun et autres.

Les utilisateurs Microsoft ont applaudi. Les fournisseurs Unix ont paniqué. Tous les principaux rivaux des Unix majeurs se sont réunis dans une initiative appelé Common Open Software Environnement (NdT : Environnement Logiciel Ouvert Commun), et l’année suivante ont plus ou moins déposé les armes en mixant le groupe Unix International, appuyé par AT&T/Sun avec l’Open Software Foundation. Cette coalition a évolué dans l’actuel The Open Group, organisme certificateur des systèmes Unix, et propriétaire de Single Unix Specification (SUS), maintenant la définition officielle de « Unix ».

D’un point de vue pratique, ces développements ont pu standardiser Unix au maximum possible, en fonction de la concurrence des éditeurs. Mais ils sont sans doute arrivés trop tard pour enrayer la montée d’une marée appelée Linux, le système d’exploitation open source dérivé de Minix du professeur Tanenbaum.

Mais qu’est ce que « Unix », finalement ?

Unix, vous diront la plupart des gens, est un système d’exploitation écrit il y a plusieurs dizaines d’années aux Laboratoires Bell de AT&T, et ses descendants. Les versions majeures d’Unix aujourd’hui proviennent de deux branches d’un même tronc : l’une émane directement de AT&T et l’autre vient de AT&T via l’Université de Californie de Berkeley. Les branches les plus robustes actuellement sont AIX d’IBM, HP-UX de HP et Solaris de Sun.

Toutefois, The Open Group, qui détient la marque déposée Unix, définit Unix comme n’importe quel système d’exploitation qui a été certifié par ses services pour se conformer à la Single Unix Specification (SUS) (NdT : Spécification Unix Unique). Ceci inclut des OS que l’on ne considère pas généralement comme étant des Unix, tel que Mac OS X Leopard (qui dérive d’un BSD Unix) et IBM z/OS (qui vient du système d’exploitation mainframe MVS), car ils se conforment au SUS et supportent les APIs SUS. L’idée basique est que c’est un Unix si cela agit comme Unix, quel que soit le code sous-jacent.

Une définition encore plus large d’Unix pourrait inclure les OS Unix Like (qui ressemblent à Unix), parfois appelé des clones d’Unix ou des sosies, qui ont copié une bonne partie des idées de Unix mais n’incorporent pas directement du code Unix. Le plus connu d’entre tous étant certainement Linux.

Finalement, même s’il est raisonnable d’appeler Unix un système d’exploitation, c’est finalement plus que cela. En plus du noyau de l’OS, les implémentations Unix embarquent typiquement des utilitaires tels que des éditeurs en ligne de commande, des interfaces de programmation applicatives (API), des environnements de développement, des librairies et de la documentation.

Le futur d’Unix

Le manque continuel de portabilité complète entre les différentes versions concurrentes d’Unix, de même que l’avantage financier de Linux et Windows sur les processeurs standards x86, vont inciter les organisations informatiques de quitter Unix, suggère un récent sondage du Gartner Group.

« Les résultats réaffirment l’enthousiasme continu pour Linux comme plate-forme serveur, avec Windows qui croît de la même manière, et Unix qui prend la route d’un long, mais graduel, déclin », décrit le sondage, publié en février 2009.

« Unix a eu un passé long et vivant, et même s’il n’est pas encore parti, il sera de plus en plus sous pression », dit l’analyste du Gartner George Weiss. « Linux est l’Unix de choix stratégique. Même si Linux n’a pas le long héritage de développement, de tuning et de tests de stress que Unix a pu avoir, il s’en approche et va bientôt égaler Unix en performance, stabilité et montée en charge », dit-il.

Mais un récent sondage de ComputerWorld suggère que le retrait d’Unix ne va pas arriver aussi rapidement. Dans cette enquête concernant 130 utilisateurs Unix sur 211 responsables informatiques, 90% ont déclaré que leur entreprise était « très ou extrêmement dépendante » de Unix. Un peu plus de la moitié a dit : « Unix est une plateforme essentielle pour nous et le restera indéfiniment », et seulement 12% ont dit « Nous pensons sortir de Unix dans le futur ». Les économies de coût, essentiellement au travers d’une consolidation de serveurs, étaient citées comme la raison n°1 pour migrer vers autre chose.

Weiss pense que la migration vers des processeurs x86 va s’accélérer à cause de l’avantage du coût du matériel. « Des architectures extensibles horizontalement ; le clustering ; le cloud computing ; la virtualisation sur x86, quand vous combinez toutes ces tendances, le système d’exploitation de choix tourne autour de Linux ou Windows », dit-il.

« Par exemple », déclare Weill, « dans l’annonce récente de Cisco de son architecture Unified Computing, vous avez dans un même équipement le réseau, le stockage, le calcul et la mémoire, et vous n’avez pas besoin d’Unix. Vous pouvez utiliser Linux ou Windows sur x86. Ainsi, Intel est en train de gagner la guerre pour le compte de Linux contre Unix ».

The Open Group, propriétaire des Single Unix Specification et organisme certificateur des systèmes Unix, concède peu à Linux, et déclare que Unix est le système de choix pour « le haut du panier en termes de fonctionnalités, montée en charge et performance pour des applications critiques ». Linux, dit-il, tend à être le standard pour les applications plus simples, moins critiques.

Korn, de AT&T, est parmi ceux qui pensent que Unix a encore un bel avenir. Korn dit que la force d’Unix pendant toutes ces années, depuis l’ajout des pipes en 1973, est qu’il peut facilement être éclaté en petits bouts et distribué. Ceci va pousser Unix en avant, dit-il. « La philosophie (du pipeline) fonctionne bien avec le cloud computing, dans lequel vous construisez des petits morceaux réutilisables plutôt qu’une grosse application monolithique ».

L’héritage d’Unix

Quel que soit le sort final d’Unix, le système d’exploitation né dans les Laboratoires Bell il y a 40 ans a établi un héritage qui risque de durer encore quelques dizaines d’années. Il peut revendiquer la paternité d’une longue liste de logiciels populaires, incluant l’offre Unix de IBM, HP, Sun, Apple Mac OS X et Linux. Il a également influencé des systèmes qui ont leurs racines dans Unix, comme Microsoft Windows NT et les versions IBM et Microsoft de DOS.

Unix a permis à de nombreuses entreprises qui démarraient de réussir, en leur offrant une plateforme peu onéreuse sur laquelle construire. C’était une des briques de base pour la construction d’Internet, et il fait partie du cœur des systèmes de télécommunications aujourd’hui. Il a engendré de nombreux concepts d’architecture, comme l’utilisation du pipeline, et le dérivé de Unix, Mach, a contribué énormément à l’informatique scientifique, distribuée et multiprocesseurs.

C’est peut-être l’ACM qui l’a mieux énoncé en 1983 dans sa citation du prix Turing en l’honneur de Thompson et Ritchie sur leur travail sur Unix : « Le génie du système Unix est dans sa structure, qui permet aux programmeurs de bâtir sur le travail des autres ».

Notes

[1] Crédit photos : 1. Rudolf Schuba (Creative Commons By) / 2. Hoshie (Domaine Public) / 3. Eraserhead1 et Infinity0 (Creative Commons By-Sa)




Le campus, c’est la ville !

À lire le récent article (un brin optimiste) du Monde, Le Japon à l’heure du savoir partagé, on se dit que si le logiciel libre était une université il pourrait être celle de Shibuya, du nom d’un quartier très mode de Tokyo.

Extraits :

A l’Université de Shibuya, en revanche, les cours sont gratuits. Cet « établissement » né en septembre 2006 dissimule un concept nouveau dans l’Archipel. « C’est un moyen d’apprendre ancré dans la communauté et l’environnement local », explique son président, Yasuaki Sakyo, 29 ans. Il ne s’agit plus de transmettre un savoir, mais « de le partager ». L’université formée sous le statut d’organisation à but non lucratif n’a pas de locaux : « Le campus, c’est la ville. »

Accessible sans concours d’entrée, elle n’accorde pas de diplôme mais elle « met en relation ». Elle contacte des personnes qui vivent ou travaillent à Shibuya, quartier vibrionnant de Tokyo où se côtoient différents univers, de la mode au design, voire l’édition. Elle les invite à partager leur passion ou leur savoir. Puis elle trouve un café, un gymnase, une école, un magasin, un parc… et annonce le cours sur son site.

(…) « Nous ne faisons pas de publicité », explique Yasuaki Sakyo. L’information est juste reprise par les médias locaux, telle la radio J-wave. Elle circule entre amis ou sur les sites communautaires.

(…) Ainsi Yuuka Nishida, une vingtaine d’années, employée du site Internet Seesaa, fréquente l’université depuis septembre 2007. « J’ai commencé par un cours sur la politique. Je viens tous les deux ou trois mois. » Elle se dit séduite par la possibilité de se faire des amis. « Le staff a le même âge que moi. L’atmosphère est sympa. J’en parle à mes proches. »

Akane Ishikawa, elle, apprécie la gratuité et l’ouverture à tous. Dans une mégapole anonyme comme Tokyo, l’université de Shibuya offre un lieu de rencontres et d’épanouissement culturel tout en permettant à des jeunes de s’impliquer dans une activité bénévole.

Que ceci ne nous fasse pas oublier que nous avons nos universités populaires, réseaux d’échanges réciproques de savoirs, et autres café-philos, mais voici un témoignage de plus de la volonté d’interagir autrement, avec en toile de fond les nouvelles technologies comme facteur et facilitateur de communication et de mise en relation.




Étudiantes, étudiants : libérez vos travaux universitaires !

Foundphotoslj - CC byLe titre de ce billet est une suggestion et non une injonction. Il invite les étudiants à considérer la mise sous licence Creative Commons de leurs écrits universitaires (mémoires, thèses…) afin de faciliter le partage, l’échange et la mise en commun du savoir et de la connaissance.

Nous avions tenté en introduction d’un billet précédent d’expliquer la différence entre « copyleft » et « copyright ». Or, en l’absence de toute mention de licence, les travaux sont alors automatiquement placés par défaut sous le régime du « copyright classique », avec des effets collatéraux, comme ceux décrits ci-dessous, qui ne sont pas forcément désirés par leurs auteurs.

Étudiantes[1], étudiants, vous pouvez bien entendu refuser ce choix (par exemple parce que, modestes, vous ne jugez pas votre travail digne d’être diffusé). Mais encore faudrait-il que vous ayez conscience qu’un tel choix existe[2].

Les choses bougent mais, nous semble-t-il, encore trop rares sont les étudiants réellement au courant de cette alternative. Et nous comptons sur les enseignants et leurs administrations universitaires pour en faire si ce n’est la promotion tout de moins le minimum syndical en matière d’information.

Copyright et Copyleft dans les publications universitaires

Copyright and Copyleft in Publications

Ian Elwood – 17 février 2009 – The Daily Californian
(Traduction Framalang : Don Rico)

Creative Commons une alternative au traditionnel copyright ou la promotion d’un accès plus large à la connaissance

Le prix des recueils de textes et documents pour les cours d’université s’élève à 200 dollars à cause des coûts excessifs des autorisations de droits d’auteur. Les bibliothèques sont paralysées par les prix exorbitants des bases de données propriétaires et des revues à accès restreint. L’accès au savoir devient de plus en plus la chasse gardée de grosses entreprises qui cherchent à rentabiliser l’éducation en limitant l’accès à l’information.

À l’université de Californie, à Berkeley, nombreux sont les étudiants à ne pas se soucier de la propriété intellectuelle ou des droits d’auteur. Même si les travaux d’étudiants tels que les thèses ou les mémoires sont la propriété de l’étudiant, jusqu’à une période récente la mention de copyright standard sur un mémoire indiquait par défaut « Tous droits réservés ». Bien que cette pratique n’ait pas d’impact direct sur l’augmentation du coût des études, un étudiant qui choisirait une solution alternative au droit d’auteur traditionnel constituerait une action modeste pouvant servir de catalyseur à la réduction de nombreux coûts dans le domaine des études.

Lawrence Lessig, professeur de droit à l’université de Stanford, a créé les licences Creatives Commons afin que les détenteurs de droits d’auteur puissent autoriser de nouvelles façons d’utiliser leurs travaux artistiques et universitaires. Le détenteur d’un copyright peut opter pour une licence « Certains droits réservés » qui encourage les autres membres de la communauté à adapter et à réutiliser ses travaux sans avoir à demander l’autorisation ou verser des droits d’auteur. Cette licence ouvre de nombreuses possibilités dans le monde universitaire, tels que la mise à disposition de recueils de textes et documents en ligne gratuits, de contenu multimédia éducatif à coût nul, et de didacticiels en ligne gratuits. Même le prix des manuels scolaires pourrait en être fortement réduit. Plus important peut-être que l’aspect financier, utiliser la licence Creative Commons revient surtout, en partageant vos productions intellectuelles avec la communauté universitaire, à apporter votre pierre à la mise en commun du savoir, car les générations futures de chercheurs auront un accès facilité à vos travaux.

Deux étudiants de Berkeley, Joseph Lorenzo Hall et Danah Boyd, ont récemment placé leur mémoire sous une licence Creative Commons. Hall s’est heurté de nombreux obstacles bureaucratiques, mais la plupart de ses difficultés provenaient de simples problèmes formels, et non d’opposition idéologique de la part l’université. Peu après, une autre diplomée de la School of Information (NdT : faculté des Sciences de l’information), Danah Boyd, a elle aussi placé son mémoire sous licence Creative Commons.

Le 28 janvier 2009, le Doyen du département de troisième cycle s’est engagé à ce que les futurs étudiants puissent opter pour la licence Creative Commons. Tous les étudiants désireux de rendre l’éducation plus abordable et plus accessible devraient envisager de recourir aux Creative Commons plutôt qu’au copyright traditionnel.

Prendre part à ce mouvement est d’une simplicité enfantine : il suffit de procéder à deux modifications sur un mémoire ou sur une thèse. Tout d’abord, l’auteur inscrit « Certains droits réservés » au lieu de « Tous droits réservés » sur la page de copyright. Ensuite, il inclut en appendice le contrat complet (Code juridique) de la licence Creative Commons de son choix. Ceux qui souhaitent libérer leur publications universitaires peuvent voir des exemples sur les sites respectifs de Joseph Lorenzo Hall et Danah Boyd.

Notes

[1] Crédit photo : Foundphotoslj (Creative Commons By)

[2] Le choix ne se limite pas aux licences Creative Commons. Ne pas oublier qu’il existe également la Licence Art Libre qui, bien que peu diffusée dans le monde anglophone, est tout aussi indiquée dans le cas qui nous concerne ici.