Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire

Rudolf Schuba - CC bySéquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Daria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard dans les communications de l’ACM (CACM), le journal de l’Association for Computer Machinery. « Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité d’utilisation ».

Apparemment ils y sont arrivés. Unix va évoluer pour devenir une pierre angulaire de l’informatique, largement installé sur les serveurs et les postes de travail dans les universités, les gouvernements et les entreprises. Et son influence s’est étendue bien au-delà de ses déploiements, comme l’a noté l’ACM en 1983, lorsqu’ils ont attribué leur prix le plus élevé à Thompson et Ritchie, le A.M. Turing Award pour leur contribution à l’informatique : « Le modèle du système Unix a conduit une génération de concepteurs logiciels à repenser leur manière de programmer ».

Les premiers pas

Bien sûr, le succès d’Unix n’est pas arrivé d’un coup. En 1971, il a été porté sur le mini-ordinateur PDP-11, une plateforme plus puissante que le PDP-7 pour laquelle il avait été écrit à l’origine. Des programmes d’édition et de formatage de texte ont été ajoutés, et il a été déployé pour quelques dactylos du département des Brevets des Bell Labs, ses premiers utilisateurs en dehors de l’équipe de développement.

En 1972, Ritchie écrivait le langage de programmation de haut-niveau C (basé sur un langage précédent de Thompson, le B) ; suite à cela, Thompson réécrivit Unix en C, ce qui permit d’améliorer la portabilité de l’OS sur différents environnements. En cours de chemin, il acquit le nom de Unics (Uniplexed Information and Computing Services), un jeu de mots sur Multics ; l’orthographe se transforma rapidement en Unix.

Il était temps d’envahir le monde. L’article de Ritchie et Thompson de Juillet 1974 dans le CACM, « Le système temps-partagé UNIX », prit le monde de l’informatique dans un ouragan. Jusqu’alors, Unix avait été confiné à une poignée d’utilisateurs dans les Laboratoires Bell. Mais maintenant, avec l’Association for Computing Machinery derrière lui, un éditeur l’ayant qualifié comme étant élégant, Unix était à un moment crucial.

« L’article du CACM avait eu un impact très fort », raconte l’historien de l’informatique Peter Salus dans son livre The Daemon, the Gnu and the Penguin (NdT : Le démon, le Gnou et le manchot). « Peu de temps après, Ken était assailli de demandes concernant Unix ».

Un paradis pour les hackers

Thompson et Ritchie étaient des hackers accomplis, quand ce terme désignait quelqu’un qui combinait une créativité hors pair, une intelligence à toute épreuve et de l’huile de coude pour résoudre des problèmes logiciels que l’on a peine à imaginer.

Leur approche, et le code qu’ils avaient écrit, étaient attractifs pour les programmeurs des universités, et plus tard pour des entreprises qui démarraient sans les méga budgets de IBM, Hewlett-Packard ou Microsoft. Unix était tout ce dont les autres hackers, comme Bill Joy à l’Université de Californie, Rick Rashid à l’Université Carnegie Mellon et David Korn plus tard aux Laboratoires Bell avaient rêvé.

« Presque depuis le début, le système était capable de se maintenir seul, et il l’avait prouvé », écrivaient Thompson et Ritchie dans l’article du CACM. « Comme tous les programmes sources étaient toujours disponibles et facilement modifiables en ligne, nous étions volontaires pour réviser et modifier le système et ses logiciels lorsque de nouvelles idées étaient inventées, découvertes ou suggérées par d’autres ».

Korn, maintenant membre d’AT&T, travaillait comme programmeur aux Bell Labs dans les années 1970. « L’une des caractéristiques de Unix était que des outils pouvaient être écrits, et de meilleurs outils pouvaient les remplacer », se souvient-il. « Ce n’était pas un monolithe dans lequel il fallait tout approuver ; vous pouviez en fait développer de meilleures versions ». Il a développé l’influent Korn shell, un langage de programmation permettant d’interagir directement avec Unix, maintenant disponible en open source.

Salus, auteur et historien des technologies, se souvient de son travail avec le langage de programmation APL sur un mainframe IBM tournant sous System/360, en tant que professeur à l’Université de Toronto dans les années 1970. Mais le lendemain de Noël 1978, un ami à l’Université de Colombia lui fit une démonstration de Unix, tournant sur un mini-ordinateur. « Je me suis exclamé : Oh mon Dieu !, et j’étais totalement converti », raconte Salus.

Il dit que pour lui, l’un des avantages clés de Unix était la fonctionnalité pipe, introduite en 1973, qui rendait facile le passage de données d’un programme à l’autre. Le concept de pipeline, inventé par McIlroy des Bell Labs, fut par la suite copié dans de nombreux OS, parmi lesquels les variantes d’Unix, Linux, DOS et Windows.

Un autre avantage de Unix, le deuxième effet Wooow, comme le dit Salus, était qu’il n’avait pas besoin d’un mainframe d’un demi-million de dollars pour tourner. Il avait été écrit sur le petit mini-ordinateur DEC PDP-7, assez primitif, car c’était tout ce que Thompson et Ritchie avaient sous la main en 1969. « Le PDP-7 était presque incapable de quoi que ce soit », se souvient Salus. « J’étais scotché ».

Pas mal de monde a également été rendu accro. Les chercheurs des universités ont adopté Unix car il était assez simple et facilement modifiable, ne demandait pas beaucoup de ressources, et le code source était libre pour une bonne partie. Des startups comme Sun Microsystems et un ensemble d’entreprises maintenant défuntes qui se spécialisaient dans l’informatique scientifique, comme Multiflow Computer, en ont fait leur système d’exploitation de choix pour les mêmes raisons.

La progéniture d’Unix

Unix a grandi comme un système non-propriétaire car en 1956 AT&T avait été enjoint par une décret fédéral à ne pas s’écarter de sa mission de production de service téléphonique. Il pouvait développer du logiciel, et même le licencier pour un tarif raisonnable, mais l’entreprise ne pouvait pas entrer sur le marché de l’informatique.

Unix, qui avait été développé sans encouragement du management, avait d’abord été vu par AT&T comme quelque chose entre une curiosité et un casse-tête légal.

C’est à ce moment là, à la fin des années 1970, AT&t a réalisé qu’ils avaient quelque chose de commercialement intéressant en main. Ses avocats ont commencé à adopter une interprétation plus favorable de l’ordonnance de 1956, comme ils cherchaient des manières de protéger Unix comme un secret de fabrication. A partir de 1979, avec la sortie de la Version 7, les licences Unix interdisaient aux universités d’utiliser le code source Unix pour l’étudier pendant leurs cours.

Pas de problème, se dit alors le professeur d’informatique Andrew Tanenbaum, qui avait utilisé Unix V6 à l’Université Vrije à Amsterdam. En 1987, il écrivit un clone de Unix pour utiliser lors de ses cours, en créant le système d’exploitation open source Minix, qui tournait sur un microprocesseur Intel 80286.

« Minix comprenait toutes les idées d’Unix, et c’était un travail brillant », raconte Salus. « Seul un programmeur majeur, quelqu’un qui comprenait en profondeur les mécanismes internes d’un système d’exploitation, pouvait faire cela ». Minix allait devenir le point de départ pour la création de Linux par Linus Torvalds en 1991. Si ce n’était pas exactement un clone d’Unix, il s’agissait à n’en pas douter d’un Unix-like.

En reculant d’une décade ou à peu près, Bill Joy, qui était un étudiant diplômé et programmeur à l’Université de Californie de Berkeley dans les années 1970, mit la main sur une copie de l’Unix des Laboratoires Bell, et il pensa que c’était une bonne plateforme pour son propre travail sur un compilateur Pascal et un éditeur de texte.

Les modifications et extensions que lui et d’autres firent à Berkeley ont résulté dans la seconde branche majeure de Unix, appelée Berkeley Software Distribution (BSD) Unix. En mars 1978, Joy envoyait des copies de 1BSD, vendues 50$.

Ainsi en 1980 il y avait deux lignes majeures de Unix, l’une de Berkeley et l’autre de AT&T, et la scène était montée pour ce qui allait devenir la Guerre des Unix. La bonne nouvelle était que les développeurs de logiciels pouvaient avoir accès de partout au code source Unix, et l’adapter à leurs besoins et caprices. La mauvaise nouvelle c’est qu’ils firent exactement cela. Unix a proliféré, et les variantes ont divergé.

En 1982, Joy a contribué à fonder Sun Microsystems et offrait une station de travail, la Sun-1, qui utilisait une version de BSD appelée SunOS. (Solaris allait apparaitre environ 10 ans plus tard). L’année suivante, AT&T a sorti la première version de Unix System V, un système d’exploitation qui a eu une influence énorme et qui fut la base de IBM AIX et Hewlett-Packard HP-UX.

Les Guerres Unix

Unix History - Eraserhead1 et Infinity0 - CC by-saAu milieu des années 80, les utilisateurs, y compris le gouvernement fédéral, se sont plaints que si en théorie Unix était un système d’exploitation unique et portable, en fait on en était loin. Les éditeurs faisaient semblant d’adhérer à cette réclamation, mais travaillaient jour et nuit pour enfermer les clients avec des fonctionnalités et API uniques à leur Unix.

En 1987, Unix System Laboratories, qui faisait partie des Laboratoires Bell à cette époque, commença à travailler avec Sun sur un système qui pourrait unifier les deux branches majeures de Unix. Le produit de leur collaboration, appelé Unix System V Release 4.0, fut sorti deux ans plus tard, et combinait des fonctionnalités de System V Release 3, BSD, SunOS et du Xenix de Microsoft.

Les autres éditeurs Unix craignaient l’alliance AT&T/Sun. Les diverses parties ont formé des organismes standards concurrents, qui portaient des noms tels que X/Open, Open Software Foundation (ou OSF), Unix International et Corporation for Open Systems. Les arguments, contre-arguments et réussites de ces groupes pourraient remplir un livre, mais ils clamaient tous leur désir d’un Unix unifié, tout en se tirant dessus les uns les autres.

Dans un article écrit en 1988, mais non publié, pour la DARPA (Defense Advanced Research Projects Agency) (NdT : Agence pour les Projets de Recherche Avancée de la Défense), le pionnier des mini-ordinateurs Gordon Bell disait ceci de la toute nouvelle Open Software Foundation, qui incluait IBM, HP, DEC et d’autres, alliés contre le partenariat AT&T/Sun : « OSF est une manière pour ceux qui n’ont pas d’Unix d’entrer sur ce marché en devenir, tout en maintenant leur musées de code à hautes marges ».

Les Guerres Unix n’ont pas réussi à calmer les différences ou à créer un réel standard pour le système d’exploitation. Mais en 1993, la communauté Unix était réveillée par Microsoft, sous la forme de Windows NT, un système d’exploitation 32 bits utilisable en entreprise. Ce NT propriétaire visait directement Unix, et devait étendre l’hégémonie de Microsoft sur l’ordinateur de bureau aux centres serveurs et endroits similaires, tenus principalement par les serveurs Sun et autres.

Les utilisateurs Microsoft ont applaudi. Les fournisseurs Unix ont paniqué. Tous les principaux rivaux des Unix majeurs se sont réunis dans une initiative appelé Common Open Software Environnement (NdT : Environnement Logiciel Ouvert Commun), et l’année suivante ont plus ou moins déposé les armes en mixant le groupe Unix International, appuyé par AT&T/Sun avec l’Open Software Foundation. Cette coalition a évolué dans l’actuel The Open Group, organisme certificateur des systèmes Unix, et propriétaire de Single Unix Specification (SUS), maintenant la définition officielle de « Unix ».

D’un point de vue pratique, ces développements ont pu standardiser Unix au maximum possible, en fonction de la concurrence des éditeurs. Mais ils sont sans doute arrivés trop tard pour enrayer la montée d’une marée appelée Linux, le système d’exploitation open source dérivé de Minix du professeur Tanenbaum.

Mais qu’est ce que « Unix », finalement ?

Unix, vous diront la plupart des gens, est un système d’exploitation écrit il y a plusieurs dizaines d’années aux Laboratoires Bell de AT&T, et ses descendants. Les versions majeures d’Unix aujourd’hui proviennent de deux branches d’un même tronc : l’une émane directement de AT&T et l’autre vient de AT&T via l’Université de Californie de Berkeley. Les branches les plus robustes actuellement sont AIX d’IBM, HP-UX de HP et Solaris de Sun.

Toutefois, The Open Group, qui détient la marque déposée Unix, définit Unix comme n’importe quel système d’exploitation qui a été certifié par ses services pour se conformer à la Single Unix Specification (SUS) (NdT : Spécification Unix Unique). Ceci inclut des OS que l’on ne considère pas généralement comme étant des Unix, tel que Mac OS X Leopard (qui dérive d’un BSD Unix) et IBM z/OS (qui vient du système d’exploitation mainframe MVS), car ils se conforment au SUS et supportent les APIs SUS. L’idée basique est que c’est un Unix si cela agit comme Unix, quel que soit le code sous-jacent.

Une définition encore plus large d’Unix pourrait inclure les OS Unix Like (qui ressemblent à Unix), parfois appelé des clones d’Unix ou des sosies, qui ont copié une bonne partie des idées de Unix mais n’incorporent pas directement du code Unix. Le plus connu d’entre tous étant certainement Linux.

Finalement, même s’il est raisonnable d’appeler Unix un système d’exploitation, c’est finalement plus que cela. En plus du noyau de l’OS, les implémentations Unix embarquent typiquement des utilitaires tels que des éditeurs en ligne de commande, des interfaces de programmation applicatives (API), des environnements de développement, des librairies et de la documentation.

Le futur d’Unix

Le manque continuel de portabilité complète entre les différentes versions concurrentes d’Unix, de même que l’avantage financier de Linux et Windows sur les processeurs standards x86, vont inciter les organisations informatiques de quitter Unix, suggère un récent sondage du Gartner Group.

« Les résultats réaffirment l’enthousiasme continu pour Linux comme plate-forme serveur, avec Windows qui croît de la même manière, et Unix qui prend la route d’un long, mais graduel, déclin », décrit le sondage, publié en février 2009.

« Unix a eu un passé long et vivant, et même s’il n’est pas encore parti, il sera de plus en plus sous pression », dit l’analyste du Gartner George Weiss. « Linux est l’Unix de choix stratégique. Même si Linux n’a pas le long héritage de développement, de tuning et de tests de stress que Unix a pu avoir, il s’en approche et va bientôt égaler Unix en performance, stabilité et montée en charge », dit-il.

Mais un récent sondage de ComputerWorld suggère que le retrait d’Unix ne va pas arriver aussi rapidement. Dans cette enquête concernant 130 utilisateurs Unix sur 211 responsables informatiques, 90% ont déclaré que leur entreprise était « très ou extrêmement dépendante » de Unix. Un peu plus de la moitié a dit : « Unix est une plateforme essentielle pour nous et le restera indéfiniment », et seulement 12% ont dit « Nous pensons sortir de Unix dans le futur ». Les économies de coût, essentiellement au travers d’une consolidation de serveurs, étaient citées comme la raison n°1 pour migrer vers autre chose.

Weiss pense que la migration vers des processeurs x86 va s’accélérer à cause de l’avantage du coût du matériel. « Des architectures extensibles horizontalement ; le clustering ; le cloud computing ; la virtualisation sur x86, quand vous combinez toutes ces tendances, le système d’exploitation de choix tourne autour de Linux ou Windows », dit-il.

« Par exemple », déclare Weill, « dans l’annonce récente de Cisco de son architecture Unified Computing, vous avez dans un même équipement le réseau, le stockage, le calcul et la mémoire, et vous n’avez pas besoin d’Unix. Vous pouvez utiliser Linux ou Windows sur x86. Ainsi, Intel est en train de gagner la guerre pour le compte de Linux contre Unix ».

The Open Group, propriétaire des Single Unix Specification et organisme certificateur des systèmes Unix, concède peu à Linux, et déclare que Unix est le système de choix pour « le haut du panier en termes de fonctionnalités, montée en charge et performance pour des applications critiques ». Linux, dit-il, tend à être le standard pour les applications plus simples, moins critiques.

Korn, de AT&T, est parmi ceux qui pensent que Unix a encore un bel avenir. Korn dit que la force d’Unix pendant toutes ces années, depuis l’ajout des pipes en 1973, est qu’il peut facilement être éclaté en petits bouts et distribué. Ceci va pousser Unix en avant, dit-il. « La philosophie (du pipeline) fonctionne bien avec le cloud computing, dans lequel vous construisez des petits morceaux réutilisables plutôt qu’une grosse application monolithique ».

L’héritage d’Unix

Quel que soit le sort final d’Unix, le système d’exploitation né dans les Laboratoires Bell il y a 40 ans a établi un héritage qui risque de durer encore quelques dizaines d’années. Il peut revendiquer la paternité d’une longue liste de logiciels populaires, incluant l’offre Unix de IBM, HP, Sun, Apple Mac OS X et Linux. Il a également influencé des systèmes qui ont leurs racines dans Unix, comme Microsoft Windows NT et les versions IBM et Microsoft de DOS.

Unix a permis à de nombreuses entreprises qui démarraient de réussir, en leur offrant une plateforme peu onéreuse sur laquelle construire. C’était une des briques de base pour la construction d’Internet, et il fait partie du cœur des systèmes de télécommunications aujourd’hui. Il a engendré de nombreux concepts d’architecture, comme l’utilisation du pipeline, et le dérivé de Unix, Mach, a contribué énormément à l’informatique scientifique, distribuée et multiprocesseurs.

C’est peut-être l’ACM qui l’a mieux énoncé en 1983 dans sa citation du prix Turing en l’honneur de Thompson et Ritchie sur leur travail sur Unix : « Le génie du système Unix est dans sa structure, qui permet aux programmeurs de bâtir sur le travail des autres ».

Notes

[1] Crédit photos : 1. Rudolf Schuba (Creative Commons By) / 2. Hoshie (Domaine Public) / 3. Eraserhead1 et Infinity0 (Creative Commons By-Sa)




George Clooney a une sale gueule ou la question des images dans Wikipédia

George Clooney - Bad Dog - Public DomainÀ moins d’être aussi bien le photographe que le sujet photographié (et encore il faut faire attention au décor environnant), impliquant alors soit d’avoir le don d’ubiquité soit d’avoir un pied ou le bras assez long, c’est en théorie un pur casse-tête que de mettre en ligne des photographies sur Internet.

Il y a donc pour commencer le droit de l’auteur, le photographe. Mais quand bien même il aurait fait le choix de l’ouverture pour ses images, avec par exemple une licence Creative Commons, il reste la question épineuse du droit du sujet photographié (qui peut être une personne, un monument architectural…). Et pour corser le tout, n’oublions pas le fait que la législation est différente selon les pays.

Et c’est ainsi que le Framablog se met quasi systématiquement dans l’illégalité lorsqu’il illustre ses billets par une photographie où apparaissent des gens certes photogéniques mais non identifiés. Parce que si il prend bien le soin d’aller puiser ses photos parmi le stock d’images sous Creative Commons d’un site comme Flickr, il ne respecte que le droit du photographe et non celui du ou des photographié(s), dont il n’a jamais eu la moindre autorisation.

C’est peut-être moins grave (avec un bon avocat) que ces millions de photos que l’écrasante majorité de la jeune génération partage et échange sans aucune précaution d’usage sur les blogs, MySpace ou Facebook, mais nous ne sommes clairement qu’à la moitié du chemin.

Le chemin complet du respect des licences et du droit à l’image, c’est ce que tente d’observer au quotidien l’encyclopédie libre Wikipédia. Et c’est un véritable… sacerdoce !

Vous voulez mettre en ligne une photo sur Wikipédia ? Bon courage ! L’avantage c’est que vous allez gagner rapidement et gratuitement une formation accélérée en droit à l’image 😉

Pour l’anecdote on cherche toujours à illustrer le paragraphe Framakey de notre article Framasoft de l’encyclopédie et on n’y arrive pas. Une fois c’est le logo de Firefox (apparaissant au microscope sur une copie d’écran de l’interface de la Framakey) qui ne convient pas, parce que la marque Firefox est propriété exclusive de Mozilla. Une fois c’est notre propre logo (la grenouille Framanouille réalisée par Ayo) qui est refusé parce qu’on ne peut justifier en bonne et due forme que sa licence est l’Art Libre.

Toujours est-il donc que si vous souhaitez déposer une image dans la médiathèque de Wikipédia (Wikimédia Commons) alors le parcours est semé d’embûches. L’enseignant que je suis est plutôt content parce que l’encyclopédie participe ainsi à éduquer et sensibiliser les utilisateurs à toutes ces questions de droit d’auteurs, de propriété intellectuelle… avec moultes explications sur l’intérêt d’opter (et de respecter) les licences libres. Mais il n’empêche que l’une des conséquences de ces drastiques conditions d’entrée, c’est que pour le moment Wikipédia manque globalement de photographies de qualité (comparativement à son contenu textuel).

C’est particulièrement criant lorsqu’il s’agit d’illustrer les articles sur des personnalités contemporaines[1] (les plus anciennes échappant a priori au problème avec le domaine public, sauf quand ces personnalités ont vécu avant… l’invention de la photographie !). Et c’est cette carence iconographique que le New York Times a récemment prise pour cible dans une chronique acide dont le traduction ci-dessous nous a servi de prétexte pour aborder cette problématique (chronique qui aborde au passage la question complexe du photographe professionnel qui, craignant pour son gagne-pain, peut hésiter à participer).

La situation est-elle réellement aussi noire que veut bien nous le dire le vénérable journal ?

Peut-être pas. Il y a ainsi de plus en plus de photographes de qualité, tel Luc Viatour, qui participent au projet . Il y a de plus en plus d’institutions qui, contrairement au National Portrait Gallery, collaborent avec Wikipédia en ouvrant leurs fonds et archives, comme en témoigne l‘exemple allemand. Même le Forum économique mondial de Davos s’y met (dépôt dans Flickr, utilisation dans Wikipédia). Sans oublier les promenades locales et festives où, appareil photo en bandoulière, on se donne pour objectif d’enrichir ensemble l’encyclopédie.

Du coup mon jugement péremptoire précédent, à propos de la prétendue absence globale de qualité des images de Wikipédia, est à nuancer. Il suffit pour s’en convaincre de parcourir les pages « images de qualité » ou l’« image du jour ».

L’encyclopédie est en constante évolution, pour ne pas dire en constante amélioration, et bien heureusement la photographie n’échappe pas à la règle. Même si il est vrai que le processus est plus lent parce qu’on lui demande de s’adapter à Wikipédia et non l’inverse.

Wikipédia, terre fertile pour les articles, mais désert aride pour les photos

Wikipedia May Be a Font of Facts, but It’s a Desert for Photos

Noam Cohen – 19 juillet 2009 – New York Times
(Traduction Framalang : Olivier et Goofy)

Une question de la plus haute importance : existe-t-il de mauvaises photos de Halle Berry ou de George Clooney ?

Halle Berry - Nancy Smelser - Public DomainFacile, allez sur Wikipédia ! Vous y trouverez une photo floue de Mlle Berry, datant du milieu des années quatre-vingt, lors de la tournée U.S.O. avec d’autres candidates au titre de miss USA. La mise au point est mauvaise, elle porte une casquette rouge et blanche, un short, c’est à peine si on la reconnait. L’article de Wikipédia sur M. Clooney est, quant à lui, illustré par une photo le montrant au Tchad, portant une veste kaki est une casquette des Nations Unies. Avec son grand sourire et ses traits anguleux il est toujours aussi beau, en compagnie de deux femmes travaillant pour les Nations Unies, mais on est loin d’un portait glamour.

Certains personnages éminemment célèbres, comme Howard Stern ou Julius Erving, n’ont même pas la chance d’avoir leur photo sur Wikipédia.

George Clooney - Nando65 - Public DomainAlors que de nos jours les célébrités s’offrent couramment les services d’une équipe de professionnels pour contrôler leur image, sur Wikipédia c’est la loi du chaos. Très peu de photographies de bonne qualité, particulièrement de célébrités, viennent enrichir ce site. Tout cela tient au fait que le site n’accepte que les images protégées par la plus permissive des licences Creative Commons, afin qu’elles puissent être ré-utilisées par n’importe qui, pour en tirer profit ou pas, tant que l’auteur de la photo est cité.

« Des représentants ou des agents publicitaires nous contactent, horrifiés par les photos qu’on trouve sur le site », confie Jay Walsh, porte-parole de la Wikimedia Foundation, l’organisme qui gère Wikipédia, l’encyclopédie en plus de 200 langues. « Ils nous disent : J’ai cette image, je voudrais l’utiliser. Mais ça n’est pas aussi simple que de mettre en ligne la photo qu’on nous envoie en pièce jointe. »

Il poursuit : « En général, nous leur faisons comprendre que de nous envoyer une photo prise par la photographe Annie Leibovitz ne servira à rien si nous n’avons pas son accord. »

Les photos sont l’un des défauts les plus flagrants de Wikipédia. À la différence des articles du site, qui, en théorie, sont vérifiés, détaillés à l’aide de notes, et qui se bonifient avec le temps, les photos sont l’œuvre d’une seule personne et elles sont figées. Si un mauvais article peut être amélioré, une mauvaise photo reste une mauvaise photo.

Les wikipédiens tentent de corriger ce défaut, ils organisent des événements ou des groupes de contributeurs vont prendre des clichés de bonne qualité de bâtiments ou d’objets. De même, Wikipédia s’efforce d’obtenir la permission d’utiliser d’importantes collections de photographies.

L’hiver dernier, les archives fédérales allemandes ont placé cent mille photos basse résolution sous une licence permettant leur usage dans Wikipédia. Récemment, un utilisateur de Wikipédia, Derrick Coetzee, a téléchargé plus de trois mille photos haute résolution d’œuvres de la National Portrait Gallery de Londres, pour qu’elles soient utilisées, essentiellement, pour illustrer les articles se rapportant à des personnes historiques célèbres comme Charlotte Brontë ou Charles Darwin.

La galerie a menacé de porter plainte contre M. Coetzee, affirmant que même si les portraits, de par leur ancienneté, ne tombent plus sous la protection du droit d’auteur, les photographies elles sont récentes et du coup protégées. La galerie exige une réponse de M. Coetzee pour lundi. Il est représenté par l’Electronic Frontier Foundation. S’exprimant par e-mail vendredi, une porte-parole de la galerie, Eleanor Macnair, écrit qu’un « contact a été établi » avec la Wikimedia Foundation et que « nous espérons toujours que le dialogue est possible ».

On reste pourtant bien loin du compte et le problème des photographies sur Wikipédia est tout sauf réglé. Dans la galerie des horreurs, l’ancienne star de la NBA, George Gervin, aurait une place de choix. Debout, droit comme un I dans son costard, sur une photo aux dimensions pour le moins étranges, même pour un joueur de basket-ball. La photo, recadrée et libre de droit, provient du bureau du sénateur du Texas, John Cornyn.

Barack Obama - Pete Souza - CC byL’exemple de M. Gervin illustre un fait établi : le gouvernement alimente le domaine public de nombreuses photographies. Celle illustrant l’article du président Obama, par exemple, est un portrait officiel tout ce qu’il y a de posé et sérieux.

Mais les collections de photographies du gouvernement servent aussi aux contributeurs de Wikipédia. Ils espèrent y dénicher des images de rencontres entre célébrités et personnages politiques, qu’ils massacrent ensuite pour illustrer un article.

L’ancien roi du baseball, Hank Aaron, a l’honneur d’être illustré par une photo prise hors contexte, bizarrement découpée, prise en 1978 à la Maison Blanche. De même, l’illustration principale de l’article sur Michael Jackson a été réalisée en 1984 à l’occasion de sa visite à Ronald et Nancy Reagan.

Natalie Dessay - Alixkovich - CC by-saLes photos récentes sur Wikipédia sont, pour une large majorité, l’œuvre d’amateurs qui partagent volontiers leur travail. Amateur étant même un terme flatteur puisque ce sont plutôt des photos prises par des fans qui par chance avaient un appareil photo sous la main. La page de la cantatrice Natalie Dessay la montre en train de signer un autographe, fuyant l’objectif, l’actrice Allison Janney est masquée par des lunettes de soleil au Toronto Film Festival. Les frères Coen, Joel et Ethan, sont pris à distance moyenne à Cannes en 2001 et Ethan se couvre la bouche, certainement parce qu’il était en train de tousser. Et il y a aussi les photos prises depuis les tribunes où on distingue à peine le sujet. D’après sa photo, on pourrait croire que la star du baseball Barry Bonds est un joueur de champ extérieur. David Beckham, quant à lui, apparait les deux mains sur les hanches lors d’un match de football en 1999.

Placido Domingo- Sheila Rock - Copyright (with permission)Certaines personnes célèbres, comme Plácido Domingo et Oliver Stone, ont cependant eu la bonne idée de fournir elles-mêmes une photographie placée sous licence libre. Quand on pense à tout l’argent que les stars dépensent pour protéger leur image, il est étonnant de voir que si peu d’entre elles ont investi dans des photos de haute qualité, sous licence libre, pour Wikipédia ou d’autres sites. Peut-être ne se rendent-elles pas compte de la popularité de Wikipédia ? Rien que pour le mois de juin, par exemple, la page de Mlle Berry a reçu plus de 180 000 visites.

D’après Jerry Avenaim, photographe spécialisé dans les portraits de célébrités, il faut encore réussir à persuader les photographes, car placer une photo sous licence libre pourrait faire de l’ombre à toutes les autres. Il se démarque par le fait qu’il a déjà enrichi Wikipédia d’une douzaine de clichés en basse résolution, parmi lesquels un superbe portrait de Mark Harmon pris à l’origine pour un magazine télé.

Dans un interview, M. Avenaim semblait toujours indécis quant à l’idée de partager son travail. Sa démarche poursuit un double but : « D’abord, je voulais vraiment aider les célébrités que j’apprécie à apparaitre sous leur meilleur jour », dit-il, « Ensuite, c’est une stratégie marketing intéressante pour moi ».

Mark Harmon - Jerry Avenaim - CC by-saSa visibilité en ligne a largement augmenté grâce à la publication de ses œuvres sur Wikipédia, comme le montrent les résultats des moteurs de recherche ou la fréquentation de son site Web. Mais c’est une publicité qui peut aussi lui coûter très cher. « C’est mon gagne-pain », dit-il, rappelant que les photographes sont parfois très peu payés par les magazines pour leurs images de célébrités. L’essentiel de leurs revenus provient de la revente des images. Même si les images qu’il a mises gratuitement à disposition, par exemple le portrait de Dr. Phil, sont en basse résolution, elles deviennent les photographies par défaut sur Internet. Pourquoi payer alors pour une autre de ses photos ?

Et c’est bien là que la bât blesse pour les photographes qui voudraient mettre leurs œuvres à disposition sur Wikipédia, et seulement sur Wikipédia, pas sur tout Internet. « Wikipédia force à libérer le contenu déposé sur le site, c’est là que réside le problème à mes yeux », explique M. Avenaim. « S’ils veulent vraiment que la qualité des photos sur le site s’améliore, ils devrait permettre aux photographes de conserver leurs droits d’auteur. »

Notes

[1] Crédits photos : 1. George Clooney, par Bad Dog (domaine public) / 2. Halle Berry, par Nancy Smelser (domaine public) / 3. George Clooney, par Nando65 (domaine public)/ 4. Barack Obama, par Pete Souza (creative commons by) / 5. Natalie Dessay, par Alixkovich (creative commons by-sa) / 6. Placido Domingo, par Sheila Rock (copyright avec permission) / 7. Mark Harmon, par Jerry Avenaim (creative commons by-sa)




Mésentente cordiale entre Stallman et le Parti Pirate suédois sur le logiciel libre

Mecredis - CC byPourquoi les propositions du Parti Pirate suédois sont paradoxalement susceptibles de se retourner contre le logiciel libre ?

C’est ce que nous relate Richard Stallman[1] dans un récent article traduit pas nos soins, où l’on s’apercevra que la réduction du copyright et la mise dans le domaine public ont peut-être plus d’inconvénients que d’avantages lorsqu’il s’agit du cas très particulier des logiciels libres.

Remarque : Cette traduction vous est proposée par Framalang dans le cadre d’une collaboration avec l’April (dont Cédric Corazza a assuré la relecture finale).

Pourquoi les propositions du Parti Pirate suédois se retournent contre le logiciel libre

How the Swedish Pirate Party Platform Backfires on Free Software
URL d’origine de la traduction

Richard Stallman – 24 juillet 2009 – GNU.org
(Traduction Framalang : Don Rico, Goofy et aKa)

La campagne de harcèlement à laquelle se livre l’industrie du copyright en Suède a conduit à la création du premier parti politique dont le programme vise à réduire les restrictions dues au copyright : le Parti Pirate. Parmi ses propositions, on trouve l’interdiction des DRM, la légalisation du partage à but non lucratif d’œuvres culturelles, et la réduction à une durée de cinq ans du copyright pour une utilisation commerciale. Cinq ans après sa publication, toute œuvre publiée passerait dans le domaine public.

Dans l’ensemble, je suis favorable à ces changements, mais l’ironie de la chose, c’est que ce choix particulier effectué par le Parti Pirate aurait un effet néfaste sur le logiciel libre. Je suis convaincu qu’ils n’avaient nulle intention de nuire au logiciel libre, mais c’est pourtant ce qui se produirait.

En effet, la GNU General Public License (NdT : ou licence GPL) et d’autres licences copyleft se servent du copyright pour défendre la liberté de tous les utilisateurs. La GPL permet à chacun de publier des programmes modifiés, mais à condition de garder la même licence. La redistribution d’un programme qui n’aurait pas été modifié doit elle aussi conserver la même licence. Et tous ceux qui redistribuent doivent donner aux utilisateurs l’accès au code source du logiciel.

Pourquoi les propositions du Parti Pirate suédois affecteraient-elles un logiciel libre placé sous copyleft ? Au bout de cinq ans, son code source passerait dans le domaine public, et les développeurs de logiciel privateur pourraient alors l’inclure dans leurs programmes. Mais qu’en est-il du cas inverse ?

Le logiciel privateur est soumis à des CLUF, pas seulement au copyright, et les utilisateurs n’en ont pas le code source. Même si le copyright permet le partage à but non commercial, il se peut que les CLUF, eux, l’interdisent. Qui plus est, les utilisateurs, n’ayant pas accès au code source, ne contrôlent pas les actions du programme lorsqu’ils l’exécutent. Exécuter un de ces programmes revient à abandonner votre liberté et à donner au développeur du pouvoir sur vous.

Que se passerait-il si le copyright de ce programme prenait fin au bout de cinq ans ? Cela n’obligerait en rien les développeurs à libérer le code source, et il y a fort à parier que la plupart ne le feront jamais. Les utilisateurs, que l’on privera toujours du code source, se verraient toujours dans l’impossibilité d’utiliser ce programme en toute liberté. Ce programme pourrait même contenir une « bombe à retardement » conçue pour empêcher son fonctionnement au bout de cinq ans, auquel cas les exemplaires passés dans le « domaine public » ne fonctionneraient tout simplement pas.

Ainsi, la proposition du Parti Pirate donnerait aux développeurs de logiciels privateurs la jouissance du code source protégé par la GPL, après cinq ans, mais elle ne permettrait pas aux développeurs de logiciel libre d’utiliser du code propriétaire, ni après cinq ans, ni même cinquante. Le monde du Libre ne récolterait donc que les inconvénients et aucun avantage. La différence entre code source et code objet, ainsi que la pratique des CLUF, permettraient bel et bien au logiciel privateur de déroger à la règle générale du copyright de cinq ans, ce dont ne pourrait profiter le logiciel libre.

Nous nous servons aussi du copyright pour atténuer en partie le danger que représentent les brevets logiciels. Nous ne pouvons en protéger complètement nos programmes, nul programme n’est à l’abri des brevets logiciels dans un pays où ils sont autorisés, mais au moins nous empêchons qu’on les utilise pour rendre le programme non-libre. Le Parti Pirate propose d’abolir les brevets logiciels, et si cela se produisait, ce problème ne se poserait plus. Mais en attendant, nous ne devons pas perdre notre seul moyen de protection contre les brevets.

Aussitôt après que le Parti Pirate a annoncé ses propositions, les développeurs de logiciel libre ont décelé cet effet secondaire et proposé qu’on établisse une règle à part pour le logiciel libre : on allongerait la durée du copyright pour le logiciel libre, de sorte que l’on puisse le garder sous licence copyleft. Cette exception explicite accordée au logiciel libre contrebalancerait l’exception de fait dont bénéficierait le logiciel privateur. Dix ans devraient suffire, à mon sens. Toutefois, cette proposition s’est heurtée à une forte résistance des dirigeants du Parti Pirate, qui refusent de faire un cas particulier en allongeant la durée du copyright.

Je pourrais approuver une loi par laquelle le code source d’un logiciel placé sous licence GPL passerait dans le domaine public au bout de cinq ans, à condition que cette loi ait le même effet sur le code source des logiciels privateurs. Car le copyleft n’est qu’un moyen pour atteindre une fin (la liberté de l’utilisateur), et pas une fin en soi. En outre, j’aimerais autant ne pas me faire le chantre d’un copyright plus fort.

J’ai donc proposé que le programme du Parti Pirate exige que le code source des logiciels privateurs soit déposé en main tierce dès la publication des binaires. Ce code source serait ensuite placé dans le domaine public au bout de cinq ans. Au lieu d’accorder au logiciel libre une exception officielle à la règle des cinq ans de copyright, ce système éliminerait l’exception officieuse dont bénéficierait le logiciel privateur. D’un côté comme de l’autre, le résultat est équitable.

Un partisan du Parti Pirate a proposé une variante plus large de ma première suggestion : une règle générale selon laquelle le copyright serait allongé à mesure que l’on accorde plus de liberté au public dans l’utilisation du programme. Cette solution présente l’avantage d’insérer le logiciel libre dans un mouvement collectif de copyright à durée variable au lieu de n’en faire qu’une exception isolée.

Je préfèrerais la solution de la main tierce, mais l’une ou l’autre de ces méthodes éviterait un retour de flamme, particulièrement nuisible au logiciel libre. Il existe sans doute d’autres solutions. Quoi qu’il en soit, le Parti Pirate suédois devrait éviter d’infliger un handicap à un mouvement spécifique lorsqu’il se propose de défendre la population contre les géants prédateurs.

Notes

[1] Crédit photo : Mecredis (Creative Commons By)




Projet Shtooka – Interview de Nicolas Vion

Cesarastudillo - CC byDans l’expression Rencontres Mondiales du Logiciel Libre, il y a le mot rencontre. Et c’est ainsi que nous avons fait connaissance avec Nicolas Vion, fondateur du fort intéressant Projet Shtooka qu’il nous a semblé judicieux de mettre en avant sur ce blog à la faveur de cette courte interview.

L’objectif du projet vise la création de matériel audio libre pour l’apprentissage des langues étrangères en mettant en place un ensemble de collections sonores de mots et expressions telle la base audio libre de mots français (cf démo en ligne) ainsi que les outils logiciels capables d’en tirer parti. Outre le français, on trouve aussi des corpus pour d’autres langues telles que le russe, l’ukrainien, le biélorusse, le wolof, le tchèque ou le chinois[1].

Un entretien réalisé par Emmanuel Poirier (alias LeBidibule) pour Framasoft.


Bonjour Nicolas, je vais te demander de te présenter.

Je m’appelle Nicolas Vion, je m’intéresse depuis quelques années aux langues slaves. Après une licence de russe, je suis actuellement en licence d’ukrainien et travaille comme développeur système. Je m’occupe du Projet Shtooka depuis son origine.

En quoi consiste ton projet ?

Le projet Shtooka consiste à enregistrer des collections audio libres de mots, d’expressions idiomatiques et d’éléments du langage avec des locuteurs natifs pour toutes les langues.

C’est aussi un ensemble de logiciels permettant d’enregistrer, d’organiser et d’exploiter ces collections. Cela permet, par exemple, d’ajouter l’audio dans des dictionnaires électroniques (les fichiers sont d’ores et déjà utilisés pour le Wiktionnaire), mais aussi de faciliter l’apprentissage du vocabulaire d’une langue étrangère en se faisant des fiches de vocabulaire audio à l’aide d’outils comme le Kit Shtooka (ou bientôt les SWAC Tools) et ainsi de réviser son vocabulaire à l’aide d’un baladeur MP3 ou Ogg Vorbis en baladodiffusion. Il est également possible de créer à partir de ces fiches de vocabulaire des activités pédagogiques au format JClic pour les plus petits…

Au delà de l’aspect pédagogique, ces collections représentent, à mon sens, un intérêt linguistiques et scientifique en regroupant en un ensemble cohérent un tel matériel audio qui, je pense, comptera à l’avenir.

Depuis quelque temps, le Projet Shtooka s’est monté en association, ce qui a permis au projet de s’agrandir un peu. Nous sommes aujourd’hui environ quatre personnes actives dans le projet, de plus cela va nous permettre de contacter différents organismes en tant qu’association.

Quelles est la différence entre le Kit Shtooka et les SWAC Tools ?

Le Kit Shtooka, qui est un ensemble de programmes pour Microsoft Windows (mais qui marche aussi sous GNU/Linux avec Wine), est en quelque sorte l’héritier du petit programme à l’origine du projet. Ce petit programme était une sorte de «bidouille» que j’avais écrit pour mes besoins personnels alors que je me trouvais en Russie, où les connexions Internet ne sont pas forcément bon marché. Aussi, j’ai trouvé un CD de Delphi et ai donc commencé à coder pour cet environnement.

Le Kit Shtooka est en fait issu d’une refonte de ce programme originel. Il est mûr et utilisable, l’ayant moi-même utilisé au cours de mes études de Russe, mais des limitations sont apparues liées au choix techniques initiaux… Il y a maintenant un an j’ai commencé un travail de ré-écriture du Kit Shtooka en C++ et utilisant des libraires standards telles que GTK+ et QT, ce qui permet une meilleure portabilité entre plate-formes et une plus grande modularité.

A l’heure actuelle, si le Kit Shtooka est pleinement utilisable, les SWAC Tools sont encore assez jeunes et d’utilisation plutôt difficile (NdR : il manque notamment le logiciel d’enregistrement, le logiciel exerciseur « Repeat ») mais devraient à terme remplacer les vieux outils. C’est en quelque sorte la nouvelle génération du Kit Shtooka.

Quand as-tu pensé à utiliser des licences libres pour vos productions et vos logiciels ?

A l’origine, je n’imaginais pas qu’il serait aussi facile d’enregistrer la prononciation d’autant de mots. Tout a commencé par intérêt personnel. Je faisais enregistrer la prononciation de mots russes par mes amis afin de me faciliter l’apprentissage du vocabulaire, sans penser à la licence de ces enregistrements.

Au bout d’un an, je me suis rendu compte que je disposais d’un corpus important (NdR : mais inutilisable pour le futur projet, faute d’accord avec les locuteurs de l’époque), et j’ai pensé faire une base de mots audio en français afin d’aider des professeurs de français FLE (Français Langue Étrangère), ou encore pour les étudiants en auto-apprentissage.

C’est au cours de ces enregistrements que j’ai amélioré la technique d’enregistrement (grâce à quelques modifications de l’interface, je pouvais désormais enregistrer plus de 1500 mots de suite sans me fatiguer). J’ai alors décidé de diffuser cette première collection qui regroupait plus de 7000 enregistrements sur une site Internet sous une licence libre (la Creative Commons By) et un ami m’a soufflé l’idée de faire une dépêche sur le site d’information LinuxFr.

Très vite, j’ai été contacté par Eric Streit qui était enthousiasmé par le projet et qui a rapidement enregistré une collection de mots russes avec sa femme originaire du Kazakhstan. Un ami chinois m’a également permis de réaliser le corpus chinois : le projet Shtooka était bel et bien lancé.

À mon sens, la licence libre s’imposait car c’était la seule façon de permettre la créativité. En effet, on ne peut imaginer soi-même toutes les applications possibles à partir d’une telle « matière première » sonore.

Enfin en voulant proposer mon outil d’enregistrement à des contributeurs du projet Wiktionnaire (entre autre Betsy Megas) j’ai eu à ré-écire cet outil, pour en faire un programme séparé, plus facile à utiliser. Cela m’a permis par la même occasion de formaliser la façon des stocker les informations sur les mots enregistrés et les locuteurs, et ai proposé l’adoption des « SWAC Metatags ». En effet, s’il est possible d’enregistrer dans les fichiers audio Ogg Vorbis des informations pour les collections musicales (nom de l’album, nom de la chanson, style de musique) les « SWAC Metatags » permettent de faire la même chose avec les collections linguistiques grâce à une quarantaine de champs d’information : nom du locuteur, sa langue maternelle, région d’origine…

Avez-vous eu beaucoup de retours jusqu’alors ?

Jusqu’à présent, les retours d’expérience ont été peu nombreux; mais je remercie les personnes, notamment les professeurs de Langues Vivantes qui ont permis de faire évoluer le logiciel, et faire remonter les problèmes liés à la formation de l’outil.

Il est vrai que l’outil a été plus pensé pour des apprenants autonomes que pour des professeurs. Les RMLL 2009 ont d’ailleurs été l’occasion de rencontrer des gens d’autres projets qui utilisent nos collections. Nous avons également pris contact avec des libristes marocains qui ont l’intention de développer le Projet Shtooka dans leur pays (nous avons d’ailleurs pu enregistrer avec eux une petite collection de mots arabes durant les RMLL).

Quelles sont les aides que l’on peut vous apporter si l’on souhaite participer au projet ?

Les aides sont les bienvenues !

Tout d’abord, si l’on a des compétences pour une langue en particulier, il est possible de créer des listes de mots et expressions qui serviront lors de sessions d’enregistrements avec un locuteur natif. Pour cela il suffit de rassembler les éléments à enregistrer dans un simple fichier texte. Pour ce travail il faut quand même avoir une bonne connaissance de la langue en question : par exemple, pour le corpus français, se pose la question : faut-il prononcer les substantifs avec ou sans article ? Si oui, lesquels : définis ou indéfinis ? Pour d’autres langues se pose le problème des déclinaisons, du déplacement des accents toniques, des mutations, ou encore des cas d’homographie… Ce travail préparatoire peut être fait par un professeur, mais aussi par un apprenant.


Ensuite vous pouvez participer au projet en tant que « locuteur natif » de votre langue maternelle en enregistrant des mots ou expressions. Ceci-dit, il est important d’avoir un matériel d’enregistrement de qualité convenable, quelques connaissances sur la prise de son avec un ordinateur, et de disposer d’un endroit calme. Le logiciel d’enregistrement est très pratique et permet d’enregistrer plus de 1000 mots par heure. Ici, la communauté Shtooka peut aider (dans la mesure du possible) en trouvant le matériel, en organisant l’enregistrement…

Les professeurs de langues peuvent également nous aider en proposant des listes de vocabulaire bilingues organisées par thèmes ou par leçons, car en fait chaque collection audio est indépendante. De même, tous les travaux dérivés (exercices interactifs, imagiers pour les écoles primaires…) sont intéressants et bienvenus, et peuvent donner des idées pour compléter les collections audio.

Si vous êtes développeur C++ (ou autre) vous pouvez aider au développement des nos logiciels. Les développeurs Web et les graphistes peuvent nous donner un coup de main sur le site Internet…

Globalement, nous cherchons des aides ponctuelles mais aussi dans la durée. Il nous faudrait, par exemple, des personnes pour s’occuper du développement de telle ou telle langue (au passage, nous aurions besoin de quelqu’un qui puisse s’occuper de la collection espagnole), alors n’hésitez pas !

Notes

[1] Crédit photo : Cesarastudillo (Creative Commons By)




National Portrait Gallery vs Wikipédia ou la prise en étau et en otage de la Culture ?

Cliff1066 - CC byTous ceux qui ont eu un jour à jouer les touristes à Londres ont pu remarquer l’extrême qualité et la totale… gratuité des grands musées nationaux. Rien de tel pour présenter son patrimoine et diffuser la culture au plus grand nombre. Notons qu’à chaque fois vous êtes accueilli à l’entrée par de grandes urnes qui vous invitent à faire un don, signifiant par là-même qu’ils ne sont plus gratuits si jamais vous décidez d’y mettre votre contribution.

Parmi ces musées on trouve le National Portrait Gallery qui « abrite les portraits d’importants personnages historiques britanniques, sélectionnés non en fonction de leurs auteurs mais de la notoriété de la personne représentée. La collection comprend des peintures, mais aussi des photographies, des caricatures, des dessins et des sculptures. » (source Wikipédia).

Or la prestigieuse galerie vient tout récemment de s’illustrer en tentant de s’opposer à la mise en ligne sur Wikipédia de plus de trois mille reproductions photographiques d’œuvres de son catalogue tombées dans le domaine public. Le National Portrait Gallery (ou NPG) estime en effet que ces clichés haute-résolution lui appartiennent et ont été téléchargés sans autorisation sur Wikimedia Commons, la médiathèque des projets Wikimédia dont fait partie la fameuse encyclopédie. Et la vénérable institution va même jusqu’à menacer d’une action en justice !

Il est donc question, une fois de plus, de propriété intellectuelle mais aussi et surtout en filigrane de gros sous. Personne ne conteste que le National Portrait Gallery ait engagé des dépenses pour numériser son fond et qu’elle ait besoin d’argent pour fonctionner. Mais n’est-il pas pour le moins choquant de voir un telle institution culturelle, largement financée par l’État, refuser ainsi un accès public à son contenu, sachant qu’elle et Wikipédia ne sont pas loin de poursuivre au final les même nobles objectifs ?

C’est ce que nous rappelle l’un des administrateurs de Wikipédia dans un billet, traduit ci-dessous par nos soins, issu du blog de la Wikimedia Foundation. Billet qui se termine ainsi : « Quoi qu’il en soit, il est difficile de prouver que l’exclusion de contenus tombés dans le domaine public d’une encyclopédie libre à but non lucratif, serve l’intérêt général. »

Remarque : L’illustration[1] choisie pour cet article représente le moment, en janvier dernier, où le célèbre portrait d’Obama réalisé par l’artiste Shepard Fairey entre au National Portrait Gallery, non pas de Londres mais de Washington. Ce portrait a lui aussi fait l’objet d’une forte polémique puisqu’il s’est directement inspiré d’une image d’un photographe travaillant pour l’Association Press qui a elle aussi tenté de faire valoir ses droits (pour en savoir plus… Wikipédia bien sûr). Décidément on ne s’en sort pas ! Heureusement que le portrait s’appelle « Hope »…

Protection du domaine public et partage de notre héritage culturel

Protecting the public domain and sharing our cultural heritage

Erik Moeller – 16 juillet 2009 – Wikimedia Blog
(Traduction Framalang : Claude le Paih)

La semaine dernière, le National Portrait Gallery de Londres, Royaume Uni, a envoyé une lettre menaçante à un bénévole de Wikimédia concernant la mise en ligne de peintures du domaine public vers le dépôt de Wikimédia : Wikimédia Commons.

Le fait qu’une institution financée publiquement envoie une lettre de menace à un bénévole travaillant à l’amélioration d’une encyclopédie sans but lucratif, peut vous paraitre étrange. Après tout, la National Portrait Gallery fut fondée en 1856, avec l’intention déclarée d’utiliser des portraits « afin de promouvoir l’appréciation et la compréhension des hommes et femmes ayant fait, ou faisant, l’histoire et la culture britannique » (source) Il parait évident qu’un organisme public et une communauté de volontaires promouvant l’accès libre à l’éducation et la culture devraient être alliés plutôt qu’adversaires.

Cela parait particulièrement étrange dans le contexte des nombreux partenariats réussis entre la communauté Wikimédia et d’autres galeries, bibliothèques, archives et musées. Par exemple, deux archives allemandes, la Bundesarchiv et la Deutsche Fotothek, ont offert ensemble 350 000 images protégées par copyright sous une licence libre à Wikimédia Commons, le dépôt multimédia de la Fondation Wikimédia.

Ces donations photographiques furent le résultat heureux de négociations intelligentes entre Mathias Schindler, un bénévole de Wikimédia, et les représentants des archives. (Information sur la donation de la Bundearchiv ; Information sur la donation de la Fotothek).

Tout le monde est alors gagnant. Wikimédia aida les archives en travaillant à identifier les erreurs dans les descriptions des images offertes et en associant les sujets des photographies aux standards des métadatas. Wikipédia a contribué à faire mieux connaître ces archives. De même, les quelques trois cent millions de visiteurs mensuels de Wikipédia se sont vus offrir un accès libre à d’extraordinaires photographies de valeur historique, qu’ils n’auraient jamais pu voir autrement.

Autres exemples :

  • Au cours des derniers mois, des bénévoles de Wikimédia ont travaillé avec des institutions culturelles des États-Unis, du Royaume-Uni et des Pays-Bas afin de prendre des milliers de photographies de peintures et d’objets pour Wikimédia Commons. Ce projet est appelé « Wikipédia aime les arts ». Une nouvelle fois, tout le monde y gagne : les musées et galeries s’assurent une meilleure exposition de leur catalogue, Wikipédia améliore son service, et les gens du monde entier peuvent voir des trésors culturels auxquels ils n’auraient pas eu accès sinon. (voir la page anglaise de Wikipédia du projet et le portail néerlandais du projet).
  • Des bénévoles de Wikimédia travaillent individuellement, avec des musées et des archives, à la restauration numérique de vieilles images en enlevant des marques telles que taches ou rayures. Ce travail est minutieux et difficile mais le résultat est formidable : l’œuvre retrouve son éclat originel et une valeur informative pleinement restaurée. Le public peut de nouveau l’apprécier (le travail de restauration est coordonné grâce à la page « Potential restorations » et plusieurs exemples de restaurations peuvent être trouvés parmi les images de qualité de Wikimédia).

Trois bénévoles de Wikimédia ont résumé ces possibilités dans une lettre ouverte : Travailler avec, et non pas contre, les institutions culturelles. Les 6 et 7 Août, Wikimédia Australie organise une manifestation afin d’explorer les différents modèles de partenariats avec les galeries, bibliothèques, archives et musées (GLAM : Galleries, Libraries, Archives and Museums).

Pourquoi des bénévoles donnent-ils de leur temps à la photographie d’art, à la négociation de partenariat avec des institutions culturelles, à ce travail minutieux de restauration ? Parce que les volontaires de Wikipédia veulent rendre l’information (y compris des images d’importance informative et historique) librement disponible au monde entier. Les institutions culturelles ne devraient pas condamner les bénévoles de Wikimédia : elles devraient joindre leurs forces et participer à cette une mission.

Nous pensons qu’il existe pour Wikipédia de nombreuses et merveilleuses possibilités de collaborations avec les institutions culturelles afin d’éduquer, informer, éclairer et partager notre héritage culturel. Si vous souhaitez vous impliquer dans la discussion, nous vous invitons à rejoindre la liste de diffusion de Wikimédia Commons : la liste est lue par de nombreux bénévoles de Wikimédia, quelques volontaires liés aux comités de Wikimédias ainsi que des membres de la Fondation. Sinon, s’il existe un comité dans votre pays, vous pourriez vous mettre en contact directement avec eux. Vous pouvez également contacter directement la Wikimedia Foundation. N’hésitez pas à m’envoyer vos premières réflexions à erik(at)wikimedia(dot)org, je vous connecterai d’une manière appropriée.

La NPG (National Portrait Galery) est furieuse qu’un volontaire de Wikimédia ait mis en ligne sur Wikimédia Commons des photographies de peintures du domaine public lui appartenant. Au départ, la NPG a envoyé des lettres menaçantes à la Wikimedia Foundation, nous demandant de « détruire toutes les images » (contrairement aux déclarations publiques, ces lettres n’évoquaient pas un possible compromis. La NPG confond peut être sa correspondance et un échange de lettre en 2006 avec un bénévole de Wikimédia, (que l’utilisateur publie ici). La position de la NPG semble être que l’utilisateur a violé les lois sur le droit d’auteur en publiant ces images.

La NPG et Wikimédia s’accordent toutes deux sur le fait que les peintures représentées sur ces images sont dans le domaine public : beaucoup de ces portraits sont vieux de plusieurs centaines d’années, tous hors du droit d’auteur. Quoiqu’il en soit, la NPG prétend détenir un droit sur la reproduction de ces images (tout en contrôlant l’accès aux objets physiques). Autrement dit, la NPG pense que la reproduction fidèle d’une peinture appartenant au domaine public, sans ajout particulier, lui donne un nouveau droit complet sur la copie numérique, créant l’opportunité d’une valorisation monétaire de cette copie numérique pour plusieurs décennies. Pour ainsi dire, La NPG s’assure dans les faits le contrôle total de ces peintures du domaine public.

La Wikimedia Foundation n’a aucune raison de croire que l’utilisateur en question ait transgressé une loi applicable, et nous étudions les manières de l’aider au cas ou la NPG persisterait dans ses injonctions. Nous sommes ouvert à un compromis au sujet de ces images précises, mais il est peu probable que notre position sur le statut légal de ces images change. Notre position est partagée par des experts juridiques et par de nombreux membres de la communauté des galeries, bibliothèques, archives et musées. En 2003, Peter Hirtle, cinquante-huitième président de la Society of American Archivists (NdT : Société des Archivistes Américains), écrivit :

« La conclusion que nous devons en tirer est inéluctable. Les tentatives de monopolisation de notre patrimoine et d’exploitation commerciale de nos biens physiques appartenant au domaine public ne devraient pas réussir. De tels essais se moquent de l’équilibre des droits d’auteur entre les intérêts du créateur et du public. » (source)

Dans la communauté GLAM internationale, certains ont choisi l’approche opposée, et sont même allés plus loin en proposant que les institutions GLAM utilisent le marquage numérique et autres technologies de DRM (Digital Restrictions Management) afin de protéger leurs supposés droits sur des objets du domaine public et ainsi renforcer ces droits d’une manière agressive.

La Wikimedia Foundation comprend les contraintes budgétaires des institutions culturelles ayant pour but de préserver et maintenir leurs services au public. Mais si ces contraintes aboutissent à cadenasser et limiter sévèrement l’accès à leur contenu au lieu d’en favoriser la mise à disposition au plus grand nombre, cela nous amène à contester la mission de ces institutions éducatives. Quoi qu’il en soit, il est difficile de prouver que l’exclusion de contenus tombés dans le domaine public d’une encyclopédie libre à but non lucratif, serve l’intérêt général.

Erik Moeller
Deputy Director, Wikimedia Foundation

Notes

[1] Crédit photo : Cliff1066 (Creative Commons By)




Firefox 3.5 en vidéo 3 minutes chrono

Ce n’est pas peu dire qu’on attend avec impatience la sortie officielle (et désormais imminente) de la première version stable 3.5 du célèbre navigateur qui a changé la face du Web !

Vous voulez savoir pourquoi ? Alors jetez un coup d’œil sur cette vidéo présentée par Mike Beltzner, le boss du développement Firefox chez Mozilla.

Cela dure moins de trois minutes, mais c’est normal puisqu’on vous dit que cette version est rapide, rapide…

Un sous-titrage collectif de toute l’équipe Framalang qui souhaitait marquer le coup et participer elle aussi à l’évènement 😉

What’s new in Firefox 3.5 ?

URL d’origine de la vidéo

—> La vidéo au format webm




Largage de liens en vrac #19

Silvio Tanaka - CC byCe n’est pas parce que les vacances approchent qu’il faut arrêter de farfouiller le Web à la recherche d’actualités logicielles intéressantes (ou supposées intéressantes).

Voici donc une sélection qui contrairement à beaucoup d’entre vous est loin d’être au régime.

Et n’oubliez jamais que « ebony and ivory live together in perfect harmony »[1].

  • Jake : Une application ambitieuse de synchronisation de documents (via le protocole XMPP). Le about tente d’expliquer en quoi c’est différent mais proche de SVN, CS, Git, Google Docs, Dropbox… (en gros la principale différence c’est qu’il n’y a plus de serveur central). I’m waiting for you dans les commentaires pour nous en dire plus (et mieux !).
  • Open Atrium : Basé sur Drupal, un ambitieux projet de « groupware réseau social ». Si vous connaissez, n’hésitez pas à partagez votre avis avec nous !
  • Hawkscope : Pour tout OS, une manière rapide d’accèder à votre disque dur via des menus popup dynamiques (en plus on peut paramétrer ses comptes Gmail, Delicious, Twitter, etc.).
  • Sugar on a stick : Sugar, l’interface de l’OLPC pensée pour l’éducation (théorie constructiviste) propose désormais une version portable. Ce qui fait dire à Technology Review que le PC à 100$ est aujourd’hui devenu une clé à 5$ !
  • MegaZine 3 : C’est encore du Flash mais ça pourra en intéresser quelques uns : c’est un logiciel de… pageflip ! Vous ne savez pas ce que c’est ? Moi non plus, enfin si cela permet de lire « agréablement » des livres ou des documents en ouvrant une fenêtre sur votre navigateur.
  • Open Melody : Un peu pris de vitesse par WordPress, le moteur de blog Movable Type libère lui aussi son code pour créer une communauté et plus si affinités.
  • TinyMCE : Peut-être le plus élégant (et le plus riche) des éditeur JavaScript WYSIWYG.
  • lilURL : Le clone libre de TinyURL (vous savez, ces réducteurs d’URL revenus sur le devant de la scène avec Twitter).
  • Open Source Designers : Un réseau social (Ning) de designers Open Source. Pas idiot de se regrouper ainsi.
  • Open Humanity : Nous aurons l’occasion d’en reparler. Pour le moment contentons-nous de ce résumé de Scoffoni : Open Humanity se situe « à mi-chemin entre un réseau social et un webOS ».
  • KeynoteTweet : Permet d’envoyer des tweets à partir du logiciel Apple Keynote dont les geeks se servent beaucoup en conférence. Vous arrivez au slide 23 et un message twitter est automatiquement envoyé à vos followers.
  • GDocBackup  : Utilise la techno Microsoft .NET mais c’est bien pratique si vous avec un compte Google Docs puisque cela permet de rapatrier sur votre disque dur tous vos fichiers d’un coup (typiquement le genre de fonctionnalités que Google ne propose pas exprès !)
  • The Pencil Project : C’est plus qu’une extension Firefox, c’est une véritable application intégrée pour faire des diagrammes et des prototypes d’interfaces utilisateur.. Là encore retours commentaires appréciés.
  • VideoSurf Videos at a Glance : Une extension Firefox plutôt pratique puisque cela permet de prévoir le contenu d’une vidéo (YouTube & co) à l’aide d’images fixes découpant la vidéo. Faut l’expérimenter pour mieux comprendre en fait !
  • Nuke Anything Enhanced : Et encore une extension Firefox, mais non des moindres ! Permet en effet de cacher temporairement ou durablement n’importe quel partie d’une page web. Ainsi par exemple je peux virer tout ce qui ne m’intéresse pas, pubs et autres, avant impression (cf vidéo démo sur LifeHacker).
  • Collections : Je ne connaissais pas (shame on me). Permet de compiler dans un seul pack tout plein d’extensions Firefox à installer d’un seul coup (top pratique surtout lorsque l’on change d’ordinateur). On vous explique ici comment faire. Des volontaires pour que Framasoft participe et vous propose aussi ses propres sélections ?
  • Recording music with Linux on an EEE PC : Toujours avec l’Eee Pc, que l’on transforme ici en parfait système pour la prise de son (par exemple pour partir jouer les reporter radio en herbe).
  • YouTube / Ogg/Theora comparison : YouTube va-t-il passer à Ogg Theora pour encoder ses videos (comme Dailymotion l’expériemente) ? Peut-être pas mais en attendant une petite comparaison qualité s’impose.
  • Library à la Carte : Joli titre et interface sexy. Un logiciel pour les bibliothécaires et les documentalistes. D’ailleurs si l’un d’entre vous passe par là…

Notes

[1] Crédit photo : Silvio Tanaka (Creative Commons By)




Le logiciel libre européen est-il politiquement de gauche ?

Celesteh - CC byL’April se félicite du succès rencontré par l’initiative du Pacte du Logiciel Libre au lendemain des élections européennes. Bravo pour la mobilisation, c’est effectivement une bonne nouvelle que d’avoir 34 députés issus de 7 pays différents signataires de ce Pacte (même si on pourra m’objecter que cela représente à peine 5% des 736 députés que totalise l’assemblée).

Mais c’est moins la quantité que la qualité des ces élus qui a retenu mon attention.

On dit souvent que le logiciel libre n’appartient à aucun parti ou courant politique. On dit également que le vieux clivage gauche-droite n’est plus forcément pertinent à l’aube de ce nouveau millénaire. On dit enfin que le mouvement écologiste ne doit pas (ou plus) être classé à gauche.

Il n’empêche que si vous regardez dans le détail la liste de ces 34 députes, vous serez peut-être comme moi frappé par la parenté commune de ces élus[1].

Le voici reproduit ci-dessous, accompagnés par des liens Wikipédia donnant de plus amples informations sur les partis auxquels ils appartiennent (j’y ai appris plein de choses personnellement) :

Au final, et à une exception britannique près, il n’y en a que pour « la gauche », prise au sens large (du centre-gauche, aux socialistes, en passant par les verts).

De là à en conclure qu’il n’y a que la gauche qui manifeste un intérêt assumé pour le logiciel libre en Europe, il n’y a qu’un pas que j’hésiterais cependant à franchir.

Et vous ?

Notes

[1] Crédit photo : Celesteh (Creative Commons By)