Raleigh, Montréal… quelle sera la première ville Open Source du monde ?

Open Source CityDeux traductions pour s’interroger ensemble sur le concept de « ville Open Source ».

Il s’agit de voir ici la ville comme une plateforme, une plaque tournante, un incubateur, bref un lieu privilégié où peuvent s’épanouir les entreprises et start-up qui placent l’open source au cœur de leur stratégie et de leur développement.

Les villes de Raleigh (USA) et Montréal (Canada) souhaitent apparemment poser candidature et ont, semble-t-il, de bons arguments.

Encore faudrait-il définir ce qu’est ou peut être une « ville Open Source », et se demander si il est pertinent de vouloir créer, favoriser ou labelliser de telles villes[1].

L’un des auteurs nous propose ainsi trois critères : la volonté de partager, la volonté d’être informé, et une attitude ouverte à l’innovation, à la créativité et aux expérimentations de toutes sortes.

Et en France, me direz-vous ? Cela bouge du côté de l’Open Data (Rennes, Paris…) mais au delà, je ne sais pas. Des avis et des liens sur la question ?

PS : Nous avions déjà évoqué la chose dans un billet sur une autre ville canadienne Vancouver : S’il te plaît… dessine-moi une ville libre.

1. Raleigh, Caroline du nord – la première ville open source au monde

Raleigh, NC—the world’s first open source city

Jason Hibbets – 21 février 2011 – OpenSource.com
(Traduction Framalang : Khyl, Naar, Cheval boiteux et Goofy)

J’ai commencé à méditer sur les qualités qui devaient définir une ville open source il y a quelques mois, quand mon ami Tom Rabon m’en a fait mention au détour d’une conversation. J’étais curieux de voir de quelle façon la ville dans laquelle j’habite, Raleigh, en Caroline du nord, pouvait attirer d’autres entreprises open source et en être un incubateur mondial, pour en devenir un exemple phare de gouvernance. Comment Raleigh pouvait-elle devenir la capitale du monde de l’open source, à l’instar de ce que sont la Silicon Valley pour la technologie et Paris pour la romance ?

Je pense que la réponse peut être trouvée à la fois par le gouvernement et par la population. D’abord, nos dirigeants doivent être partants pour adopter l’open source au quotidien. Ils doivent faire preuve de transparence dans leur gestion des affaires et dans l’encouragement à la participation citoyenne. Les citoyens, quant à eux, doivent être prêts à participer et à contribuer en donnant de leur temps et de leurs connaissances. Les deux ont besoin d’adopter un prototypage rapide pour explorer de nouvelles idées et des solutions innovantes.

Mais en quoi Raleigh se distingue-t-elle des autres villes ? En quoi est-elle plus apte à être une ville open source que New York, San Francisco, Londres, Paris ou Pékin ? J’ai rencontré autour d’une table le maire de Raleigh, Charles Meeker, pour discuter de ce qui faisait qu’une ville pouvait devenir open source.

Le maire Meeker a été élu en 2001 et s’est familiarisé avec l’open source, principalement en s’intéressant à Red Hat et au modèle de développement open source. En tant qu’avocat, il n’est pas étonnant que le maire Meeker comprenne les avantages de la collaboration et du partage des connaissances. Voyons pourquoi la ville de Raleigh est prête à revendiquer son titre de première ville open source au monde.

Quel grand chantier, en dehors de la technologie, a la meilleure chance d’être abordé par la voie open source (c’est-à-dire au moyen de la collaboration, de la transparence, du partage, de la méritocratie, du prototypage rapide, d’une communauté, etc.) ?

Dans une zone de la ville de Raleigh, l’accent a été mis sur l’utilisation d’un éclairage plus éco-énergétique dont nous pouvons mesurer les résultats. Nous nous activons à la promotion et au partage de nos expériences avec les autres municipalités, notamment pour tester notre consommation d’électricité et la qualité de la lumière produite. Le partage de cette information est un élément majeur de notre expérience.

La ville de Raleigh dispose de quarante installations en LED avec une économie moyenne de 200 000 €/an sur les coûts en électricité. Le retour sur investissement est généralement de l’ordre de 3 à 5 ans (en considérant les coûts du capital). C’est une excellente option pour les parkings éloignés. Vous pouvez facilement installer quelques panneaux solaires et ne pas avoir à ajouter de nouvelles lignes ou changer d’infrastructure. La possibilité pour les villes du monde entier d’adopter l’éclairage éco-énergétique est une véritable chance qui s’offre à elles. La ville de Raleigh veut prendre part à l’aventure et être reconnue comme précurseur dans l’adoption de cette technologie. Propager la bonne parole sur l’éclairage par LED avec l’aide de notre partenaire, Cree, est important pour nous.

Quelles sont vos réflexions à propos d’un gouvernement ouvert ou gouv’ 2.0 et que peut faire la ville de Raleigh pour avoir un gouvernement plus ouvert et transparent vis-à-vis de ses citoyens ?

Tout d’abord, toutes nos réunions sont ouvertes au public, à quelques exceptions près. Le véritable défi est de savoir profiter de l’expertise de chacun de nos citoyens. Il y a beaucoup de compétences de haut niveau qui peuvent servir à résoudre les vrais problèmes de la ville.

Une solution se situe au niveau des nouveaux comités, comme le nouveau comité ferroviaire que nous avons mis en place, et la façon dont leurs conseils et leurs recommandations sont pris en compte par la ville. Les questions autour des frais de gestion des eaux pluviales nous ont conduits à puiser dans l’expertise de nos citoyens pour apporter les meilleures solutions.

Le ferroviaire est un domaine qui sera opérationnel pour les 3 ou 4 prochaines années. Nous avons beaucoup de personnes expérimentées dans ce domaine prêtes à partager leur savoir et à mettre en application leurs connaissances pour aider à prendre les futures décisions.

Montrer au public ce que nous faisons et expliquer les bonnes pratiques sont des atouts qui restent sous-utilisés, mais nous avons eu du succès, notamment quand le comité de gestion des eaux pluviales a fait part de son avis sur la façon de mieux gérer les inondations. Le conseil municipal a ainsi été en mesure de mettre à profit l’expertise du comité pour prendre les meilleures mesures politiques à ce sujet.

Quelles sont les qualités requises pour devenir une ville open source ?

Trois critères me viennent à l’esprit :

  • la volonté de partager ;
  • la volonté d’être informé ;
  • une attitude ouverte à l’innovation, à la créativité et aux expérimentations de toutes sortes.

Les citoyens doivent se tenir prêts à adopter le futur. L’open source est une stratégie que nous appliquons pour aller de l’avant.


Pourquoi Raleigh s’est amorcée à devenir la première ville open source au monde ?

Nos citoyens sont prêts faire avancer Raleigh et à être plus concentrés sur la démarche open source. Raleigh est disposée à devenir son incubateur mondial.

L’avantage de Raleigh se situe au niveau de sa croissance et des emplois. Nous aimerions voir le Centre des congrès accueillir plus de conférences sur l’open source. Nous serions honorés de voir un tas de petits Chapeaux Rouges (NdT : référence faite à la distribution GNU/Linux Red Hat), et que des start-up et sociétés bien établies viennent dans notre région parce que nous avons fait le choix de ce modèle de développement.

Les partenaires sont aussi une grande partie de la réponse. Le Centre des congrès, le Syndicat d’Initiative, la Chambre du Commerce et les autres partenaires doivent adopter l’open source et le mettre en évidence dans le cadre de notre stratégie de développement économique.

Comment mettre en œuvre la démarche open source dans votre vie quotidienne ?

Au cabinet juridique pour lequel je travaille, j’ai essayé de fournir des informations à de jeunes avocats. Une sorte de partage des secrets commerciaux pour les aider à réussir plus rapidement, et, pour être franc, l’une des choses les plus difficiles pour toute personne de la fonction publique, c’est l’écoute. J’ai remarqué que l’écoute représente 70 à 80 % du travail. Vous devez pleinement comprendre ce qu’il se passe pour prendre la décision adéquate.

2. Montréal peut-il devenir un incubateur de start-up open source ?

Can Montreal Become an Open Source Startup Hub?

Evan Prodromou – 21 février 2011 – NextMontreal.com
(Traduction Framalang : Khyl, Naar, Cheval boiteux et Goofy)

« Le premier prix est une Cadillac El Dorado. Le deuxième prix est un lot de couteaux à viande. Le troisième prix est votre licenciement. »- Blake, Glengarry Glen Ross

Seth Godin indique, dans son fabuleux ouvrage The Dip (NdT : Un petit livre qui vous enseignera quand renoncer et quand persévérer), que la seule position qui compte dans les affaires, c’est la première. Quand les lois du pouvoir et les effets de réseau sont nécessaires, la première place du classement est la seule où il faut être. Vous devrez être « le meilleur du monde » dans quelque chose, ou bien vous feriez mieux de laisser tomber et de faire autre chose.

Les écosystèmes technologiques – la plupart des marchés d’affaires, en fait – ont des effets de réseau, et cela veut dire que la seule position à avoir, en tant qu’écosystème, est la première. Être le meilleur au monde.

Quelle est la zone la mieux classée au monde dans les start-up du Web ? La baie de San Francisco. Quelle est la deuxième ? Probablement New-York City. Qui a le troisième prix ? Qui s’en soucie ? Le troisième prix, c’est votre licenciement.

Si nous nous soucions de la croissance de notre écosystème local, peut-être que nous aurions besoin d’arrêter notre course à la 14e ou la 29e place du classement dans le monde des start-up orientées Web et réfléchir à construire quelque chose d’autre. Un domaine dans lequel nous serions les meilleurs et sur lequel personne d’autre n’a encore vraiment travaillé. Là où nous pourrions être les meilleurs au monde – pas les 14e, pour ensuite laisser tomber.

Montréal a la capacité d’offrir le meilleur écosystème au monde pour les start-ups centrées sur le développement de logiciels open source. Nous fournissons un bon cadre pour les entrepreneurs qui ont de l’expérience dans la mise en place d’entreprises tournées vers ce secteur économique, nous avons des investisseurs qui ont bien compris le processus d’investissement et d’encouragement de ce type de compagnies et nous avons un très précieux vivier de talents qui ont contribué à cette évolution.

Plus important, il n’y a aucune autre ville autant tournée vers l’open source sur le globe. San Francisco et Boston accueillent quelques sociétés, mais ne sont absolument pas des incubateurs. Le paysage commercial de l’open source se propage beaucoup plus à travers le monde, de Londres à l’Utah en passant par l’Allemagne et Austin.

Plus que tout, c’est sa commercialisation qui est difficile. Demandez à n’importe quelle personne impliquée dans une entreprise open source. La difficulté se trouve dans l’élaboration d’un modèle de travail. Il n’y a pas de solution simple. Les techniques des start-up pour les autres types d’affaires, tels que l’investissement et les stratégies de commercialisation, ne semblent pas s’appliquer aussi bien. Cela signifie qu’il existe un obstacle à l’entrée d’autres écosystèmes, dont un que nous pouvons exploiter.

En ce moment, j’ai connaissance d’au moins cinq start-up open source dans la ville :

  • StatusNet – J’ai lancé cette entreprise ici-même en 2008. Nous avons levé 2,3M $ de fonds à Montréal et New-York. Nous enregistrons environ 5 000 téléchargements par mois et dénombrons 45 000 sites fonctionnant sur notre SaaS. Nous comptons actuellement 9 salariés à Montréal et San Fransisco (NdT : StatusNet est un logiciel libre de microblogging sur lequel repose Identi.ca).
  • Vanilla Forums – Le meilleur système de gestion de forums au monde. Il tourne sur plusieurs centaines de milliers de sites et inclut un service SaaS de haute performance.
  • Bookoven – Cette plateforme sociale de publication s’est tournée vers un modèle de logiciel open source. Dirigée par Hugh McGuire, créateur de Librivox, le très populaire projet de livre audio à contenus ouverts.
  • Stella – Cette société à forte croissance a rendu ses logiciels open source.
  • Subgraph – Startup orientée sur la sécurité développant Vega, logiciel open source d’évaluation des vulnérabilités.

Au rang des investisseurs, deux des plus importants groupes financiers de la ville (iNovia Capital et Real Ventures) tentent l’expérience des start-ups open source. Real Ventures (ou plutôt son prédécesseur, MSU) a déjà investi dans trois entreprises open source locales.

En ce qui concerne le potentiel des employés talentueux… c’est plus difficile. Il y a beaucoup de techniciens compétents dans la ville, et les sociétés open source qui en sont en dehors, comme Canonical ont des équipes techniques locales qui peuvent suivre le bassin des start-up de talent. Quid du personnel d’entreprise talentueux ayant une expérience open source ? Ils sont rares sur le terrain. Heureusement, les gens qui ont travaillé dans les sociétés mentionnées plus haut constituent aussi un bon noyau de ce bassin.

Je crois que les conditions sont réunies pour que Montréal prenne sa place dans le monde des technologies en tant qu’incubateur de start-up open source. La semaine prochaine, je dévoilerai ce que je pense être un projet potentiel pour que Montréal devienne le fer de lance de ce marché.

Notes

[1] Crédit photo : OpenSource.com (Creative Commons By-Sa)




Une vidéo de 3 minutes pour entrer dans l’univers des Creative Commons

Pour faire référence à un récent (et édifiant) billet, si j’avais été à la place du conférencier de Calysto, j’aurais peut-être commencé pour montrer aux élèves la ressource ci-dessous que nous venons de sous-titrer.

Il s’agit d’une vidéo de présentation des Creative Commons. Et nous ne sommes plus alors dans un « Internet de tous les dangers » mais dans un « Internet de tous les possibles ». Pas de risque alors que les élèves en concluent qu’il faille « arrêter de vivre et interdire Internet ». Ce sera alors plutôt l’envie de participer qui prédominera.

On n’apprendra rien ici aux lecteurs familiers du Framablog mais n’hésitez pas à relayer l’information à tous ceux qui ne connaissent pas ou peu les Creative Commons.

—> La vidéo au format webm
—> Le fichier de sous-titres

La page d’origine de la vidéo comprenant toutes les sources des médias utilisés.




Combien de grands écrivains bloqués à la frontière par le droit d’auteur ?

Shandi-Lee Cox - CC byPourquoi certains livres ne sont-ils pas traduits alors que tout porte à croire qu’ils le méritent ?

A contrario pourquoi d’autres livres connaissent de nombreuses traductions malgré le caractère très confidentiel de leur sujet et donc de leur audience potentielle ?

Pour les uns comme pour les autres à cause du droit d’auteur.

Un droit d’auteur qui selon le cas (et le choix) peut décourager ou encourager, nous dit ici Karl Fogel, qui est bien placé pour en parler car ses deux livres, le premier sous licence GNU General Public License et le second sous licence Creative Commons By, ont connu spontanément de nombreuses traductions[1].

Et nous aussi à Framasoft, nous sommes bien placés pour en parler, car lorsque nous décidons d’entamer un long projet de traduction via notre groupe de travail Framalang, la condition sine qua non est que la licence de l’ouvrage original nous y autorise explicitement. Un long projet comme notre dernier framabook Produire du logiciel libre de… Karl Fogel justement !

Le conte des deux auteurs : pourquoi l’un est traduit et l’autre pas

A Tale of Two Authors: Why Translations Happen, or Don’t.

Karl Fogel – 21 février 2011 – QuestionCopyright.org
(Traduction Framalang : Brandelune, Goofy et Penguin)

Pourquoi certains livres ne sont-ils pas traduits ?

Vous penserez peut-être qu’il est difficile de trouver des traducteurs disposés, ou que les compétences nécessaires sont rares, mais je vous propose deux études qui fournissent une autre explication.

La raison principale d’un texte non traduit vient tout simplement du fait qu’on nous interdit de le traduire. Lorsque les restrictions dues aux droits d’auteur ne les entravent pas, les traductions fleurissent.

Si vous êtes sceptique, lisez plutôt la suite. Voici l’histoire de deux auteurs, l’un dont les livres peuvent être traduits librement par n’importe qui, l’autre qu’on ne peut pas traduire. Nous allons même tricher un peu en disant que celui dont les livres sont ouverts à la traduction est un auteur mineur (un de ceux dont les œuvres, pour être parfaitement honnête, ne vont pas changer la face du monde). Tandis que certains des ouvrages de l’autre sont considérés comme des chefs-d’œuvre dans leur langue d’origine, au point que l’on peut trouver des citations d’éminents universitaires mentionnant l’absence de traduction comme « un des plus grands scandales de notre époque ».

Le premier auteur, c’est moi. J’ai écrit deux livres, tous deux sous licence libre, aucun n’a la moindre importance historique même si j’en suis fier et ai été content de les écrire. Le premier, publié en 1999, était un manuel semi-technique expliquant comment utiliser certains logiciels de collaboration. Bien que son public soit limité et que j’aie mis en ligne une version dans un format un peu lourd, des traductions bénévoles ont très vite été proposées, et l’une d’elles au moins (en allemand) a été achevée. D’autres traductions ont peut-être abouti, je ne sais pas (le livre étant déjà ancien et les traductions m’étant incompréhensibles, je n’ai pas fait l’effort d’en savoir plus).

Remarquez que je ne parle ici que de traductions faites par des bénévoles, celles qu’ils entreprennent juste parce qu’ils en ont envie, sans demander au préalable de permission à quiconque (il y avait aussi une traduction en chinois achevée et dont j’ai une version papier publiée, mais je ne la considère pas dans ma démonstration car elle est passée par les canaux de publication contrôlés par l’éditeur).

Mon livre suivant, publié à l’origine en 2005, ne visait également qu’un lectorat potentiel limité : il traite de la gestion de projets collaboratifs open source — il n’était pas exactement destiné à devenir un best-seller. Mais avec le soutien de mon aimable éditeur, O’Reilly Media, je l’ai mis en ligne sous une licence libre, cette fois sous un format plus agréable, et des projets de traductions bénévoles sont aussitôt apparus. Plusieurs ont maintenant porté fruit : le titre existe en japonais, en galicien, en allemand, en néerlandais et en français. La traduction espagnole est presque terminée, et d’autres encore sont en cours dont je vous épargne la liste.

(Ah oui, au fait, plusieurs de ces traductions sont disponibles en format papier de qualité commerciale, j’en ai chez moi des exemplaires. L’activité lucrative est parfaitement compatible avec les modèles de distribution non restrictifs, comme nous l’avons déjà souligné à plusieurs reprises)

Alors… tout ça pour un livre traitant de collaboration au sein des projets open source ? Vraiment ? Que peut-on en déduire ?

Eh bien, voyons un contre-exemple.

Hans Günther Adler (« HG Adler » de son nom de plume) est un auteur mort en 1988 dont l’œuvre est désormais largement reconnu comme majeure dans la littérature allemande sur l’Holocauste. Très peu de ses œuvres ont été traduites en anglais, sauf tout récemment le roman Panorama, publié en Angleterre et dont la critique a longuement parlé.

Deux de ces critiques nous permettent de bien comprendre pourquoi ici, sur QuestionCopyright.org, nous considérons que notre mission essentielle est de recadrer le débat public sur le droit d’auteur. Les deux critiques littéraires — manifestement intelligents, manifestement d’accord sur l’importance d’Adler, et écrivant tous deux pour les plus influentes revues littéraires de langue anglaise — commentent l’absence scandaleuse de traductions d’Adler en anglais tout en se recroquevillant dans une attitude passive quand il s’agit d’expliciter les raisons de cette absence.

D’abord, Judith Shulevitz dans le New York Times :

De temps en temps, un livre vous fait prendre brutalement conscience de la somme d’efforts et de chance qui ont été nécessaires pour le faire arriver entre vos mains. « Panorama » est le premier roman écrit par H. G. Adler, un intellectuel juif et germanophone vivant à Prague qui a survécu à un camp de travail en Bohème, Theresienstadt, Auschwitz, ainsi qu’à un autre camp de travail forcé particulièrement horrible car souterrain, appelé Langenstein près de Buchenwald. Adler écrit la première ébauche en moins de deux semaines, en 1948 il arrive enfin en Angleterre mais ne trouve personne pour publier son livre avant 1968. 20 ans et deux manuscrits plus tard le livre est enfin publié en anglais aujourd’hui, pour la première fois.

Il est difficile de concevoir la raison pour laquelle nous avons dû attendre si longtemps. Il en résulte que Adler est un presque parfait inconnu dans le monde anglophone. Seuls trois de ses livres ont été traduits : un travail historique intitulé « Jews in Germany », un roman appelé « The Journey » et, maintenant, « Panorama ». Le fait que les lecteurs anglais et américains aient eu un accès aussi limité à l’œuvre et à la pensée d’Adler pendant si longtemps est, comme l’écrit ce spécialiste éminent de la litérature allemande moderne qu’est Peter Demetz, « l’un des grands scandales de notre époque ».

Ensuite, voici ce qu’écrit Ruth Franklin dans le New Yorker :

Hermann Broch a écrit que le livre Theresienstadt 1941–1945 deviendrait un classique sur la question, et que la méthode d’Adler « clinique et précise, non seulement saisit les détails essentiels mais parvient à montrer en plus l’étendue de l’horreur des camps d’une manière particulièrement pénétrante ». (Le livre a été publié en Allemagne en 1955 et il est devenu très vite un ouvrage de référence pour les études allemandes sur l’Holocauste mais n’a jamais été traduit en anglais.)

Soit, Shulevitz et Franklin écrivaient des critiques du travail même d’Adler, pas des analyses sur les raisons pour lesquelles ces ouvrages avaient été si peu traduits en anglais. Il est pourtant frappant qu’ils aient choisi tous deux de commenter le manque de traduction, plus ou moins longuement, et pourtant ils n’offrent aucune hypothèse sur les raisons de cette absence. Ils décrivent simplement la situation et expriment leurs regrets, comme s’ils parlaient simplement du mauvais temps ; il n’y aucune indignation ni frustration sur le fait que l’absence de traduction est tout simplement due au fait qu’elles ont été interdites avant même qu’on puisse les commencer.

Je ne vais même pas utiliser « probablement » ou « sans doute » dans cette déclaration. À ce point, il faut considérer qu’il s’agit de faits établis. Si mes livres – mes petits ouvrages qui ne visent qu’une population limitée dans le monde du développement logiciel – sont traduits depuis l’anglais dans d’autres langues au lectorat plus faible, il est tout simplement impossible que les livres bien plus importants de H.G. Adler, sur des sujets beaucoup plus importants, n’aient pas été traduits de l’allemand vers l’anglais, si même une seule personne (ou, plus important encore, un seul groupe) qui aurait eu l’ambition de les traduire avait été libre de le faire.

Il existe un grand nombre de personnes qui parlent couramment à la fois l’anglais et l’allemand ; les études sur l’Holocauste intéressent de très nombreux locuteurs de ces deux langues et il existe des sources de financement, tant gouvernementales que provenant d’organismes à but non lucratif, qui auraient volontiers soutenu ce travail (certaines traductions de mon deuxième livre ont reçu ce genre de financement, il serait incompréhensible que ces financements puissent exister pour cela et pas pour les traductions du travail de Adler).

Le fait que l’absence de traductions d’Adler, ou d’autres œuvres importants, ne soit pas directement compris comme étant dû aux restrictions issues du droit d’auteur souligne la dramatique faiblesse du débat public autour du droit d’auteur. A l’heure actuelle, les traducteurs ne peuvent pas traduire s’ils ne sont pas assurés en premier lieu d’en avoir le droit, et puisque la position par défaut du droit d’auteur est que vous n’avez pas le droit de traduire à moins que quelqu’un ne vous en donne explicitement le droit, la plupart des traducteurs potentiels abandonnent sans avoir même essayé. Ou, plus probablement, ils ne pensent même pas à essayer, car ils ont été habitués à cette culture basée sur la permission. La simple recherche de la personne à qui demander la permission est un processus suffisamment décourageant, sans même compter le temps passé dans les incertaines négociations qui s’ensuivent lorsque vous avez trouvé la bonne personne.

Il n’est pas étonnant que de nombreux ouvrages de valeur restent sans traduction, étant donné les obstacles. Mais il est étonnant que nous continuions à nous voiler la face sur les raisons de cette situation, alors même lorsqu’elles nous crèvent les yeux.

Notes

[1] Crédit photo : Shandi-Lee Cox (Creative Commons By)




Geektionnerd : Quoi d’neuf chez Microsoft

Et voici Microsoft qui refait parler de lui.

Après François Fillon chez Microsoft, c’est Steve Ballmer à l’Elysée pour y recevoir la Légion d’honneur. « J’admire cette entreprise qui comprend les valeurs humanistes de la France et de l’Europe » a alors déclaré Nicolas Sarkozy pour l’occasion, n’ayant visiblement pas peur de perdre quelques électeurs libristes en route.

Dans ces valeurs humanistes il n’y a toujours pas le logiciel libre, dont la licence GPL est explicitement exclu du prochain Marketplace dédié au Windows Phone 7.

Un sujet de plus à évoquer lorsque Framasoft se rendra lui aussi chez Microsoft au début du mois prochain.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Les amants aiment l’open source

George Eastman House - Public DomainOuverture, transparence, confiance, passion, audace, collaboration… font partie du champ lexical du logiciel libre.

Mais en ce jour de Saint-Valentin[1], ces mots peuvent également évoquer tout autre chose 😉

C’est ce parallèle osé (hasardeux ?) que nous propose Mary Ann en nous invitant à compléter ou amender la liste.

L’open source, c’est pour les amoureux

Open source is for lovers

Mary Ann (Red Hat) – 14 février 2011 – OpenSource.com
(Traduction Framalang : Penguin, Baptiste et Goofy)

C’est vrai. Si vous réflechissez aux caractéristiques de l’open source et aux qualités d’une relation intime réussie, vous trouverez beaucoup de points communs.

Ouverture : Vous devez être ouvert et flexible pour que la relation fonctionne. Revenons à l’une de mes comparaisons préférées sur la différence entre les logiciels libres et les logiciels propriétaires : un logiciel propriétaire, c’est comme acheter une voiture avec le capot soudé. « Oh, vous devez changer l’huile ? Dommage. Achetez une nouvelle voiture. » Si nous ne sommes pas flexibles et ouverts aux changements, si nos capots sont soudés, cela devient très compliqué pour la voiture de garder le cap amoureux.

Transparence : Les secrets sont la ruine des relations. Dois-je en dire plus ?

Confiance : Sans confiance dans une relation, vous allez vous rendre d-i-n-g-u-e-s, vous et votre partenaire. Vous allez toujours penser que l’autre est en train de préparer un sale coup et envisager les pires scénarios.

Passion : Bien entendu, la démarche open source attire les gens passionnés, elle attire ceux qui veulent participer aux changements. Si vous n’êtes pas engagés passionnément dans une relation, vous cesserez vite de vous y investir et, à partir de là, les choses se dénouent très facilement.

Audace : L’open source, c’est pour ceux qui se bougent. Vous voulez changer les choses ? À vous de jouer. Si une personne vous intéresse, ne vous contentez pas d’y penser, agissez sinon c’est fichu.

Collaboration : Une communauté open source ne réussit que par le travail d’équipe et la collaboration. Il en va de même pour une relation enrichissante : on donne et on reçoit.

Release early, release often (NdT : Difficilement traduisible, « sortir tôt, sortir souvent » ou « communiquer tôt, communiquer souvent ») : Dans nos relations amoureuses, tout n’est pas toujours idyllique à chaque fois, mais nous ne pouvons nous empêcher de recommencer. C’est également vrai pour le modèle open source. Avec l’espoir que demain la relation sera meilleure et plus solide.

À vous de compléter (je pense que la liste peut s’allonger encore un peu). Joyeuse Saint-Valentin d’un amoureux de l’open source à un autre !

Notes

[1] Crédit photo : George Eastman House + OpenSource.com (Domaine Public)




Google Art Project : Une petite note discordante dans un concert de louanges

Antonio Pollaiuolo - Public DomainGoogle vient de sortir un énième nouveau projet : Google Art Project.

Il est ainsi décrit dans cette dépêche AFP : « Google a lancé une plate-forme permettant aux amateurs d’art de se promener virtuellement dans 17 des plus grands musées du monde, dont le MoMA de New York et le Château de Versailles, grâce à sa technologie Street View, familier des utilisateurs du site de cartes Google Maps ».

La présentation vidéo de Google est spectaculaire et la visite virtuelle l’est tout autant. Ce qui m’a le plus impressionné c’est le fait que chaque musée offre l’une de ses œuvres à une précision numérique hors du commun (7 milliards de pixels !). Regardez un peu ce que cela donne dans le détail pour La Naissance de Vénus de Boticceli.

Faites un zoom sur son visage et vous serez peut-être comme moi saisi par une certaine émotion. Et si j’ai pris cet exemple ce que j’étais encore récemment devant le vrai tableau à Florence. L’émotion est tout autre, sans commune mesure, elle est bien plus intense évidemment, mais pouvoir regarder à la loupe un tel chef-d’œuvre n’est pas sans intérêt[1].

On a alors vu toute la presse, petit et grande, s’enthousiasmer sur ce nouveau service gratuit (cela allait sans dire avec Google). J’ai ainsi pu comptabiliser plus d’une centaine d’articles dans… Google Actualités (sic, on n’en sort pas !), et jamais je n’y ai lu la moindre critique.

La seule question que l’on se pose éventuellement est de se demander furtivement si un tel projet peut se substituer à la visite réelle. Et la réponse, aussi bien du côté Google que du côté musées, est au contraire que cela stimule la curiosité et amplifie le désir de venir. Un peu comme la vitrine d’un magasin vous donne envie de rentrer en somme. Et puis pour ceux qui ne peuvent vraiment pas y aller comme les enfants d’Afrique ou d’Amérique Latine, c’est toujours bien mieux que rien.

Personne n’est donc venu apporter un seul bémol. On aurait pu souligner que c’est encore et toujours du Google, qui de projets sympas en projets sympas, commence à atteindre une taille intrinsèquement monstrueuse. On aurait pu regretter que pour pouvoir bénéficier d’un parcours individualisé et former ses propres collections il faille évidemment un compte Google (c’est gratuit mais c’est bien là le prix à payer à Google). Plus subtil mais pas moins important, on aurait pu se demander quelles étaient exactement les conditions juridiques des accords entre Google et les musées, notamment pour ce qui concerne l’épineuse question de la reproduction d’œuvres dans le domaine public (d’ailleurs on voit déjà fleurir dans Wikimedia Commons des reproductions d’œuvres directement issues des reproductions de Google Art Project !).

Personne, sauf peut-être Adrienne Alix, présidente de Wikimedia France, qui a publié sur son blog personnel sa « vision critique » du projet, dans un billet que nous avons reproduit ci-dessous parce que nous partageons sa perplexité.

« Les wikimédiens passent énormément de temps à prendre de belles photographies de ces œuvres pour les mettre librement à disposition sur Wikimedia Commons et permettre à tous de les réutiliser. Il est souvent difficile de faire admettre aux musées qu’il est bon de permettre cette très large diffusion de la culture. Les choses changent peu à peu, le dialogue s’engage ces derniers temps, et c’est une très bonne chose (…) Quelle est ma crainte ? Que ces musées qui commencent timidement à ouvrir leurs portes et se lancent avec nous en faisant confiance, en prenant le pari de la diffusion libre de contenus dans le domaine public, se replient sur une solution verrouillée comme celle proposée par Google Art Project, où l’internaute ne peut absolument pas réutiliser les œuvres ainsi montrées. On visite, on ne touche pas. On ne s’approprie pas. On est spectateur, et c’est tout. Je crains que par envie de contrôle de l’utilisation des reproductions d’œuvres conservées dans les musées, la notion de domaine public recule. »

Vous trouverez par ailleurs en annexe, un petit clip vidéo montrant un photographe wikipédien à l’œuvre. Quand Google nous propose une visite virtuelle clinquante mais balisée et pour tout dire un brin étouffante, Wikipédia donne envie d’arpenter le vaste monde et d’en garder traces au bénéfice de tous.

Google Art Project : vision critique

URL d’origine du document

Adrienne Alix – 3 février 2011 – Compteurdedit
Licence Creative Commons By-Sa

Depuis deux jours, le web (et notamment le web « culturel », mais pas seulement) s’enthousiasme pour le dernier-né des projets développés par Google, Google Art Project.

Le principe est compréhensible facilement : Google Art Project, sur le modèle de Google Street View, permet de visiter virtuellement des musées en offrant aux visiteurs une vue à 360°, un déplacement dans les salles. On peut aussi zoomer sur quelques œuvres photographiées avec une très haute résolution et pouvoir en apprécier tous les détails, certainement mieux que ce qu’on pourrait faire en visitant réellement le musée.

Et donc, tout le monde s’extasie devant ce nouveau projet, qui permet de se promener au musée Van Gogh d’Amsterdam, au château de Versailles, à l’Hermitage, à la National Gallery de Londres, etc. En effet c’est surprenant, intéressant, on peut s’amuser à se promener dans les musées.

En revanche, au-delà de l’aspect anecdotique et de l’enthousiasme à présent de rigueur à chaque sortie de projet Google, j’aimerais pointer quelques petits points, qui peuvent paraître pinailleurs, mais qui me semblent importants.

1- d’une part, la qualité n’est pas toujours là. Vous pouvez en effet vous promener dans le musée, mais ne comptez pas forcément pouvoir regarder chaque œuvre en détail. On est dans de la visite « lointaine », un zoom sur une œuvre donnera quelque chose de totalement flou. Les deux captures d’écran ci-dessous sont, je pense, éloquentes.

2- Google rajoute une jolie couche de droits sur les œuvres qui sont intégrées dans ces visites virtuelles. Une part énorme de ces œuvres est dans le domaine public. Pourtant, les conditions générales du site Google Art Project sont très claires : cliquez sur le « Learn more » sur la page d’accueil. Vous verrez deux vidéos expliquant le fonctionnement du service, puis en descendant, une FAQ. Et cette FAQ est très claire :

Are the images on the Art Project site copyright protected?

Yes. The high resolution imagery of artworks featured on the art project site are owned by the museums, and these images are protected by copyright laws around the world. The Street View imagery is owned by Google. All of the imagery on this site is provided for the sole purpose of enabling you to use and enjoy the benefit of the art project site, in the manner permitted by Google’s Terms of Service.

The normal Google Terms of Service apply to your use of the entire site.

On y lit que les photos en haute résolution des œuvres d’art sont la propriété des musées et qu’elles sont protégées par le « copyright » partout dans le monde. Les images prises avec la technologie « street view » sont la propriété de Google. Les images sont fournies dans le seul but de nous faire profiter du Google Art Projetc. Et on nous renvoie vers les conditions générales de Google.

En gros, vous ne pouvez rien faire de ce service. Vous pouvez regarder, mais pas toucher.

3 – D’ailleurs vous ne pouvez techniquement pas faire grand chose de ces vues. Y compris les vues en très haute définition. Effectivement le niveau de détail est impressionnant, c’est vraiment une manière incroyable de regarder une œuvre. Mais après ? Vous pouvez créer une collection. Soit, je décide de créer une collection. Pour cela il faut que je m’identifie avec mon compte google (donc si vous n’avez pas de compte google, c’est dommage pour vous, et si vous vous identifiez, cela fait encore une donnée sur vous, votre personnalité, que vous fournissez à Google. Une de plus). Je peux annoter l’œuvre (mettre un petit texte à côté, sauvegarder un zoom, etc). Que puis-je faire ensuite ? Et bien, pas grand chose. Je peux partager sur Facebook, sur Twitter, sur Google Buzz ou par mail.
Mais en fait, je ne partage pas réellement l’œuvre, je partage un lien vers ma « collection ». C’est à dire que jamais, jamais je ne peux réutiliser cette œuvre en dehors du site.

Donc si par exemple je suis professeur d’histoire ou d’histoire de l’art, je suis obligée de faire entrer mes élèves sur ce site pour leur montrer l’œuvre, je ne peux pas la réutiliser à l’intérieur de mon propre cours, en l’intégrant totalement. Ni pour un exposé. Je ne peux pas télécharger l’œuvre. Qui pourtant est, dans l’immense majorité des cas, dans le domaine public. Il faut donc croire que la photographie en très haute résolution rajoute une couche de droits sur cette photo, ce qui pourrait se défendre, pourquoi pas, mais aujourd’hui ça n’est pas quelque chose d’évident juridiquement.


Vous me direz qu’après tout, cela résulte de partenariats entre des musées et Google, ils prennent les conditions qu’ils veulent, c’est leur problème, on a déjà de la chance de voir tout cela. Ok. Mais ce n’est pas la conception de partage de la culture que je défends.

Je me permettrai de rappeler que, en tant que wikimédienne, et défendant la diffusion libre de la culture, je suis attachée à la notion de « domaine public ». Au fait que, passé 70 ans après la mort d’un auteur, en France et dans une très grande partie du monde, une œuvre est réputée être dans le domaine public. Et donc sa diffusion peut être totalement libre. Sa réutilisation aussi, son partage, etc.

Les wikimédiens passent énormément de temps à prendre de belles photographies de ces œuvres pour les mettre librement à disposition sur Wikimedia Commons et permettre à tous de les réutiliser. Il est souvent difficile de faire admettre aux musées qu’il est bon de permettre cette très large diffusion de la culture. Les choses changent peu à peu, le dialogue s’engage ces derniers temps, et c’est une très bonne chose. Nos points d’achoppement avec les musées tiennent souvent à la crainte de « mauvaise utilisation » des œuvres, le domaine public leur fait peur parce qu’ils perdent totalement le contrôle sur ces œuvres (notamment la réutilisation commerciale). Ils discutent cependant avec nous parce qu’ils ont conscience qu’il est impensable aujourd’hui de ne pas diffuser ses œuvres sur internet, et Wikipédia est tout de même une voie royale de diffusion, par le trafic énorme drainé dans le monde entier (pour rappel, plus de 16 millions de visiteurs unique par mois en France, soit le 6e site fréquenté).

Quelle est ma crainte ? Que ces musées qui commencent timidement à ouvrir leurs portes et se lancent avec nous en faisant confiance, en prenant le pari de la diffusion libre de contenus dans le domaine public, se replient sur une solution verrouillée comme celle proposée par Google Art Project, où l’internaute ne peut absolument pas réutiliser les œuvres ainsi montrées. On visite, on ne touche pas. On ne s’approprie pas. On est spectateur, et c’est tout. Je crains que par envie de contrôle de l’utilisation des reproductions d’œuvres conservées dans les musées, la notion de domaine public recule.

Alors certes, la technologie est intéressante, le buzz est légitime, l’expérience de visite est plaisante. Mais au-delà de cela, est-ce vraiment une vision moderne et « 2.0 » du patrimoine qui est donnée ici ? Je ne le pense pas. J’ai même une furieuse impression de me retrouver dans un CD-ROM d’il y a 10 ans, ou dans le musée de grand-papa.

Pour terminer, je vous invite à aller vous promener sur Wikimedia Commons, dans les catégories concernant ces mêmes musées. C’est moins glamour, pas toujours en très haute résolution, mais vous pouvez télécharger, réutiliser, diffuser comme vous voulez, vous êtes libres…

Au cas où il serait nécessaire de le préciser : je m’exprime ici en mon nom personnel, et uniquement en mon nom personnel. Les opinions que je peux exprimer n’engagent en rien l’association Wikimédia France, qui dispose de ses propres canaux de communication.

Annexe : Vidéo promotionnelle pour Wiki loves monuments

Réalisée par Fanny Schertzer et Ludovic Péron (que l’on a déjà pu voir par ailleurs dans cet excellent reportage).

—> La vidéo au format webm

URL d’origine du document

Notes

[1] Illustration : Portrait de jeune femme, Antonio Polaiolo, fin XVe siècle, MoMatélécharger librement…)




OpenOffice.org n’est pas mort, Vive LibreOffice !

Terry Ross - CC by-saComme le souligne avec malice notre ami Gee, la suite bureautique libre LibreOffice 3.3 vient de voir le jour.

Sauf que, comme son numéro ne l’indique pas, c’est sa toute première version stable. Mais alors pourquoi n’a-t-on pas logiquement une version 1.0 ? Parce qu’il s’agit d’un fork de la célèbre suite OpenOffice.org qui, au moment de la séparation, en était restée à la version 3.2.

Petit rappel Wikipédia : « Un fork, ou embranchement, est un nouveau logiciel créé à partir du code source d’un logiciel existant. Cela suppose que les droits accordés par les auteurs le permettent : ils doivent autoriser l’utilisation, la modification et la redistribution du code source. C’est pour cette raison que les forks se produisent facilement dans le domaine des logiciels libres. Les forks sont perçus par certains comme une épée de Damoclès au-dessus des auteurs des projets les moins bons, et aussi comme une méthode pour empêcher l’appropriation d’un projet par un groupe. La « peur de l’embranchement » est un des mécanismes essentiels de régulation et de sélection des projets libres. »[1]

Vous êtes un développeur d’un logiciel libre non satisfait de la manière dont évolue le projet ? Vous avez donc cette possibilité essentielle que constitue le fork. Mais il y parfois un gouffre entre la théorie et la pratique, car il n’est pas simple de reconstituer une communauté active autour du projet dérivé.

C’est pourtant justement ce que vient de réussir l’équipe de LibreOffice, structurée autour de la Document Foundation et qui a décidé de quitter le navire OpenOffice.org suite au rachat de Sun par Oracle. Ce dernier ayant refusé de rejoindre le projet et de céder la marque OpenOffice.org (qu’il continuera de développer par ailleurs), c’est donc désormais LibreOffice (ou LibO) qui sera l’un des fers de lance du logiciel libre grand public aux côtés de Firefox ou GNU/Linux.

LibreOffice 3.3 : les véritables enjeux

The Deeper Significance of LibreOffice 3.3

Glyn Moody – 28 janvier 2011 – ComputerWolrd.uk
(Traduction Framalang : Yonel et Don Rico)

Sur le blog RedMonk, James Governor a publié un billet amusant à propos des forks, suite à l’arrivée imminente d’une mise à jour majeure d’Android, la 3.0, dont le nom de code est « Honeycomb », et laquelle a été conçue en pensant aux tablettes :

Ainsi que le voudrait la sagesse populaire, les développeurs ne devraient pas s’attaquer à des environnements multiples. Ben voyons… le genre de sagesse qui nous a valu une décennie où il n’y en a eu que pour Java, et une vingtaine d’années pendant lesquelles dès qu’il y fallait choisir une architecture on collait du Oracle partout. Avouons que pour l’instant, Android est vraiment pas mal sur les téléphones. J’aime beaucoup mon HTC Desire. J’ai aussi la chance de pouvoir faire joujou avec un Dell Streak qu’on m’a prêté ; encore un bon petit appareil, qui fait bien son boulot pour m’accompagner devant la télé. Mais Android n’a pas été conçu pour un format plus grand, comme l’iPad 10 pouces d’Apple, du moins dans ses premières versions.

Et comme il le fait remarquer :

Tous les éditeurs de logiciels doivent gérer des codebases multiples, en particulier pour les progiciels. Si une entreprise doit gérer les deux codebases, est-ce vraiment un fork ?

Je dirais qu’il s’agit plus de fragmentation, et qu’on en voit partout – dans Android lui-même, dans Windows, admettons, et dans le monde de GNU/Linux à travers les centaines de distributions, chacune avec des versions et des configurations différentes. Rien de bien nouveau.

Les vrais forks ne courent pas les rues, précisément à cause des différences entre le fork et la fragmentation. Cette dernière peut être gênante ou pas, mais elle est rarement aussi douloureuse qu’un fork peut l’être. En général, les forks déchirent les communautés et forcent les programmeurs à choisir leur camp.

C’est ce qui rend l’apparition de LibreOffice si intéressante : c’est un vrai fork, avec des décisions réelles et douloureuses que doivent prendre les codeurs – où vont-ils ? Et à la différence de la fragmentation, qui souvent se produit naturellement et perdure pour un tas de raisons en grande partie banales, les forks exigent beaucoup de travail pour survivre. Résultat, de nombreux forks échouent, car il est souvent plus facile de rester ou de revenir au projet d’origine, plutôt que de se battre pour en installer et en faire grandir un nouveau.

Dans ce contexte, la publication récente de LibreOffice 3.3 est un jalon important, au moins pour ce qu’elle a déjà réussi :

La Document Foundation présente LibreOffice 3.3, la première version stable de la suite bureautique libre développée par la communauté. En moins de quatre mois, le nombre de développeurs codant LibreOffice est passé de moins de vingt à la fin septembre 2010, à largement plus d’une centaine aujourd’hui. Cela nous a permis de publier en avance par rapport au calendrier audacieux fixé par le projet.

À l’évidence, attirer les développeurs est une épreuve cruciale pour le potentiel de survie du fork, et même de son épanouissement. D’autres points importants :

La communauté des développeurs a pu bâtir ses propres méthodes en toute indépendance, et devenir opérationnelle en très peu de temps (eu égard à la taille du codebase et aux grandes ambitions du projet).

Grâce au grand nombre de nouveaux contributeurs qui ont été attirés par ce projet, le code source est vite soumis à un nettoyage d’ampleur, pour offrir une meilleure base aux développements de LibreOffice à venir.

C’est-à-dire que LibreOffice n’en est plus au stade de vague projet, ou à celui des étapes pénibles comme définir l’infrastructure qui permettra au projet d’avancer. La signification de cette réussite va au-delà du fait que la Fondation propose aux utilisateurs une alternative libre à OpenOffice (qui vient également de sortir sa dernière version). La possibilité de choix étant au coeur du logiciel libre, c’est donc certainement une bonne nouvelle, surtout à cause de la politique de copyright de LibreOffice, que j’ai déjà évoquée.

Mais je pense que LibreOffice a une importance supplémentaire parce qu’il représente une attaque délibérée contre la façon dont Oracle traite son catalogue open-source. Hélas, le mécontentement qui a poussé à cette scission va bien plus loin que le seul domaine des suites bureautiques.

L’attitude d’Oracle envers la communauté open-source semble empirer, c’est de plus en plus évident. Marc Fleury le résume bien dans ce billet révélateur. Fondateur de Jboss, et l’un des vrais innovateurs en termes de modèles économiques reposant sur l’open-source, il sait certainement de quoi il parle quand il s’agit de diriger des codeurs open-source dans un contexte professionnel, ce qui rend des commentaires comme celui-ci particulièrement significatifs – et inquiétants pour Oracle :

Il y a d’abord eu le fiasco OpenOffice/Libre Office, où OpenOffice a été forké dans la plus grande partie par sa propre communauté. Puis il y a eu le caprice d’Apache concernant Java/JCP, quand le groupe a bruyamment quitté le JCP (NdT : Java Community Process) après des prises de bec sur les licences open-source de la JVM (Harmony). Et en ce moment, il y a d’autres bisbilles, dont une au sujet de NetBeans. Mais celle qui me concerne le plus (ainsi que mon porte-monnaie), cela concerne un projet mené par un employé de Cloudbees.

Si je comprends bien la situation, le principal développeur était employé par Sun quand il a initié Hudson. Oracle revendique donc l’identité et la marque, ce qui en toute franchise est aberrant, puisque la licence est open-source et que les gars de Cloudbees peuvent poursuivre leur travail sans entrave. Reste donc une dernière étape : la création d’un fork du projet. Et voilà… une grande partie de la communauté open-source dit merde à Oracle.

Ce que LibreOffice montre (jusqu’ici, en tout cas) c’est que dans ces circonstances, il y a bien une vie après Oracle, que les gens se regrouperont dans un fork au lieu de l’éviter, et que le travail alors fourni amène des améliorations non négligeables. Il est vrai que cet argument ne s’appuie que sur un seul exemple, et il faudrait être un expert bien téméraire pour essayer d’en extrapoler quoi que ce soit. Mais cela reste une source d’inspiration importante et tentante pour les codeurs contrariés qui grognent sous le joug d’Oracle. Après tout, comme le met en évidence le nom de LibreOffice, il ne s’agit pas que de code. Il s’agit aussi de liberté.

Notes

[1] Crédit photo : Terry Ross (Creative Commons By-Sa)




La nouvelle version Squeeze de Debian lavera encore plus blanc

Mark Robinson - CC byC’est un billet un peu technique que nous vous proposons aujourd’hui. Il évoque la « quête du 100% libre » des distributions GNU/Linux.

En effet, vous l’ignoriez peut-être, mais rares sont les distributions GNU/Linux qui soient « totalement libres ».

Ainsi la fort pratique distribution Linux Mint installe dès le départ des codecs (MP3, divX…) et des plugins (Java, flash…) propriétaires. On ne peut donc la considérer comme libre.

Mais, plus subtil, la très populaire distribution Ubuntu non plus, car elle embarque en son sein des drivers propriétaires comme ceux pour les cartes graphiques Nvidia et ATI.

Ces drivers sont des exemples de firmwares (ou micrologiciel), ces logiciels intégrés dans un composant matériel, et ils constituent le sujet principal de notre billet, et traduction, du jour.

Debian est l’une des plus anciennes et célèbres distributions GNU/Linux. Elle sert de base de développement à de nombreuses autres distributions, dont justement Ubuntu et Linux Mint.

L’une des principales caractéristiques de Debian, outre sa stabilité reconnue et le grand nombre d’architectures matérielles supportées, est de ne dépendre directement d’aucune société commerciale : comme le navigateur Firefox de la fondation Mozilla, Debian est le fruit d’une association à but non lucratif. Et si Mozilla possède son Manifesto, Debian a son fameux contrat social.

Elle se trouve actuellement dans sa version 5.0 mais la nouvelle version 6 (nom de code « Squeeze ») devrait sortir d’ici quelques jours.

Or le projet Debian a annoncé que cette nouvelle version bénéficierait, à sa sortie, d’un noyau Linux « libéré», c’est à dire débarrassé de tout firmware qui ne serait pas libre[1]. Cette décision a suscité un certain nombre de d’interrogations autour des conséquences pratiques pour l’utilisateur : allait-il pouvoir continuer à faire fonctionner pleinement sa machine avec cette nouvelle version ?

C’est à ces interrogations que répond l’un des développeurs du projet ci-dessous.

Mythes et réalités concernant les firmwares et leur non-retrait de Debian

Myths and Facts about Firmwares and their non-removal from Debian

Alexander Reichle-Schmehl – 20 janvier 2011 – Tolimar’s Blog
(Traduction Framalang : Antistress, Penguin et Goofy)

L’annonce par le projet Debian de la publication de Squeeze avec un noyau Linux complètement libre a retenu l’attention, ce qui n’est pas une mauvaise chose. Pourtant il semble que cette annonce ait parfois été mal interprétée ou mal relayée. Je vais essayer de résumer les principales erreurs et d’y répondre.

  • Mythe : Debian a retiré tous les firmwares de ses noyaux !
  • Réalité : Non, cette décision ne concerne que les noyaux qui seront inclus dans la prochaine version Debian 6.0 Squeeze. Les noyaux de la version stable actuelle Debian 5.0 Lenny restent tels quels… sauf que, bien sûr, nous réaliserons les mises à jour de sécurité qui s’imposent les concernant, mais ils continueront de contenir les mêmes firmwares qu’actuellement.
  • Mythe : Debian est en train de dégrader ses noyaux en en retirant des choses.
  • Réalité : Debian a transféré certains firmwares de sa section principale (NdT : main) vers sa section non-libre (NdT : non-free). Ils sont toujours présents, dans la section dédiée aux logiciels qui ne répondent à nos critères tels qu’ils résultent des principes du logiciel libre selon Debian (NdT : The Debian Free Software Guidelines – ou DFSG).
  • Mythe : La plupart des utilisateurs ne vont plus pouvoir installer Debian.
  • Réalité : les firmwares non-libres resteront disponibles à travers notre infrastructure. Ceux qui sont requis durant l’installation (par exemple pour contrôler l’accès au réseau ou au périphérique de stockage) peuvent également être chargés durant l’installation (qu’ils soients sur un CD ou une clé USB). Nous proposons des archives compressées de ces fichiers (décompressez les simplement sur une clé USB et branchez-la quand cela vous est demandé durant l’installation) ainsi que des images ISO permettant de créer un CD d’installation par le réseau qui contiennent déjà ces fichiers. Bien entendu, elles vont continuer d’exister, même aprés la publication de Squeeze.
  • Mythe : Ces fimwares sont requis, les ôter ne sert à rien et ne rend pas service à l’utilisateur.
  • Réalité : Oui, ces firmwares sont en effet nécessaires au fonctionnement de certains pilotes de certains matériels. Mais tout le monde n’en veut pas. À présent que nous sommes capables de charger ces firmwares sur demande (au lieu de devoir les compiler dans le pilote lui-même), nous pouvons les proposer séparément. Cela permet ainsi à ceux qui ont besoin de firmwares non-libres de les utiliser tandis que que ceux qui n’en veulent pas bénéficieront d’une installation qui en sera dénuée.
  • Mythe : Ah, encore un coup des fêlés de la liberté du projet Debian…
  • Réalité : Il n’y a pas que nous en réalité : nous n’y serions jamais parvenus sans la coopération d’un certain nombre de développeurs du noyau Linux. Et nous ne sommes pas les seuls intéressés par la création d’un noyau libre, d’autres distributions importantes ont également conscience du problème. Citons par exemple le récent commentaire d’un développeur du projet Fedora évoquant des changements dans un de ces firmwares non-libres. Il semble donc que Debian ait simplement été le premier à réaliser le problème des firmwares non-libres.
  • Mythe : Debian fait allégeance à Stallman.
  • Réalité : Je ne me suis pas entretenu avec Richard Stallman à ce sujet mais je pense que Debian n’est pas encore assez libre pour lui ; pour autant que je sache, il aimerait la disparition pure et simple de la section non-libre, ou au minimum qu’elle ne soit plus mentionnée nulle part.

Il reste donc une question : qu’il y a t-il de mal avec les firmwares non-libres ? Ne s’agit-il pas simplement de petits programmes exécutés par le microprocesseur du périphérique concerné ? Pourquoi s’en faire ? Bonne question ! Mettons de côté les problèmes juridiques qui sont susceptibles de se poser, et concentrons-nous sur l’aspect pratique. Le nœud du problème tient au fait que, sans leur code source (et les outils pour les compiler), les firmwares ne sont qu’une suite aléatoire de nombres pour nous. Nous ne savons pas ce qu’ils font, nous ne pouvons pas les analyser ni les améliorer. Nous ne pouvons pas les changer, nous ne pouvons pas assurer leur suivi. Peut-être avez-vous été lire le commentaire du développeur Fedora dont le lien a été donné plus haut ? Je le cite à nouveau car il me semble qu’il a très bien résumé le problème :

Mise à jour des firmwares qlogic 2400 et 2500 vers la version 5.03.13. Que fait la version 5.03.13 ? Personne ne le sait hormis QLogic et ils ne le disent pas. Je leur ai posé la question et ils m’ont répondu que l’information ne pouvait être donnée sans accord de confidentialité. Je vous invite donc à imaginer ce que fait ce firmware et les bogues qu’il corrige. Tant que vous y êtes, imaginez un monde où les fabricants publieraient le code source de leurs firmwares.

À présent que vous savez que nous ne pouvons assurer le suivi de ces firmwares, vous pourriez vous demander si c’est vraiment utile de toute façon. Quels dégâts pourraient bien faire à votre ordinateur un simple petit programme logé dans un périphérique ? Eh bien un scientifique a déjà fait la démonstration d’un firmware pour certaines cartes réseau qui dissimulait un cheval de troie. Donc non seulement c’est un problème en soi, mais cela peut même être un problème de sécurité !

Résumons-nous. Oui, Debian a modifié quelque chose dans ses noyaux. Non, ils vont continuer de fonctionner comme d’habitude. Certains utilisateurs devront peut-être activer le dépôt non-libre mais ce n’est pas obligatoire. Les firmwares nécessaires à l’installation sont aussi disponibles et peuvent être chargés lors du processus d’installation. Alors pourquoi tout ce ramdam ?

À propos, ceux d’entre vous qui craignent de ne pas se rappeler les liens des images ISO et des archives compressées, souvenez-vous de deux choses: wiki et Firmware. Vous trouverez tout ce dont vous avez besoin sur la page Firmware du wiki Debian.

Notes

[1] Crédit photo : Mark Robinson (Creative Commons By)