Les biens communs ou le nouvel espoir politique du XXIe siècle ?

Peasap - CC byIl y a plus de dix ans, Philippe Quéau (qu’on ne lit pas assez) s’exprimait ainsi lors d’une conférence organisée par le Club de Rome (qui a eu raison avant l’heure ?) ayant pour titre Du Bien Commun Mondial à l’âge de l’Information :

« L’intérêt public est beaucoup plus difficile à définir que l’intérêt privé. C’est un concept plus abstrait. Il intéresse tout le monde, et donc personne en particulier. Plus les problèmes sont abstraits et globaux, plus ils sont difficiles à traiter et à assimiler par le public. Les groupes de pression sectoriels ont en revanche une très claire notion de leurs intérêts et de la manière de les soutenir (…) La gestion des biens communs de l’humanité (comme l’eau, l’espace, le génome humain, le patrimoine génétique des plantes et des animaux mais aussi le patrimoine culturel public, les informations dites du domaine public, les idées, les faits bruts) doit désormais être traitée comme un sujet politique essentiel, touchant à la chose publique mondiale. Par exemple le chantier de la propriété intellectuelle devrait être traité, non pas seulement d’un point de vue juridique ou commercial, mais d’un point de vue éthique et politique. »

Le bien commun ou plutôt les biens communs (attention danger sémantique) seront à n’en pas douter non seulement l’un des mots clés de ce nouveau siècle, mais aussi, si nous le voulons bien, l’un des éléments moteurs et fédérateurs des politiques progressistes de demain[1].

C’est pourquoi le Framablog les interroge de temps en temps, comme ici avec cette ébauche de traduction française d’une première version d’un texte en anglais rédigé par une allemande !

On ne s’étonnera pas de voir la culture du logiciel libre une nouvelle fois citée en exemple à suivre et éventuellement à reproduire dans d’autres champs de l’activité humaine.

Les biens communs, un paradigme commun pour les mouvements sociaux et plus encore

The commons as a common paradigm for social movements and beyond

Silke Helfrich – 28 janvier 2010 – CommonsBlog
(Traduction Framalang : Olivier Rosseler et Tinou)

Version 1.0 – Licence Creative Commons By-Sa

Forum social mondial – 10 ans après – Éléments d’un nouvel ordre du jour

On ne peut considérer le système des biens communs comme une alternative pour le 21e siècle que s’ils représent effectivement un dénominateur commun entre différents mouvements sociaux et écoles de pensées. À mon avis, il est non seulement possible de les appliquer, mais c’est surtout un bon choix stratégique. Voici pourquoi en quinze points :

1. Les biens communs sont omniprésents. Ils déterminent notre qualité de vie de bien des manières. Ils sont présents (quoique souvent invisibles) dans les sphères sociales, naturelles, culturelles et numériques. Pensez aux outils d’apprentissage (la lecture et l’écriture), toutes ces choses qui nous servent à nous déplacer (la terre, l’air et la mer), celles qui nous servent à communiquer (le langage, la musique, les codes), toutes ces choses qu’on utilise pour nous nourrir ou nous soigner (la terre, l’eau, les médicaments) ou encore celles si cruciales à notre reproduction (les gênes, la vie sociale).

Les biens communs sont notre relation à toutes ces choses, comment nous les partageons, comment nous les utilisons. Les biens communs sont la représentation vivante de nos relations sociales, en permanence. On devrait plutôt utiliser une action (mettre en commun) plutôt qu’un nom (bien communs). Les biens communs sont une catégorie à part de production et d’usage du savoir et des biens matériels, où la valeur de l’usage est privilégiée par rapport à la valeur marchande. Mettre en commun est une pratique qui nous permet de prendre nos vies en main et de protéger, de développer ce qui nous est commun plutôt que d’assister à son enfermement et sa privatisation.

Les droits des bénéficiaire des biens communs sont indépendants des conventions formelles et du droit positif. Nous en disposons sans avoir à demander la permission et nous les partageons. Les biens communs offrent une liberté autre que celle du marché. La bonne nouvelle, c’est qu’en nous concentrant sur les biens communs, nous sortons les choses de la sphère marchande pour les mettre dans la sphère commune, nous mettons l’accent sur comment les sortir de l’autorité et de la responsabilité détenue par une bureaucratie fédérale pour aller vers une gestion des biens communs par leurs utilisateurs et la myriade de possibilités qu’elle offre, et enfin nous nous concentrons sur de nombreux problèmes et de nombreuses ressources, comme 75% de la biomasse mondiale, qui n’ont pas encore été transformés en marchandise. Voilà qui est encourageant.

2. Les biens communs établissent des ponts entre les secteurs et les communautés, ils offrent un cadre pour la convergence et la consolidation des mouvements. Les problèmes auxquels nous faisons face sont devenus trop compliqués. Pour en réduire la complexité, nous avons fragmenté ce qui ne devrait être qu’un. Dans le débat politique public, il y a une division entre différents domaines de connaissance et d’autorité. Il y a ceux qui débattent de sujet liés aux ressources naturelles (les écolos) et ceux qui débattent de problèmes culturels et numériques (les technophiles).

Il en résulte des communautés (sur-)spécialisées pour chacun des centaines de problèmes auxquels nous sommes confrontés et de nombreux chainons manquant. Au nom de la diversité des biens communs, cette fragmentation se poursuivra jusqu’à un certain point, mais elle contribue également à l’atrophie de notre capacité commune à suivre l’actualité économique, politique et technologique ainsi que les changements qui se produisent. Notre capacité à réagir à ces changements et à faire remonter soigneusement des propositions alternatives et cohérentes s’en retrouve diminuée.

Les biens communs peuvent unifier des mouvements sociaux disparates, même si leur dynamique est profondément différente, les biens communs nous permettent en effet de nous concentrer sur ce qui nous unis, sur tout ce que les communeurs ont en commun, pas sur ce qui les sépare. L’eau est une ressource finie, pas le savoir. L’atmosphère est partout, un parc ne l’est pas. Les idées se développent lorsque nous les partageons, ce n’est pas le cas de la terre. Mais ce sont là des ressources communes à tous ! Par conséquent, personne ne devrait pouvoir se prévaloir de la propriété de l’une de ces ressources. Elles sont toutes liées à une communauté.

Chacune de ces ressources est mieux gérée si les règles et les normes s’imposent d’elles-mêmes ou si elles sont légitimées par les personnes qui en dépendent directement.

3. Les biens communs amènent le débat de la propriété au-delà du clivage (parfois stérile) public/privé. Les appels en faveur de la propriété publique ne disparaissent pas pour autant, mais peut-on juger que les états nations ont été des fiduciaires des biens communs consciencieux ? Non. Protègent-ils le savoir traditionnel, les forêts, l’eau et la biodiversité ? Pas partout.

Tout ne s’arrête pas au clivage public/privé. On peut s’approprier une ressource commune partagée pendant une courte durée (pour reproduire nos moyens de subsistance), mais on ne peut pas faire tout ce qu’on veut avec. Il est primordial de garder à l’esprit que le concept de possession pour usage est différent de la propriété exclusive conventionnelle.

Contrairement à propriété, possession n’est pas synonyme d’aliénation. Et abus, commodification, maximisation des profits et externalisation des coûts au détriment des biens communs vont de pair avec la propriété. L‘externalisation des coûts est un processus courant actuellement mais il ne bénéficie à personne au bout du compte, pas même aux plus aisés que l’on incite à se réfugier dans des communautés fermées et protégées.

4. La perspective des biens communs n’est pas une lubie numérique. Elle n’est pas binaire, pas faite de 0 et de 1 ni de soit … soit. Elle ne se jauge pas non plus à l’aune de quelques succès. Nous cherchons des solutions qui dépassent les clivages idéologiques, qui dépassent les politiques chiffrées pour déterminer les réussites. Ce n’est pas juste le privé contre le public, la gauche contre la droite, la coopération contre la concurrence, la « main invisible du marché » contre les projets gouvernementaux, les pro-technologies contre les anti-technologies.

Les biens communs se tournent vers le troisième élément, celui qui est toujours oublié. Notre compréhension des ressources que nous possédons en commun en ressort approfondie, tout comme celle des principes universels (et fonctionnels) des peuples qui protègent leurs ressources communes partagées. Dans le domaine des bien communs, nous privilégions l’apprentissage de la coopération plutôt que la concurrence. Les biens communs favorisent l’autogestion et les technologies ouvertes, développées et contrôlées en commun, plutôt que les technologies propriétaires qui tendent à concentrer le pouvoir dans les mains des élites et qui leur donne le pouvoir de nous contrôler.

5. Parler des biens communs, c’est se concentrer sur la diversité. Pour reprendre les mots de l’ex-gouverneur Olívio Dutra (Rio Grande do Sul) lors du Forum Social Mondial, 10 ans après : « cela permet l’unité au travers de la pluralité et de la diversité ». La doctrine par défaut est « un monde qui contient une myriade de mondes ».

De toute évidence, l’une des forces de cette approche réside dans l’idée qu’il n’existe pas de solution simpliste, pas de schéma institutionnel, pas de miracle taille unique, uniquement des principes universels tels que la réciprocité, la coopération, la transparence et le respect de la diversité d’autrui. Chaque communauté doit déterminer les règles appropriées à l’accès, à l’usage et au contrôle d’un système de ressources partagées bâti sur ces principes.

La tâche est complexe, à l’image de la relation entre la nature et la société, particulièrement lorsqu’il s’agit de biens communs partagés à l’échelle mondiale. La communauté englobe alors l’humanité toute entière, ce qui renvoie à l’impérieuse nécessité d’un nouveau multilatéralisme au centre duquel se trouvent les biens communs.

6. Se concentrer sur les biens communs apporte une nouvelle perspective à trois grands C : Coopération, Commandement et Compétition. (NdT : On a conservé les 3 C mais on pourrait traduire Command par Pouvoir ou Gouvernance) Sans compétition, il n’y a pas de coopération, et vice versa. Mais dans une société centrée sur les biens communs, la coopération est plus valorisée que la compétition.

Le slogan est : « Battez-vous pour la place de numéro un des coopérateurs plutôt que des compétiteurs ». Les règles précises régeantant la coopération dans un système des biens communs change d’un cas à l’autre. Aucun autorité supérieure ne peut les dicter. La théorie et la pratique des biens communs nous apprennent que de part le monde, de nombreux systèmes d’administration des biens communs s’auto-régulent, c’est-à-dire qu’ils créent leurs propres systèmes de contrôle. Ou ils s’auto-régulent et se coordonnent à différents niveaux institutionnels.

Pour ce qui est du commandement, voici un conseil de la lauréat du Prix Nobel, Elinor Ostrom : « Mieux vaut inciter la coopération à travers des arrangements institutionnels adaptés aux écosystèmes locaux plutôt que d’essayer de tout diriger à distance ». De plus, les autorités supérieures, les gouvernements, les lois, les organisations internationales, peuvent jouer un rôle décisif dans la reconnaissance des biens communs. Mais pour y parvenir, les biens communs devraient déjà occuper une plus grande place dans leur vision politique.

7. Les biens communs ne dissocient pas la dimension écologique de la dimension sociale, au contraire d’une vision verte inspirée du New Deal. Il serait judicieux, dans une certaine mesure, de rendre plus visible la "valeur économique" des ressources naturelles et il est sans doute nécessaire d’inclure les coûts écologiques de la production dans l’ensemble du processus manufacturier.

Mais ça ne suffit pas. Ce genre de solution ne règle pas la dimension sociale du problème, elle tend au contraire à creuser un fossé, faisant des solutions un problème d’accès à l’argent. Ceux qui y ont accès peuvent se permettent de payer le surcout écologique, ceux qui ne l’ont pas se retrouvent laissés pour compte. Les biens communs, au contraire, apportent une réponse au problème écologique et au problème social.

Une solution au cœur de laquelle se trouvent les biens communs ne laisse personne pour compte.

8. Le concept des biens communs fait siennes plusieurs visions du monde : on y retrouve la pensée socialise (la possession commune), la pensée anarchiste (l’approche auto-organisée), la pensée conservatrice (pour qui la protection de la création est importante) et évidemment les pensées communautaristes et cosmopolites (la richesse dans la diversité) et même la pensée libérale (affaiblissement du rôle de l’État, respect des intérêts et motivations individuelles à rejoindre une communauté ou un projet).

Mais de toute évidence, toutes ces idées ne peuvent s’unir derrière un programme politique construit autour des biens communs. C’est là leur force, et c’est pourquoi les partis politiques se méprennent à leur égard ou tentent de coopter les biens communs. Si nous nous attachons à livrer un discours cohérent (voir 9), ils n’y parviendront pas.

9. L’aune à laquelle sera mesuré l’adhésion des idées politiques au paradigme des biens communs est triple et bien définie : (a) usage durable et respectueux des ressources (sociales, naturelles et culturelles, y compris numériques), ce qui signifie : pas de sur-exploitation ni de sous-exploitation des ressources communes partagées.

Partage équitables des ressources communes partagées et participation à toutes les décisions prises au sujet de l’accès, de l’usage et du contrôle de ces ressources et (c) le développement libre de la créativité et de l’individualité des gens sans sacrifier l’intérêt collectif.

10. Les biens communs ne sont pas uni-centriques mais poly-centriques. Leurs structures de gouvernance sont elles aussi décentralisées et variées. En d’autres termes : les biens communs sont poly-centriques par nature, ce qui est la condition nécessaire à une approche profondément démocratique, aussi bien politiquement (principes de décentralisation, de subsidiarité et de souveraineté des communeurs et de législations des communeurs) et économiquement (le mode de productions des biens communs réduit notre dépendance à l’argent et au marché).

11. Les biens communs renforcent un trait essentiel de la nature humaine et du comportement humain. Nous ne sommes pas seulement, loin s’en faut, l’homo œconomicus comme on nous le fait croire. Nous sommes bien plus que des créatures égoïstes qui ne se soucient que de leur propre intérêt. Nous ressentons ce besoin de nous intégrer dans un tissu social et nous nous y plaisons.

« Les biens communs sont le tissu de la vie », d’après Vandana Shiva. Nous aimons participer, nous impliquer et partager. Les biens communs renforcent le potentiel créatif des gens et l’idée d’inter-relationalité, en deux mots : « J’ai besoin des autres et les autres de moi ». Ils honorent notre liberté de participer et de partager.

Ça n’est pas la même liberté que celle sur laquelle repose le marché. Nos contributions nous donne accès à plus de choses. Mais nota bene" : ça ne se résume pas à "accès gratuit à tout".

12. Les biens communs proposent des outils d’analyse issus de catégories différentes de ceux du capitalism, notre « décolonisation de l’esprit » en est donc facilitée (Grybowski). Les communeurs rédéfinissent ce qu’est l’efficacité. Ils visent la coopération efficace, comment la favoriser et la mettre à la porté des gens.

Ils souhaitent privilégier la propriété exclusive à court terme comme moyen de subsistance plutôt que la propriété à durée indéfinie. Ils honorent les moyens de protection traditionnels des biens communs ainsi que les systèmes traditionnels de connaissance. Pour faire court : les biens communs éclairent sous un jour nouveau de nombreuses pratiques politiques et légales.

La différence est grande entre une vision communales et une vision commerciale de notre environnement. La différence est grande si l’eau est perçue comme un bien commun, c’est à dire liée aux besoins de la communauté, ou pas. Ou considérez les graines ; si vous voyez la diversité des graines comme un bien commun, vous récoltez ce dont vous avez besoin et votre indépendance alimentaire est assurée.

Si la société reconnaissait que les variétés de graines régionales font partie des biens communs, l’État appuierez de toutes ses ressources les plantations biologiques indépendantes et les petites exploitations pour qu’elles puissent poursuivre leur développement traditionnel des céréales plutôt que de gaspiller l’argent du contribuable en finançant des manipulations génétiques et l’ingénierie agro-alimentaire.

13. Le secteur des biens communs est pluriel et rassemble de nombreux protagonistes. Ces dernières années, l’intérêt porté internationalement au paradigme des biens communs s’est largement accru.

Les communeurs et les organismes se sont constitués des alliances transnationales (Creative Commons, Wikipedia, les mouvements des Logiciels Libres et de la Culture Libre, les plateformes de partage, les organismes de lutte contre l’exploitation minière, les alliances promouvant une approche de Bem-Viver, le mouvement mondial pour une agriculture durable, le Water Commons, les jardins communautaires, la communication et les projets d’informations citoyens et bien d’autres encore).

C’est en fait une explosion spontanée d’initiatives communes. Depuis que le Prix Nobel d’Économie a été attribué à Elinor Ostrom (octobre 2009), de nombreuses universités redécouvrent l’intérêt académique des biens communs.

14. Les biens communs comme mode de production alternatif. Les problèmes auxquels nous sommes confrontés ne sont pas liés à la disponibilité des ressources.

Ils émanent du mode de production actuel. Heureusement, dans certains domaines, nous assistons à une évolution du mode de production, d’un système capitaliste (basé sur la propriété, la demande, la valeur marchande, l’exploitation des ressources et du travail, dépendant de la croissance et tiré par les profits) il est en passe de venir commun (basé sur la possession, la contribution, le partage, l’intérêt personnel et l’initiative, où le PIB est un indicateur négligeable et dont la finalité est la belle vie, le bem viver).

De nombreux projets de Production Collective Commune rencontrent le succès. C’est particulièrement le cas pour la production de savoir (Wikipédia, les logiciels libres, le design ouvert). Mais un débat palpitant se déroule actuellement pour trouver les moyens d’appliquer les mêmes principes de production collective commune à la production de ce nous mangeons, de ce que nous portons et de nos moyens de locomotion, et jusqu’où nous pouvons aller.

J’ai la conviction que c’est possible. Premièrement parce que le savoir se taille la part du lion de tout type de production. Tous les biens ne sont que des produits en devenir. Pas de production automobile ou de production agricole sans concept et sans design (d’où la part du lion de sa valeur marchande).

Et deuxièmement, les secteurs des communs qui n’ont pas encore été commodifiés et où les valeurs et les règles des communs sont bien ancrées sont nombreux et variés (économie de l’entraide, économie de la solidarité). Ces secteurs sont la preuve que chaque jour, une grande partie de ce qui nous est nécessaire est produit en dehors du marché économique.

15. Le discours des communs prône le changement culturel. Ce n’est pas simplement une approche technologique ou institutionnelle. Il incite plutôt au développement de nouvelles idées et de nouvelles actions personnelles et politiques.

Pourquoi maintenant ? Car le moment est opportun pour les biens communs.

1. Nous sommes à une période charnière, dans biens des contextes, les biens communs sont re-découverts. Le marché et l’État (seul) ont échoué à protéger les ressources communes et à satisfaire les besoins des gens. Les idéaux de l’économie de marché sont assiégés de toutes parts.

Ses mécanismes d’analyses économiques, de politiques publiques, sa vision du monde perdent leur valeur explicative, et surtout leur soutien populaire. Les gens réalisent de plus en plus que ça n’est pas à l’économie de marché que nous devons la biodiversité, la diversité culturelle et les réseaux sociaux !

2. Les nouvelles technologies ouvrent la voie à de nouvelles formes de coopération et de production décentralisée qui étaient, jusqu’alors, l’apanage des technologies de l’âge industriel. Il nous est même désormais possible de ré-affecter la production d’énergie et d’électricité aux biens communs sociaux (centrales électriques solaires citoyennes, centrales électriques résidentielles).

Nous avons la possibilité de décider quelles nouvelles ou quelles informations sont utiles à la communauté et nous pouvons les reproduire nous-mêmes grâce à la plus grande machine à copier jamais inventée : Internet. La production connait une véritable révolution, une révolution qui redéfinira les règles. Les monopoles sont menacés.

3. Les changements actuels offrent à tout un chacun une influence élargie. Une vision moderne des biens communs ne se tourne pas vers le passé.

Il faut voir plus loin qu’une simple relocalisation, notre perspective est une coopération locale, décentralisée et horizontale au travers de réseaux distribués afin que les gens puissent, ensemble, se re-approprier la création de choses, qui seront ensuite disponibles pour eux et pour tout le monde, s’ils le souhaitent. Le but étant d’alimenter les biens communs et la production commune autant que possible pour affaiblir notre dépendance à l’économie de marché.

Mais ça ne sera possible, si le nouveau mode de production est capable de résoudre les problèmes même les plus complexes, que si les productions collégiales dépassent ce que les entreprises, même les plus importantes, sont capables de mettre en place du point de vue logistique, financier et conceptuel.

Et c’est tout à fait possible ! Regardez Wikipédia ou la voiture open source. Peut-être serions nous même capable de développer des véhicules individuels 100% recyclables, qui ne consomment qu’un litre/100km si les entreprises n’avaient pas capturé les technologies et contrôlé le marché.

Dans un monde où la production commune est généralisée, les notions de centre et de périphérie disparaissent.

4. L’usage collectif et l’accès libre ou équitables aux biens communs bénéficie maintenant de nouvelles protections légales : la General Public License (GPL), les licences de partage à l’identique, des modèles de propriétés spécifiques aux ressources naturelles qui se prémunissent de la spéculation et de la sur-exploitation, des fonds d’actionnariat à ressource commune unique, les systèmes d’aqueduc au Mexique ou de récupération d’eau en Inde ou encore le droit de tout un chacun (Allesmansrätten) en vigueur dans les pays du nord de l’Europe.

Ce sont des outils puissants dont nous devons nous inspirer et qu’il vaut développer. Dans ce domaine, il faudra faire preuve de créativité pour coucher nos idées en termes juridiques, des idées qui doivent respecter la grande variété de règles formelles et informelles en vigueur dans le monde pour protéger les biens communs.

5. Sans oublier, finalement, que si votre curiosité vous pousse à vous intéresser aux biens communs, vous découvrez de nouvelles choses étonnantes. Vous êtes liés à des centaines de communautés dynamiques. Vous entrapercevez une sagesse que vous ne soupçonniez pas, vous apprenez à encourager des projets et vous multipliez vos réseaux. C’est très motivant.

Connaissiez-vous l’existence du projet OpenCola ? Saviez-vous que le plus grand lac de Nouvelle Zélande, le lac Taupo, est rempli de truites ? Dans la région très touristique de Taupo, les ressources sont sous pression, mais la population de truite est toujours dynamique dans le lac car les néo-zélandais suivent un règle simple : pêchez juste ce qui vous est nécessaire pour manger (il vous faut un permis de pêche délivré par les autorités locales), n’en tirez pas profit.

Et donc, aucun restaurant de la région ne propose de truite au menu. Souvenez-vous : les biens communs ne sont pas à vendre. Et que savez-vous de la biologie libre et de la médecine participatoire ? Avez-vous entendu parler de ces innombrables banques de graines, essentiellement dans les pays du sud, et du trésor inestimable qu’elles protègent pour nous ? Et savez vous les progrès qu’a réalisé le mouvement international de promotion de l’accès libre aux ressources scolaires, ce mouvement qui vise à garantir l’accès libre à ce qui a été financé publiquement, la production du savoir ?

Avez-vous entendu parler des jardins interculturels et communautaires ou du régime des biens communs privilégiés par les pêcheurs de homards du Maine (USA) pour éviter la sur-exploitation des homards ? Et que pensez-vous des communs de crise, ces groupes où des centaines de volontaires mobilisent leurs savoirs-faire pour collecter des informations grâce aux technologies modernes pour venir en aide aux victimes de catastrophes naturelles, comme après le tremblement de terre à Haïti ?

Les biens communs insufflent une nouvelle vigueur aux débats politiques. Les jeunes citoyens deviennent attentifs lorsqu’on leur parle de production pair-à-pair, car c’est ce qu’ils font. Les écolos deviennent attentifs quand on leur parle du principe des copylefts et de la reproduction virale des logiciels et du contenu.

Ils comprennent que « toutes ces licences compliquées » défendent notre liberté d’accéder au savoir et aux techniques culturelles. C’est exactement ce pour quoi ils se battent dans leur domaine.

Les technophiles sont enthousiaste de pouvoir mettre leurs incroyables capacités à contribution pour gérer des systèmes complexes de ressources naturelles. En d’autres termes, les biens communs élargissent les horizons, ils apportent un vent nouveau de pensée collective, une pensée dynamique, non-dogmatique mise en œuvre de façon innovante.

Les communs sont un nouveau concept, puissant, autonome et auto-suffisant pour constamment redonner à la vie toute sa dignité. Ils sont l’élément indispensable pour construire un mouvement divers et irrésistible à partir d’une pensée politiquement et conceptuellement cohérente.

Porto Alegre – Janvier 2010

Mise à jour du 10 mars : Une nouvelle version 2.0 sera bientôt publiée. Merci à tous pour vos précieux commentaires.

Notes

[1] Crédit photo : Peasap (Creative Commons By)




Pourquoi soutenir la Free Software Foundation – Benjamin Mako Hill

Soulfish - CC by-saBenjamin Mako Hill n’a pas encore trente ans mais cela ne l’empêche pas d’avoir un CV qui force déjà l’admiration.

Chercheur au MIT Media Lab, développeur Debian puis Ubuntu, membre des bureaux de la FSF et Wikimedia, impliqué dans le projet OLPC et dans la définition des Free Cultural Works… Excusez du peu ![1]

Après nous avoir expliqué dans ces mêmes colonnes pour il fallait soutenir Wikipédia, il récidive ici avec la Free Software Foundation, non sans enthousiasme et éloquence[2].

PS : Pour info, Framasoft est Associate Membership #7234 de la FSF.

Appel à soutenir la Free Software Foundation

Benjamin Mako Hill

Benjamin Mako Hill – 19 janvier 2010 – FSF Appeals
(Traduction Framalang : Don Rico et Mathieu Adoutte)

L’essence du logiciel libre est selon moi de permettre aux utilisateurs de micro-informatique d’être maître de leur machine et de leurs données. Dans la mesure où nos logiciels définissent notre rapport au monde et aux autres, la liberté logicielle est une part importante de ce qui nous permet de déterminer notre façon de vivre, de travailler et de communiquer.

Mako siège au comité directeur de la FSF.

En matière de logiciels libres, le programme créé n’est pas une fin en soi ; ce qui importe c’est d’apporter la liberté aux utilisateurs.

Avec l’immense succès que rencontre le Libre depuis vingt ans, nombreux sont ceux qui ont perdu de vue ce point pourtant simple. Nous avons créé un ensemble incroyable d’applications, d’outils et de bibliothèques. Nous avons mis sur pied des communautés d’entraide et de développement bouillonnantes. Nous avons mis au point de nouvelles méthodes de développement, de puissantes licences copyleft et d’immenses projets collaboratifs. Pourtant, tous ces éléments ne sont qu’une façon de conférer plus de liberté à ceux qui s’en servent. Ils ne forment pas la liberté en soi. Ils ne constituent pas notre réel objectif. Ce sont nos outils, et non notre but.

Dans un monde où la technologie est en mutation perpétuelle, cette distinction devient centrale. Car c’est bien dans un monde qui change en permanence que nous vivons. Alors que nombre de personnes font du téléphone portable leur ordinateur principal, et que beaucoup d’entre elles s’en servent principalement pour accéder à des services en réseau d’un genre nouveau, les anciennes applications, communautés, méthodes de développement et licences du Libre peuvent se révéler inadaptées ou inefficaces pour protéger la liberté de l’utilisateur.

Au cours des prochaines années, apporter la liberté aux utilisateurs d’informatique nécessitera une adaptation des logiciels et des discours. Il faudra de nouvelles licences et techniques pour les faire respecter. Il faudra renouveler notre façon de collaborer et de nous organiser. Pour atteindre son but, le logiciel libre doit rester concentré sur la liberté de l’utilisateur – sur la question de nos motivations à agir comme nous le faisons – puis se montrer créatif quant à la meilleure manière de respecter et préserver la liberté à laquelle nous aspirons. Si nous sommes trop axés sur ce que nous avons accompli par le passé, nous risquons de perdre de vue notre objectif fondamental : favoriser le contrôle qu’ont les utilisateurs sur leurs outils technologiques en général.

De nombreuses structures soutiennent le logiciel libre en s’attachant au « comment ». On trouve parmi elles des cabinets juridiques, des entreprises et des associations à but non lucratif, qui appuient divers projets associés au Libre.

La Free Software Foundation est de loin l’organisation la plus importante qui s’interroge sur le pourquoi – sur l’essence de la liberté logicielle. En tant que telle, elle a un rôle fondamental : celui de pousser notre communauté au sens le plus large à se focaliser sur les problèmes, les menaces et les défis les plus importants, lesquels ont une incidence sur la réussite de chaque projet de logiciel libre et sur chaque utilisateur de l’outil informatique, aujourd’hui et demain. En ces temps d’évolution rapide de la technologie, son action est plus vitale que jamais. Et les conséquences d’un échec seraient plus dramatiques.

Voici certains domaines dans lesquels je vais encourager la FSF à défendre le mouvement du Libre au cours de l’année à venir :

La téléphonie mobile

Dans un court billet, j’indiquais qu’il y avait aujourd’hui des milliards de téléphones portables dans le monde et que, même si ces appareils sont des ordinateurs de plus en plus puissants, ils constituent une des technologies les plus verrouillées, les plus privatrices et les moins libres parmi celles communément répandues.

Les conséquences de cette situation sont désastreuses quant au contrôle que les utilisateurs peuvent avoir sur leur technologie. Bien que certains modèles très répandus fonctionnent grâce à des logiciels libres, la plupart des appareils dits libres sont cadenassés, et leurs utilisateurs demeurent menottés, divisés et impuissants.

Nous devons informer les utilisateurs de mobiles des enjeux des logiciels libres, les avertir que les téléphones sont de puissants ordinateurs polyvalents, et leur expliquer que ces appareils ont des implications critiques pour l’autonomie de tout un chacun dans le futur. À cette fin, la FSF va lancer cette année une campagne de sensibilisation concernant la téléphonie mobile et la liberté informatique.

Les services en ligne

L’étendue et le taux de pénétration des services en ligne tels que Facebook, Google et autres n’ont cessé de croître au cours de l’année passée, et il en va de même pour la nécessité d’offrir des équivalents libres. Le lancement de produits réseau-centriques tels que le ChromeOS de Google offre un aperçu de ce à quoi une plate-forme informatique pourrait ressembler à l’avenir.

Les conséquences pour la liberté de l’utilisateur et l’efficacité de l’approche traditionnelle du logiciel libre sont effrayantes. Le fait que de nombreux services en ligne soient construits grâce à des logiciels libres ne rend pas moins catastrophique l’effet qu’ils auront sur l’autonomie et la liberté des utilisateurs.

Au cours de l’année à venir, la FSF compte publier la première annonce, qui je l’espère sera suivie par d’autres, sur la liberté informatique et les services en ligne. En s’appuyant sur les travaux du groupe Autonomous, que soutient la FSF, la Fondation fournira des conseils à ceux qui mettent en place des services en ligne, aux utilisateurs qui se demandent s’ils doivent ou pas s’inscrire à tel ou tel service, et aux développeurs souhaitant concevoir des services qui respectent davantage la liberté de leurs utilisateurs.

Communiquer au-delà de nos communautés habituelles

Pour lutter efficacement pour la liberté informatique, il va falloir s’adresser à des utilisateurs n’appartenant pas à la « base » historique de la FSF. C’est ce que fait la FSF par le biais de sa campagne anti-DRM Defective by Design et son action contre les brevets logiciels (End Software Patents). Cette année, la FSF a aussi cherché à toucher les plus jeunes avec sa campagne « GNU Generation » (NdT : soit « GNUvelle génération »), menée par et pour des lycéens. En outre, la FSF a organisé un colloque sur les femmes dans le logiciel libre. La FSF prévoit de cultiver ces réussites et de multiplier ce genre de projets d’ouverture.

Bien évidemment, promouvoir et défendre la liberté logicielle représente plus de travail que la FSF, avec ses ressources actuelles, ne peut en accomplir. Chacun des trois points mentionnés plus haut constitue une entreprise ambitieuse, mais ils ne représentent qu’une partie du pain que le personnel de la FSF a sur la planche. Poursuivre les projets existants exigerait déjà de la FSF qu’elle intègre des centaines de nouveaux membres avant la fin de cet exercice. Votre adhésion et vos dons nous aideront à atteindre ces objectifs.

C’est un mouvement du logiciel libre fort – et en particulier une FSF forte – attaché à défendre les principes de la liberté des logiciels, qui déterminera les libertés dont jouira la prochaine génération d’utilisateurs de l’outil informatique. Ce qui est en jeu, ce n’est rien de moins que l’autonomie de la génération qui nous suivra.

Je sais que ce n’est pas le premier appel aux dons qui vous est adressé depuis le début de l’année, et j’ai conscience qu’en cette époque de crise économique, donner se révèle délicat pour beaucoup. Je comprends qu’il sera plus difficile de consentir à la dépense que représente une adhésion ou un don. Mais à ce moment charnière dans le domaine technologique, il nous faut plus que jamais une FSF robuste.

Si vous n’êtes pas membre de la FSF, c’est le moment de le devenir. Si vous avez lu mes appels des années précédentes et choisi d’attendre, il est temps de vous lancer. La cotisation est de 120 dollars par an (60 dollars pour les étudiants), et elle peut être mensualisée. Si vous êtes déjà membre, je vous invite à faire comme moi un don généreux, ou à encourager un ami à adhérer. La FSF est une petite organisation composée de passionnés qui travaillent sans relâche pour notre liberté logicielle. Je sais d’expérience que même les contributions les plus modestes peuvent changer la donne.

Notes

[1] Et pour l’avoir rencontré aux RMLL d’Amiens en 2005, j’ajoute que le garçon est charmant. Si en plus il s’intéresse aux filles, je crois qu’il se rapproche du gendre idéal de ce nouveau siècle 😉

[2] Crédit photo : Soulfish (Creative Commons By-Sa)




Lâchons prise en débranchant la prise

Batintherain - CC by-saOn parle beaucoup de libération sur ce blog. Mais l’acte de libération ultime n’est-il pas devenu celui de se couper momentanément ou plus durablement de l’Internet ?

Au diable la rédaction frénétique de mon blog pour être parmi les premiers à annoncer ce que des centaines d’autres annonceront. Au diable la consultation des commentaires et statistiques de ce même blog.

Les mails, tweets et fils RSS peuvent s’accumuler, mes amis Facebook gesticuler et me stimuler… Je n’en ai cure. Ils vivront très bien sans moi. Je ne suis pas inspensable à l’Internet. Mais l’Internet ne m’est pas inspensable non plus[1].

Je ne dois plus être esclave de ma propre vanité.

Tel un joueur invétéré qui demande de lui-même au patron de son casino préféré de ne plus le faire entrer, je me choisis un proche et lui confie la mission de changer tous mes mots de passe avec ceux de son choix qu’il gardera pour lui, même si je l’en supplie plus tard de me les dévoiler.

Je n’ai plus la tête dans le flux. Ouf ! Je respire !

PS : Ce court billet « à contre-courant » fait écho à notre célèbre et bien plus dense traduction du même auteur : Est-ce que Google nous rend idiot ?

Exode

Exodus

Nicholas Carr – 8 avril 2010 – Blog de l’auteur
(Traduction Framalang : Joan Charmant)

Cela a-t-il commencé ?

James Sturm, le dessinateur, n’en peut plus d’Internet :

Ces dernières années, Internet est passé d’une simple distraction à quelque chose qui semble plus sinistre. Même quand je ne suis pas à mon ordinateur, je suis conscient que JE NE SUIS PAS À MON ORDINATEUR et je fais des plans pour pouvoir RETOURNER À MON ORDINATEUR. J’ai tenté diverses stratégies pour limiter le temps que je passe en ligne : laisser mon portable au bureau quand je rentre à la maison, le laisser à la maison quand je vais au bureau, un moratoire sur l’utilisation les samedis. Mais rien n’a fonctionné très longtemps. De plus en plus d’heures de ma vie s’évaporent sur YouTube… La communication de base a laissé la place à des heures de vérification compulsive de mes mails et de surf sur le web. L’Internet m’a rendu esclave de ma vanité : je contrôle le positionnement de mes livres sur Amazon toutes les heures, je suis constamment en train de chercher les commentaires et discussions sur mes travaux.

Il n’est pas tout à fait prêt pour divorcer d’avec le Web. Mais il a décidé de tenter une séparation de quatre mois. Comme Edan Lepucki, il a demandé à quelqu’un de lui changer les mots de passe de tous ses comptes, juste pour être sûr.

Je sais qu’on ne reviendra jamais à l’ère pré-Internet, mais je voudrais juste progresser un peu plus lentement.

La déconnexion est la nouvelle contre-culture.

Notes

[1] Crédit photo : Batintherain (Creative Commons By-Sa)




Quand la Maison Blanche se joint à la communauté du Libre

Beverly & Pack - CC byLa vaste communauté Drupal compte un contributeur bien particulier puisqu’il s’agit ni plus ni moins de la Maison Blanche.

C’était déjà bien d’adopter le célèbre CMS libre pour faire tourner le site officiel (ce que nous avions signalé dans un précédent billet), mais c’est encore mieux de participer à son amélioration en reversant le code spécifique développé pour l’occasion, et en le faisant savoir sur son blog (traduit ci-dessous)[1].

Un billet et une traduction directement suggérés par ce journal LinuxFr de Francois G (auteur de la rafraichissante nouvelle de science-fiction Églantine et les ouinedoziens) dont la présentation se suffit à elle-même :

« Le site de la Maison Blanche vient de diffuser le code source des améliorations qu’ils ont apportés au projet Drupal (à noter tous les liens vers le site du projet Drupal dans le billet).

Les 3 bonnes nouvelles :

  • La Maison Blanche a compris qu’elle peut être maître de ses outils informatiques.
  • Elle en profite (modifications spécifiques) et en fait profiter les autres (diffusion à tous).
  • Elle communique sur cette action. De ce fait, elle annonce officiellement son support et son utilisation des logiciels libres.

Compte tenu de la volonté de l’Élysée de copier la Maison Blanche, on peut espérer un changement de politique chez nous. »

WhiteHouse.gov participe à l’Open Source

WhiteHouse.gov Releases Open Source Code

Dave Cole – 21 avril 2010 – The White House Blog
(Traduction Framalang : Quentin Theuret et Julien Reitzel)

Dans le cadre de nos efforts continus pour développer une plateforme ouverte pour WhiteHouse.gov, nous mettons à disposition de tous une partie du code source personnalisé que nous avons développé. Ce code est disponible à tous pour l’analyser, l’utiliser ou le modifier. Nous sommes impatients de voir comment des développeurs à travers le monde pourront utiliser notre travail dans leurs propres applications.

En reversant une partie de notre code source, nous bénéficions de l’analyse et de l’amélioration d’un plus grand nombre de personnes. En fait, la majorité du code source de WhitHouse.gov est dès à présent open source car il fait partie du projet Drupal. Le code source que nous relâchons aujourd’hui ajoute des fonctionnalités à Drupal dans trois domaines importants :

1. Évolutivité : Nous publions un module nommé Context HTTP Headers, qui permet aux webmasters d’ajouter de nouvelles métadonnées au contenu qu’ils publient. Nous utilisons cela pour nos serveurs qui manipulent des pages spécifiques, comme la mise en cache de ce type de page pendant 15 minutes ou ce type pendant 30. Un second module concernant l’évolutivité s’appelle Akamai et il permet à notre site web de s’intégrer avec notre réseau d’envoi de contenu Akamai.

2. Communication : Beaucoup d’agences gouvernementales ont des programmes actifs d’emails qu’ils utilisent pour communiquer avec le public à travers des services qu’ils fournissent. Nous avons une liste de diffusion pour la Maison Blanche, où vous pouvez trouver les mises à jour des nouveaux contenus et des initiatives. Pour rendre plus dynamique l’adaptation des emails aux préférences des utilisateurs, nous avons intégré l’un des services les plus populaires pour les programmes d’emails gouvernementaux dans notre CMS avec le nouveau module GoDelivery.

3. Accessibilité : Nous prenons très au sérieux nos obligations pour être sûrs que WhiteHouse.gov soit accessible le plus possible et nous nous sommes engagés à tendre vers les standards d’accessibilité décrits par la Section 508. Dans le cadre de cette conformité, nous voulons être sûrs que toutes les images sur notre site Web aient des métadonnées appropriées pour les rendre visibles sur des logiciels de lecture vocale. Pour nous aider à atteindre cela, pour que ce soit plus facile de gérer les contenus photos et vidéos que vous voyez sur notre site, nous avons développé Node Embed.

Notes

[1] Crédit photo : Beverly & Pack (Creative Commons By)




Google prends les ARM pour défendre Theora

Titlap - CC byComme vous le savez, HTML5 est la cinquième version du langage utilisé pour concevoir les pages Web, qui propose enfin aux développeurs le moyen d’afficher directement et simplement les vidéos dans la page, de la même façon qu’il est déjà possible de le faire pour des images. C’est à dire de façon simple, ouverte et puissante, sans la contrainte de recourir à un plugin propriétaire comme Flash.

Mais la taille des vidéos doit être réduite pour pouvoir être diffusées sur Internet, et comme il a déjà été dit dans ces colonnes, HTML5 est muet quant au format à utiliser pour compresser ces vidéos (on parle aussi de codec). Aujourd’hui, deux codecs peuvent techniquement assumer ce rôle clé : Theora et H264 (en attendant une possible libération du codec VP8 racheté par Google). Mais alors que le premier est entièrement libre et utilisable sans aucune restriction, le deuxième est breveté et son usage est rigoureusement encadré et soumis à redevance.

On comprend alors que l’affrontement de ces deux codecs n’est que la traduction de l’affrontement de deux visions : tandis que Theora doit permettre de maintenir un Web ouvert où chacun serait libre de publier du contenu ou de créer des applications innovantes, H264 permettra à quelques entreprises privées de faire main basse sur le Web.

À côté de l’avènement de HTML5, un autre facteur est en train de rebattre les cartes : il s’agit du nombre grandissant d’appareils mobiles reliés à Internet[1].

Pour ces appareils mobiles, la question de la puissance processeur et de la consommation électrique se pose de manière nouvelle : ces appareils sacrifient souvent la première au profit de la seconde.

Ainsi, à l’inverse de ce qui se passe dans le monde des micro-ordinateurs de bureau, où l’architecture x86 développée par Intel domine, l’univers des appareils ultra mobiles est dominé par une architecture concurrente : ARM.

Les processeurs ARM (pour Advanced Risc Machine) sont des processeurs fabriqués sous licence par différentes sociétés de par le monde à partir des travaux de la société anglaise ARM. Cette société conçoit des processeurs consommant peu d’énergie qui se retrouvent ensuite dans la plupart des appareils mobiles : des sociétés comme Nokia, Google (Nexus One), HTC, Samsung, Apple (Iphone/iPad), Sony Ericsson, Palm (Plam Pre), Siemens, LG, ou encore Motorola l’utilisent dans leurs smartphones.

Dans la mesure où l’on retrouve souvent le codec H264 dans les vidéos en Flash et où le format H264 exige d’importantes ressources processeur pour être décodé, de nombreux appareils mobiles ont été optimisés pour aider au décodage du H264.

De fait, ce handicap initial est devenu paradoxalement un avantage pour le H264 : bien que Theora demande beaucoup moins de ressources pour être décodé et soit ainsi plus adapté aux appareils mobiles, certains lui opposent le fait qu’il ne bénéficie pas du même support matériel que le H264.

Heureusement la situation n’est pas figée et de nombreux développeurs sont à pied d’œuvre pour permettre à Theora de tirer parti de ces optimisations matérielles (en attendant que les fabricants implémentent eux-même leurs optimisations pour Theora).

C’est le cas notamment de Google qui investit dans le développement de theorARM, une version de Theora optimisée pour les processeurs ARM, comme l’explique Robin Watts sur le blog « des projets Open Source » de Google dans le billet traduit ci-après.

Avant de laisser la parole à Robin Watts, remarquons que, depuis que Theora est pressenti comme codec possible pour la vidéo sur le Web, celui-ci s’améliore de manière constante. Tous les défauts relevés à l’encontre de Theora sont en passe d’être corrigés grâce aux efforts conjugués de toute une communauté de développeurs talentueux regroupée derrière la fondation Xiph.Org (qui développe Theora) dont Red Hat, les fondations à but non lucratif Wikimédia et Mozilla, et à présent Google.

H264, de son côté, reste irrémédiablement entravé par son péché originel : celui d’être breveté jusqu’à l’os. Et les meilleurs développeurs du monde n’y pourront rien changer.

Bref, là où Theora promet le meilleur, à tous points de vue, H264 n’annonce que le pire.

Ça bouge du côté de la vidéo sur le Web

Interesting times for Video on the Web

Robin Watts – 9 avril 2010 – Google Open Source Blog (Traduction Framalang : Olivier Rosseler et Goofy)

Si je vous disais que Google a participé au financement d’une version du codec Theora optimisée pour les processeurs ARM, vous seriez nombreux à passer directement au billet suivant de ce blog. Personne ne se soucie des codecs audio ou vidéo, du moins tant qu’ils fonctionnent.

Demandez à la plupart des utilisateurs d’ordinateurs quel est leur codec favori et ils vous regarderont comme si vous aviez demandé leur moteur de machine à laver préféré. « On veut juste que ça marche ! » vous répondront-ils. C’est exactement la même chose pour ceux qui créent et publient du contenu sur le Web. À chaque fois qu’une vidéo est inaccessible au visiteur d’un site Web, c’est un message qui n’atteint pas sa cible. Peu importe la qualité du message et le temps passé à le peaufiner, ou les techniques virales employées pour attirer les visiteurs ; si la page Web n’affiche qu’un beau rectangle vide à l’endroit du contenu, tous ces efforts auront été vains.

Publiez la vidéo afin qu’elle soit lisible partout

L’idée est bonne, mais sa mise en pratique est loin d’être simple. Il n’existe aucun standard vidéo actuellement sur le Web. Certains sites utilisent la technologie Flash, restreignant ainsi leur auditoire aux utilisateurs disposant d’un lecteur Flash et excluant de fait la plupart des téléphones. Certains se servent de lecteurs Java intégrés, mais l’auditoire se limite alors au seul public disposant de machines suffisamment puissantes pour décoder l’audio et la vidéo dans une machine virtuelle, ce qui exclut tout ce qui est plus lent qu’un ordinateur portable. D’autres encore se reposent sur les lecteurs natifs à telle plateforme (comme Windows Media Player) et se coupent ainsi de toutes les autres plateformes. D’autres enfin ne proposent que le lien vers la vidéo et s’en remettent au lecteur vidéo que l’utilisateur a pu éventuellement installer.

On est bien loin du « ça marche, tout simplement », et aucune de ces solutions ne semble en prendre le chemin. Que ça vous plaise ou non, avec la multiplication des appareils connectés, ce Graal va être de plus en plus difficile à atteindre. À une époque, il suffisait de s’assurer que la vidéo était lisible sur PC et sur Mac. Maintenant il faut jongler entre Android, ChromeOS, iPhoneOS, Linux, Maemo, Symbian et plein d’autres systèmes encore. Et ce n’est pas tout, puisqu’il faut prendre en compte toute une gamme de processeurs de puissances différentes, depuis les ordinateurs de bureaux aux téléphones en passant par les ordinateurs portables, les netbooks et les PDA. Le problème est loin d’être résolu, bien au contraire.

Heureusement, HTML5 nous apporte de l’espoir. Cette nouvelle version d’HTML (le langage de base utilisé pour écrire les pages Web) introduit un élément video.

Un standard existe maintenant pour que les gens spécifient dans le code de la page l’intégration d’une vidéo. À chaque navigateur, ensuite, d’implémenter la lecture des vidéos : soit qu’il lise lui-même la vidéo soit qu’il délègue cette tâche à un lecteur incorporé ou externe. Dans tous les cas, la décision appartient à l’utilisateur au lieu d’être imposée par le créateur du contenu. Le plus génial dans tout cela, c’est que cette fonction est déjà supportée : Firefox, Opera, Chrome et Safari prennent déjà en charge le HTML5 et les autres navigateurs suivront rapidement.

Alors, problème réglé ?

À vrai dire, non. Il existe désormais un langage commun pour publier des vidéos, c’est un bon début, mais la question du format n’est pas résolue. Là, il n’y a pas de « taille unique ». La vidéo est-elle visionnée sur un téléphone avec un petit écran, sur un netbook, sur un PC de bureau, ou sur un écran LED 3D de 150 pouces à la résolution quatre fois supérieure à celle de la TVHD ? La taille de l’écran, la connectique et la puissance de calcul jouent chacune un rôle ici. Un peu comme la transition de la VHS au DVD puis au BluRay pour les vidéos télévisées, la vidéo sur le Web va s’améliorer au fur et à mesure. Et c’est très bien ainsi : la technologie des serveurs Web permet d’adapter la vidéo au navigateur et à l’appareil utilisés.

En revanche, il nous faut assurément nous accorder sur un plus petit dénominateur commun, un format standard qui servira de format par défaut si tout le reste échoue. Ça ne doit pas nécessairement être le format le plus complexe, ou le plus marketé, ni même celui créé par l’union du plus grand nombre d’entreprises. Il doit simplement être disponible, partout. Le codec le plus adapté actuellement est Ogg Theora, dérivé du codec VP3 libéré par On2 il y a quelques années. Il se débrouille plutôt bien en termes de qualité et de compression, et il n’a pas à rougir face à ses rivaux plus populaires comme le MPEG4, tout en étant bien plus simple à décoder. Mais surtout, il se démarque de ses concurrents par le fait qu’il est libre. Vraiment libre. Pas seulement « libre d’utilisation dans les décodeurs » ou « libre d’utilisation si vous signez cet accord de licence compliqué », mais vraiment, honnêtement, authentiquement, 100% libre. Les spécifications du flux et le code source de l’encodeur/décodeur sont accessibles publiquement et peuvent être librement utilisées/modifiées par n’importe qui. Theora a toujours été développé avec comme objectif premier d’éviter les brevets. Aucun autre codec que Theora ne peut se targuer de n’enfreindre aucun brevet et de n’être soumis à aucune redevance tout en tenant malgré tout la dragée haute à ses concurrents.

Alors, qu’est-ce qu’on attend ?

Décoder une vidéo demande beaucoup de ressources au processeur. Un important travail reste à accomplir avant de réaliser le rêve de lire une vidéo sur n’importe quel appareil. Theora est bien moins complexe que bon nombre de ses concurrents : les autres codecs nécessitent souvent du matériel dédié pour atteindre des performances décentes, alors que, bien programmé, Theora peut être décodé sans aide extérieure. En fait, sur les ordinateurs portables ou de bureau, le décodage à la volée est possible dans un lecteur Java intégré (comme par exemple l’excellent Cortado, lui aussi libre), ce qui permet la lecture de vidéos dans les navigateurs ne prenant pas encore en compte l’élément video. Mais ça n’est pas envisageable pour les appareils comme les PDA, les téléphones, les netbooks, les tablettes ou les lecteurs portables. Ces engins reposent souvent sur des processeurs ARM qui sont bien moins énergivores que les processeurs qui équipent habituellement les micro-ordinateurs. Malgré les gains de puissance continus réalisés au cours de ces dernières années, ils ne rivalisent pas encore avec leurs cousins plus costauds pour ce qui est de la puissance pure. Cette gamme très importante d’appareils construits autour de processeurs ARM représente le dernier défi pour un décodage fluide de Theora. Tout progrès d’efficacité réalisé se traduit par davantage d’autonomie ou des écrans plus grands.

C’est là que l’aide financière de Google intervient. En subventionnant le développement de TheorARM (une version libre de Theora optimisée pour les processeurs ARM), ils nous aident à nous rapprocher du jour où la vidéo fonctionnera partout sur le Web, pour tout le monde. Ça serait plutôt pas mal, non ? Ça y est, maintenant vous pouvez passer au billet suivant du blog.

Notes

[1] Crédit photo : Titlap (Creative Commons By)




La liberté contre les traces dans le nuage – Une interview d’Eben Moglen

SheevaPlugIl y a un peu plus d’une semaine Tristan Nitot évoquait sur son blog une « magnifique interview » du juriste Eben Moglen par le journaliste Glyn Moody (que nous connaissons bien sûr le Framablog, preuve en est qu’ils ont l’honneur de tags dédiés : Moglen et Moody).

C’est la traduction de l’intégralité de cette interview que nous vous proposons ci-dessous.

Pourquoi Nitot était-il si enthousiaste ? Parce qu’il est légitime de s’inquiéter chaque jour davantage du devenir de nos données personnelles captées par des Facebook et des Google. Mais la critique récurrente sans possibilités d’alternatives pousse au découragement.

Or, poursuit-il, cette interview propose « une ébauche de solution technique qui pourrait bien signer la fin du Minitel 2.0 ». Eben Moglen y explique « comment des petits ordinateurs comme le Sheevaplug (cf photo ci-contre) ou le Linutop 2 pourraient bien changer la donne en permettant la construction d’un réseau social distribué (ou a-centré) dont chacun pourrait contrôler un bout et surtout contrôler son niveau de participation ».

Et Tristan de conclure de manière cinglante : « l’identité en ligne, la liste de nos relations, les archives de nos messages échangés sont bien trop précieuses pour être confiées à quelconque organisation privée, quelle qu’elle soit ».

La décennie « Microsoft » qui s’achève nous aura vu essayer, avec plus ou moins de succès, d’empêcher le contrôle de nos ordinateurs personnels, en y substituant du logiciel propriétaire par du logiciel libre.

La décennie « Google » qui s’annonce risque fort d’être celle des tentatives pour empêcher le contrôle d’Internet, en ne laissant plus nos données personnelles sur des serveurs privés mais sur nos propres serveurs personnels.

Remarque : à propos d’Eben Moglen, nous vous rappelons l’existence d’une conférence que nous considérons parmi les plus importantes jamais présentées par la communauté du Libre.

Une interview d’Eben Moglen – La liberté contre les données dans le nuage

Interview: Eben Moglen – Freedom vs. The Cloud Log

Eben Moglen interviewé par Glyn Moody – 17 mars 2010 – The H
(Traduction Framalang : Goofy, Simon Descarpentries et Barbidule)

Le logiciel libre a gagné : presque tous les poids lourds du Web les plus en vue comme Google, Facebook et Twitter, fonctionnent grâce à lui. Mais celui-ci risque aussi de perdre la partie, car ces mêmes services représentent aujourd’hui une sérieuse menace pour notre liberté, en raison de l’énorme masse d’informations qu’ils détiennent sur nous, et de la surveillance approfondie que cela implique.

Eben Moglen est sûrement mieux placé que quiconque pour savoir quels sont les enjeux. Il a été le principal conseiller juridique de la Free Software Foundation pendant 13 ans, et il a contribué à plusieurs versions préparatoires de la licence GNU GPL. Tout en étant professeur de droit à l’école de droit de Columbia, il a été le directeur fondateur du Software Freedom Law Center (Centre Juridique du Logiciel Libre). Le voici aujourd’hui avec un projet ambitieux pour nous préserver des entreprises de services en ligne qui, bien que séduisantes, menacent nos libertés. Il a expliqué ce problème à Glyn Moody, et comment nous pouvons y remédier.

Glyn Moody : Quelle est donc cette menace à laquelle vous faites face ?

Eben Moglen : Nous sommes face à une sorte de dilemme social qui vient d’une dérive dans la conception de fond. Nous avions un Internet conçu autour de la notion de parité – des machines sans relation hiérarchique entre elles, et sans garanties quant à leur architectures internes et leur comportements, mises en communication par une série de règles qui permettaient à des réseaux hétérogènes d’être interconnectés sur le principe admis de l’égalité de tous.

Sur le Web, les problèmes de société engendrés par le modèle client-serveur viennent de ce que les serveurs conservent dans leur journaux de connexion (logs) les traces de toute activité humaine sur le Web, et que ces journaux peuvent être centralisés sur des serveurs sous contrôle hiérarchisé. Ces traces deviennent le pouvoir. À l’exception des moteurs de recherche, que personne ne sait encore décentraliser efficacement, quasiment aucun autre service ne repose vraiment sur un modèle hiérarchisé. Ils reposent en fait sur le Web – c’est-à-dire le modèle de pair-à-pair non hiérarchisé créé par Tim Berners-Lee, et qui est aujourd’hui la structure de données dominante dans notre monde.

Les services sont centralisés dans un but commercial. Le pouvoir des traces est monnayable, parce qu’elles fournissent un moyen de surveillance qui est intéressant autant pour le commerce que pour le contrôle social exercé par les gouvernements. Si bien que le Web, avec des services fournis suivant une architecture de base client-serveur, devient un outil de surveillance autant qu’un prestataire de services supplémentaires. Et la surveillance devient le service masqué, caché au cœur de tous les services gratuits.

Le nuage est le nom vernaculaire que nous donnons à une amélioration importante du Web côté serveur – le serveur, décentralisé. Au lieu d’être une petite boîte d’acier, c’est un périphérique digital qui peut être en train de fonctionner n’importe où. Ce qui signifie que dans tous les cas, les serveurs cessent d’être soumis à un contrôle légal significatif. Ils n’opèrent plus d’une manière politiquement orientée, car ils ne sont plus en métal, sujets aux orientations localisées des lois. Dans un monde de prestation de services virtuels, le serveur qui assure le service, et donc le journal qui provient du service de surveillance induit, peut être transporté sur n’importe quel domaine à n’importe quel moment, et débarrassé de toute obligation légale presque aussi librement.

C’est la pire des conséquences.

GM : Est-ce qu’un autre facteur déclenchant de ce phénomène n’a pas été la monétisation d’Internet, qui a transféré le pouvoir à une entreprise fournissant des services aux consommateurs ?

EM : C’est tout à fait exact. Le capitalisme a aussi son plan d’architecte, qu’il rechigne à abandonner. En fait, ce que le réseau impose surtout au capitalisme, c’est de l’obliger à reconsidérer son architecture par un processus social que nous baptisons bien maladroitement dés-intermédiation. Ce qui correspond vraiment à la description d’un réseau qui contraint le capitalisme à changer son mode de fonctionnement. Mais les résistances à ce mouvement sont nombreuses, et ce qui nous intéresse tous énormément, je suppose, quand nous voyons l’ascension de Google vers une position prééminente, c’est la façon dont Google se comporte ou non (les deux à la fois d’ailleurs) à la manière de Microsoft dans sa phase de croissance. Ce sont ces sortes de tentations qui s’imposent à vous lorsque vous croissez au point de devenir le plus grand organisme d’un écosystème.

GM : Pensez-vous que le logiciel libre a réagi un peu lentement face au problème que vous soulevez ?

EM : Oui, je crois que c’est vrai. Je pense que c’est difficile conceptuellement, et dans une large mesure cette difficulté vient de ce que nous vivons un changement de génération. À la suite d’une conférence que j’ai donnée récemment, une jeune femme s’est approchée et m’a dit : « j’ai 23 ans, et aucun de mes amis ne s’inquiète de la protection de sa vie privée ». Eh bien voilà un autre paramètre important, n’est-ce pas ? – parce que nous faisons des logiciels aujourd’hui en utilisant toute l’énergie et les neurones de gens qui ont grandi dans un monde qui a déjà été touché par tout cela. Richard et moi pouvons avoir l’air un peu vieux jeu.

GM : Et donc quelle est la solution que vous proposez ?

EM : Si nous avions une classification des services qui soit véritablement défendable intellectuellement, nous nous rendrions compte qu’un grand nombre d’entre eux qui sont aujourd’hui hautement centralisés, et qui représentent une part importante de la surveillance contenue dans la société vers laquelle nous nous dirigeons, sont en fait des services qui n’exigent pas une centralisation pour être technologiquement viables. En réalité ils proposent juste le Web dans un nouvel emballage.

Les applications de réseaux sociaux en sont l’exemple le plus flagrant. Elles s’appuient, dans leurs métaphores élémentaires de fonctionnement, sur une relation bilatérale appelée amitié, et sur ses conséquences multilatérales. Et elles sont complètement façonnées autour de structures du Web déjà existantes. Facebook c’est un hébergement Web gratuit avec des gadgets en php et des APIs, et un espionnage permanent – pas vraiment une offre imbattable.

Voici donc ce que je propose : si nous pouvions désagréger les journaux de connexion, tout en procurant aux gens les mêmes fonctionnalités, nous atteindrions une situation Pareto-supérieure. Tout le monde – sauf M. Zuckerberg peut-être – s’en porterait mieux, et personne n’en serait victime. Et nous pouvons le faire en utilisant ce qui existe déjà.

Le meilleur matériel est la SheevaPlug, un serveur ultra-léger, à base de processeur ARM (basse consommation), à brancher sur une prise murale. Un appareil qui peut être vendu à tous, une fois pour toutes et pour un prix modique ; les gens le ramènent à la maison, le branchent sur une prise électrique, puis sur une prise réseau, et c’est parti. Il s’installe, se configure via votre navigateur Web, ou n’importe quelle machine disponible au logis, et puis il va chercher toutes les données de vos réseaux sociaux en ligne, et peut fermer vos comptes. Il fait de lui-même une sauvegarde chiffrée vers les prises de vos amis, si bien que chacun est sécurisé de façon optimale, disposant d’une version protégée de ses données chez ses amis.

Et il se met à faire toutes les opérations que nous estimons nécessaires avec une application de réseau social. Il lit les flux, il s’occupe du mur sur lequel écrivent vos amis – il rend toutes les fonctionnalités compatibles avec ce dont vous avez l’habitude.

Mais le journal de connexion est chez vous, et dans la société à laquelle j’appartiens au moins, nous avons encore quelques vestiges de règles qui encadrent l’accès au domicile privé : si des gens veulent accéder au journal de connexion ils doivent avoir une commission rogatoire. En fait, dans chaque société, le domicile privé de quelqu’un est presque aussi sacré qu’il peut l’être.

Et donc, ce que je propose basiquement, c’est que nous construisions un environnement de réseau social reposant sur les logiciels libres dont nous disposons, qui sont d’ailleurs déjà les logiciels utilisés dans la partie serveur des réseaux sociaux; et que nous nous équipions d’un appareil qui inclura une distribution libre dont chacun pourra faire tout ce qu’il veut, et du matériel bon marché qui conquerra le monde entier que nous l’utilisions pour ça ou non, parce qu’il a un aspect et des fonctions tout à fait séduisantes pour son prix.

Nous prenons ces deux éléments, nous les associons, et nous offrons aussi un certain nombre d’autres choses qui sont bonnes pour le monde entier. Par exemple, pouvoir relier automatiquement chaque petit réseau personnel par VPN depuis mon portable où que je sois, ce qui me procurera des proxies chiffrés avec lesquels mes recherches sur le Web ne pourront pas être espionnées. Cela signifie que nous aurons des masses d’ordinateurs disponibles pour ceux qui vivent en Chine ou dans d’autres endroits du monde qui subissent de mauvaises pratiques. Ainsi nous pourrons augmenter massivement l’accès à la navigation libre pour tous les autres dans le monde. Si nous voulons offrir aux gens la possibilité de profiter d’une navigation anonymisée par un routage en oignon, c’est avec ce dispositif que nous le ferons, de telle sorte qu’il y ait une possibilité crédible d’avoir de bonnes performances dans le domaine.

Bien entendu, nous fournirons également aux gens un service de courriels chiffrés – permettant de ne pas mettre leur courrier sur une machine de Google, mais dans leur propre maison, où il sera chiffré, sauvegardé chez tous les amis et ainsi de suite. D’ailleurs à très long terme nous pourrons commencer à ramener les courriels vers une situation où, sans être un moyen de communication privée, ils cesseront d’être des cartes postales quotidiennes aux services secrets.

Nous voudrions donc aussi frapper un grand coup pour faire avancer de façon significative les libertés fondamentales numériques, ce qui ne se fera pas sans un minimum de technicité.

GM : Comment allez-vous organiser et financer un tel projet, et qui va s’en occuper ?

EM : Avons-nous besoin d’argent ? Bien sûr, mais de petites sommes. Avons-nous besoin d’organisation ? Bien sûr, mais il est possible de s’auto-organiser. Vais-je aborder ce sujet au DEF CON cet été, à l’Université de Columbia ? Oui. Est-ce que M. Shuttleworth pourrait le faire s’il le voulait ? Oui encore. Ça ne va pas se faire d’un coup de baguette magique, ça se fera de la manière habituelle : quelqu’un va commencer à triturer une Debian ou une Ubuntu ou une autre distribution, et va écrire du code pour configurer tout ça, y mettre un peu de colle et deux doigts de Python pour que ça tienne ensemble. D’un point de vue quasi capitaliste, je ne pense pas que ce soit un produit invendable. En fait, c’est un produit phare, et nous devrions en tout et pour tout y consacrer juste un peu de temps pour la bonne cause jusqu’à ce que soit au point.

GM : Comment allez-vous surmonter les problèmes de masse critique qui font qu’on a du mal à convaincre les gens d’adopter un nouveau service ?

EM : C’est pour cela que la volonté constante de fournir des services de réseaux sociaux interopérables est fondamentale.

Pour le moment, j’ai l’impression que pendant que nous avancerons sur ce projet, il restera obscur un bon moment. Les gens découvriront ensuite qu’on leur propose la portabilité de leur réseau social. Les entreprises qui gèrent les réseaux sociaux laissent en friche les possibilités de leurs propres réseaux parce que tout le monde veut passer devant M. Zuckerberg avant qu’il fasse son introduction en bourse. Et c’est ainsi qu’ils nous rendront service, parce qu’ils rendront de plus en plus facile de réaliser ce que notre boîte devra faire, c’est-à-dire se connecter pour vous, rapatrier toutes vos données personnelles, conserver votre réseau d’amis, et offrir tout ce que les services existants devraient faire.

C’est comme cela en partie que nous inciterons les gens à l’utiliser et que nous approcherons la masse critique. D’abord, c’est cool. Ensuite, il y a des gens qui ne veulent pas qu’on espionne leur vie privée. Et puis il y a ceux qui veulent faire quelque chose à propos de la grande e-muraille de Chine, et qui ne savent pas comment faire. En d’autres termes, je pense qu’il trouvera sa place dans un marché de niches, comme beaucoup d’autres produits.

GM : Alors que le marché des mobiles est en train de décoller dans les pays émergents, est-ce qu’il ne vaudrait pas mieux demander aux téléphones portables de fournir ces services ?

EM : Sur le long terme, il existe deux endroits où vous pouvez raisonnablement penser stocker votre identité numérique : l’un est l’endroit où vous vivez, l’autre est dans votre poche. Et un service qui ne serait pas disponible pour ces deux endroits à la fois n’est probablement pas un dispositif adapté.

A la question « pourquoi ne pas mettre notre serveur d’identité sur notre téléphone mobile ? », ce que je voudrais répondre c’est que nos mobiles sont très vulnérables. Dans la plupart des pays du monde, vous interpellez un type dans la rue, vous le mettez en état d’arrestation pour un motif quelconque, vous le conduisez au poste, vous copiez les données de son téléphone portable, vous lui rendez l’appareil, et vous l’avez eu.

Quand nous aurons pleinement domestiqué cette technologie pour appareils nomades, alors nous pourrons commencer à faire l’inverse de ce que font les opérateurs de réseaux. Leur activité sur la planète consiste à dévorer de d’Internet, et à excréter du réseau propriétaire. Ils devront faire l’inverse si la technologie de la téléphonie devient libre. Nous pourrons dévorer les réseaux propriétaires et essaimer l’Internet public. Et si nous y parvenons, la lutte d’influence va devenir bien plus intéressante.




Dell doit cesser de proposer à reculons son offre GNU/Linux Ubuntu

Dell - UbuntuIl y a plus de trois ans déjà le célèbre constructeur d’ordinateurs Dell avait ouvert le site IdeaStorm qui invitait les internautes à soumettre des idées à la société.

Et quelle est la demande qui arriva loin devant ?

Je vous le donne en mille : pouvoir également acheter des machines avec GNU/Linux pré-installé dedans.

Dell, qui se veut à l’écoute de ses clients, a bien été obligé de s’exécuter et s’est donc mis à vendre en ligne des ordinateurs avec la distribution Ubuntu dedans.

Nous nous en étions fait l’écho dans ses deux articles : De la difficulté du Linux inside chez Dell et ailleurs par Mark Shuttleworth d’Ubuntu et Dell + GNU/Linux Ubuntu : Un mariage assumé et médiatisé qui m’émeut.

Le problème c’est que Dell n’a jamais véritablement assumé ce choix en enfouissant l’offre dans les tréfonds de son site et ne la proposant que sur un nombre restreints et peu puissants de modèles. C’est ce que vient nous rappeler ce blogueur américain ci-dessous qui demande à Dell de cesser l’hypocrisie.

Espérons que la prochaine imminente sortie de la version 10.4 Lucid Lynx LTS d’Ubuntu sera l’occasion d’être entendu. Parce que si l’on se restreint à la rubrique actuelle Ubuntu du site francophone de Dell, c’est vrai que c’est plus que décevant.

On est d’abord accueilli par un bandeau au slogan étrange : « Ubuntu, restez le meilleur ! ». Je n’avais déjà pas envie d’être le meilleur en utilisant des logiciels libres alors je ne vois pourquoi je voudrais le rester ! (en fait, je crois surtout qu’il s’agit d’une horrible traduction de « Ubuntu, keeps getting better! »)

Et puis tout de suite cette première phrase très anxiogène : « Ubuntu est-il fait pour vous ? ». S’ensuit alors une explication assez peu convaincante ma foi avec ce lien Windows ou Ubuntu ? où il est conseillé noir sur blanc de « choisir Windows si vous êtes novice dans le domaine informatique ».

Vous me direz que Dell ne fait sans doute que répondre à la perplexité de ses clients (qui pourraient effectivement se tromper). Vous me direz peut-être également qu’il ne faut pas faire la fine bouche et que personne n’oblige Dell à s’intéresser à GNU/Linux sachant que d’autres constructeurs continuent de l’ignorer royalement. Vous me direz enfin qu’il existe certainement des accord commerciaux confidentiels entre Dell et Microsoft qui nous échappent. Certes mais je reste tout de même d’accord avec notre blogueur : soit on décide de proposer enfin une réelle offre GNU/Linux, soit on laisse tomber.

Parce qu’en l’état actuel des choses, on en vient même à se demander si cette opération ne fait pas plus de tort que de bien à GNU/Linux, Ubuntu et Dell réunis.

Lettre ouverte à Dell concernant Ubuntu, ou « faites-le en grand ou bien lâchez l’affaire »

An open letter to Dell regarding Ubuntu, or “go big or go home”

Trent – 2 mars 2010 – The Linux Critic
(Traduction Framalang : Simon Descarpentries, Étienne et Mathieu Adoutte)

Cher Dell,

Jusqu’à présent vous n’avez offert qu’une poignée dérisoire d’options Ubuntu, et je confesse que je ne comprends pas bien pourquoi vous vous êtes donné cette peine.

À l’exception des deux ultra-portables qui vous proposez, je n’ai pas encore vu quoi que ce soit d’autre qui puisse indiquer que vous ayez l’intention de faire d’Ubuntu une véritable option pour vos clients.

Oh je sais… pendant un temps vous proposiez Ubuntu sur vos portables Inspirons 15n, et même sur vos XPS M1330 pendant un courte période, sur votre site web.

Mais ils étaient tous deux très limités en terme d’options de configuration matérielle (CPU, RAM). De même, le poste de travail que vous proposiez pendant un temps était un veau impotent comparé à ce qui est disponible ailleurs sur Dell.com

Et maintenant ? Eh bien maintenant il n’y a presque plus rien à commenter concernant Ubuntu sur Dell.com.

Pour citer ce que je vois sur votre page Ubuntu : « Une sélection de modèles peut désormais être livrée avec Ubuntu 9.10 ».

Par « Une sélection » vous entendez la liste suivante, basée sur ce qui est trouvable sur le site :

  • Nos deux ultra-portables cités précédemment ;
  • Le Vostro V13, un impuissant demi-portable qui, franchement, est une blague ;
  • Le Latitude 2100, qui est également un ultra-portable.

C’est tout ? Vraiment ?

« Mais il n’y a pas tant de demande que ça pour Ubuntu », vous entends-je presque répliquer.

Voyons cela. Vous enterrez ça sur votre site. Vous ne proposez que des épaves disponibles sous Ubuntu (comparé aux machines disponibles sous Windows).

Pas étonnant que vos ventes de machines sous Ubuntu soient faibles. En fait, je serais même surpris que vous vendiez quoi que ce soit vu comment vous vous y prenez.

Voici ce que je vous conseille. Cela risque de paraître un peu élitiste, mais j’ai acheté des ordinateurs récemment et ça m’a mis d’humeur taquine.

Comme je vois les choses, vous avez deux options :

1. Lâchez l’affaire

Sérieusement. Vous n’impressionnez personne avec ces offres Linux minables. Ceux qui s’intéressent suffisamment à Linux pour chercher (et trouver) les produits Ubuntu enterrés dans votre site se sentent insultés par ce qu’ils y trouvent, et vont simplement voir ailleurs, là où on ne leur proposera pas avec force langue de bois des ordures que la plupart des utilisateurs de Windows ne s’embêteraient pas à regarder de plus près (du point de vue du matériel).

2. Proposez Ubuntu sur des ordinateurs comparables à vos machines sous Windows 7

Faites-le en grand, ou bien lâchez l’affaire les gars. Votre micro-marketing pour une niche d’utilisateurs bernés niveau matériel est un échec, mais si vous joignez vraiment le geste à la parole, vous gagnerez les coeurs et les esprits, et vous éviterez la plupart des critiques venant de la communauté Open Source, pour ce que ça vaut.

De plus, en l’absence de la Taxe Windows, un ordinateur sous Ubuntu devrait permettre aux acheteurs de constater qu’un ordinateur, à matériel égal, vendu sans Windows, coûte quelque centaines d’euro MOINS cher, ce qui signifie qu’ils seront plus enclin à acheter des accessoires parmi ceux sur lesquels vous insistez lourdement, sur votre site.

Sérieusement, ce qu’il y a jusqu’ici sur votre site est tout simplement insultant. Abandonnez Ubuntu complètement ou bien passez aux choses sérieuses.

Désolés les gars, mais quelqu’un se devait de vous le dire. Vous ne vous rendez pas service, ici.

En vous remerciant,

Trent




Mark Shuttleworth d’Ubuntu n’est pas motivé par la haine de Microsoft

Ubuntu - Nouveau LogoC’est non seulement une habitude mais l’une des nombreuses originalités de la célèbre distribution GNU/Linux : tous les six mois Ubuntu sort sa nouvelle version, qui, faisant de plus en plus d’adeptes, est logiquement de plus en plus attendue.

La prochaine version 10.04 LTS[1] se prénomme Lucid Lynx et est prévue pour le mois prochain. Elle promet beaucoup. Mais elle promet aussi d’être l’amie des trolls 😉

Il faut dire que lorsque l’on occupe la place enviée et reconnue qui est la sienne dans la communauté (notoriété grand public incluse), on s’expose inévitablement à des critiques. Mais il faut également reconnaître qu’un certain nombre d’annonces récentes ont pu parfois jeter le trouble, en particulier chez ceux qui sont moins attachés à l’open source qu’au logiciel libre.

De là à craindre que Canonical, la société créée par Mark Shuttleworth pour développer et soutenir Ubuntu, se transforme en une sorte de nouveau Microsoft, il n’y a qu’un pas que nous ne franchirons certainement pas.

Se contentant de lister quelque éléments selon lui sujets à caution, c’est un pas que n’a cependant pas hésité à franchir un dénommé Alan Lord sur son blog, dans un court et lapidaire billet intitulé explicitement Is Canonical Becoming The New Microsoft?[2].

Et cela n’a évidemment pas loupé, le billet a généré très rapidement une centaine de commentaires divers et variés, nécessairement orientés par ce titre choc.

Le journaliste Sam Varghese a alors jugé bon de contacter Mark Shuttleworth pour avoir son avis dans un article publié sur le site iTWire que vous proposons traduit ci-dessous[3].

PS : Notons que dans l’intervalle, Ubuntu a également révélé sa nouvelle charte graphique et son nouveau logo (ci-dessus). Personnellement j’aime bien, même si je note la disparition apparente du slogan « Linux for Human Beings », qui était peut-être maladroit mais avait le mérite d’évoquer Linux. La confusion entre les deux ou l’aspiration de l’un par l’autre risquent de se faire plus grande encore.

Mark Shuttleworth : « Ma motivation, ce n’est pas la haine de Microsoft. »

I’m not driven by Microsoft hatred: Shuttleworth

Sam Varghese – 15 février 2010 – iTWire
(Traduction Framalang : Don Rico et Simon Descarpentries)

Mark Shuttleworth, fondateur et directeur général de la société Canonical, déclare que s’il a créé sa distribution GNU/Linux Ubuntu, ce n’est en aucun cas par animosité envers Microsoft.

Il a répondu aux questions d’ITWire concernant un récent billet de blog dont l’auteur accusait Canonical de devenir le nouveau Microsoft.

« J’admire plusieurs des accomplissements de Microsoft. J’estime qu’il est tout aussi détestable de diaboliser les employés d’une entreprise que des gens pour leur couleur de peau, leur nationalité ou toute autre particularité » explique Shuttleworth.

« Microsoft se livre toutefois à d’inacceptables abus de position dominante, et je suis fier qu’Ubuntu offre au monde un réel choix entre la servitude continue et la liberté utile, sûre et authentique. »

« Cela dit, mon rôle n’est pas de punir Microsoft, ni de les haïr ; je suis là pour proposer une meilleure voie, si je le peux. Ce sera dur, mais nous le pouvons. Et, dans les cas où nous partageons une cause commune, je travaille volontiers avec Microsoft. Il est possible que ce soit difficile à concevoir pour ceux qui pensent que la vie est plus facile à appréhender si on a un ennemi pour justifier sa cause, mais à mon sens ce comportement conduit au sectarisme, nuit aux résultats et nous empêche de corriger les erreurs du passé. »

Dans son billet, l’auteur énumérait les raisons pour lesquelles Ubuntu devenait d’après lui le nouveau Microsoft : l’intégration de Mono par défaut, la création d’Ubuntu One (un outil propriétaire de stockage en ligne), le retrait de GIMP et d’autres logiciels de la distribution, le passage à Yahoo! comme moteur de recherche par défaut, une enquête visant à savoir quelles applications propriétaires devaient être incluses dans les dépôts d’Ubuntu, et enfin, la nomination de Matt Asay au poste de PDG.

Sans entrer dans les détails concernant chacun de ces points, Shuttleworth indique cependant que « toutes les questions abordées dans le billet que vous mentionnez ont été consciencieusement débattues sur des forums publics. Les gens de chez Canonical et les animateurs de la communauté Ubuntu y ont, je crois, présenté nos intentions sans faux-semblant. »

« Chacune de nos décisions affectant nos utilisateurs auront leurs détracteurs et leur partisans, » a-t-il ajouté, « mais c’est notre volonté de maintenir le cap face au changement qui confère à notre plateforme son dynamisme et sa pertinence, et nous ne nous soustrairons pas à cette responsabilité. »

Shuttleworth explique que son objectif personnel, ainsi que celui de tous ses collaborateurs chez Canonical, est d’apporter les avantages du logiciel libre au plus grand nombre. « C’est ce qui est au cœur de notre motivation, et à maintes reprises nous avons dû employer des chemins détournés pour rester cohérents avec ce principe. »

Il précise que la grande majorité du travail produit par Canonical est mis à la disposition de tous sous licence libre. « Y compris des éléments de nature éminemment stratégique, tel que Launchpad, qui est publié sous une licence compatible avec les réflexions les plus récentes concernant les services internet libres. Nos réalisations propriétaires n’impliquent jamais qu’il faille installer des outils fermés de Canonical dans Ubuntu, se limitent à des services réseau, permettent de promouvoir tout le reste, et restent totalement optionnelles pour les utilisateurs d’Ubuntu. C’est une pratique que l’on retrouve sur d’autres plateformes. »

En conclusion, Mark Shuttleworth affirme être très fier de ce qu’apporte Canonical à la communauté du logiciel libre. « Si nous rencontrons autant de succès que je le souhaite, alors le monde aura pour la première fois une plateforme de qualité professionnelle disponible gratuitement pour tous. Ce qui n’est pas le cas avec les acteurs dominants du marché Linux. Je me consacre corps et âme à ce but, et j’apprécie énormément de partager cette cause avec des milliers d’autres au sein de la communauté Ubuntu. »

« Travailler en partenariat avec Yahoo! n’a jamais, à ma connaissance, induit la moindre négociation avec Microsoft. Et nous n’accepterons pas les conditions de Microsoft en matière de licence de propriété intellectuelle, comme le fit Novell. En revanche, si nous pouvons collaborer de façon constructive avec Microsoft, Oracle ou IBM, lesquels incluent une grande quantité de code propriétaire dans leurs produits, il est certain que nous nous engagerons de façon ouverte et de bonne foi. Je suis convaincu que nous le ferons avec le soutien sans faille des responsables de la communauté Ubuntu. »

Notes

[1] Une version LTS (pour « Long Term Support ») garantit aux utilisateurs, constructeurs et assembleurs, une maintenance et un suivi sur plusieurs années.

[2] On notera qu’Alan Lord a fait depuis amende honorable.

[3] Edit : Alan Lord est intervenu dans les commentaires ci-dessous, en nous signalant notamment la mise au point suivante concernant l’article du journaliste : Sam Varghese Got It Wrong?.