Comment le Bitcoin peut faire tomber les États-Unis d’Amérique

Un peu d’économie sur le Framablog aujourd’hui, avec le pirate Rick Falkvinge qui voit dans la monnaie Bitcoin une alternative à la fictive toute-puissance du dollar.

Zcopley - CC by-sa

Comment le Bitcoin peut faire tomber les États-Unis d’Amérique

How Bitcoin can bring down the United States of America

Rick Falkvinge – 4 juin 2013 – Site personnel
(Traduction : Slystone, nhrx, letchesco, Asta, Gatitac, rou + anonymes)

Le Bitcoin représente une menace importante pour la domination monétaire des États-Unis, la seule chose qui conforte encore leur statut de superpuissance mondiale. Suite aux défauts de paiement des États-Unis sur leurs emprunts internationaux le 15 août 1971, la balance commerciale américaine avait été maintenue grâce aux menaces militaires et en incitant les gens à acheter des dollars pour financer la consommation permanente des États-Unis. Alors que d’autres devises n’ont pas réussi à dépasser le dollar américain, et donc ce mécanisme qui maintient la dominance économique de la nation, le Bitcoin pourrait bien y parvenir.

Pour comprendre ce scénario, il faut saisir à quel point les États-Unis sont en faillite. Pour certaines raisons, la plupart des feux de l’actualité sont actuellement braqués sur l’échec de l’Euro ; ceci probablement à cause du fait que le dollar américain a échoué depuis longtemps, et qu’il est maintenu sous perfusion en faisant éclater non sans mal une bulle spéculative par jour. Une version ELI5 est disponible ici (NdT : ELI5 : « explain it like I’m five », expliquez-le-moi comme si j’avais 5 ans), mais en un mot, les États-Unis sont en défaut de remboursement de leurs emprunts internationaux suite à la guerre du Viêtnam, et depuis ont dû emprunter de plus en plus pour financer leur consommation extravagante. Depuis bien longtemps ils empruntent toujours plus, pour simplement rembourser les intérets des emprunts antérieurs. L’an dernier, le déficit du budget des États-Unis a atteint le niveau astronomique de 50 % — pour chaque dollar de recette, deux ont été dépensés. Étrangement, peu de monde en parle — j’imagine que si c’était le cas, la capacité des États-Unis à rembourser leurs emprunts serait remise en question, ce qui provoquerait l’écroulement du château de cartes comme si une tonne de briques était déversée dessus, alors personne n’a intêret à faire des vagues. Après tout, tout le monde est assis sur des réserves de dollars qui deviendraient sans valeur du jour au lendemain si ceci devait arriver.

Les États-Unis ont relancé leurs planches à billets le 15 août 1971 et ne les ont pas arrêtées depuis. Rien que pour l’année 2011, 16 mille milliards (un 16 suivi de douze zéros) de dollars ont été imprimés pour maintenir l’économie américaine. Pour se faire une idée, c’est un peu plus que le produit intérieur brut des États-Unis. Pour chaque dollar produit à partir de la valeur (ajoutée), un dollar supplémentaire a été imprimé à partir de rien, dans l’espoir que quelqu’un voudrait bien l’acheter. Et les gens l’achètent ! C’est un fait, il y a ici un mécanisme clé qui force les gens à continuer à acheter des dollars américains.

Les États-Unis sont maintenus en vie en tant que nation par le fait que si quelqu’un souhaite acheter des produits à une autre nation comme la Chine, il doit d’abord acheter des dollars américains puis les échanger contre la marchandise qu’il désire en Chine. Cela conduit tous les pays à acheter des tas de dollars américains pour remplir leurs réserves monétaires.

Le fait que les gens soient obligés de continuer d’acheter des dollars américains pour obtenir ce qu’ils veulent de n’importe qui d’autre dans le monde est le mécanisme qui maintient l’ensemble de l’économie américaine et, plus important encore, alimente son armée qui applique à son tour ce mécanisme (voir en Irak, Libye, Iran, etc.). C’est un cycle de domination économique imposé par la force.

(À noter que l’on peut se demander dans quelle mesure la classe moyenne américaine profite encore de ce système. Il y a dix ans, cette boucle auto-alimentée faisait que le niveau de vie moyen aux États-Unis était sensiblement supérieur à celui du reste du monde occidental. De nos jours, les États-Unis arrivent souvent derniers des indicateurs de niveau de vie.)

Puisque les articles sur « la fin du monde » sont d’habitude rejetés comme relevant d’illuminés conspirationnistes, je voulais commencer cet article en présentant des faits économiques reconnus. Les États-Unis sont en faillite et la seule béquille pour les maintenir debout est leur armée, ainsi que le fait que tout le monde a de lourds investissements dans le pays, si bien que personne ne veut les voir faire faillite. Donc les emprunts et les dépenses excessives continuent une journée de plus… jusqu’à ce que cela ne soit plus possible.

Que se passerait-il si les États-Unis étaient un jour incapables de poursuivre leurs dépenses démesurées ? On assisterait à un crash gigantesque de l’économie mondiale, mais plus important, les États-Unis s’effondreraient à la mode soviétique, mais plus gravement encore, en raison de différences structurelles. (Pour comprendre ces différences, réfléchissez au fait que les transports publics ont continué de fonctionner pendant l’effondrement soviétique et que la plupart des familles étaient déjà bien préparées pour faire face à la pénurie de nourriture. Aux États-Unis vous verriez à la place des gens isolés dans des banlieues sans carburant, sans nourriture ni médicaments, avec seulement plein d’armes et de munitions. Consultez l’étude d’Orlov sur l’écart entre les effondrements et le retard d’effondrement pour plus d’informations sur cette différence structurelle).

Arrivent les Bitcoins, qui peuvent briser le cercle vicieux des emprunts et des dépenses excessives.

Comme nous l’avons vu, la raison pour laquelle les gens sont obligés d’acheter du dollar américain, c’est qu’il est la base du système d’échange de valeur. Si vous voulez un gadget fabriqué en Chine ou en Inde, vous devez d’abord acheter des dollars américains, pour ensuite échanger ces dollars contre le gadget. Mais nous l’avons observé, le Bitcoin dépasse de loin le dollar sous tous ses aspects en tant que gage de valeur pour le commerce international. Utiliser des Bitcoins c’est moins cher, plus facile et bien plus rapide que les actuels transferts de valeur internationaux.

Pratiquement toutes les personnes impliquées dans le commerce international à qui j’ai parlé passeraient à un système semblable à Bitcoin si elles en avaient la possibilité, évacuant des années de frustrations héritées du système bancaire actuel (qui utilise le dollar américain). Si cela arrivait, les États-Unis ne seraient plus en mesure de trouver des acheteurs pour leurs dollars fraîchement imprimés qui maintiennent leur économie (et financent leur armée).

Si ce cycle de monopole et dépendance commerciale du dollar prend fin, les États-Unis d’Amérique s’écrouleront. Lourdement. Cela semble inévitable désormais, et le Bitcoin est peut-être le système qui rompra ce cycle.

Crédit photo : Zcopley (Creative Commons By-Sa)




Un salon de beauté conçu avec Blender et Cycles (en lieu et place de 3ds Max)

Dans le milieu du design et de la CAO, la part belle est encore trop souvent faite aux logiciels propriétaires.

Mais il n’y pas que 3ds Max & co dans la vie logicielle. On peut faire tout aussi bien, voire mieux, avec le libre Blender et son moteur de rendu Cycles.

C’est que ne nous prouve par l’exemple cet entretien du talentueux ukrainien Igor Shevchenko.

Backstage - Blender

Un salon de beauté conçu et visualisé grâce à Blender et Cycles

Beauty salon designed and visualized with Blender and Cycles

Alexandre Prokoudine – 25 février 2013 – LibreGraphicsWorld.org
(Traduction : Alpha, Max, KoS + anonymes)

Parmi toutes les choses intéressantes qui sont réalisables à l’aide de logiciels libres, ce que LGW aime faire le plus, c’est produire un travail commandé qui soit reconnu. Parlons d’un cas particulier, celui de l’utilisation de Blender et Cycles pour la visualisation d’architectures commerciales.

Je suis récemment tombé sur ce travail sur Behance (NdT : une plateforme de partage de projets de design pour les professionnels) et je n’ai pas pu résister à l’envie de contacter Igor Shevchenko, son auteur.

Igor travaille pour une entreprise ukrainienne appelée « Magis ». Il s’occupe de la modélisation, du texturage et du rendu d’intérieur. « Backstage », le salon de beauté en question, est un véritable établissement qui a ouvert à Kiev en septembre 2012.

Igor, s’agit-il de ton premier projet sérieux réalisé à l’aide de Blender ? Le reste de ton album sur Behance semble porter les étiquettes de 3DS Max, Adobe Photoshop et d’autres logiciels du même genre.

Oui, c’est vrai, c’est le premier vrai projet que l’on m’a commandé et que j’ai réalisé avec Blender. J’étais vraiment curieux de savoir s’il allait être possible de réaliser un tel projet uniquement avec un logiciel libre et de voir les difficultés auxquelles on pouvait s’attendre. Lorsque j’ai commencé à travailler sur le projet, j’ai eu peur que ma connaissance de Blender ne soit pas suffisante pour le mener à bien et de devoir retourner sous 3DS Max. Ça ne s’est pas produit.

Combien de temps cela a-t-il pris ?

Le travail sur le design intérieur a été fait en 3 mois. Mais les rendus du portfolio pour Behance ont été une toute autre affaire. Je suis parti de rien, surtout pour Behance.

Vraiment ?

L’année dernière, en novembre, notre administrateur système m’a demandé de lui envoyer quelques rendus de ce que j’avais fait avec Blender. Il souhaitait les montrer à un ami qu’il tentait de convaincre que Blender était en fait un outil très correct. J’ai donc fouillé parmi mes fichiers et je fus horrifié de constater que je n’avais aucun rendu lissé. J’ai alors décidé de repartir de zéro pour refaire les rendus du projet « Backstage ».

Attends, donc tu n’as pas fait ces visualisations pour le client ?

Le client ne voulait pas des rendus de haute qualité dans un premier temps. Nous avons juste fait le design et décrit le reste avec des mots.

OK, donc de combien de temps as-tu eu besoin pour réaliser la version portfolio du projet ?

Je n’avais aucune date limite, ça ne pressait donc pas, je l’ai fait pendant mon temps libre. Je pense qu’en m’y mettant et en ne faisant rien d’autre, ça m’aurait pris une journée pour faire la modélisation, une autre pour peaufiner les détails et encore une autre pour effectuer le rendu global.

Backstage - Blender

D’où vient ton intérêt pour Blender ?

Il y a environ trois ans, j’ai fini par en avoir marre d’utiliser 3DS Max, j’ai donc commencé à chercher des alternatives. J’ai d’abord essayé Maya et Cinema 4D et j’ai opté pour Maya. Cependant, je me suis rendu compte que soit je n’arrivais pas à trouver le temps pour apprendre à l’utiliser, soit il ne me convenait pas. Peut-être un peu des deux.

J’ai fini par revenir à 3DS Max, faute d’autre chose. Notre administrateur système, qui est un grand adepte du logiciel libre m’a suggéré d’utiliser Blender, mais il s’agissait de la version 2.49 que je n’ai vraiment pas appréciée.

Fin 2011, j’ai lu un article sur « Sintel » le film libre, je l’ai alors regardé. J’ai adoré à la fois l’histoire et les visuels, j’ai donc donné une seconde chance à Blender : j’ai téléchargé une version plus récente et je me suis mis à lire les tutoriels d’Andrew Price, j’ai alors commencé à comprendre comment ce logiciel fonctionnait.

Puis, Cycles est arrivé, et ça a achevé de me convaincre. Mi-2012, j’étais déjà en train de réaliser des petits projets avec Blender, puis « Backstage » est devenu le premier grand projet pour lequel je m’en suis servi. Ça n’a pas été facile, mais je ne suis pas déçu. Avant je considérais que les logiciels libres performants ne pouvaient pas exister. Blender est une exception remarquable dans ce domaine.

L’un dans l’autre, une expérience positive ?

Oui. Mes collègues ont remarqué que je travaillais plus rapidement. Blender a une logique réellement différente, pas comme dans 3DS Max :

  • manipulation d’objets,
  • personnalisation facile de l’interface,
  • approche différente de la modélisation de polygone,
  • paramétrage nodal des matériaux,
  • traitement « post-processing » intégré,
  • modificateurs (il n’y en pas beaucoup, mais ils sont très efficaces pour accélérer le processus de modélisation),
  • raccourcis clavier (il y en a beaucoup et ils améliorent grandement mon efficacité).

Blender possède des fonctionnalités sans lesquelles je ne m’imagine pas travailler aujourd’hui. 3DS Max n’en possède pas autant.

Cette liste pourrait s’allonger mais le plus important est que Blender est tout simplement mon type d’application.

Et Cycles ?

Cycles est un formidable moteur de rendu. J’ai récemment implémenté le matériau caoutchouc dans 3DS Max pour les pneus, et c’était vraiment la misère : paramétrage, rendu, paramétrage, rendu ainsi de suite… Dans Cycles, j’ai juste ajusté les paramètres et vu le résultat immédiatement.

Vois-tu une utilité au moteur de rendu interne de Blender dans ton travail quotidien ?

Non, c’est plutôt inutile en ce qui me concerne.

Est-ce que l’aspect libre et gratuit, en plus de la faible taille du fichier à télécharger a joué un rôle ?

Tout à fait. À plusieurs reprises, j’ai eu besoin de télécharger Blender lors d’un rendez-vous avec un client sur son ordinateur (5 minutes), de le lancer (2 secondes) et de travailler sur un projet. Ça fait une grande différence.

Au vu de tout ça, est-ce que l’un de tes collègues a déjà eu envie d’utiliser Blender ?

Non, et je ne m’attends pas à ce qu’ils le fassent. Soyons réalistes, la seule façon pour que cela arrive, c’est de les forcer à l’utiliser, et rien de bon n’en sortira. En réalité, les gens n’ont soit pas le temps, soit pas l’envie d’apprendre de nouvelles choses, et certains ne savent même pas que des alternatives existent.

Quels types de difficultés as-tu rencontrés lorsque tu travaillais avec Blender sur le projet « Backstage » ?

Le principal défaut de Blender est que la phase de développement actif a commencé assez récemment et beaucoup de fonctionnalités de base ne sont pas encore présentes. Il y a aussi les problèmes de compatibilité avec les formats de fichiers : c’est difficile d’ouvrir des fichiers Blender dans AutoCAD et dans 3DS Max, c’est même quasiment impossible.

As-tu rencontré des problèmes purement techniques avec Cycles ? Quelque chose qui manque ?

J’ai un peu de mal à me rappeler ce qui manque. De manière générale, les fonctionnalités compatibles par défaut dans les autres moteurs de rendu. La gestion des fichiers IES (NdT : qui gèrent la répartition de la lumière) en faisait partie il y a peu, mais ça a été résolu.

D’un autre côté, j’ai trouvé des méthodes parfaitement fonctionnelles pour contourner la plupart — sinon toutes — des fonctionnalités manquantes. La seule chose que je n’arrive pas à contourner c’est que Cycles est plutôt inutile sans une carte graphique chère.

Penses-tu que la fréquence des mises à jour de versions interfère avec les méthodes de travail en entreprise ? Les studios seraient plus enclins à n’utiliser que des mises à jour importantes et à ne les mettre à jour que pour corriger les bugs, c’est assez connu.

La fréquence d’apparition des nouvelles versions semble être une des principales particularités des logiciels libres. Je pense qu’en réalité, Blender en tire profit, parce qu’il reste beaucoup de choses à faire.

En plus, Blender a une bonne compatbilité ascendante et, de cette manière, rien n’empêche un studio de se limiter à une version particulière et à l’utiliser pendant quelques années.

Backstage - Blender

La galerie complète du projet « Backstage » est disponible sur Behance.




Trop bling-bling ! Critique commune d’Unity d’Ubuntu et Metro de Windows 8

S’en prendre conjointement à GNU/Linux et Microsoft, il fallait oser ! Mais en fait cela se tient et mérite peut-être débat.

Soyons plus précis. L’auteur jette ici son dévolu sur les deux nouvelles interfaces graphiques utilisateurs de l’actuelle distribution Ubuntu et de la prochaine version de Windows, à savoir respectivement Unity et Metro.

Il les met dans le même sac et y voit un changement poussé par les mêmes logiques. Un changement mais pas forcément une amélioration, surtout si l’on utilise son ordinateur pour travailler et non facebooker

Nous avions cru comprendre que le fameux « Internet 2.0 » avait fait sauter la barrière entre les consommateurs et producteurs de contenus. Est-il possible ici qu’on les sépare à nouveau ?

LGEPR - CC by

Metro et Unity sont des adolescentes aux cheveux fluos

Metro and Unity Are Teenage Girls With Fluorescent Hair

Jeremy Morgan – 23 octobre 2012 – Blog personnel
(Traduction : Yuston, ehsavoie, Thomas Dutrion, tibs, Evpok, M0tty, goofy, Maïeul, Oliv, lgodard, Kronos, peupleLa, Gaëtan)

Vous vous souvenez de ces filles ni spécialement horribles, ni particulièrement attirantes, qui voulaient être le centre de toutes les attentions ? Elles faisaient des trucs fous comme se colorer les cheveux avec des couleurs criardes et portaient des piercings partout. Elles avaient souvent beaucoup de qualités mais ne le savaient pas. Ces filles pensaient qu’elles n’avaient rien de mieux à offrir, alors elles se promenaient avec des styles provocateurs pour attirer l’attention.

Voilà précisément pourquoi je pense que Microsoft et Ubuntu imposent leurs récentes modifications de l’interface graphique malgré les retours négatifs des utilisateurs. Ce besoin pressant d’apparaître différent et d’attirer l’attention va bien au-delà de la nécessité de satisfaire leurs utilisateurs.

Que ce soit parce que notre durée d’attention est beaucoup plus courte ou parce que les systèmes d’exploitation ont perdu de leur intérêt, le changement pour le changement semble être devenu la règle du jeu. Canonical et Microsoft secouent tout pour faire différent. Pas meilleur mais différent.

Metro et Unity : vous vous y ferez

L’interface Unity fut introduite avec la version 11.04 d’Ubuntu Linux, celle de Metro sera livrée avec Windows 8 et il semble bien que toutes deux suscitent la même réaction. Toutes les deux apportent des modifications radicales de l’interface utilisateur qui arrivent pour une bonne raison : le monde s’éloigne des ordinateurs de bureau. Le monde devient mobile, c’est incontestable.

Mais plusieurs d’entre nous, assez fous pour continuer à préférer un ordinateur de bureau ou un portable (ceux qui permettent de travailler vraiment) détestent ces interfaces. Si vous utilisez une tablette pour regarder des vidéos ou jouer à Angry Birds ça va. Si vous êtes architecte, infographiste, développeur de logiciel, animateur 3D ou quelque chose du genre, vous haïssez probablement ces nouvelles interfaces.

La réponse des deux camps est la même : l’avenir est déjà là alors autant vous faire à ces changements. Vous êtes libres de remplacer le bureau Ubuntu par l’une des nombreuses alternatives, et Windows 8 a un mode bureau mais il est radicalement différent. Que vous l’aimiez ou non le standard est défini et les plaintes tombent dans l’oreille d’un sourd.

Pourquoi tous ces changements ?

Demandez à n’importe qui chez Microsoft ou Canonical pourquoi ils changent nos repères et ils avanceront probablement des arguments marketing sur les tendances émergentes et la nécessité d’aller de l’avant et autres non-sens. Je pense que la vraie raison pour laquelle ils ont fait ces changements et les verrouillent est extrêmement simple : parce que c’est nouveau. C’est changer simplement pour le plaisir de changer parce que le bureau classique n’a pas changé depuis bien longtemps.

Le bouton Démarrer a toujours été présent depuis la sortie de Windows 95, Gnome et KDE sont apparus en 1997. Depuis cette époque, nous avons fait beaucoup de modifications et bien sûr d’améliorations, mais avec du recul, elles se ressemblent toutes. Des fenêtres, des menus, des messages similaires, et ce depuis la moitié des années 90. Vous voyez le problème ?

Ils ont seulement besoin de faire évoluer l’apparence. Les fonctionnalités d’un système d’exploitation ne changent pas radicalement avec le temps, si vous voulez restez dans le coup avec des cycles de renouvellement technologique rapides, vous devez faire bouger les choses. Vous devez être innovant, pas forcément meilleur. Eh vous avez vu ? — nous n’avons plus de bouton Démarrer.

Qu’est ce qui se cache derrière ?

Vous pouvez donc vous demander : sont-ils juste en train de mettre du rouge à lèvre à un cochon ? La réponse pour les deux systèmes est non. En réalité, ils sont tous les deux meilleurs que ce qu’ils n’ont jamais été.

Ubuntu Linux est un système d’exploitation de premier ordre qui devient plus rapide, plus stable et qui prend en charge plus de matériel que jamais. La pile logicielle est super, la gestion des paquets et la sécurité… tout cela est hautement apprécié.

Windows 8 a également été remanié et cela pourrait bien être leur meilleur système d’exploitation à ce jour. Des avancées technologiques comme l’UEFI ont été introduites : un pré-système d’exploitation, le diagnostic à distance, une option « live USB », un temps de démarrage plus rapide et le support de l’USB 3.0, pour n’en citer que quelques unes. Il y a eu des améliorations au niveau du noyau et d’autres modifications qui le font tourner plus vite que Windows7 sur le même matériel. Du point de vue technique, il n’est pas à la traîne.

Ces deux systèmes d’exploitation sont au top de leur niveau, alors pourquoi développer ces interfaces flashy pour attirer l’attention ? Pourquoi ne peuvent-ils pas vendre ces systèmes d’exploitation en mettant en avant leurs propres mérites ?

Parce que plus personne ne se soucie de ces trucs-là.

La cible marketing

En tant qu’utilisateur régulier d’Ubuntu, j’aime bien lancer une petite pique par-ci par-là à Jono Bacon et sa bande, surtout lorsqu’on en vient à Unity. Je l’ai déjà dit et je le redirai : si je veux un système Ubuntu vraiment stable, j’utilise la version 10.04 et lui compile un noyau 3.6. Ça marche, tout simplement, et l’interface est facile à utiliser pour ceux qui en ont besoin. Pour mon usage, Ubuntu a atteint un sommet à la version 10.04, et moi, comme d’autres, l’avons fait savoir.

La réponse qu’on me ressort tout le temps : « tu n’es pas notre cible de toute façon ». Je le comprends et je sais que c’est vrai. Canonical ne cible plus les hackers maintenant, et Microsoft ne l’a jamais fait. Ils veulent tous les deux répondre à l’appel du marché grand public.

Quand les versions bêta d’Unity et Metro sont sorties, les hackers ont été les premiers à s’en plaindre bruyamment, mais ils ont été ignorés. Mais le plus gros problème que je vois, c’est que pratiquement tous les utilisateurs semblent les détester.

Vous ciblez Monsieur Tout-le-monde, mais c’est ça le problème : Monsieur Tout-le-monde s’adapte encore moins facilement à des interfaces déroutantes. Un geek va faire de son mieux pour apprendre quelque chose de nouveau mais si un utilisateur moyen est dérouté par une interface, il va simplement l’éviter.

Le client a toujours raison, mais on s’en fiche

Unity est sorti depuis un moment maintenant, et il y a certainement des personnes qui s’y sont habituées, et d’autres qui vont même jusqu’à le préfèrer. Quoi qu’il en soit, la plupart des personnes avec qui j’en ai parlé et 90% des commentaires que j’ai vus sur Internet suggèrent que Unity est un flop. Windows 8 n’est pas en test depuis suffisamment longtemps mais j’ai pu voir que ça partait déjà dans la même direction.

Allez vous donc rester sur votre mauvaise décision même si votre public ne l’aime pas ? Dans le cas de Canonical/Ubuntu la réponse est oui. Il semblerait que Microsoft suive le même chemin. Ils ont tous les deux une position similaire : on sait ce qui est bon pour vous et on va vous forcer à l’utiliser. Si vous ne l’aimez pas, vous allez vous habituer à l’utiliser. Ne soyez pas effrayé par le changement, ne vivez pas dans le passé.

Cette attitude arrogante est partagée par les deux camps, et c’est un pari énorme d’abandonner certains bons concepts et bonnes expériences utilisateur connues dans le but de faire différent.

Conclusion

Si vous lisez ce blog, il y a de fortes chances que vous ne correspondiez pas au type d’utilisateur que souhaitent Microsoft ou Canonical. Ils mettent en place une nouvelle interface tape-à-l’œil pour ce nouveau type d’utilisateurs. Ils veulent des gens qui consomment du contenu, pas des gens qui en produisent. La raison en est assez évidente : il y a beaucoup plus de consommateurs que de producteurs de contenus. Si vous produisez quelque chose, le système d’exploitation sera simplement un outil pour faire démarrer votre ordinateur et fonctionner votre programme. Vous n’avez pas besoin de plus, et mettre à jour tout votre système tous les ans deviendrait bête et inutile.

Si vous êtes un consommateur, vous voulez des mises à jour même si elles ne veulent pas vraiment dire grand-chose. S’ils fournissent une espèce de nouvelle fonctionnalité pour votre appareil, vous installerez joyeusement un nouveau système d’exploitation tous les six mois. Vous voulez du neuf et du tape-à-l’œil, pas du vieux et terne. Vous voulez qu’on puisse voir à dix mètres de distance que votre système est différent des autres. Si vous voulez de la stabilité et des recettes qui ont fait leurs preuves, vous prendrez un produit Apple. Voilà exactement sur quoi comptent Microsoft comme Canonical, et ils vont parier leur avenir là-dessus.

GrowDigital - CC by

Crédit photos : LGEPR et GrowDigital (Creative Commons By)




L’open data favorise-t-il nécessairement l’open source ?

Voici une question simple posée, excusez du peu, sur un des blogs du site de la Commission européenne.

On vous la pose donc à notre tour et vous attend dans les commentaires 🙂

A priori la réponse semble évidemment positive mais c’est peut-être plus compliqué que cela sur le terrain…

OpenSourceWay - CC by-sa

« Les gouvernements qui adoptent l’open data vont également adopter l’open source »

Governments that embrace open data will also switch to open source

Gijs Hillenius – 30 juin 2012 – Euopean Commission
(Traduction Framalang : Goofy, Antoine)

Les experts de l’open data s’accordent à dire que les administrations publiques qui comprennent les bénéfices qu’elles peuvent tirer de rendre publiques leurs données vont également plus utiliser du libre et de l’open source. L’open data et l’open source sont en effet souvent confrontés aux mêmes résistances : un manque de formation initiale et une crainte de l’effet qu’ils peuvent avoir sur l’organisation.

« Utiliser des logiciels propriétaires pour l’open data n’est pas aussi utile et pertinent que d’utiliser des logiciels libres », indique Jeanne Holm, l’évangéliste de data.gov, l’initiative open data du gouvernement Américain. « Il est plus facile pour les organisations, mêmes celles qui ont peu de moyens, de commencer à travailler sur des séries de données publiques avec des logiciels open source. Ce type de logiciels réunit le savoir de toute la communauté ».

Holm a été une des oratrices de la conférence sur l’interopérabilité sémantique qui a eu lieu à Bruxelles le 18 juin 2012. « Je suis une fervente avocate de l’open source, je ne suis donc pas impartiale. Cependant, ces logiciels fournissent aux gouvernements un moyen de moderniser leurs systèmes informatiques sans devenir aussi rapidement obsolète qu’avec des solutions propriétaires ».

Pour Holms, les administrations publiques ne devraient plus considérer l’open source comme controversé. « Toutes n’en voient pas encore les bénéfices car l’open source les éloigne parfois de leur situation confortable ».

Une explication similaire est donnée par Julia Glidden, une experte du e-gouvernement et la directrice générale de la société britannique 21c Consultancy. Les services IT peuvent avoir des millions de prétextes pour ne pas utiliser l’open source, selon elle. « Ils peuvent montrer du doigt le manque d’ergonomie, de robustesse, de sécurité et d’autres limitations techniques ».

De grands dépensiers

Glidden déclare que la migration en faveur de l’open source est largement une affaire de gestion du changement. L’open source menacerait la carrière des responsables informatiques. Cela change la relation qu’ils ont avec les gros vendeurs d’informatique et impacte négativement les budgets importants qui leurs sont alloués. « Ils considèrent l’open source comme une menace pour leur carrière et leur position acquise au sein de l’organisation. ». Pour elle, il en va de même pour l’open data. « Ils craignent, par exemple, de perdre leur emploi en cas d’utilisation abusive de ces données ».

De manière plus positive, les administrations publiques peuvent maintenant obtenir de l’aide sur le marché pour utiliser de l’open source dit-elle. On a atteint un seuil d’acceptation critique. « Il y a des vendeurs, des prestataires de service. Ce n’est pas le cas pour l’open data. Il y a besoin de consultants pour les aider à changer d’approche avec ce genre de partage de l’information ».

D’après Glidden, l’open data et l’open source se renforcent mutuellement. « La gouvernance fermée est morte, c’est juste une question de temps. Ils vont migrer vers de l’open source, ils feront de même pour l’open data ».

La philosophie du gouvernement

Katleen Janssen, une chercheuse au centre interdisciplinaire pour le droit et les TIC à l’Université catholique de Louvain est moins convaincue de l’existence d’un lien direct entre open data et open source. « Si l’open data fait partie de la philosophie des administrations publiques, elles vont également migrer vers de l’open source. Cependant, si elles pratiquent l’open data parce que tout le monde le fait ou parce qu’elles y sont contraintes, l’effet sera plus restreint ».

Crédit photo : OpenSourceWay (Creative Commons By-Sa)




L’esprit de partage, une révolution de l’esprit #Sharism

Issu du verbe anglais to share qui veut dire partager, le « Sharism » est reconnu par Wikipédia.

Cela ne signifie pas que le concept, exposé ici par le chinois Isaac Mao, soit nécessairement valide, d’autant que le style verse parfois un peu trop dans le new age, mais il méritait selon nous un nouveau petit coup de projecteur.

Cet article a été rédigé en décembre 2008 (avant, par exemple, le réel avènement des réseaux sociaux). Il a été traduit initialement par Olivier Heinry sur son site.

Joi Ito - CC by

L’esprit de partage, une révolution de l’esprit

Sharism: A Mind Revolution

Isaac Mao – Décembre 2008 – Creative Commons By
(Traduction : Olivier Heinry)

Alors que le peuple du World Wide Web communique plus pleinement et plus librement par le biais des médias sociaux et que l’on assiste à une explosion des contenus 2.0, la dynamique interne d’une telle explosion créative se doit d’être étudiée de plus près. Quelle est la motivation de ceux qui rejoignent ce mouvement et quel futur vont-ils engendrer ? L’un des aspects clés consiste en la surabondance de respect de la part de la communauté et de capital social accumulés par ceux qui partagent.

La motivation clé des Médias Sociaux et l’esprit animant le Web 2.0 forment un changement de paradigme nommé Esprit de Partage. L’esprit de partage suggère une réorientation des valeurs individuelles. On le voit à l’œuvre dans les contenus générés par les utilisateurs. C’est l’allégeance des Creative Commons. Il fait partie des initiatives culturelles futuro-centriques. L’esprit de partage est également un exercice mental que tout un chacun peut essayer, une attitude socio-psychologique destinée à transformer un univers étendu et isolé en un Cerveau Social hyper-intelligent.

La doctrine du neurone

Le partagisme est encodé dans le Génome Humain. Bien qu’éclipsés par les nombreux pragmatismes du quotidien, la théorie du l’Esprit de Partage trouve sa source dans les neurosciences et l’étude du modèle opératoire du cerveau humain. Bien qu’il nous soit impossible de décrire le fonctionnement du cerveau dans son ensemble, nous disposons d’un modèle du mécanisme de fonctionnement du système nerveux et de ses neurones. Un neurone n’est pas qu’une simple cellule de l’organisme, mais un processeur biologique très puissant et excitable électriquement. Des groupes de neurones forment des réseaux intensément interconnectés, qui, en modifiant la force/résistance des synapses situées entre les cellules, peuvent traiter de l’information, ainsi qu’apprendre. Un neurone , en partageant des signaux chimiques avec ses voisins, peut se retrouver intégré à des motifs plus significatifs qui maintiennent le neurone actif et vivant. De plus, cette simple logique peut être répétée et amplifiée, puisque tous les neurones fonctionnent sur un principe similaire de connexion et de partage. A l’origine, le cerveau est des plus ouverts. Un réseau neuronal existe qui partage activité et information, et je pense que ce modèle du cerveau devrait inspirer des idées comme aider à prendre des décisions concernant les réseaux humains.

Ainsi, notre cerveau privilégie le partage par la nature même de son système, ce qui signifie de profondes implications pour les processus créatifs. A chaque fois que vous avez l’intention de créer, il vous sera plus aisé de générer des idées plus créatives si vous conservez à l’esprit la notion de processus de partage. Le processus de formation des idées n’est pas linéaire, mais ressemble plus à une avalanche d’amplifications le long d”un chemin de réflexion. Il se déplace avec le momentum d’une boule de neige créative. Si votre système cognitif interne encourage le partage, vous pouvez alors construire une boucle de rétroaction de bonheur, qui vous aidera à son tour à générer d’autant plus d’idées. C’est une sorte d’effet papillon, où la petite quantité d’énergie créative que vous aurez dépensé vous rendra, vous et le monde , plus créatifs.

Cependant, les décisions prises au quotidien par la plupart des adultes ont une créativité plutôt faible, seulement parce qu’ils ont désactivé leurs chemins de partage. Les gens aiment en général partager ce qu’ils créent, mais dans une culture qui leur enjoint de protéger leurs idées, les gens deviennent convaincus du danger du partage. Le sens du partage est alors affaibli dans leur esprit et découragé au sein de leur société. Mais si nous pouvons encourager une personne à partager, alors ses chemins de partage resteront ouverts. L’esprit de partage restera en mémoire dans son esprit, tel un instinct. Si elle rencontre au futur une situation de choix créatif, son choix sera : « Partage ».

Ces déclics de l’esprit sont trop subtils pour être perçus. Mais du fait que le cerveau,et la société, sont des systèmes connectés, l’accumulation de ces micro-attitudes, de neurone en neurone, et d’individu en individu, peut aboutir à un comportement manifeste. Il est aisé de pouvoir dire si une personne, un groupe, une entreprise, une nation sont enclins au partage ou pas. Pour ceux qui ne le sont pas , ce qu’ils défendent comme « biens culturels » et « propriété intellectuelle » ne sont que des excuses pour le statu quo gardant une communauté fermée. Une grande partie de leur « culture » sera protégée, mais le résultat net consiste en la perte directe de bien des précieuses idées, et dans la perte subséquente de tous les gains potentiels de leur partage. Cette connaissance perdue est un trou noir dans nos vies, qui pourrait bien avaler d’autres valeurs également.

La culture du non-partage nous guide à tort avec sa séparation absolue des espaces privé et public. Toute activité créatrice devient un choix binaire entre public et privé, ouvert et fermé, ce qui entraîne la naissance d’un fossé dans le spectre de la connaissance. Bien que ce fossé puisse devenir le lieu d’une réelle créativité, les craintes liées à la vie privée rendent ce fossé difficile à combler. Nous ne devrions pas nous étonner du fait que la plupart des gens, pour demeurer en sécurité, ne partagent que de façon privée et restent donc « fermés ». Elles craignent peut-être que l’Internet ne soit un risque potentiel qu’elles ne peuvent combattre seules. Paradoxalement, moins vous partagerez, moins vous en aurez le pouvoir.

Les nouvelles technologies et la montée de l’esprit de partage

Remontons en 1999, à l’époque où il n’y avait que quelques centaines de blogs de pionniers sur la planète, et sans doute pas plus de dix lecteurs à suivre chacun de ces blogs. L’histoire humaine est ainsi faite : un événement important avait lieu sans que le reste du monde ne le réalise. Le changement induit par l’arrivée de publications en ligne simples d’usage déclencha une révolution douce en moins de cinq ans. Les gens ont fait rapidement et facilement la transition depuis la simple consultation de blogs à l’ajout de commentaires et la participation à des discussions en ligne, jusqu’à réaliser soudainement qu’ils pouvaient eux-même devenir blogueurs. Plus de blogueurs a généré plus de lecteurs, et plus de lecteurs ont créé encore plus de blogs. Ce fut une révolution virale.

Les blogueurs génèrent sur Internet une information vivante et à jour, et sont connectés les uns aux autres par RSS, hyperliens, commentaires, trackbacks et citations. Le fine granularité des contenus peut alors combler les interstices entre notre expérience lacunaire, et ainsi écrire une nouvelle histoire de l’humanité. Une fois que vous êtes devenu un blogueur, une fois que vous avez accumulé autant de capital social sur un aussi petit site, il est devenu difficile d’arrêter. Cela ne peut s’expliquer par une théorie de la dépendance. C’est une impulsion de partage. C’est l’énergie des mêmes qui veut circuler de bouche à oreille et d’esprit à esprit. C’est plus que l’e-mail. C’est l’esprit de partage.

Les blogueurs souhaitent toujours garder à l’esprit le contexte social de leurs articles, en se demandant : « Qui donc va lire ceci ? » Les blogueurs sont agiles en ce qu’ils ajustent leur tonalité -et leur niveau de vie privée – pour faire avancer leurs idées sans se mettre en danger. Il s’agirait du sens du terme adéquat, plutôt que d’une auto-censure. Mais une fois que les blogs ont atteint leur masse critique, ils se sont étendus pour devenir la blogosphère. Ce dernier point a requis un système de réseaux sociaux plus délicat, ainsi qu’une architecture de partage de contenus. Mais les gens savent désormais qu’ils maîtrisent une palette plus large de relations. A la façon dont Flickr nous permet de partager des photos, mais en toute sécurité. Le respect de la vie privée de Flickr à base de cases à cocher peut paraître étrange au nouvel utilisateur, mais elle peut vous permettre de jouer avec les ressorts mentaux de l’esprit de partage. En cochant une case, nous pouvons choisir de partager , ou pas. De mes propres observations, j’ai pu constater que des photographes sur Flickr deviennent plus réceptifs à l’idée de partage, tout en conservant toute la latitude voulue dans leurs choix.

L’émergence rapide d’applications sociales qui communiquent et coopèrent, en permettant à tout un chacun de diriger des contenus d’un service à un autre, laisse les utilisateurs libres de pomper leurs mêmes au travers d’un écosystème faits de pipelines. Cette capacité d’interconnexion permet aux mêmes de se déplacer au travers de multiples réseaux sociaux, et de potentiellement atteindre une énorme audience. En conséquence de quoi, ce système de micro-pipelines rend les médias sociaux viables en tant qu’alternative aux mass-média traditionnels. Ces nouvelles technologies ressuscitent l’esprit de partage dans notre culture de la fermeture.

Pratique locale, bénéfice global

Si jamais vous avez perdu votre esprit de partage du fait d’un mauvais environnent culturel ou éducatif, il est ardu de le retrouver. Mais ce n’est pas impossible. Une pratique assidue peut mener à un rétablissement complet. Vous pouvez vous représenter l’esprit de partage comme une pratique spirituelle. Mais vous devrez pratiquer quotidiennement. Sinon, vous perdriez le pouvoir de partager. Définitivement.

Vous pourriez avoir besoin de quelques chose qui vous motive, vous empêche de revenir à un état d’esprit fermé. Voici une idée : afficher sur votre bureau une note portant la mention : « Que veux-tu partager aujourd’hui ? ». Sans blague. Par la suite, si jamais vous tombez sur quoi que ce soit d’intéressant, partagez-le ! La façon la plus simple à la fois pour commencer et continuer à partager consiste à utiliser de multiples logiciels sociaux. Le premier même que vous souhaitez partager sera peut être de peu de taille, mais vous pourrez l’amplifier par le biais des nouvelles technologies. Listez les noms de personnes de votre réseau personnel, et invitez-les à rejoindre un nouveau logiciel social. Au début, vous aurez peut-être du mal à voir les bénéfices de l’esprit de partage. Le vrai test consiste alors à voir si vous pouvez suivre le feedback que vous obtenez de ce que vous partagez. Vous réaliserez que quasiment toutes vos activités de partage vont générer des résultats positifs. Le bonheur que vous ressentirez n’est que la récompense la plus immédiate, même s’il y en a d’autres.

Le premier type de récompense que vous obtiendrez arrivera sous la forme de commentaires. Vous saurez alors que vous avez suscité de l’intérêt, de l’appréciation, de l’excitation. La seconde récompense sera l’accès à tout ce que les amis de votre réseau auront partagé. Du fait que vous les connaissez et avez confiance en eux, vous serez d’autant plus intéressés par ce qu’ils partagent. Mais le troisième type de récompense est plus important encore. Tout ce que vous partagez sera transféré, remis en circulation et publié une nouvelle fois au travers des propres réseaux de vos amis. Cet effet de cascade porte alors votre parole aux masses mises en réseau. Les progrès des logiciels de réseaux sociaux font que la vitesse de propagation devient celle d’un clic de souris. Vous devriez rencontrer l’esprit de partage. Vous êtes sur le point de devenir connu, et ce rapidement.

Ce qui nos amène au quatrième et dernier type de retour, qui fait sens non seulement pour vous, mais également pour la société toute entière. Si vous l’avez choisi, vous autorisez autrui à créer des œuvres dérivées à partir de ce que vous aurez partagé. Ce simple choix peut facilement faire boule de neige et induire de nouvelles créations le long du chemin du partage de la part de personnes situés à des endroits clés du réseau et qui sont toutes aussi passionnées que vous pour créer et partager. Après plusieurs cycles de développement, une vaste œuvre créatrice peut jaillir de votre décision de partager. Bien sûr, vous recevrez le crédit que vous avez demandé, et que vous méritez. Et c’est tout à fait logique de vouloir en être rémunéré. Mais dans tous les cas vous en obtiendrez quelque chose de tout aussi essentiel : du Bonheur.

Plus il y aura de créateurs dans l’esprit de partage, plus ce sera facile de parvenir à un état d’équlibre et d’équité pour les Médias Sociaux tissés par les gens eux-même. Les médias ne seront pas contrôlés par une seule personne, mais reposeront sur la distribution régulière du réseautage social. Ces « Partagéros » (Héros Partageurs) deviendront naturellement les leaders d’opinion de la première vague de Média Social. Cependant, les droits sur ces médias appartiendront à tous. Vous devenez à la fois producteur et consommateur dans un tel système.

L’esprit de partage protège vos droits

Bien des questions restent malgré tout en suspens à propos de l’esprit de partage comme initiative dans une nouvelle ère, la principale étant celle du copyright. Un des soucis est que n’importe quelle perte de contrôle sur des contenus protégés par copyright conduira à une baisse conséquente de la richesse individuelle, ou simplement en une perte de contrôle. Il y a 5 ans, j’aurais considéré cela comme possible. Mais les choses changent aujourd’hui. L’environnement de partage est plus protégé que vous ne pourriez penser. Bien des nouveaux logiciels sociaux vous facilitent l’établissement des conditions d’utilisation de votre chemin de partage. Tout violation de ces termes a leur égard vous sera reprochée non seulement par la loi, mais par votre communauté. Votre auditoire, qui bénéficie de ce que vous partagez, peut aussi tenir lieu de gardien de vos droits. Cela paraît idéal, même pour le détenteur de droits traditionnels.

De plus, en mesurant la portée des récompenses immédiates et à venir liées au partage, vous vous direz peut-être en fin de compte que le copyright et les « Tous droits réservés » sont bien éloignés de vous. Vous apprécierez trop les bénéfices du partage pour vous soucier de savoir qui détient une copie. Plus il y a de gens à remixer vos œuvres, plus vous aurez un retour important, voici la nouvelle formule économique.

Je voudrais souligner que le sens du partage n’équivaut pas au Communisme, ni au Socialisme. Pour ce qui est des Communistes endurcis, ils ont souvent violé la nature encline au partage des gens pour les forcer à abandonner leurs droits comme leurs biens. Le Socialisme, ce Communisme attendri, a, d’après notre exprience, également montré bien peu de respect envers ces droits. Dans ces systèmes, l’état détient toute propriété. Dans l’esprit de partage, vous pouvez conserver vos droits si vous le voulez. Mais je préfère partager. Et c’est ainsi que j’ai choisi de propager des idées, et la prosperité.

L’esprit de partage est entièrement basé sur votre propre consensus. Ce n’est pas trop difficile à comprendre, surtout depuis que des mouvements liés au copyleft comme la Free Software Foundation et les Creative Commons existent déjà depuis plusieurs années. Ces mouvements redéfinissent un spectre plus flexible de licences pour que les développeurs comme les utilisateurs finaux puissent marquer leurs travaux. Du fait que ces nouvelles licences peuvent être reconnus autant par les humains que les machines, il devient de plus en plus facile de partager à nouveau ces travaux dans les nouveaux écosystèmes en ligne.

L’esprit du Web, un cerveau social

L’esprit de partage est celui de l’ère du Web 2.0. Il a à la fois la consistance d’une Épistémologie naturalisée et celle d’une Axiologie modernisée, mais contient également les promesses du pouvoir d’une nouvelle philosophie de l’Internet. L’esprit de partage va transformer le monde en un Cerveau Social émergeant, un hybride mis en réseau de personnes et de logiciel. Nous sommes les Neurones en Réseau connecté par les synapses du Logiciel Social. Il s’agit d’une saut de l’évolution, un petit pas pour nous mais un pas de géant pour la société humaine. Avec ces nouvelles technologies « velues » fleurissant autour de nous , nous sommes en mesure de générer plus de connectivité et d’augmenter le débit de nos liens sociaux. Plus nous , neurones sociaux, serons ouverts et intensément connectés, meilleur sera l’environnement de partage, pour tous. Plus notre intelligence sera collective, plus la sagesse marquera nos actions. Les gens ont toujours trouvé de meilleures solutions par la conversation. Désormais, nous pouvons le mettre en ligne.

L’esprit de partage sera la politique exercée par la prochaine super puissance globale. Il ne s’agira pas d’un pays, mais d’un nouveau réseau humain relié par le Logiciel Social. Il s’agit peut-être d’un rêve lointain, de même que une politique publique de partage bien conçue n’est sans doute pas pour demain. Mais les idées que je soulève peuvent améliorer dès aujourd’hui les gouvernements. Nous pouvons intégrer nos systèmes démocratiques émergents comme déjà existants avec de nouvelles toponymies sociales (basées sur l’indexation sociale et collaborative d’information) pour permettre aux gens d’émettre des requêtes, de partager des données et remixer les informations pour des usages publics. L’intelligence collective d’un vaste environnement de partage équitable peut être le gardien du temple de nos droits, et le chien de garde des gouvernements. Dans le futur, la politique pourra être exercée de manière plus nuancée, par le biais de la micro-participation de la communauté de l’esprit du partage. Cette « Démocratie Émergente » se déroule plus en temps réel que lors de sessions parlementaires. Elle élargira la panoplie de nos choix, au-delà des options binaires offertes par référendums par « Oui » ou « Non ». La démocratie représentative en deviendra plus prompte à réagir et plus diligente, parce que nous nous représenterons nous-même au sein du système.

L’Esprit de Partage aura pour résultat une plus grande justice sociale. Dans un environnement de partage sain, tout signe d’injustice peut se retrouver amplifié afin d’attirer l’attention du public. Toute victime peut obtenir un support aussi effectif qu’instantané de ses pairs et des pairs de ses pairs. Les procédures de justice prendront la forme de pétitions émises par le biais de multiples canaux interconnectés. Par ces outils, chacun d’entre nous peut devenir mieux socialisé, et la société plus individualisée. Nous ne sommes plus forcés d’agir seuls. La démocratie émergente n’existera qu’une fois que l’Esprit de Partage sera devenu le bréviaire de la majorité. Puisque l’Esprit de Partage peut améliorer la communication, la collaboration comme la compréhension mutuelle, je crois qu’il a sa place au sein du système éducatif. L’Esprit de Partage peut s’appliquer à n’importe quel discours culturel, communauté de pratique (Community of Practice) ou contexte de résolution de problème. C’est également un antidote à la dépression sociale, la perte du sens du partage ne faisant que tirer notre société vers le bas. Dans les pays totalitaires actuelles ou passés, ce cycle décadent est encore plus visible. Le monde futur sera un hybride d’humain et de machine qui permettra des prises de décisions meilleures et plus rapides, n’importe où, n’importe quand. Le flot d’information entre les esprits deviendra plus flexible et plus productif. Ces vastes réseaux de partage créeront un nouvel ordre social : une Révolution de l’Esprit.

Crédit photo : Joi Ito (Creative Commons By)




Regarde le capitalisme tomber à l’ère de la production Open Source

« Le logiciel libre, l’innovation partagée et la production collaborative menacent le capitalisme tel que nous le connaissons. » C’est ainsi que Michel Bauwens résume son propos dans les colonnes du site d’Aljazeera.

Le menace vient du fait qu’à l’aide d’Internet nous créons beaucoup plus de valeur d’usage (qui répond à nos besoins) que de valeur d’échange (qui se monétise facilement[1]).

Menace pour les uns, opportunité et espoir pour les autres…

Nick Ares - CC by-sa

La question à 100 milliards de dollars de Facebook : Le capitalisme survivra-t-il à « l’abondance de valeur » ?

The $100bn Facebook question: Will capitalism survive ‘value abundance’?

Michel Bauwens – 29 février 2012 – Aljazeera

(Traduction Framalang/Twitter/Fhimt.com : Lambda, vg, goofy, fcharton, btreguier, HgO, Martin, bu, pvincent, bousty, pvincent, deor, cdddm, C4lin, Lamessen et 2 anonymous)

Le logiciel libre, l’innovation partagée et la production collaborative menacent le capitalisme tel que nous le connaissons.

Facebook exploite-t-il ses utilisateurs ? Et d’où vient la valeur estimée à 100 milliards de dollars de la société ?

Ce débat n’est pas nouveau. Il ressurgit régulièrement dans la blogosphère et dans les cercles universitaires, depuis que Tiziana Terranova a inventé le terme de « travail libre/gratuit » (NdT : Free Labour) pour qualifier une nouvelle forme d’exploitation capitaliste du travail non rémunéré – faisant d’abord référence aux téléspectateurs de médias audiovisuels traditionnels et maintenant à une nouvelle génération d’utilisateurs de médias sur des sites comme Facebook. Cet avis peut se résumer très succinctement par le slogan : « Si c’est gratuit, c’est que vous êtes le produit ».

Ce terme a été récemment relancé dans un article de Christopher Land et Steffen Böhm, de l’Université de l’Essex, intitulé « Ils nous exploitent ! Pourquoi nous travaillons tous pour Facebook gratuitement ». Dans ce court essai, ils affirment haut et fort que « nous pouvons placer les utilisateurs de Facebook dans la catégorie des travailleurs. Si le travail est considéré comme une activité productive, alors mettre à jour son statut, cliquer sur j’aime en faveur d’un site internet, ou devenir ami avec quelqu’un crée la marchandise de base de Facebook. »

Cette argumentation est toutefois trompeuse, car elle mélange deux types de créations de valeurs qui ont déjà été reconnues différentes par les économistes politiques au XVIIIe siècle. La différence se trouve entre la valeur d’usage et la valeur d’échange. Pendant des milliers d’années, dans le cadre de production non capitalistes, la majorité des travailleurs produisait directement de la « valeur d’usage » – soit pour subvenir à leurs propres besoins, soit sous forme de contributions pour la classe dirigeante du moment. C’est seulement avec l’arrivée du capitalisme que la majorité de la population active a commencé à produire de la « valeur d’échange » en vendant son travail aux entreprises. La différence entre ce que nous sommes payés et ce que les gens payent pour le produit que nous faisons est la « plus-value ».

Mais les utilisateurs de Facebook ne sont pas des travailleurs produisant des marchandises pour un salaire, et Facebook ne revend pas ces marchandises sur le marché pour créer de la plus-value.

Bien sûr, les utilisateurs de Facebook ne créent pas directement une valeur d’échange, mais plutôt une valeur de communication. Ce que fait Facebook, c’est permettre le partage et la collaboration autour de sa plateforme. En autorisant, encadrant et « contrôlant » cette activité, on crée des profils et des centres d’intérêt. Et ce sont ces profils et ces centres d’intérêt qui sont par la suite vendus aux publicitaires, pour un montant estimé de 3,2 milliards de dollars par an (NdT : environ 2,4 milliards d’euros), soit une recette publicitaire par utilisateur d’à peine 3,79 dollars (NdT : 2,85 euros).

En fait Facebook fait beaucoup plus que vendre de votre attention et disponibilité (NdT : temps de cerveau disponible ?). Leur connaissance de notre comportement social, individuel et collectif, a une importance stratégique indiscutable aussi bien pour les politiques que pour les sociétés commerciales. Mais cette plus-value vaut-elle réellement 100 milliards de dollars ? Cela reste un pari spéculatif. Pour le moment, il est probable que le quasi milliard d’utilisateurs de Facebook ne trouve pas les 3,79 dollars de recettes publicitaires très exploitables, d’autant plus qu’ils ne payent pas pour utiliser Facebook, et qu’ils utilisent le site volontairement. Ceci étant dit, il y a un prix à payer à ne pas utiliser Facebook : un certain isolement social par rapport à ceux qui l’utilisent.

Créer de la rareté

Il est néanmoins important de noter que Facebook n’est pas un phénomène isolé, mais fait partie d’une tendance bien plus large et lourde de nos sociétés connectées : l’augmentation exponentielle de la création de valeur utile par des publics productifs, ou « productilisateurs » (NdT « produsers »), comme Axel Bruns aime à les appeler. Il faut en effet bien comprendre que cela crée un problème de taille pour le système capitaliste, mais aussi pour les travailleurs tels qu’on les conçoit traditionnellement. Les marchés sont définis comme des moyens d’attribution de ressources rares, et le capitalisme n’est en fait pas simplement un système « d’attribution » de la rareté mais aussi un système de création de la rareté, qui ne peut accumuler du capital qu’en reproduisant et développant les conditions de cette rareté.

Sans tension entre l’offre et la demande, il ne peut y avoir de marché ni d’accumulation de capital. Or ce que font actuellement ces « productilisateurs », c’est créer des choses, avant tout immatérielles comme de la connaissance, des logiciels ou du design, aboutissant à une abondance d’information facile à reproduire et à exploiter

Cela ne peut se traduire directement en valeur marchande, car ce n’est pas du tout rare ; c’est au contraire surabondant. De plus, cette activité est exercée par des travailleurs du savoir (NdT knowledge workers) dont le nombre augmente régulièrement. Cette offre surabondante risque de précariser l’emploi des travailleurs du savoir. Il en découle un exode accru des capacités de production en dehors du système monétaire. Par le passé, à chaque fois qu’un tel exode s’est produit, les esclaves dans l’Empire Romain en déclin, ou les serfs à la fin du Moyen Age, cela a coïncidé avec l’avènement de conditions pour des changements économiques et sociétaux majeurs.

En effet, sans le support essentiel du capital, des biens et du travail, il est difficile d’imaginer la perpétuation du système capitaliste sous sa forme actuelle.

Le problème est là : la collaboration via Internet permet une création massive de la valeur d’usage qui contourne radicalement le fonctionnement normal de notre système économique. D’habitude, les gains de productivité sont en quelque sorte récompensés et permettent aux consommateurs d’en tirer un revenu et d’acheter d’autres produits.

Mais ce n’est plus le cas désormais. Les utilisateurs de Facebook et Google créent de la valeur commerciale pour ces plateformes, mais de façon très indirecte, et surtout ils ne sont pas du tout récompensés pour leur propre création de valeur. Leur création n’étant pas rémunérée sur le marché, ces créateurs de valeur n’en tirent aucun revenu. Les médias sociaux sont en train de révéler un important défaut dans notre système économique.

Nous devons relier cette économie sociale émergente, basée sur le partage de la création, avec les plus authentiques expressions de la production collaborative orientée vers le bien commun, comme en témoignent déjà l’économie de l’Open Source et de l’usage équitable des contenus libres (dont la contribution est estimée à un sixième du PIB américain). Il ne fait pas de doute sur le fait qu’un des facteurs clés du succès actuel de la Chine réside en une savante combinaison de l’Open Source, tel que l’exemple de l’économie locale à Shanzaï, avec une politique d’exclusion des brevets imposée aux investisseurs étrangers. Cela a offert à l’industrie chinoise une innovation ouverte et partagée en boostant son économie.

Même si l’économie de l’Open Source devient le mode privilégié de création des logiciels, et même si elle permet de créer des entreprises qui génèrent des chiffres d’affaires de plus d’un milliard d’euros, comme Red Hat, la conséquence globale est plutôt la déflation. Il a en effet été estimé que l’économie du libre réduisait annuellement de quelque 60 milliards de dollars le volume d’affaires dans le secteur des logiciels propriétaires.

Ainsi, l’économie de l’Open Source détruit plus de valeur dans le secteur propriétaire qu’elle n’en crée. Même si elle engendre une explosion de la valeur d’usage, sa valeur d’échange, monétaire et financière décroît.

La fabrication Open Source

Les mêmes effets surviennent quand le partage de l’innovation est utilisé dans la production physique, où il combine à la fois l’approche Open Source des moyens de distribution et l’affectation de capitaux (en utilisant des techniques comme la production communautaire, ou crowdfunding, et des plateformes dédiées comme Kickstarter).

Par exemple, la Wikispeed SGT01, une voiture qui a reçu cinq étoiles en matière de sécurité et peut atteindre 42,5 km/litre (ou 100 miles par gallon), a été developpée par une équipe de bénévoles en seulement trois mois. La voiture se vend au prix de 29.000 dollars, environ un quart du prix que pratiquerait l’indutrie automobile traditionnelle, et pour laquelle il aurait fallu cinq années de R&D ainsi que des millards de dollars.

Local Motors, une entreprise automobile ayant fait le choix du crowdsourcing et connaissant une croissance rapide, annonce qu’elle produit des automobiles 5 fois plus rapidement que Detroit, avec 100 fois moins de capitaux, et Wikispeed a réussi à mettre en place des temps de design et de production encore plus rapides. En ayant fait le pari de l’intelligence distribuée, la voiture Wikispeed a été pensée pour être modulaire, en utilisant des techniques de programmation logicielle efficaces et sophistiquées (telles que la méthode agile, Scrum et Extreme Programming), un design ouvert ainsi qu’une production effectuée par des PME locales.

Et Arduino, un simple petit circuit imprimé de prototypage electronique Open Source, fonctionnant sur le même principe que Wikispeed, provoque une baisse des prix dans son secteur et une extraordinaire effervescence dans les toujours plus nombreux fab labs (NdT : cf l’histoire d’Arduino). Si le projet de Marcin Jakubowsky Open Source Ecology rencontre le succès alors nous aurons à disposition de tous 40 différents types de machines agricoles bon marché rendant un village auto-suffisant. Dans tous les domaines où l’alternative de la production Open Source se developpe – et je prédis que cela affectera tous les domaines – il y aura un effet similaire sur les prix et les bénéfices des modèles économiques traditionnels.

« Consommation collaborative »

Une autre expression de l’économie du partage est la consommation collaborative, ce que Rachel Botsman et Lisa Gansky ont démontré dans leurs récents livres respectifs What’s Mine Is Yours: The Rise of Collaborative Consumption et The Mesh: Why The Future of Business is Sharing. Il se développe rapidement une économie du partage autour du secteur des services affectant même les places de marché et les modes de vie des gens.

Par exemple, il a été estimé qu’il y a environ 460 millions d’appartements dans le monde développé, et que chaque foyer possédait, en moyenne, une valeur de 3000 dollars disponibles en biens inutilisés. Il y aurait un intérêt économique manifeste à utiliser ces ressources qui dorment. Pour la plus grande part d’ailleurs, elles ne seront pas rentabilisées, mais échangées ou troquées gratuitement. Le modèle même du partage payant aura un effet de dépression sur la consommation de produits neufs.

De tels développements sont bénéfiques pour la planète et bons pour l’humanité, mais globalement sont-ils bons pour le capitalisme ?

Qu’arrivera-t-il à ce dernier à l’heure du développement croissant des échanges via les médias sociaux, de la production et de la consommation collaborative des logiciels et des biens ?

Qu’arrivera-t-il si notre temps est de plus en plus dédié à la production de valeur d’usage (une fraction de ce qui crée la valeur monétaire) sans bénéfices substantiels pour les producteurs de valeur d’usage ?

La crise financière commencée en 2008, loin de diminuer l’enthousiasme pour le partage et la production par les pairs, est en fait un facteur d’accélération de ces pratiques. Ce n’est plus seulement un problème pour des masses laborieuses de plus en plus précarisées, mais également pour le capitalisme lui-même, qui voit ainsi s’évaporer des opportunités d’accumulation et d’expansion.

Non seulement le monde doit faire face à une crise globale des ressources, mais il fait également face à une crise de croissance, car les créateurs de valeur ont de moins en moins de pouvoir d’achat. L’économie de la connaissance se révèle être un miroir aux alouettes, car ce qui n’est pas rare mais abondant ne peut pas soutenir la dynamique des marchés. Nous nous retrouvons donc face à un développement exponentiel de la création de valeur qui ne s’accompagne que d’un développement linéaire de la création monétaire. Si les travailleurs ont de moins en moins de revenus, qui pourra acheter les biens qui sont vendus par les sociétés ? C’est, pour simplifier, la crise de la valeur à laquelle l’Humanité doit faire face. C’est un challenge aussi important que le changement climatique ou l’accroissement des inégalités sociales.

La débâcle de 2008 était un avant-goût de cette crise. Depuis l’avènement du néolibéralisme, les salaires ont stagné, le pouvoir d’achat a été maintenu artificiellement par une diffusion irraisonnée du crédit dans la société. C’était la première phase de l’économie du savoir, au cours de laquelle seul le capital avait accès aux réseaux qu’il utilisait pour créer de gigantesques multinationales.

Avec la croissance continue de cette économie du savoir, une masse de plus en plus importante des valeurs échangées est constituée de biens intangibles et non plus physiques (NdT : cf capital immatériel). Le marché des changes néolibéral et ses excès spéculatifs peut être vu comme un moyen de tenter d’évaluer la part de valeur intangible, virtuelle, qui est ajoutée à la valeur réelle par la coopération. Il fallait que cette bulle explose.

Nous nous trouvons dans la seconde phase de l’économie du savoir, au cours de laquelle les réseaux sont en train d’être étendus à toute la société, et qui permet à tout un chacun de s’engager dans une production collaborative. Ce qui crée de nouveaux problèmes et engendre de nouveaux défis. Ajoutons à cela la stagnation des revenus, la diminution de la masse du travail salarié que cette production collaborative de valeur entraîne, et il évident que tout ceci ne peut être résolu dans le paradigme actuel. Y a-t-il dès lors une solution ?

Il y en a une mais elle sera pour le prochain cycle : elle implique, en effet, une adaptation de l’économie à la production collaborative, ouvrant par là-même les portes à un dépassement du capitalisme.

Michel Bauwens est théoricien, écrivain ainsi qu’un des fondateurs de la P2P (Peer-to-Peer) Foundation.

Notes

[1] Crédit photo : Nick Ares (Creative Commons By-Sa)




Bépo, libérons les claviers, une touche après l’autre

Le saviez-vous ? Il n’y a pas que l’azerty (ou le qwerty) dans la vie des claviers qui peuvent eux aussi se libérer !

Il faut parfois du temps pour apprivoiser GNU/Linux et libérer son ordinateur acheté avec un système d’exploitation propriétaire dedans. Mais ceux qui y sont arrivés savent pourtant que le jeu en vaut la chandelle.

Et s’il en allait de même de nos claviers, libérables grâce à la disposition bépo sous Creative Commons By-Sa, spécialement conçue pour la saisie du français ?

Ceux qui ont fait l’effort de migrer de l’azerty au bépo peuvent en témoigner : vous aurez alors le plaisir de tapoter sur un clavier libre tout en gagnant en confort et rapidité d’exécution, ce qui est bien là l’essentiel.

Et pour vous donner plus envie encore de vous y frotter, rien de tel qu’une présentation assortie d’un petit voyage dans le temps pour comprendre comment et pourquoi le bépo a vu le jour. Une belle histoire (à rebondissements) racontée par notre ami Ploum.

Surprenons-nous à rêver. Peut-être qu’un jour on le trouvera dans les écoles et que les constructeurs seront alors obligés de suivre.

C’est la seconde contribution de Ploum sur le Framablog après le tout aussi intéressant article sur la monnaie libre Bitcoin.

Clavier Bépo - A2 - CC by-sa

Le Bépo n’est pas un numéro, c’est un clavier libre

Ploum – décembre 2011
Licence Creative Commons By-Sa

Je fais partie de ces personnes qui cherchent sans relâche à comprendre l’origine de nos habitudes, à remettre en question l’acquis. Entre nous, si vous lisez ceci, il y a de fortes chances que vous en fassiez partie vous aussi.

Si la technologie bouleverse bien des choses, elle impose aussi ses petites manies dont l’origine se perd parfois dans les brumes de sa courte histoire. Prenons l’exemple de cette machine que vous connaissez certainement et qui requiert des ses utilisateurs d’apprendre à manipuler plus d’une centaines de boutons, lesquels sont placés dans un ordre purement arbitraire et sans alignement correct.

Je parle bien entendu de l’ordinateur et de son mode d’interaction majeur: le clavier.

Vous êtes-vous déjà demandé pourquoi l’on tapait sur un clavier Azerty en France et en Belgique francophone ? Et bien, vous ne l’apprendrez pas dans cet article car, malgré toutes mes recherches, j’ai été incapable de le découvrir.

Commençons par le commencement : un beau matin de 1868, alors que les États-Unis résonnent encore des canons de la guerre de sécession, un bricoleur du Wisconsin du nom de Sholes invente la première machine à écrire. Sans se poser trop de question, il place logiquement les touches par ordre alphabétique.

Chaque touche appuyant sur une barre métallique horizontale qui ne peut pas frotter contre ses voisines, Sholes se voit dans l’obligation de décaler les rangées de touches, décalage qui est encore présent, sans aucune raison autre qu’historique, sur votre clavier, voire même sur les claviers virtuels des tablettes et des écrans tactiles !

Un autre problème apparait rapidement : les utilisateurs ont meilleure vitesse de frappe que prévu et si deux touches concomitantes sont pressées trop rapidement, le système se bloque.

En attendant de résoudre la cause mécanique du problème, Sholes propose un bon gros « hack » en décidant de placer les touches de manière tout à fait aléatoire mais en évitant que deux touches souvent utilisées ensemble soient proches sur le clavier. L’engin se calera toujours mais moins fréquemment. James Desmore, le marketing manager embauché par Sholes, propose que la marque qu’ils ont créés pour l’engin, « Typewriter », puisse être écrite en n’utilisant que la première rangée, histoire de faciliter le travail des démonstrateurs.

C’est ainsi qu’apparait la disposition Qwerty décalée, disposition la plus utilisée dans le monde et installée par défaut sur tous les systèmes informatiques. Comme je vous l’ai annoncé précédemment, la raison pour laquelle cette disposition se modifie en traversant la manche est inconnue. On pourrait penser une adaptation à la langue mais l’Azerty ne s’avère pas particulièrement propice à l’usage du Français et, de plus, on remarque facilement que la disposition de clavier ne dépend pas de la langue. Ainsi, si les Français utilisent l’Azerty, les Belges l’ont modifié pour en faire l’Azerty belge, les Canadiens utilisent un Qwerty francophone et les Suisses un Qwertz francophone également. L’observation des autres langues parlées dans plusieurs pays (comme l’Espagnol) démontre que l’usage d’une langue n’est en rien liée à une disposition de clavier.

Remarquons que Sholes lui-même dénoncera cet état de fait. Une fois les problèmes techniques de son invention réglés, il travaillera à optimiser la disposition en fonction de la fréquence des lettres en langue anglaise. Las, les utilisateurs se sont déjà habitués au Qwerty et les commerciaux de l’époque ne souhaitent pas prendre le risque de proposer une alternative.

Il faut alors attendre les années 1920 pour que le professeur de psychologie August Dvorak s’attaque à la mise au point une méthode précise permettant de déterminer la disposition optimale des touches sur un clavier, en fonction de la langue. Cette méthode nécessite de choisir un échantillons de textes représentatifs d’une langue et de déterminer la fréquence d’apparition de chaque lettre, individuellement ou dans un groupe donné (digramme, trigramme voire plus). Dvorak classe aussi les touches par degré de « confort » et détermine d’autres caractéristiques importantes, telles que le bénéfice d’une alternance gauche-droite lors de la frappe.

En 1932, Dvorak est fier de présenter une disposition particulièrement adaptée à l’anglais. Hélas, on lui oppose deux arguments : la nécessité de remplacer les machines actuelles et la nécessité de réentraîner les dactylos. Dvorak persévère et démontre que devenir dactylo en Dvorak est plus rapide qu’en QWERTY. Les dactylos Dvorak atteignent des vitesses impressionnantes. Ainsi, Barbara Blackburn bat le record du monde en maintenant une vitesse moyenne de 150 mots par minutes durant 50 minutes, avec des pointes à 170 mots par minutes. Personne n’a fait mieux depuis. À titre de comparaison, une personne n’ayant jamais fait de dactylo et tapant « vite » à 6-7 doigts dépasse rarement 50 mots par minutes. Et seuls de très bons dactylos pointent à 80-90, la moitié du record de Blackburn !

Toute cette histoire est très bien racontée en BD (et en anglais) sur DVZine, je vous en conseille la lecture.

Mais revenons à notre clavier. Devant la résistance des fabricants et du marché, l’invention du professeur Dvorak restera une curiosité jusqu’à l’avènement d’un nouvel outil : l’ordinateur.

Les ordinateurs offrent en effet une particularité extraordinaire par rapport aux machines à écrire : ils peuvent être programmés. Leur comportement peut être modifié. Il ne faut pas longtemps donc pour que des bidouilleurs ressortent la disposition Dvorak du placard, reprogramment leurs ordinateurs pour l’utiliser à la place du QWERTY et, pour faire joli, collent éventuellement des autocollants sur les touches.

Le Dvorak commence une seconde vie. Grâce à Internet, les principes du professeur Dvorak se répandent hors Anglophonie, menant à des initiatives plus ou moins heureuses de clavier Dvorak adapté à d’autres langues.

En France, outre une initiative restée lettre morte dans les années 1970 (le clavier Marsan), il faut attendre 2002 pour que Francis Leboutte crée une version Dvorak-fr. Cette version est modifiée par Josselin Mouette, développeur Debian, qui l’adapte à ses besoins. C’est ainsi que le clavier Leboutte-Mouette devient le Dvorak-fr présent sur la plupart des systèmes Linux.

Cependant, Francis Leboutte réclame les droits de cette disposition et déclare qu’ils ne sont pas sous licence libre. Les modifications de Josselin Mouette pourraient donc être illégales. Pendant que les discussions s’enlisent sur la pertinence de soumettre une disposition de clavier à une licence, un groupe de volontaires décide de faire table rase du passé et de recommencer à zéro.

Une grande partie de la subtilité de la méthode Dvorak réside dans le choix des échantillons de texte dits “représentatifs”. Notre nouveau groupe pose plusieurs bases :

  • Les textes auront une couverture très large. Outre les textes littéraires ou courants, la programmation, le courriel et la messagerie instantanée seront pris en compte.
  • Le clavier favorisera le respect des règles typographiques du Français, trop longtemps bafouées à cause d’un clavier inadapté (majuscules accentuées, espaces insécables, guillemets francophones, …)
  • Autant que possible, le clavier devra permettre l’utilisation d’autres langues que le français. ¡ Me gusta !
  • Le résultat et tous les outils produits seront sous licence libre.
  • Le projet sera mené démocratiquement et évoluera au gré des votes de ses membres.

Très vite, la disposition des touches principales s’impose. Les quatre premières donneront leur nom au projet : BÉPO.

En 2008, après 5 ans de travail et d’itérations multiples, la communauté présente le Bépo 1.0. Rapidement, celui-ci est inclus dans les distributions Linux et devient le Dvorak-fr par excellence. Il est d’ailleurs disponible sur la majorité des systèmes d’exploitation.

Aucune étude indépendante n’a jamais prouvé l’avantage de la vitesse d’une disposition sur une autre, ce qui a d’ailleurs été une des principales critiques faites au professeur Dvorak, celui-ci ayant mené toutes les études par lui-même. Ne voulant tomber dans le même piège, le projet Bépo a choisi de mettre en avant le confort de frappe plutôt que la vitesse.

Le Bépo serait donc un outil de confort, les doigts devant parcourir une distance nettement réduite. Les retours des utilisateurs souffrant de troubles musculosquelettiques (parmi lesquels, à cet époque, votre serviteur) tendent à montrer une nette amélioration voire, une guérison totale. Mais, encore une fois, ce résultat est à prendre avec des pincettes n’étant pas scientifique.

À titre d’exemple, voyez cette vidéo d’un même texte tapé par une personne maîtrisant à la fois l’Azerty et le Bépo.

On remarque qu’avec la disposition Bépo, les mains ne semblent bouger qu’à peine. Or, le texte en Bépo est en fait tapé plus rapidement que celui en Azerty !

Ceci dit, changer de disposition n’est pas chose aisée , surtout après plusieurs décennies d’Azerty. Pour une migration efficace et en suivant une méthode structurée, comptez quand même plusieurs semaines. Je peux en témoigner.

Mais, après tout, n’est-il pas temps de faire table rase des habitudes absurdes héritées du passé pour prendre soin de notre confort ? Ne doit-on pas encourager ces évolutions disruptives, surtout lorsqu’elles proviennent d’un projet libre et démocratique comme le Bépo ?

Rien que pour la beauté du geste, le Bépo mérite d’y consacrer quelques semaines, vous ne trouvez pas ?

PS: Et le décalage des rangées de touches me direz-vous ? J’allais oublier ! À ma connaissance, un seul fabricant de clavier a décidé de s’atteler au problème, donnant naissance au TypeMatrix. Les amateurs de la disposition Bépo sont nombreux à vanter ce clavier très particulier qui, en plus d’être confortable, peut être commandé en Bépo. On regrettera cependant son prix élevé (près de 90€) et le manque d’intérêt de la part des autres constructeurs.

Quand à Josselin Mouette, il m’a avoué être retourné sur un Azerty tout ce qu’il y a de plus banal mais je ne désespère pas de le convaincre de se mettre au Bépo.

Bépo Logo




Raleigh, Montréal… quelle sera la première ville Open Source du monde ?

Open Source CityDeux traductions pour s’interroger ensemble sur le concept de « ville Open Source ».

Il s’agit de voir ici la ville comme une plateforme, une plaque tournante, un incubateur, bref un lieu privilégié où peuvent s’épanouir les entreprises et start-up qui placent l’open source au cœur de leur stratégie et de leur développement.

Les villes de Raleigh (USA) et Montréal (Canada) souhaitent apparemment poser candidature et ont, semble-t-il, de bons arguments.

Encore faudrait-il définir ce qu’est ou peut être une « ville Open Source », et se demander si il est pertinent de vouloir créer, favoriser ou labelliser de telles villes[1].

L’un des auteurs nous propose ainsi trois critères : la volonté de partager, la volonté d’être informé, et une attitude ouverte à l’innovation, à la créativité et aux expérimentations de toutes sortes.

Et en France, me direz-vous ? Cela bouge du côté de l’Open Data (Rennes, Paris…) mais au delà, je ne sais pas. Des avis et des liens sur la question ?

PS : Nous avions déjà évoqué la chose dans un billet sur une autre ville canadienne Vancouver : S’il te plaît… dessine-moi une ville libre.

1. Raleigh, Caroline du nord – la première ville open source au monde

Raleigh, NC—the world’s first open source city

Jason Hibbets – 21 février 2011 – OpenSource.com
(Traduction Framalang : Khyl, Naar, Cheval boiteux et Goofy)

J’ai commencé à méditer sur les qualités qui devaient définir une ville open source il y a quelques mois, quand mon ami Tom Rabon m’en a fait mention au détour d’une conversation. J’étais curieux de voir de quelle façon la ville dans laquelle j’habite, Raleigh, en Caroline du nord, pouvait attirer d’autres entreprises open source et en être un incubateur mondial, pour en devenir un exemple phare de gouvernance. Comment Raleigh pouvait-elle devenir la capitale du monde de l’open source, à l’instar de ce que sont la Silicon Valley pour la technologie et Paris pour la romance ?

Je pense que la réponse peut être trouvée à la fois par le gouvernement et par la population. D’abord, nos dirigeants doivent être partants pour adopter l’open source au quotidien. Ils doivent faire preuve de transparence dans leur gestion des affaires et dans l’encouragement à la participation citoyenne. Les citoyens, quant à eux, doivent être prêts à participer et à contribuer en donnant de leur temps et de leurs connaissances. Les deux ont besoin d’adopter un prototypage rapide pour explorer de nouvelles idées et des solutions innovantes.

Mais en quoi Raleigh se distingue-t-elle des autres villes ? En quoi est-elle plus apte à être une ville open source que New York, San Francisco, Londres, Paris ou Pékin ? J’ai rencontré autour d’une table le maire de Raleigh, Charles Meeker, pour discuter de ce qui faisait qu’une ville pouvait devenir open source.

Le maire Meeker a été élu en 2001 et s’est familiarisé avec l’open source, principalement en s’intéressant à Red Hat et au modèle de développement open source. En tant qu’avocat, il n’est pas étonnant que le maire Meeker comprenne les avantages de la collaboration et du partage des connaissances. Voyons pourquoi la ville de Raleigh est prête à revendiquer son titre de première ville open source au monde.

Quel grand chantier, en dehors de la technologie, a la meilleure chance d’être abordé par la voie open source (c’est-à-dire au moyen de la collaboration, de la transparence, du partage, de la méritocratie, du prototypage rapide, d’une communauté, etc.) ?

Dans une zone de la ville de Raleigh, l’accent a été mis sur l’utilisation d’un éclairage plus éco-énergétique dont nous pouvons mesurer les résultats. Nous nous activons à la promotion et au partage de nos expériences avec les autres municipalités, notamment pour tester notre consommation d’électricité et la qualité de la lumière produite. Le partage de cette information est un élément majeur de notre expérience.

La ville de Raleigh dispose de quarante installations en LED avec une économie moyenne de 200 000 €/an sur les coûts en électricité. Le retour sur investissement est généralement de l’ordre de 3 à 5 ans (en considérant les coûts du capital). C’est une excellente option pour les parkings éloignés. Vous pouvez facilement installer quelques panneaux solaires et ne pas avoir à ajouter de nouvelles lignes ou changer d’infrastructure. La possibilité pour les villes du monde entier d’adopter l’éclairage éco-énergétique est une véritable chance qui s’offre à elles. La ville de Raleigh veut prendre part à l’aventure et être reconnue comme précurseur dans l’adoption de cette technologie. Propager la bonne parole sur l’éclairage par LED avec l’aide de notre partenaire, Cree, est important pour nous.

Quelles sont vos réflexions à propos d’un gouvernement ouvert ou gouv’ 2.0 et que peut faire la ville de Raleigh pour avoir un gouvernement plus ouvert et transparent vis-à-vis de ses citoyens ?

Tout d’abord, toutes nos réunions sont ouvertes au public, à quelques exceptions près. Le véritable défi est de savoir profiter de l’expertise de chacun de nos citoyens. Il y a beaucoup de compétences de haut niveau qui peuvent servir à résoudre les vrais problèmes de la ville.

Une solution se situe au niveau des nouveaux comités, comme le nouveau comité ferroviaire que nous avons mis en place, et la façon dont leurs conseils et leurs recommandations sont pris en compte par la ville. Les questions autour des frais de gestion des eaux pluviales nous ont conduits à puiser dans l’expertise de nos citoyens pour apporter les meilleures solutions.

Le ferroviaire est un domaine qui sera opérationnel pour les 3 ou 4 prochaines années. Nous avons beaucoup de personnes expérimentées dans ce domaine prêtes à partager leur savoir et à mettre en application leurs connaissances pour aider à prendre les futures décisions.

Montrer au public ce que nous faisons et expliquer les bonnes pratiques sont des atouts qui restent sous-utilisés, mais nous avons eu du succès, notamment quand le comité de gestion des eaux pluviales a fait part de son avis sur la façon de mieux gérer les inondations. Le conseil municipal a ainsi été en mesure de mettre à profit l’expertise du comité pour prendre les meilleures mesures politiques à ce sujet.

Quelles sont les qualités requises pour devenir une ville open source ?

Trois critères me viennent à l’esprit :

  • la volonté de partager ;
  • la volonté d’être informé ;
  • une attitude ouverte à l’innovation, à la créativité et aux expérimentations de toutes sortes.

Les citoyens doivent se tenir prêts à adopter le futur. L’open source est une stratégie que nous appliquons pour aller de l’avant.


Pourquoi Raleigh s’est amorcée à devenir la première ville open source au monde ?

Nos citoyens sont prêts faire avancer Raleigh et à être plus concentrés sur la démarche open source. Raleigh est disposée à devenir son incubateur mondial.

L’avantage de Raleigh se situe au niveau de sa croissance et des emplois. Nous aimerions voir le Centre des congrès accueillir plus de conférences sur l’open source. Nous serions honorés de voir un tas de petits Chapeaux Rouges (NdT : référence faite à la distribution GNU/Linux Red Hat), et que des start-up et sociétés bien établies viennent dans notre région parce que nous avons fait le choix de ce modèle de développement.

Les partenaires sont aussi une grande partie de la réponse. Le Centre des congrès, le Syndicat d’Initiative, la Chambre du Commerce et les autres partenaires doivent adopter l’open source et le mettre en évidence dans le cadre de notre stratégie de développement économique.

Comment mettre en œuvre la démarche open source dans votre vie quotidienne ?

Au cabinet juridique pour lequel je travaille, j’ai essayé de fournir des informations à de jeunes avocats. Une sorte de partage des secrets commerciaux pour les aider à réussir plus rapidement, et, pour être franc, l’une des choses les plus difficiles pour toute personne de la fonction publique, c’est l’écoute. J’ai remarqué que l’écoute représente 70 à 80 % du travail. Vous devez pleinement comprendre ce qu’il se passe pour prendre la décision adéquate.

2. Montréal peut-il devenir un incubateur de start-up open source ?

Can Montreal Become an Open Source Startup Hub?

Evan Prodromou – 21 février 2011 – NextMontreal.com
(Traduction Framalang : Khyl, Naar, Cheval boiteux et Goofy)

« Le premier prix est une Cadillac El Dorado. Le deuxième prix est un lot de couteaux à viande. Le troisième prix est votre licenciement. »- Blake, Glengarry Glen Ross

Seth Godin indique, dans son fabuleux ouvrage The Dip (NdT : Un petit livre qui vous enseignera quand renoncer et quand persévérer), que la seule position qui compte dans les affaires, c’est la première. Quand les lois du pouvoir et les effets de réseau sont nécessaires, la première place du classement est la seule où il faut être. Vous devrez être « le meilleur du monde » dans quelque chose, ou bien vous feriez mieux de laisser tomber et de faire autre chose.

Les écosystèmes technologiques – la plupart des marchés d’affaires, en fait – ont des effets de réseau, et cela veut dire que la seule position à avoir, en tant qu’écosystème, est la première. Être le meilleur au monde.

Quelle est la zone la mieux classée au monde dans les start-up du Web ? La baie de San Francisco. Quelle est la deuxième ? Probablement New-York City. Qui a le troisième prix ? Qui s’en soucie ? Le troisième prix, c’est votre licenciement.

Si nous nous soucions de la croissance de notre écosystème local, peut-être que nous aurions besoin d’arrêter notre course à la 14e ou la 29e place du classement dans le monde des start-up orientées Web et réfléchir à construire quelque chose d’autre. Un domaine dans lequel nous serions les meilleurs et sur lequel personne d’autre n’a encore vraiment travaillé. Là où nous pourrions être les meilleurs au monde – pas les 14e, pour ensuite laisser tomber.

Montréal a la capacité d’offrir le meilleur écosystème au monde pour les start-ups centrées sur le développement de logiciels open source. Nous fournissons un bon cadre pour les entrepreneurs qui ont de l’expérience dans la mise en place d’entreprises tournées vers ce secteur économique, nous avons des investisseurs qui ont bien compris le processus d’investissement et d’encouragement de ce type de compagnies et nous avons un très précieux vivier de talents qui ont contribué à cette évolution.

Plus important, il n’y a aucune autre ville autant tournée vers l’open source sur le globe. San Francisco et Boston accueillent quelques sociétés, mais ne sont absolument pas des incubateurs. Le paysage commercial de l’open source se propage beaucoup plus à travers le monde, de Londres à l’Utah en passant par l’Allemagne et Austin.

Plus que tout, c’est sa commercialisation qui est difficile. Demandez à n’importe quelle personne impliquée dans une entreprise open source. La difficulté se trouve dans l’élaboration d’un modèle de travail. Il n’y a pas de solution simple. Les techniques des start-up pour les autres types d’affaires, tels que l’investissement et les stratégies de commercialisation, ne semblent pas s’appliquer aussi bien. Cela signifie qu’il existe un obstacle à l’entrée d’autres écosystèmes, dont un que nous pouvons exploiter.

En ce moment, j’ai connaissance d’au moins cinq start-up open source dans la ville :

  • StatusNet – J’ai lancé cette entreprise ici-même en 2008. Nous avons levé 2,3M $ de fonds à Montréal et New-York. Nous enregistrons environ 5 000 téléchargements par mois et dénombrons 45 000 sites fonctionnant sur notre SaaS. Nous comptons actuellement 9 salariés à Montréal et San Fransisco (NdT : StatusNet est un logiciel libre de microblogging sur lequel repose Identi.ca).
  • Vanilla Forums – Le meilleur système de gestion de forums au monde. Il tourne sur plusieurs centaines de milliers de sites et inclut un service SaaS de haute performance.
  • Bookoven – Cette plateforme sociale de publication s’est tournée vers un modèle de logiciel open source. Dirigée par Hugh McGuire, créateur de Librivox, le très populaire projet de livre audio à contenus ouverts.
  • Stella – Cette société à forte croissance a rendu ses logiciels open source.
  • Subgraph – Startup orientée sur la sécurité développant Vega, logiciel open source d’évaluation des vulnérabilités.

Au rang des investisseurs, deux des plus importants groupes financiers de la ville (iNovia Capital et Real Ventures) tentent l’expérience des start-ups open source. Real Ventures (ou plutôt son prédécesseur, MSU) a déjà investi dans trois entreprises open source locales.

En ce qui concerne le potentiel des employés talentueux… c’est plus difficile. Il y a beaucoup de techniciens compétents dans la ville, et les sociétés open source qui en sont en dehors, comme Canonical ont des équipes techniques locales qui peuvent suivre le bassin des start-up de talent. Quid du personnel d’entreprise talentueux ayant une expérience open source ? Ils sont rares sur le terrain. Heureusement, les gens qui ont travaillé dans les sociétés mentionnées plus haut constituent aussi un bon noyau de ce bassin.

Je crois que les conditions sont réunies pour que Montréal prenne sa place dans le monde des technologies en tant qu’incubateur de start-up open source. La semaine prochaine, je dévoilerai ce que je pense être un projet potentiel pour que Montréal devienne le fer de lance de ce marché.

Notes

[1] Crédit photo : OpenSource.com (Creative Commons By-Sa)




OpenOffice.org n’est pas mort, Vive LibreOffice !

Terry Ross - CC by-saComme le souligne avec malice notre ami Gee, la suite bureautique libre LibreOffice 3.3 vient de voir le jour.

Sauf que, comme son numéro ne l’indique pas, c’est sa toute première version stable. Mais alors pourquoi n’a-t-on pas logiquement une version 1.0 ? Parce qu’il s’agit d’un fork de la célèbre suite OpenOffice.org qui, au moment de la séparation, en était restée à la version 3.2.

Petit rappel Wikipédia : « Un fork, ou embranchement, est un nouveau logiciel créé à partir du code source d’un logiciel existant. Cela suppose que les droits accordés par les auteurs le permettent : ils doivent autoriser l’utilisation, la modification et la redistribution du code source. C’est pour cette raison que les forks se produisent facilement dans le domaine des logiciels libres. Les forks sont perçus par certains comme une épée de Damoclès au-dessus des auteurs des projets les moins bons, et aussi comme une méthode pour empêcher l’appropriation d’un projet par un groupe. La « peur de l’embranchement » est un des mécanismes essentiels de régulation et de sélection des projets libres. »[1]

Vous êtes un développeur d’un logiciel libre non satisfait de la manière dont évolue le projet ? Vous avez donc cette possibilité essentielle que constitue le fork. Mais il y parfois un gouffre entre la théorie et la pratique, car il n’est pas simple de reconstituer une communauté active autour du projet dérivé.

C’est pourtant justement ce que vient de réussir l’équipe de LibreOffice, structurée autour de la Document Foundation et qui a décidé de quitter le navire OpenOffice.org suite au rachat de Sun par Oracle. Ce dernier ayant refusé de rejoindre le projet et de céder la marque OpenOffice.org (qu’il continuera de développer par ailleurs), c’est donc désormais LibreOffice (ou LibO) qui sera l’un des fers de lance du logiciel libre grand public aux côtés de Firefox ou GNU/Linux.

LibreOffice 3.3 : les véritables enjeux

The Deeper Significance of LibreOffice 3.3

Glyn Moody – 28 janvier 2011 – ComputerWolrd.uk
(Traduction Framalang : Yonel et Don Rico)

Sur le blog RedMonk, James Governor a publié un billet amusant à propos des forks, suite à l’arrivée imminente d’une mise à jour majeure d’Android, la 3.0, dont le nom de code est « Honeycomb », et laquelle a été conçue en pensant aux tablettes :

Ainsi que le voudrait la sagesse populaire, les développeurs ne devraient pas s’attaquer à des environnements multiples. Ben voyons… le genre de sagesse qui nous a valu une décennie où il n’y en a eu que pour Java, et une vingtaine d’années pendant lesquelles dès qu’il y fallait choisir une architecture on collait du Oracle partout. Avouons que pour l’instant, Android est vraiment pas mal sur les téléphones. J’aime beaucoup mon HTC Desire. J’ai aussi la chance de pouvoir faire joujou avec un Dell Streak qu’on m’a prêté ; encore un bon petit appareil, qui fait bien son boulot pour m’accompagner devant la télé. Mais Android n’a pas été conçu pour un format plus grand, comme l’iPad 10 pouces d’Apple, du moins dans ses premières versions.

Et comme il le fait remarquer :

Tous les éditeurs de logiciels doivent gérer des codebases multiples, en particulier pour les progiciels. Si une entreprise doit gérer les deux codebases, est-ce vraiment un fork ?

Je dirais qu’il s’agit plus de fragmentation, et qu’on en voit partout – dans Android lui-même, dans Windows, admettons, et dans le monde de GNU/Linux à travers les centaines de distributions, chacune avec des versions et des configurations différentes. Rien de bien nouveau.

Les vrais forks ne courent pas les rues, précisément à cause des différences entre le fork et la fragmentation. Cette dernière peut être gênante ou pas, mais elle est rarement aussi douloureuse qu’un fork peut l’être. En général, les forks déchirent les communautés et forcent les programmeurs à choisir leur camp.

C’est ce qui rend l’apparition de LibreOffice si intéressante : c’est un vrai fork, avec des décisions réelles et douloureuses que doivent prendre les codeurs – où vont-ils ? Et à la différence de la fragmentation, qui souvent se produit naturellement et perdure pour un tas de raisons en grande partie banales, les forks exigent beaucoup de travail pour survivre. Résultat, de nombreux forks échouent, car il est souvent plus facile de rester ou de revenir au projet d’origine, plutôt que de se battre pour en installer et en faire grandir un nouveau.

Dans ce contexte, la publication récente de LibreOffice 3.3 est un jalon important, au moins pour ce qu’elle a déjà réussi :

La Document Foundation présente LibreOffice 3.3, la première version stable de la suite bureautique libre développée par la communauté. En moins de quatre mois, le nombre de développeurs codant LibreOffice est passé de moins de vingt à la fin septembre 2010, à largement plus d’une centaine aujourd’hui. Cela nous a permis de publier en avance par rapport au calendrier audacieux fixé par le projet.

À l’évidence, attirer les développeurs est une épreuve cruciale pour le potentiel de survie du fork, et même de son épanouissement. D’autres points importants :

La communauté des développeurs a pu bâtir ses propres méthodes en toute indépendance, et devenir opérationnelle en très peu de temps (eu égard à la taille du codebase et aux grandes ambitions du projet).

Grâce au grand nombre de nouveaux contributeurs qui ont été attirés par ce projet, le code source est vite soumis à un nettoyage d’ampleur, pour offrir une meilleure base aux développements de LibreOffice à venir.

C’est-à-dire que LibreOffice n’en est plus au stade de vague projet, ou à celui des étapes pénibles comme définir l’infrastructure qui permettra au projet d’avancer. La signification de cette réussite va au-delà du fait que la Fondation propose aux utilisateurs une alternative libre à OpenOffice (qui vient également de sortir sa dernière version). La possibilité de choix étant au coeur du logiciel libre, c’est donc certainement une bonne nouvelle, surtout à cause de la politique de copyright de LibreOffice, que j’ai déjà évoquée.

Mais je pense que LibreOffice a une importance supplémentaire parce qu’il représente une attaque délibérée contre la façon dont Oracle traite son catalogue open-source. Hélas, le mécontentement qui a poussé à cette scission va bien plus loin que le seul domaine des suites bureautiques.

L’attitude d’Oracle envers la communauté open-source semble empirer, c’est de plus en plus évident. Marc Fleury le résume bien dans ce billet révélateur. Fondateur de Jboss, et l’un des vrais innovateurs en termes de modèles économiques reposant sur l’open-source, il sait certainement de quoi il parle quand il s’agit de diriger des codeurs open-source dans un contexte professionnel, ce qui rend des commentaires comme celui-ci particulièrement significatifs – et inquiétants pour Oracle :

Il y a d’abord eu le fiasco OpenOffice/Libre Office, où OpenOffice a été forké dans la plus grande partie par sa propre communauté. Puis il y a eu le caprice d’Apache concernant Java/JCP, quand le groupe a bruyamment quitté le JCP (NdT : Java Community Process) après des prises de bec sur les licences open-source de la JVM (Harmony). Et en ce moment, il y a d’autres bisbilles, dont une au sujet de NetBeans. Mais celle qui me concerne le plus (ainsi que mon porte-monnaie), cela concerne un projet mené par un employé de Cloudbees.

Si je comprends bien la situation, le principal développeur était employé par Sun quand il a initié Hudson. Oracle revendique donc l’identité et la marque, ce qui en toute franchise est aberrant, puisque la licence est open-source et que les gars de Cloudbees peuvent poursuivre leur travail sans entrave. Reste donc une dernière étape : la création d’un fork du projet. Et voilà… une grande partie de la communauté open-source dit merde à Oracle.

Ce que LibreOffice montre (jusqu’ici, en tout cas) c’est que dans ces circonstances, il y a bien une vie après Oracle, que les gens se regrouperont dans un fork au lieu de l’éviter, et que le travail alors fourni amène des améliorations non négligeables. Il est vrai que cet argument ne s’appuie que sur un seul exemple, et il faudrait être un expert bien téméraire pour essayer d’en extrapoler quoi que ce soit. Mais cela reste une source d’inspiration importante et tentante pour les codeurs contrariés qui grognent sous le joug d’Oracle. Après tout, comme le met en évidence le nom de LibreOffice, il ne s’agit pas que de code. Il s’agit aussi de liberté.

Notes

[1] Crédit photo : Terry Ross (Creative Commons By-Sa)




Ne pas subir, toujours agir ! Rencontre avec Patrick d’Emmaüs

David Dennis - CC by-saPatrick A., je l’ai rencontré en novembre dernier lors de l’Ubuntu Party 10.10 à la Cité des Sciences. Il était assis près du stand Framasoft et j’ai tout de suite été intéressé par son projet liant la communauté Emmaüs et les logiciels libres.

Nous nous sommes retrouvés pour déjeuner et nous avons discuté pendant près d’une heure dudit projet, de la société actuelle et bien sûr, des logiciels et ressources libres. « Ne pas subir, toujours agir ! », telle est la devise première d’Emmaüs, et elle lui va si bien que j’ai eu envie de mettre son projet mais aussi son engagement en valeur, en lui proposant une interview ultérieure par courriel pour le Framablog.

Patrick contribue à sa manière à aider les plus démunis en reconditionnant d’anciens PC avec des logiciels libres (soit sous Windows, soit directement sous GNU/Linux Ubuntu) et en les revendant à très bas prix. L’argent ainsi récolté permet de faire vivre des compagnons d’Emmaüs. À sa manière, et à la manière de l’abbé Pierre il y plus de 60 ans, il participe à un monde plus ouvert, plus respectueux de l’humain et plus solidaire [1].

Si il n’est pas seul sur ce projet, il est toujours à la recherche de bonnes volontés pour l’aider à améliorer ses scripts d’installation, ou plus généralement à mettre ses compétences informatiques au service de cette noble cause. N’hésitez pas à nous contacter, nous nous ferons un plaisir de relayer votre message à Patrick.

Entretien avec Patrick, bénévole chez Emmaüs

Bonjour Partick, peux-tu te présenter ?

Cette question est la première que vous me posez, mais c’est ma dernière à laquelle j’ai répondu, car la tâche n’est pas aisée. En essayant de ne pas faire trop long, pour ménager les lecteurs, à mes yeux ce sont les autres questions les plus importantes.

Pour vous répondre, je vais faire une liste style interrogatoire de police, il faut que je me prépare à cela, car ça pourrait me servir dans un futur proche 😉

  • âge 45 ans ;
  • marié depuis 20 ans, un enfant de 23 ans ;
  • né à Perpignan, vécu plus exactement à Pollestres, village de mes grands-parents paternels ;
  • études : Lycée technique Bac F2, DUT et diplôme d’ingénieur en Génie Électrique ;
  • je travaille depuis plus de 20 ans sur la région parisienne dans un groupe de « haute technologie », comme ils disent 😉

Mon engagement au sein d’Emmaüs et du bénévolat date de mai dernier. Jusque là j’avais envie de faire du bénévolat, mais comme beaucoup je n’avais pas le temps, ou plutôt je ne voulais pas le prendre. Mais à cette époque, je me suis dit qu’il fallait essayer de faire quelque chose, car je ne supportais plus que notre société laisse tout partir à la dérive.

Cela correspond aussi à une phase de changement de vie, où l’on comprend que si on ne fait pas ce que l’on a envie de faire à 45 ans après il sera trop tard.

Avec ces interrogations sur mon futur et à la lecture de cette phrase, « Dans toute difficulté, il y a une opportunité » d’Albert Einstein, j’ai décidé d’agir pour une cause et je me suis tourné vers le bénévolat chez Emmaüs. D’abord je voulais aider les personnes dans la rue, celles que je croisais dans le RER sans oser agir, puis sur les conseils de ma femme, je me suis tourné vers une aide dans le domaine informatique (voir ci-dessous), mais je ne pensais pas que cet acte allait me conduire aussi loin dans mon engagement.

À l’heure actuelle je me suis engagé dans d’autres combats face à cette société en crise. Je fais référence aux dernières lois de réforme de la retraite, à la catastrophe économique provoquée par les puissances financières, tout cela quand il y a de plus en plus de gens qui se retrouvent à mourir de froid dans les rues d’une des plus grandes capitales du monde !

Mes engagements sont pour les libertés en général et pas uniquement le logiciel libre. Si il n’y avait que ce dernier à libérer, nous serions dans un monde idyllique. Mais non, il y a beaucoup de choses à libérer. C’est pourquoi j’ai pris comme fond d’écran des PC reconditionnés : « Un jour, le monde sera libre ! » (voir image ci-dessous en fin d’article), mais seulement si nous faisons tous front ensemble.

Actuellement j’œuvre aussi pour la liberté des personnes, des biens et des entreprises, en aidant les autres dans ces combats, et en m’engageant syndicalement au sein de mon entreprise.

J’espère que mon témoignage aura un écho au sein des communautés du logiciel libre, afin que certains viennent à leur tour participer et soutenir. Car il y a urgence à faire bouger cette société qui a remplacé notre belle devise républicaine par : « Libéralisme, Égoïsme, Finance (ou Futilité) ».

Voila mes engagements et mon état d’esprit actuel, qui ne sont pas facile à vivre avec mes ex-amis et mes collègues de travail. Je n’ai pas la même vision du monde, et je suis parfois considéré dans mon milieu professionnel comme un « fou de gauche » !

Quelques mots sur Emmaüs ? (on a tous une vague idée, mais noir sur blanc, c’est mieux)

Vous savez, je ne suis pas un spécialiste du mouvement Emmaüs, mais en voici ma vision :

Le mouvement a été créé par l’abbé Pierre (originaire de Lyon, ville d’une partie des membres de Framasoft je crois), figure emblématique au point d’avoir été élu l’homme le plus aimé des français, plus d’une quinzaine de fois (il a même demandé à la presse de ne plus le faire figurer dans ces sondages pour laisser un peu de visibilité aux autres).

Cet homme était un religieux, ça tout le monde le sait, mais il s’est aussi engagé dans la résistance en 1940. Il aurait participé à fonder le maquis du massif du Vercors. Ami du général de Gaulle, il a fait de la politique sous ses conseils, après la Seconde Guerre Mondiale, et a été élu député à plusieurs reprises. Le mouvement Emmaüs est né en 1949 à Neuilly-Plaisance, dans une ancienne auberge de jeunesse. Durant le terrible hiver 54, il a lancé un appel radiophonique en faveur des plus démunis, c’est ce que l’on a appelé « l’Appel de la bonté » (cf le film Hiver 54). C’est à ce moment là que les communautés d’Emmaüs vont prendre leur essor. À l’heure actuelle il y environ 148 communautés en France, et plus d’une trentaine dans le monde.

Le principe des communautés est d’aider les plus démunis en leur fournissant un logement, de la nourriture et de l’argent de poche. En retour les compagnons (c’est comme cela qu’on appelle les personnes pour lesquels ce mouvement est né) doivent travailler pour la communauté en fonction de leurs moyens physiques, intellectuels et de leurs choix. Comme dans le monde libéral, les compagnons ont droit à une retraite (je ne sais pas à quel âge ils y ont droit), mais lorsqu’ils ne peuvent plus travailler, ils peuvent s’il le veulent, rester dans la communauté.

Pour pouvoir faire vivre les compagnons chaque communauté vend les dons des particuliers, et plus rarement des entreprises. Ces dons sont de toutes sortes, cela va du cendrier de bistrot à la marque d’une boisson alcoolisée jusqu’à un pavillon. Les dons sont triés, remis en état, puis vendus au sein de chaque communauté. Chaque communauté est indépendante et vit du fruit de son propre travail. Une communauté est gérée par un ou plusieurs directeurs par alternance, afin de coordonner le travail des compagnons.

Les objectifs de chaque communauté sont :

  • Fournir le logement aux compagnons (environ une cinquantaine de personnes par communauté);
  • Fournir la nourriture à ces mêmes compagnons, et aux salariés pendant leurs services;
  • Payer toutes les charges : salaires des directeurs, essence des camions de livraison, etc.
  • Donner de l’argent pour aider d’autres associations humanitaires à l’étranger;
  • Envoyer du matériel pour des associations humanitaires;
  • Acheter des maisons pour loger d’autres démunis;
  • etc.

À la tête des communautés, il y a Emmaüs-France qui coordonne et assure la logistique de l’ensemble. Il y a aussi la Fondation Abbé Pierre plus axée sur la communication (exemple de campagne) et la collecte des dons des entreprises. Au total ce sont environ 14 000 personnes qui participent au mouvement (4 000 compagnons, 4 000 salariés et 6 000 bénévoles).

Comment as-tu connu le logiciel libre ?

Dans le cadre de mon travail et de ma passion j’ai découvert le logiciel libre il y a une dizaine d’années.

J’ai connu Framasoft vers 2004, et c’est vous qui m’avez aidé sur le choix de SPIP pour développer un petit site intranet dans le cadre de mon travail. J’avais déjà à l’époque fait des tests d’installations sur les distributions Mandrake, Knoppix, et un peu plus tard Ubuntu. J’ai migré mon informatique personnelle sous Ubuntu il a deux/trois ans quand j’ai cassé un Windows XP Pro en voulant mettre à jour un logiciel de musique propriétaire (iTunes pour ne pas le nommer) !

Comment en es-tu venu à faire le lien Emmaüs / logiciel libre ? (motivations personnelles, éthique, etc.)

Je voulais participer à une cause humanitaire à force de voir cette misère quotidienne dans les transports en commun que je prend tous les jours de la semaine. D’abord j’ai voulu faire de la distribution de nourriture pour les plus démunis, mais ma femme m’a conseillé d’utiliser mes compétences en informatique pour aider Emmaüs.

J’ai pris contact avec leur service bénévolat, je voulais être affecté à la place la plus adaptée pour leur organisation. Je ne voulais pas spécialement travailler pour la communauté de Neuilly-Plaisance, que je connais depuis quinze ans maintenant, car je ne savais pas qu’il faisait du reconditionnement de PC, je n’en avais vu aucun lors de mes visites en tant que client, et pour cause, ils se sont vendus très vites, et c’est très bien.

Toujours est-il que le service du bénévolat, m’a renvoyé sur la communauté de Neuilly-Plaisance. Lors de mon arrivée, j’ai rencontré Djebar, le bénévole responsable informatique, qui travaillait tout seul à l’époque et qui avait beaucoup de mal à s’en sortir. Je lui ai demandé comment il travaillait et ce qu’il voulait que je fasse, ce qui lui prenait le plus de temps. Il m’a répondu que c’était l’installation des machines, donc j’ai commencé par faire un petit script d’installation en mode « unattend » [2].

Comme il perdait encore plus de temps sur la partie désinstallation des logiciels sur les machines XP, je me suis lancé également sur la désinstallation.

Quels sont les services que toi et les autres compagnons proposez ?

Maintenant, depuis deux semaines nous avons mis en place un mini Cyber-Espace (deux machines) pour présenter l’utilisation d’Ubuntu, avant la vente des machines. Notre but étant de vendre des machines pour faire vivre la communauté, mais aussi de faire en sorte que les acheteurs soient satisfaits de leurs achats. Nous préférons, ne pas vendre, que faire de la vente forcée, car le but est d’avoir le moins de retour possible et donner une bonne image de notre engagement et de notre travail.

Pour participer à rompre la fracture numérique nous vendons des machines d’occasions de l’ordre de 60 à 80 euros et les écrans plats de 15, 17 pouces entre 20 et 40 euros.

Je tente de diffuser mon travail à toutes les personnes et associations qui œuvrent pour les biens communs. En ce moment j’essaye de faire une installation Ubuntu en mode PXE [3], pour permettre la mise à jour de machines dans une école au Burkina Faso. Cette école a été équipée par Hervé S. et d’autres professeurs il y a deux ans. Je suis en contact avec lui depuis la dernière Ubuntu Party de Paris.

D’où proviennent les matériels à reconditionner ?

Le matériel reconditionné vient essentiellement de dons de particuliers. Les entreprises donnent mais c’est alors un lot de machines d’un seul coup et depuis huit mois que je travaille chez Emmaüs, je n’ai pas encore vu un don de machines provenant des entreprises.

Pourquoi avoir choisi de faire deux versions (GNU/Linux et Windows) ? Pourquoi ne pas l’avoir fait uniquement sous GNU/Linux ?

Mon responsable voulait vendre des machines et cela est plus simple sur XP, car les clients ne connaissent pas Ubuntu et GNU/Linux. Il avait déjà fait une expérience à ce sujet par le passé, mais cela n’avait pas donné de bons résultats. Et c’est aussi pour cela que je médiatise notre travail (merci à vous), car la communication est un outil nécessaire aujourd’hui.

Pourquoi Ubuntu ? Pourquoi XP ?

Pour XP, la vente est plus facile, mais le temps et les scripts d’installations plus complexes.

Pour Ubuntu, l’installation est plus simple, car on formate le disque dur, mais la vente est beaucoup plus difficile.

Comment sont gérées les licences Windows XP ? Achat ? Récupération ?

C’est à cause des problèmes de licences que nous mettons pour l’instant des machines sous Ubuntu, car les licences sont celle incluses dans le PC, et nous prenons grand soin à désinstaller les programmes hors XP pour conserver la licence d’origine.

Peux-tu nous en dire plus sur ces scripts d’installation ?

Pour les scripts sous XP vous trouverez en pièce-jointe ci-dessous le manuel d’installation.

Pour Ubuntu j’utilise à l’heure actuelle un fichier « preseed » [4] pour l’installer, puis un script Bash pour installer les programmes annexes, configurer Firefox, le bureau, le dock…

Ces scripts sont-ils librement téléchargeables ? Si oui, peut-on avoir le lien ?

Non pas pour l’instant, car je ne suis pas encore pleinement satisfait de mon travail et je n’ai pas de site pour mettre ces scripts. Je pourrais faire un site ou un blog mais avant d’avoir une grande visibilité, je serai à la retraite, même en tenant compte des prolongations présentes et futures 😉

En revanche, si vous me proposez de mettre ces scripts sur votre site je suis partant et j’en serais ravi. J’aimerai avant que vous fassiez des essais pour mettre quelque chose de vraiment opérationnel et même utilisable par Madame Michu.

Quels sont les retours des utilisateurs ? (sur XP modifié et sur Ubuntu ?)

Nous n’avons pas de retour des utilisateurs, sauf une fois, une personne avait rapporté sa machine, car il n’arrivait pas à lancer certains logiciels et pour cause, le script ne les avaient pas installés. Il y avait un petit bug dans le script. C’était les premières machines livrées avec ce XP modifié.

Maintenant nous n’avons pas de retour, donc cela fonctionne. Lors de la vente de la première machine Ubuntu, j’ai demandé à la cliente de me faire un retour sur l’utilisation de sa machine, mais toujours rien depuis 15 jours. C’est dommage de ne pas avoir de retour, mais c’est dans la logique de l’époque actuelle, les gens ne font rien et sont en permanence en train de zapper d’un loisir à l’autre sans autre but que celui d’oublier leur vie routinière.

Il faudrait que les gens suivent plus souvent la devise des compagnons d’Emmaüs, « Ne pas subir, toujours agir », mais on se retrouve plutôt avec « Métro Boulot Dodo ». On est loin du « Liberté Égalité Fraternité » qui anime mon travail et le logiciel libre.

Quelles sont les perspectives d’avenir pour ce projet ? (ce qui marche, ce qui bloque, etc.)

Les perspectives au niveau développement sont les suivantes :

  • Faire une installation PXE;
  • Faire une version ISO d’Ubuntu et des scripts ainsi que les paquets pour pouvoir faire une installation offline, afin de fournir un DVD à tout le monde car beaucoup de personnes n’ont pas encore Internet;
  • En même temps que cette version ISO, faire la documentation de mise en œuvre de l’installation (remarque : je ne l’ai pas fait car je veux l’effectuer pour une installation indépendante);
  • Faire une version dérivée de la Framakey Ubuntu Remix, personnalisée avec le dock que j’utilise (Pyg de Framasoft m’a dit que cela était faisable, donc à suivre);
  • Associer des artistes musiciens, photographes pour promouvoir leurs œuvres et leurs talents (à l’heure actuelle j’ai mis un lien sur le site de Pat D., qui fait des photos pour Emmaüs et j’ai un projet de diaporama avec elle pour une vente d’objets recyclés et personnalisés à la communauté de Neuilly-Plaisance).

Les perspectives au niveau diffusion sont les suivantes :

  • Avoir une visibilité sur le site Framasoft, cela serait super bien pour faire du buzz 😉
  • Évangéliser l’Emmaüs de Perpignan/Pollestres (je cite ce village car il y a peine 6 mois, je ne savais pas que l’Emmaüs de Perpignan se trouvait dans mon village natal, comme quoi le monde n’est peut-être pas encore libre mais il est petit !). J’emploie ce verbe « Évangéliser » même si je ne suis pas croyant, car cela va être difficile de convaincre le directeur, avec qui j’ai déjà eu un contact téléphonique, de passer sur Ubuntu, car il pense que les clients ne sont pas prêts. Mon but étant qu’il accepte de faire un mini Cyber-Espace avec deux machines en libre service (pour tout le monde ou en fonction de la configuration des lieux en libre service pour les futurs clients), et qu’il mette deux machines Ubuntu toujours en vente;
  • Prendre contact avec les « Ateliers sans frontière », contact fournit par YoBoY;
  • Diffuser les versions XP, et surtout la version Ubuntu sur les Emmaüs de la région parisienne.
  • Diffuser sur les MJC, puisque j’ai des contacts à ce niveau.
  • Puis m’attaquer à la diffusion sur les associations de la ville de Paris.

Comment peux-t-on aider ?

Déjà en me témoignant votre enthousiasme, mais aussi en informant comme ici sur nos actions.

Si vous voulez aller plus loin dans votre soutien, ma dernière idée serait de mettre en réseau les Emmaüs et/ou toutes les associations vendant des machines avec des logiciels libres et/ou ayant mis un place un Cyber-Espace, etc. On pourrait ainsi dessiner une carte de France sur un site web où nous trouverions à chaque fois les contacts, le nombres de machines vendues, celles disponibles, etc. Ce serait utile pour les personnes ou associations désireuses d’avoir des informations, voulant utiliser ces distributions, cherchant une formation, etc.

Quelles sont les personnes qui participent de près ou de loin à ce projet ?

Je ne suis pas tout seul pour faire vivre ce projet, même si pour l’instant je suis le seul à faire du développement (ce n’est pas faute d’avoir essayé d’impliquer des ex-amis pour les sortir de leur mal de vivre) et de faire de la diffusion.

Dans l’ordre d’arrivée et de soutien à ce projet, je tiens à remercier les compagnonnes et les compagnons de route suivants :

  • Laurence A. – Pour m’avoir entrainé malgré elle sur cette route sinueuse, et qui m’épaule quotidiennement;
  • Djebar R. – Pour son implication dans le bénévolat, et son enthousiasme;
  • Olive et Sab – Pour leurs engagements au sein de la communauté Emmaüs Neuilly-Plaisance, et d’être toujours partants pour suivre mes idées les plus folles;
  • José – Pour me mettre à la porte tous les samedi soir de la « Fontaine », et m’éviter ainsi de passer la nuit à l’atelier;
  • Antony 81 – Pour son travail tous les jours, et sa volonté : « Don’t give up my friend »;
  • César Henri – Pour ces connaissances en informatique de pointe, et ses tests de destruction de machines XP 😉
  • Yann D. – Pour son enthousiasme et ses implications futures, quand il aura réussi ces examens 😉
  • Sylvain D. – Pour son support dans le monde nébuleux et pas très libre d’Apple;
  • Ubuntu et plus particulièrement YoboY et Kinouchou – Pour leurs accueils à la dernière Ubuntu-Party;
  • Gérard P. – Pour son soutien inconditionnel à mon travail, pour avoir fait du buzz sur ce travail lors de la dernière Ubuntu-Party et son idée géniale de Cyber-Espace interne au sein des communautés Emmaüs pour montrer « l’EmmaBuntu », comme il souhaite que j’appelle cette distribution 😉
  • Hervé S. – Pour son travail pour une école au Burkina Faso, son soutien et ses conseils techniques, sans oublier ses corrections sur mon catalan;
  • Pat D. – Pour ses photos et son soutien au mouvement ;
  • et vous bien sûr, toute la grande équipe de Framasoft, sans qui ce travail n’aurait pas été possible.

Un dernier mot pour la route (nécessairement longue, mais nécessairement libre) ?

La route est longue cela tout le monde le sait, mais elle est sinueuse et glissante par temps de neige. Ce qui est dommage c’est que si peu de monde s’y engage ne serait-ce que pour un temps. Ils préfèrent souvent tous prendre des autoroutes déjà tracées.

Pour ma part je l’ai prise lorsque j’ai lu phrase d’Albert Einstein (pour rappel : « Dans toute difficulté, il y a une opportunité. »), et j’espère ne plus la quitter.

Merci pour ton engagement en faveur du logiciel libre et pour la réponse à cette interview.

Merci à vous tous pour votre travail, sincèrement sans vous je ne serais pas là où j’en suis. C’est pour cette raison que j’ai choisi un fond d’écran Framasoft (voir ci-dessous) pour mettre en valeur les PC reconditionnés et non pas un fond écran dédié aux causes d’Emmaüs.

Je suis désolé d’avoir donné autant de détails à vos questions, mais ce n’est pas ma faute c’est à cause de mon nom 🙂

Bonnes fêtes de fin d’année à vous tous, en liberté.

Patrick

Emmaüs - Bureau Ubuntu

Notes

[1] Crédit photo : David Dennis (Creative Commons By-Sa)

[2] Qui ne nécessite pas la supervision d’un humain pour cliquer sur « Ok » à tout bout de champs. Un peu à l’image de Framapack.org

[3] Directement depuis le réseau, et sans nécessiter de système d’exploitation sur la machine cible.

[4] Fichier d’instructions pour l’installation.