2011 : année Mozilla Firefox ou année Google Chrome ?

Laihiu - CC byEn mai dernier, nous publiions un billet au titre ravageur : Google Chrome m’a tuer ou le probable déclin de Firefox si nous n’y faisons rien.

De nouveaux chiffres sont arrivés depuis dans le monde des navigateurs. Et si l’on peut légitimement faire la fête et se réjouir de voir Firefox dépasser aujourd’hui Internet Explorer en Europe, on constate comme prévu qu’un nouvel invité est arrivé et qu’il est particulièrement glouton.

Entre les deux, le coeur de Glyn Moody ne balance pas et il sait, tout comme nous, où placer sa confiance. Encore faudrait-il que, techniquement parlant, Firefox ne se laisse pas trop distancer et c’est aussi pourquoi la sortie de la version 4 est tant attendue[1].

2011 : L’année de Firefox ou de Chrome ?

2011: The Year of Firefox – or of Chrome?

Glyn Moody – 4 janvier 2011 – ComputerWorld
(Traduction Framalang : Penguin et Barbidule)

Tout le monde sait qu’il y a les mensonges, les mensonges énormes et les statistiques concernant le Web. Mais ces dernières peuvent néanmoins vous donner une vague idée de la situation. C’est le cas des récents chiffres sur les parts de marché des navigateurs en Europe.

L’événement principal est immédiatement manifeste : comme le graphique le montre, la part de marché de Firefox a dépassé celle d’Internet Explorer, avec 38,11% contre 37,52% (même si les deux dernières décimales ne m’inspirent qu’une confiance limitée voire nulle).

Maintenant, il est vrai qu’il s’agit uniquement de l’Europe, qui a toujours été pionnière dans ce domaine, mais il faut tout de même savourer l’instant. Après tout, lorsque Mozilla puis Firefox furent lancés, peu leur donnaient des chances de réussir à renverser le géant Microsoft. Il n’y avait tout simplement pas de précédent pour un courageux nouvel arrivant, et encore moins un arrivant open source, de partir de zéro et d’arriver à supplanter une entreprise qui semblait inarrêtable sur ses marchés clés. Il est vrai qu’au niveau du serveur, Apache est devant Internet Information Server de Microsoft, mais Apache était arrivé en premier, et était donc celui à battre : la situation du côté du client était très différente.

Évidemment, ce n’est pas la seule chose que nous dit ce graphique. Firefox a en fait légèrement régressé l’année dernière, c’est surtout qu’Internet Explorer a reculé encore plus. Et cette baisse a presque entièrement bénéficié à Google Chrome, dont la part de marché est passée de 5,06% à 14,58% pendant cette période.

C’est vraiment étonnant à tout point de vue, et cela confirme l’ascension de Chrome au Panthéon des navigateurs. La question est évidemment de savoir si cette ascension vertigineuse va se poursuivre, et ce qui va arriver aux autres navigateurs.

Naturellement, cela dépendra beaucoup des fonctionnalités qu’auront les nouvelles versions de Firefox, et dans une moindre mesure, d’Internet Explorer, mais je ne vois pas de raisons qui empêcheraient Chrome de s’élever au-dessus des 20% à court terme. Cela veut dire bien entendu que les parts de marché de Firefox et d’Internet Explorer vont continuer à baisser. Mais comme je le notais il y a quelque temps, ce n’est pas vraiment un gros problème pour Firefox, alors que ça l’est pour Microsoft.

La raison est assez simple : Firefox n´a jamais eu pour objectif la domination du monde, il combattait pour créer un Web ouvert, où aucun navigateur n’occuperait une position dominante d’où il pourrait ignorer les standards ouverts et imposer à la place des standards de facto. C’est plus ou moins la situation actuelle, désormais, Internet Explorer devenant de plus en plus conforme aux standards, et, de façon étonnante, l’affichant avec fierté.

Avec l’ascension continue de Chrome jusqu’au point où les trois navigateurs auront plus ou moins la même part de marché, nous aurons une situation parfaite pour une compétition amicale à trois, ce qui est même mieux qu’une simple rivalité à deux. Je suis presque sûr que le Web va devenir de plus en plus ouvert grâce à cela (c’est dommage qu’il reste menacé par d’autres actions : ACTA, censure, etc.).

Mais cela ne veut pas dire que Firefox et Chrome ont les mêmes buts, et qu’il ne faut pas s’inquiéter des parts de marché de Firefox. Il est important de se rappeler pourquoi Google a créé Chrome, et pourquoi il a libéré le code. C’est simplement parce qu’il sait que libérer le code, et permettre à d’autres de construire par dessus, est le moyen le plus rapide de donner une place à un produit dans un marché concurrentiel. En faisant cela, il est vrai que Google promeut les standards ouverts et l’open source, mais seulement jusqu’à un certain point.

La différence principale est que Google voit l’open source comme un moyen de générer davantage de revenus, alors que Firefox voit les revenus générés par la barre de recherche comme un moyen de favoriser son travail de protection et d’amélioration d’un Web ouvert. Entre les deux, je sais où je préfère placer ma confiance pour l’avenir.

Notes

[1] Crédit photo : Laihiu (Creative Commons By)




Pour libérer les sciences, par Christophe Masutti

Dullhunk - CC byChristophe Masutti est membre de Framasoft, en charge notamment du projet Framabook, notre collection de livres libres autour du Libre. « Livres libres », cela signifie que les ouvrages sont sous licences libres, ce qui a pour effet de maximaliser leur diffusion.

Il est également universitaire et à ce titre acteur et auteur de publications scientifiques. Son expérience, sa pratique et sa rigueur professionnelles nourissent le projet Framabook.

Mais pourquoi, dans l’autre sens, la publication scientifique ne tirerait pas aussi profit du « modèle Framabook » ? Pourquoi ne s’inspirerait-elle pas de ce qui fait la force et la sève du logiciel libre ?

Parce qu’il faut bien le reconnaître, la situation actuelle en est fort éloignée, jusqu’à évoquer, là encore, un « gigantesque Minitel 2.0 ». Alors que les nouvelles technologies et Internet promettent bien plus que cela[1].

Dans cet article clair, précis, accessible et documenté, Christophe Masutti pose les jalons d’un avenir possible et souhaitable de la publication scientifique, un accès à la connaissance réellement au service et au bénéfice de tous.

Pour libérer les sciences

Le document dans son intégralité

Christophe Masutti – 15 décembre 2010 – version 1.0 – Licence Creative Commons By

Préambule

L’objectif de ce texte est de faire valoir l’intérêt d’une diffusion décentralisée et libre des connaissances scientifiques. En partant de l’idée selon laquelle l’information scientifique n’a d’autre but que d’être diffusée au plus grand nombre et sans entraves, je montrerai les limites du système classique de publication à l’ère du format numérique, ainsi que les insuffisances des systèmes d’archives « ouvertes ». J’opposerai le principe de la priorité de la diffusion et à l’aide de quelques exemples, j’aborderai la manière dont les licences libres Creative Commons permettent de sortir de l’impasse du modèle dominant.

Ce document est un document martyr et une large place est réservée à l’opinion de son auteur. N’étant pas spécialiste des aspects juridiques concernant les droits d’auteur, certaines affirmations pourront sembler approximatives voire complètement fausses. Si c’est le cas, n’hésitez pas à commenter. Lire la suite dans son intégralité…

Notes

[1] Crédit photo : Dullhunk (Creative Commons By)




Une école de la coopération et non de la compétition ?

Rolands Lakis - CC byVingt personnalités ont récemment lancé un appel afin de supprimer les notes à l’école élémentaire.

Parmi ces personnalités, on notera Boris Cyrulnik, Axel Kahn, Daniel Pennac, François Dubet, Richard Descoings, Marcel Rufo ou encore l’ami du logiciel libre Michel Rocard.

L’appel a été repris hier dans un article de Libération et le moins que l’on puisse dire c’est que cela n’a pas laissé les lecteurs indifférents. C’est une belle foire d’empoigne dans les commentaires qui dépassent déjà les cinq cents occurrences !

Au delà de l’intéressant débat, ce qui m’a frappé, et qui vaut mention sur ce blog, c’est la dernière phrase en guise de conclusion :

« Nous appelons tous ceux qui souhaitent réaffirmer que l’école élémentaire doit être celle de la coopération et non de la compétition, à signer le présent appel. »

Consciemment ou non, en plein ou en creux, tous ceux qui défendent le logiciel libre et sa culture défendent également un monde où la coopération n’est pas écrasée par la compétition.

Je ne sais si la seule suppression des notes pour un seul niveau[1] permet d’y arriver (j’aurais même quelques doutes) mais il n’est pas anodin de remarquer que l’opposition coopération / compétition est une grille de lecture de plus en plus souvent utilisée.

PS : Et à l’âge adulte, dans la sphère du travail, ce serait quoi « un monde sans notes » ? Un monde sans discrimination à la fiche de paie ? Avec un « revenu de vie » garanti pour tous ?

Notes

[1] Crédit photo : Rolands Lakis (Creative Commons By)




Quand on ne peut rivaliser, on se déclare ouvert pour masquer son incompétence

Tuftronic10000 - CC bySavez-vous ce qu’est un « FUD » ? C’est l’acronyme de Fear, Uncertainty and Doubt et Wikipédia nous dit que c’est une technique rhétorique consistant « à tenter d’influencer la perception de son audience en disséminant des informations négatives, souvent vagues et inspirant la peur ».

J’ai comme l’impression que le responsable Microsoft de l’Amérique Latine est un orfèvre en la matière, à en juger par les cinglantes déclarations ci-dessous[1].

Elles sont rapportées par un envoyé spécial brésilien dont on apprend en fin d’article qu’il a voyagé sur invitation de Microsoft.

Microsoft critique la position du gouvernement brésilien concernant le logiciel libre

Microsoft critica posição do governo brasileiro sobre o software livre

Bruno Romani – 14 septembre 2010 – Folha.com
(Traduction Framalang : Thibz)

Le president de Microsoft Amérique Latine, Hernán Rincón, a envoyé un message au gouvernement brésilien : l’innovation des logiciels ne se trouve pas dans le secteur public mais dans le secteur privé.

La déclaration a été faite après qu’il fut interrogé sur la position du gouvernement brésilien et son soutien aux logiciels libres en général et à Linux en particulier.

Lors d’une rencontre entre journalistes d’Amérique Latine à Bellevue, dans l’État de Washington, il a affirmé : « Les gouvernements doivent s’interroger : leur rôle est-il de servir les citoyens ou de développer des logiciels ? L’innovation est dans le secteur privé. ».

Selon Rincón, les logiciels libres demandent plus de travail et d’investissement de la part d’un gouvernement pour les maintenir en bon fonctionnement et à jour, ce qui ne serait pas le cas lorsque les entreprises se chargent de le faire à la place des gouvernements.

Mais Rincón pense que les deux modèles, logiciels libres et propriétaires, continueront à coexister.

Concurrence

Rincón a aussi épinglé la concurrence qui parie sur les standards ouverts et gratuits, comme Google. Il a ainsi affirmé : « Quand on ne peut pas rivaliser, on se déclare ouvert pour masquer son incompétence. ».

Et Rincón d’ajouter : « Au moment opportun, les entreprises se déclarent ouvertes. Elles l’utilisent pour leur propre bénéfice. ».

Chiffres

Rincón a aussi présenté des chiffres optimistes sur la région.

Selon lui, lors de ces 7 dernières années, la région a eu de la croissance économique (sauf en 2008). Et le secteur technologique y a fortement contribué puisqu’en Amérique Latine, il a été, en moyenne, 2 à 3% supérieur à la croissance de la région. L’année dernière par exemple, la croissance du PIB regional a été de 5% alors que celle de la technologie de l’information a augmenté de 7% à 8%.

Le Brésil, dit Rincón, a eu un rôle de premier plan dans ce processus.

Et Microsoft Amérique Latine a accompagné cette croissance. Rincón dit que sa division est celle qui croît le plus parmi toutes les divisions régionales. Le chiffre d’affaires actuel serait ainsi 3 fois supérieur à ce qu’il était il y a 7 ans.

Selon lui, 95% des ordinateurs d’Amérique Latine seraient sous Windows, 1,3% sous Apple et entre 2% et 3% sous Linux.

Le journaliste a voyagé sur invitation de Microsoft.

Notes

[1] Crédit photo : Tuftronic10000 (Creative Commons By)




Marketing et ergonomie, la touche finale d’Ubuntu qui fait avancer le logiciel libre

Trancept - CC by-nc-saUbuntu. Ce simple mot peut à la fois rassembler des milliers de personnes en un week-end et dans le même temps susciter moqueries, trolls, et critiques.

Il n’empêche que cette distribution GNU/Linux, que l’on ne présente plus, a gagné en à peine six ans d’existence une remarquable popularité auprès des nouveaux utilisateurs de systèmes d’exploitation libres. Ils y découvrent une indubitable simplicité d’utilisation et une communauté d’utilisateurs dévoués, accueillants et prêts à consacrer aux nouveau venus le temps nécessaire à leur apprentissage, un temps passé à reconquérir leurs libertés perdues dans les systèmes propriétaires.

Mais tout n’est pas rose avec Ubuntu. Certains voient en effet cette distribution en couleur poil-de-chameau. Pour ses détracteurs, Ubuntu ne mérite pas toute l’attention qu’on lui accorde et fait de l’ombre aux autres projets. De plus, ce système, emballé dans du papier cadeau aux couleurs chaudes se contenterait de singer jusque dans leurs défauts les systèmes propriétaires dont les icônes, la maniabilité à la souris et les effets graphiques séduisent les utilisateurs peu soucieux de technicité. Défauts parmi lesquels, la fin du pilotage intégral du système en ligne de commande pourtant si chère aux administrateurs système, ou encore une approche marketing qui diluerait les valeurs du logiciel libre.

Six ans, c’est presque l’âge de raison, cette période où l’on n’est plus petit, mais pas encore tout à fait grand. C’est peut-être cet âge-là qu’a atteint le projet de Mark Shuttleworth[1] révélé (une fois de plus) au travers du dernier billet de son fondateur et mécène comme une distribution « clicodrome », accompagnée d’un marketing professionnel et soigné, et destinée à séduire le plus large public possible… Dans ce long billet, spontanément traduit en l’espace de deux heures par une dizaine de contributeurs répondant à l’appel d’Olivier Fraysse (Ubuntu-fr) sur Twitter[2], Mark Shuttelworth revient sur les motivations qui l’animent au quotidien, et que les milliers de contributeurs faisant la réussite assez inédite d’Ubuntu semblent bien partager.

Introduction rédigée collaborativement par Olive, Poupoul2, JoKot3, Goofy et Siltaar.

Réflexions sur Ubuntu, Canonical et la route vers l’adoption des logiciels libres

Reflections on Ubuntu, Canonical and the march to free software adoption

Mark Shuttleworth – 14 septembre 2010
(Traduction Framalang : @olivierfraysse, @Gordontesos, @ldemay alias Louis Demay, @okhin, @Siltaar, @tshirtman, @winael, @pierretravers, @ricomoro et @framasoft)

Poussé en partie par les critiques concernant la contribution de Canonical au code du noyau Linux ou à l’infrastructure profonde de GNOME, j’ai cherché à savoir si j’avais la conscience tranquille : est-ce que je fais bien mon travail ? Ma manière de le faire convient-elle ? Il est important pour moi de savoir que ce que je fais est utile aux autres et contribue à un monde meilleur. Et dans mon cas, il s’agit d’une redistribution en proportion de la bonne fortune que j’ai pu connaître.

Deux messages que j’ai reçus le mois dernier définissent sans doute ce que je pense apporter à la communauté. Le premier, c’est un mot de remerciement arrivé de Nouvelle-Zélande, quelqu’un constatant qu’Ubuntu 10.04 change vraiment la donne dans son foyer. Pour lui, c’est une sorte de petit miracle de générosité si cet environnement complet, intégré et fonctionnel existe et est maintenu par des milliers de personnes. Quant au deuxième, c’est un contrat d’assistance avec une entreprise pour les dizaines de milliers de poste de travail fonctionnant sous Ubuntu 10.04 qu’elle utilise. Ces deux messages illustrent les piliers jumeaux du projet Ubuntu et de Canonical : apporter au monde entier l’extraordinaire générosité de la communauté du logiciel libre, comme un cadeau, gratuit, léger et cohérent, et le faire de manière pérenne.

Dans le premier cas, celui de Nouvelle-Zélande, quelqu’un apprend à ses enfants comment utiliser un ordinateur dès leur plus jeune âge, se rend compte de tout ce qu’apporte Ubuntu par rapport à Windows, et à quel point il est plus simple d’aborder l’informatique avec Ubuntu lorsqu’on s’adresse à des enfants. Pour cette famille, le fait qu’Ubuntu leur apporte l’univers du logiciel libre en un paquet harmonieux et soigné est extraordinaire, c’est une grande avancée, et ils en sont très reconnaissants.

C’est une histoire que j’espère voir se répéter des millions de fois. Et c’est une histoire qui donne bonne réputation et grande satisfaction, pas qu’à moi, pas qu’à ceux qui consacrent leur passion et leur énergie à Ubuntu, mais aussi à tous ceux qui contribuent au logiciel libre de manière générale. Ubuntu ne mérite pas à elle seule tous les honneurs, elle fait partie d’un écosystème large et complexe, mais sans elle, cette distribution de logiciels libres n’aurait pas la même portée ni la même force. Nous savons tous que le corps du logiciel libre a besoin de nombreux organes, de nombreuses cellules, chacun ayant ses propres priorités et intérêts. Le corps ne peut exister qu’avec chacun d’entre eux. Nous sommes une petite composante d’un vaste ensemble, et c’est un privilège pour nous d’assumer nos responsabilités en tant que distribution. Nous devons donner un point de départ à ceux qui débuteront leur voyage dans le monde du logiciel libre avec Ubuntu, et nous nous efforçons de nous assurer que toutes ces pièces s’accordent bien ensemble.

Ubuntu, et les possibilités qu’elle crée, n’aurait pu naître sans l’extraordinaire communauté Linux, qui elle-même n’existerait pas sans la communauté GNU, et n’aurait pas pris autant d’importance sans les efforts d’entreprises comme IBM et Red Hat. Et ç’aurait été une toute autre histoire sans les gens de Mozilla, ou Netscape avant eux, GNOME et KDE, et Google, ainsi que tout ceux qui contribuent de façons différentes à cet empilement, rendent le tout meilleur. Des dizaines de milliers de personnes qui ne sont pas directement associées à Ubuntu contribuent à rendre cette histoire bien réelle. Beaucoup d’entre eux y travaillent depuis plus d’une décennie… un succès soudain exige un gros travail en amont, et Ubuntu n’est sur le marché que depuis six ans. Ubuntu ne peut donc pas être crédité seul de la satisfaction qu’elle apporte à ses utilisateurs.

Néanmoins, le projet Ubuntu apporte quelque chose d’unique et d’inestimable au logiciel libre : un dévouement total aux utilisateurs et à l’ergonomie, à l’idée que le logiciel libre devrait être « pour tout le monde », d’un point de vue économique et d’un point de vue facilité d’utilisation, et à la volonté de traquer les problèmes qui y nuisent. Je perçois ce dévouement comme un don à ceux qui ont contribué à l’une de ces briques. Si nous pouvons multiplier par dix l’adoption du logiciel libre, nous aurons multiplié la valeur de votre générosité par dix, décuplé l’importance de toutes les heures passées à résoudre un problème ou à créer quelque chose de formidable. Je suis très fier de consacrer autant de temps et d’énergie à Ubuntu. Oui, je pourrais faire beaucoup d’autres choses, mais rien d’après moi qui aurait un tel impact sur le monde.

Je conçois que tout le monde ne perçoive pas les choses de cette façon. Multiplier l’audience de son travail par dix sans apporter de contribution au projet pourrait passer pour du parasitage, ou seulement décupler l’afflux de rapports de bogues. On pourrait avancer que peu importe notre générosité envers les utilisateurs finaux, si les développeurs en amont ne prennent que le code en considération, alors tout apport en dehors du code ne sera pas comptabilisé. Je ne sais pas bien comment y remédier – je n’ai pas créé Ubuntu comme un moyen d’écrire beaucoup de code, car ça ne me paraissait pas être ce dont le monde avait besoin. Le logiciel libre avait besoin d’un moyen pour aller de l’avant, d’amener le code déjà existant à un haut niveau de qualité et de fiabilité. La plupart des éléments du bureau étaient déjà en place – et le code affluait – il n’était simplement pas livré d’une manière qui lui permettrait d’être adopté ailleurs que sur les serveurs, par un public plus large.

Le second e-mail, dont je ne peux citer d’extraits, était en substance un contrat de services confié à Canonical pour aider une entreprise à migrer plus de 20 000 machines de bureau de Windows à Ubuntu. Nous avons récemment signé plusieurs accords d’échelle similaire, et le ryhtme augmente à mesure que la confiance en Ubuntu grandit. Alors que GNU/Linux est depuis longtemps reconnu comme un système de bureau intéressant pour les développeurs motivés et inspirés, il y a un écart entre cette utilisation et le besoin des grosses entreprises. À ma connaissance, aucune autre entreprise ne se consacre entièrement à la production d’un système de bureau libre, et je suis fier que Canonical joue ce rôle. Il me peinerait que tous les efforts de la communauté du logiciel libre ne puissent servir à ces utilisateurs. Il n’y a rien de propriétaire ou de secret dans les postes de travail dont Canonical assure le support dans ces grandes entreprises. Ce qui m’émerveille le plus, c’est que dans les cas de la famille de Nouvelle-Zélande et de cette entreprise, il est question du même code. Voilà à mon sens la véritable promesse du logiciel libre : lorsque je participais moi-même à des projets open-source, j’ai toujours été ravi que mon travail subvienne à mes besoins, mais qu’il soit également utile au plus grand nombre.

Ubuntu n’est qu’une petite partie de cet immense écosystème, mais je suis fier que nous ayons intensifié nos efforts pour relever ces défis. Canonical adopte une approche différente des autres entreprises qui travaillent dans l’univers Linux, non pas comme critique implicite des autres, mais simplement parce que c’est l’ensemble des valeurs que nous défendons. C’est une force pour le logiciel libre qu’un tel nombre d’entreprises différentes poursuivent autant d’objectifs importants.

Au cours des dernières semaines, on a suggéré que l’action de Canonical est égoïste et non dédiée au bénéfice d’une communauté plus large. C’est une critique blessante car la plupart d’entre nous ressentons justement le contraire : notre motivation, c’est tout faire pour servir la cause du logiciel libre, au bénéfice à la fois des utilisateurs finaux et de la communauté qui le produit, et nous sommes convaincus qu’élaborer Ubuntu et travailler pour Canonical sont les meilleures façons d’atteindre ce but. Ces critiques ont provoqué de nombreuses discussions et réflexions chez chacun de nous et chez Canonical. Ce billet s’inscrit dans cette réflexion : j’y témoigne de ce que je ressens lorsque je contribue, et pourquoi je suis fier du travail que j’accomplis chaque jour. Que faisons-nous pour le logiciel libre ? Et que fais-je moi-même ?

Pour commencer, nous le fournissons. Nous réduisons la friction et l’inertie qui empêchent les utilisateurs d’essayer les logiciels libres et de décider eux-mêmes s’ils les aiment suffisamment pour s’y plonger. Aujourd’hui, des centaines de développeurs de logiciels libres, traducteurs, concepteurs, porte-parole, ont l’occasion de prendre part au mouvement, parce qu’il est facile pour eux de faire le premier pas. Et ce n’est pas un travail aisé. Songez aux années d’efforts que nécessite la conception d’un simple installeur pour Linux comme http://www.techdrivein.com/2010/08/…, qui est l’aboutissement d’énormes quantités de travail par plusieurs groupes, mais qui sans Canonical et Ubuntu n’aurait jamais vu le jour.

Des milliers de personnes se contentent de concevoir des logiciels libres pour elles-mêmes, et ce n’est pas un crime. Mais la volonté d’en faire quelque chose que d’autres pourront explorer, utiliser et apprécier doit également être plébiscitée. Et c’est une valeur qui est fortement mise en avant dans la communauté Ubuntu : si vous lisez http://planet.ubuntu.com, vous verrez que l’on se réjouit grandement de compter des *utilisateurs de logiciels libres*. En tant que communauté, c’est pour nous une immense satisfaction de voir que des gens les *utilisent* pour résoudre leurs problèmes quotidiens. C’est plus satisfaisant pour nous que des récits sur l’amélioration de sa rapidité ou l’ajout d’une fonctionnalité. Certes, nous jouons sur les deux tableaux, mais notre communauté mesure davantage l’impact sur le monde que l’impact sur le code. Tous ses membres sont généreux de leur temps et de leur expertise, et il s’agit là de leur récompense. Je suis fier du fait qu’Ubuntu attire des personnes généreuses dans leurs contributions : à leurs yeux, ces contributions prennent de la valeur si elles sont retravaillées par d’autres, et qu’elles n’y perdent pas. C’est pourquoi nous nous réjouissons de l’existence de Kubuntu, Xubuntu, PuppyLinux et Linux Mint. Ces distributions ne marchent pas sur nos plate-bandes, elles se tiennent sur nos épaules, tout comme nous nous tenons sur les épaules de géants. Et c’est une bonne chose. Notre travail a plus de sens et plus de valeur parce que leur travail atteint des utilisateurs que le nôtre seul ne peut pas atteindre.

Quoi d’autre ?

Nous réparons ses défauts, aussi. Prenons par exemple le projet PaperCut, né parce que l’on s’est rendu compte que cette technologie formidable et les efforts que l’on consacre à réaliser un projet aussi complexe que le noyau Linux se trouvent diminués si l’utilisateur moyen n’obtient pas le résultat escompté alors que tout devrait fonctionner sans accroc. Des centaines de Papercuts ont été réparés, dans de nombreuses applications, ce qui ne bénéficie pas qu’à Ubuntu mais aussi à toutes les autres distributions qui intègrent ces applications. Ça n’a rien de simple : songez aux milliers de suggestions à trier, à la coordination des réparations et à leur partage. Grâce aux efforts sans répit d’une équipe nombreuse, nous changeons la donne. Épargner une heure par semaine à des millions d’utilisateurs représente un trésor d’énergie économisée, que l’utilisateur peut alors consacrer à une utilisation plus efficace du logiciel libre. L’équipe Canonical Design est à l’origine du projet Papercuts, mais les plus méritants sont les personnes comme Vish et Sense, qui sont venus gonfler nos rangs. Chaque patch a son importance, sur le poste de travail http://ubuntuserver.wordpress.com/2… et sur le serveur.

À un niveau plus personnel, un élément clé auquel je consacre de l’énergie est la direction, la gouvernance et la structure de la communauté. Aux débuts d’Ubuntu, j’ai passé beaucoup de temps à observer les différentes communautés qui existaient à l’époque, et comment on y gérait les inévitables tensions et divergences qui apparaissent lorsque beaucoup de fortes personnalités collaborent. Nous avons conçu l’idée d’un code de conduite qui assurerait que nos passions pour ces technologies ou ce travail ne prennent pas le dessus sur notre objectif principal : amener des gens de divers horizons à collaborer sur une plateforme commune. Je suis ravi que l’idée se soit étendue à d’autres projets : nous ne voulons pas garder jalousement ces idées, designs ou concepts, ce serait l’inverse de notre objectif premier.

Nous avons mis en place une structure simple : un forum technique et un conseil communautaire. Cette organisation est désormais courante dans beaucoup d’autres projets. Alors qu’Ubuntu se développe, la gouvernance évolue également : des équipes s’occupent de diriger des groupes tels que Kubuntu, les forums et les canaux IRC, fournissent conseils et orientation aux équipes des LoCo[3], aux modérateurs, aux opérateurs et aux développeurs, qui à leur tour s’efforcent d’atteindre la perfection technique et l’aisance sociale au sein d’une immense communauté mondiale. C’est fantastique. Ceux qui viennent participer à Ubuntu sont en général autant motivés par le désir d’appartenir à une merveilleuse communauté que par celui de résoudre un problème spécifique ou d’alléger la charge de travail d’un groupe.

Avec le temps, certains s’aperçoivent qu’ils ont le don d’aider les autres à être plus productifs : résoudre les conflits d’opinion, assurer l’organisation d’un groupe pour permettre de réaliser ce qu’un individu seul n’aurait pu accomplir. La structure de gouvernance d’Ubuntu leur crée l’opportunité de montrer leur valeur : ils forment le pivot et la structure qui permettent à cette communauté de s’adapter, de rester productive et agréable.

Défendre les valeurs d’un projet comme Ubuntu nécessite une vigilance constante. Lorsqu’on débute et que l’on affiche une ligne directrice précise, on n’attire en général que ceux qui sont sur la même longueur d’ondes que nous. Lorsque le projet gagne en envergure et en visibilité, il attire TOUT LE MONDE, car les gens veulent être là où ça bouge. Ainsi, les valeurs auxquelles on tient peuvent vite finir noyées dans la masse. C’est pourquoi je m’implique autant dans le travail du Conseil Communautaire d’Ubuntu et des équipes communautaires de Canonical. Les deux font preuve d’une grande perspicacité et ne rechignent pas à la tâche, ce qui fait de cette partie de mon travail un vrai plaisir.

Le Conseil Communautaire d’Ubuntu prend très au sérieux sa responsabilité en tant que dépositaire des valeurs des projets communautaires. Le CC est en grande partie composé de personnes qui ne sont pas affiliées à Canonical, mais qui croient que le projet Ubuntu est important pour le logiciel libre dans son ensemble. Jono Bacon, Daniel Holbach, et Jorge Castro, par exemple, sont des professionnels qui savent comment rendre une communauté productive et en faire un lieu de travail agréable.

Quelque chose d’aussi gros que la communauté Ubuntu ne peut être porté à mon seul crédit, ni à aucun autre, mais je suis fier du rôle que j’ai joué, et motivé pour continuer tant que ce sera nécessaire. Depuis quelques années, je me consacre davantage à mettre en avant le rôle du design dans le logiciel libre. Je suis convaincu que l’Open Source produit la meilleure qualité de logiciels qui soit, mais nous devons nous pencher sur l’expérience que nous souhaitons créer pour nos utilisateurs, que ce soit sur le bureau, les netbooks ou les serveurs. Je me suis donc beaucoup employé à encourager diverses communautés – celle d’Ubuntu et d’autres qui travaillent en amont – à réserver un bon accueil à ceux qui portent sur le logiciel libre un regard d’utilisateur final et non celui d’un codeur chevronné. C’est un changement de fond dans les valeurs de l’Open Source, et je ne pourrai l’accomplir seul, mais je suis tout de même fier d’être un défenseur de cette approche, et heureux qu’elle soit de plus en plus partagée.

Des designers travaillaient dans le logiciel libre avant que nous ne donnions cette impulsion. J’espère que l’insistance de Canonical sur l’importance du design leur facilite la tâche, que la communauté au sens large est plus sensible à leurs efforts et plus réceptive à leurs idées. En tout cas, si vous accordez *vraiment* de l’importance au design des logiciels libres, l’équipe de designers de Canonical est faite pour vous !

Je travaille moi aussi sur le design, et j’ai surtout participé à la conception détaillée de Unity, l’interface d’Ubuntu Netbook Edition 10.10. C’est une évolution de l’ancienne interface UNR, qui a surtout pour fonction de montrer que le poste de travail Linux n’a pas à rester bloqué dans les années 90. Nous allons tenter d’élaborer de nouvelles façons efficaces d’utiliser les ordinateurs.

J’ai été ravi de constater la vitesse à laquelle des centaines de projets ont adopté les fonctionnalités de Unity. Leur but est de rendre Linux plus facile d’utilisation et plus élégant. Ce rythme d’adoption permet de mesurer combien nous réduisons la difficulté pour les nouveaux utilisateurs qui découvrent une meilleure façon d’utiliser leur PC.

Si nous nous contentions du design sans nous occuper de la mise en application, on pourrait nous accuser d’attendre que les autres fassent le travail à notre place, alors je suis également fier de diriger une équipe géniale qui se charge de l’implémentation de certains de ces composants clés. Des éléments comme dbusmenu ont prouvé leur utilité pour apporter de la consistance à l’interface des applications GNOME et KDE fonctionnant sous Unity, et j’espère vraiment qu’elles seront adoptées par d’autres projets qui ont besoin de ces mêmes fonctions.

J’aimerais féliciter l’équipe d’ingénieurs pour le soin qu’ils apportent à la qualité et la testabilité, et pour leur désir de fournir aux développeurs des API propres et des documentations complètes permettant leur utilisation optimale. Si vous utilisez le jeu complet d’indicateurs dans Ubuntu 10.10, vous savez à quel point ce travail discret et continu permet d’obtenir un tableau de bord harmonieux et efficace. Nous allons livrer la première release de Utouch, qui continuera d’évoluer afin que GNOME et KDE puissent intégrer facilement les interfaces de mouvements multi-touch.

En plus de donner de mon temps, je soutiens aussi divers projets en les finançant. Injecter de l’argent dans un logiciel libre nécessite de se poser une question cruciale : cette somme serait-elle mieux employée ailleurs ? Il existe beaucoup de façons d’aider les gens : avec 100 000 $, on peut scolariser, vêtir ou nourrir beaucoup de monde. Il me faut donc être sûr que cet argent apporte des bénéfices réels et quantifiables sur la vie des gens. Les messages de remerciement que je reçois chaque semaine pour Ubuntu me confortent dans cette idée. Plus important encore, je constate moi-même l’effet de catalyseur qu’a Ubuntu sur l’ensemble de l’écosystème Open Source – les nouveaux développeurs qui le rejoignent, les nouvelles plateformes qui apparaissent, les créations de nouvelles entreprises et l’arrivée de nouveaux participants – et j’en conclus que le financement que je fournis a un impact significatif.

Quand Ubuntu a été conçu, l’écosystème Linux était dans un sens complètement formé. Nous avions un noyau, GNOME et KDE, Xorg, la Lib C, GCC et tous les autres outils bien connus. Bien sûr, il y avait des failles, des bugs et des feuilles de route pour les combler. Mais il manquait quelque chose, parfois définit comme « marketing », parfois défini comme « orienté utilisateur final ». Je me souviens avoir pensé « c’est ce que je peux apporter ». Donc Ubuntu et Canonical n’ont clairement PAS investi d’efforts dans ce qui fonctionnait déjà, mais dans de nouvelles idées et de nouveaux outils. J’y vois une contribution stimulante à l’écosystème Open Source en général, et je sais que beaucoup partagent cet avis. Ceux qui reprochent à Canonical de ne pas faire ci ou ça ont peut-être raison, mais ces critiques ne tiennent pas compte de tout ce que nous apportons et qui ne figurait pas sur la feuille de route avant notre arrivé. Bien sûr, il y a peu de travaux que nous accomplissons à nous seuls, et peu d’avancées que d’autres ne pourraient réaliser s’ils s’en faisaient un objectif, mais je crois que la passion de la communauté Ubuntu et l’enthousiasme de ses utilisateurs reflètent la nouveauté et l’originalité de ce projet. Ce doit être une source de satisfaction, de fierté et de motivation pour continuer dans cette voie.

Aucun projet particulier ne compte plus que le logiciel libre dans son ensemble. Il est plus important que le noyau Linux, plus important que GNU, plus important que GNOME et KDE, plus qu’Ubuntu, Fedora et Debian. Chacun de ces projets joue un rôle, mais c’est le tout qu’ils forment qui est vraiment en train de changer le monde. À cause des querelles concernant la contribution de chacun au logiciel libre, nous risquons de passer à côté de l’essentiel. Un peu comme une maladie auto-immune, quand le corps commence à s’attaquer lui-même. Par définition, quelqu’un qui se donne du mal pour diffuser le logiciel libre auprès d’un public plus large est dans le même camp que moi, contrairement aux 99% du reste du monde, si je veux penser en termes de camps. J’admire et respecte tout ceux qui consacrent leur énergie à faire avancer la cause du logiciel libre, même si parfois nos avis divergent en ce qui concerne les détails et la manière de procéder.

Notes

[1] Crédit photo : Trancept (Creative Commons By-Nc-Sa)

[2] Suivi d’un minutieux travail de relecture par Framalang : Don Rico et Siltaar

[3] NdFramalang : Local Community Communautés Locales




Tout est libre dans le logiciel libre, sauf sa maison !

Pranav - CC byPar nature décentralisés et collaboratifs, les logiciels libres ont besoin d’être hébergés sur Internet dans des forges qui en assurent leur développement (en offrant de nombreux services comme la gestion des versions ou le suivi des bugs).

SourceForge est certainement la plus célèbre d’entre elles et abrite en son sein plusieurs centaines de milliers de logiciels libres. Google, encore lui, n’est pas en reste avec son Google Code qui accueille de plus en plus d’applications.

Or si ces forges sont bien gratuites et très pratiques (puisque l’on crée et gère son projet en quelques clics), la plupart ne sont paradoxalement pas libres ! Il n’est ainsi pas possible de récupérer le code qui les fait tourner pour installer sa propre forge sur son propre serveur.

On comprend aisément qu’un site comme Facebook garde jalousement son code puisque son objectif est de concentrer au même endroit un maximum d’utilisateurs et surtout pas de les voir partir pour y faire leur petit Facebook personnel dans leur coin. Mais on comprend moins que les développeurs de logiciels libres se retrouvent un peu dans la même situation en acceptant de placer leur code sur des plateformes propriétaires. C’est une question de principe mais aussi de l’avenir incertain d’un code qu’il est alors difficile de déplacer[1].

C’est tout l’objet de cette mise en garde de notre ami Benjamin Mako Hill dont c’est déjà la quatrième traduction.

Il faut des outils libres pour faire des logiciels libres

Free Software Needs Free Tools

Benjamin Mako Hill – 4 juin 2010 – Blog personnel
(Traduction Framalang : Misc, Cheval boiteux, Siltaar et Goofy)

Au cours des dix dernières années, les développeurs de logiciels libres ont été régulièrement tentés par des outils de développement qui offrent la capacité d’élaborer des logiciels libres de façon plus efficace et productive.

Le seul prix à payer, nous dit-on, est que ces outils eux-mêmes ne sont pas libres ou s’exécutent comme des services réseaux avec du code que nous ne pouvons pas voir, ou lancer nous-mêmes. Dans leurs décisions d’utiliser ces outils et services (tels que BitKeeper, SourceForge, Google Code et GitHub), les développeurs de logiciels libres ont décidé que « la fin justifie les moyens » et ont en quelque sorte vendu la liberté de leur communauté de développeurs et d’utilisateurs. Cette décision d’adopter des outils de développement non libres et privés a entamé notre crédibilité dans la promotion des libertés logicielles et a compromis notre liberté comme celle de nos utilisateurs d’une façon que nous devrions rejeter.

En 2002, Linus Torvalds a annoncé que le noyau Linux utiliserait le systéme de gestion de version distribué BitKeeper. Bien que la décision ait généré beaucoup de craintes et de débats, BitKeeper a permis aux codeurs du noyau de travailler de manière décentralisée avec une efficacité qu’il n’aurait pas été possible d’obtenir avec les outils libres de l’époque. Certains développeurs Linux ont décidé que les bénéfices obtenus justifiaient la perte de liberté des développeurs. Trois ans plus tard, les sceptiques prirent leur revanche quand le proprétaire de BitKeeper, Larry McVoy, a retiré la licence gratuite d’utilisation de plusieurs développeurs importants du noyau, car Andrew Tridgell avait commencé à écrire un remplaçant libre de BitKeeper. Les développeurs furent forcés d’écrire leur propre outil libre pour le remplacer, un projet connu maintenant sous le nom de Git.

Bien sûr, les relations entre logiciels libres et outils non libres vont au-delà du cas de BitKeeper. Le code source des logiciels du service SourceForge était jadis disponible pour ses utilisateurs, mais les auteurs sont revenus à un modèle totalement fermé. Bien que SourceForge soit construit sur des briques libres, les utilisateurs interagissent avec le logiciel uniquement via le Web sur l’unique site SourceForge. Comme les utilisateurs n’ont pas de copie du logiciel de Sourceforge, ils ne peuvent pas en demander le code source. Des projets similaires comme le service Tigris.org de CollabNet, Google Code et GitHub ont tous des buts similaires, et gardent leur code pour eux de la même façon. Les services sont souvent fournis gratuitement et promeuvent le développement de logiciel libre, mais leur dévouement ne s’étend pas aux logiciels qui font tourner leur plateforme de développement. Le code source de chacun de ces services reste privé et non modifiable par les développeurs utilisant ces services.

Ces outils de développement proprietaires posent un dilemme à de nombreux développeurs de logiciels libres. Le but de chacun de ces services est de permettre le succès des logiciels libres et l’obtention de plus de libertés grâce à l’utilisation d’outils plus efficaces. CollabNet, Google et GitHub annoncent chacun qu’ils veulent que le logiciel libre progresse et qu’ils veulent l’aider à avancer. Pour certaines raisons, ces entreprises ont choisi de soutenir les libertés logicielles par des moyens moins en phase avec les éthiques du mouvement que celle qu’ils cherchent à créer. Le résultat est que les développeurs sont dépossédés. La liberté du code logiciel que produisent ces hackers est dépendante d’une restriction inacceptable.

Tout d’abord, l’utilisation d’outils non libres envoie un message irrecevable pour les utilisateurs du logiciel libre produit. « La liberté des logiciels est importante pour vous », semblent dire les développeurs, « mais pas pour nous ». Un tel comportement sape l’efficacité basique du fort engagement éthique au cœur du mouvement du logiciel libre. À tous ceux qui ont déja fait le choix du logiciel libre, nous devons montrer que nous pouvons réussir – et prospérer – en utilisant des logiciels libres. Nous devons soutenir les alternatives libres face aux systèmes propriétaires, comme Savane qui peut remplacer SourceForge ou Google Code, et qui est à la base de GNU Savannah, ou encore Gitorious, pour remplacer GitHub, en les utilisant et en les améliorant dans les domaines où ils peuvent être améliorés.

Deuxièmement, nous devrions comprendre en nous projetant plus en avant que le logiciel que nous produisons n’est libre qu’en fonction des logiciels dont il dépend pour son usage, sa distribution et son évolution.

La licence GNU GPL et le code source ne signifient pas grand-chose pour un utilisateur qui veut modifier un programme sans avoir un accés libre au logiciel requis pour permettre cette modification. Il ne s’agit pas que de mettre les libertés des développeurs dans la balance, mais aussi finalement celles des utilisateurs et de tous les développeurs qui prendront le relais. Ceux qui choisissent d’utiliser des logiciels non libres placent tout le monde à la merci des groupes et des individus qui produisent les logiciels dont ils dépendent.

Tandis que les outils de développement propriétaires peuvent aider les développeurs de logiciels libres à produire de meilleurs logiciels à court terme, le prix à payer est inacceptable. Dans le débat controversé des logiciels privés et des services réseaux, les développeurs de logiciels libres devraient se placer du côté de « l’excès » de liberté. Compromettre nos principes afin d’obtenir plus de liberté est auto-destructeur, instable et au final injuste envers nos utilisateurs et la communauté des développeurs de logiciels libres dans son ensemble.

Tout comme les premiers mainteneurs du projet GNU se sont d’abord concentrés sur la création d’outils libres pour la création de logiciel libre, nous devons nous assurer que nous pouvons produire des logiciels sans entrave et utiliser des outils incontestablement ouverts. Si nous échouons, les logiciels seront indirectement moins libres. Nous devons refuser l’utilisation de logiciels qui ne nous garantissent pas les libertés que nous tentons de donner à nos utilisateurs par le développement de logiciels, et nous devons faire pression en ce sens sur les producteurs de nos outils de développement. Le logiciel libre n’a pas réussi en compromettant nos principes. Nous ne serons pas bien servis d’un point de vue technique, pragmatique ou éthique en compromettant la liberté des outils que nous utilisons pour constuire un monde libre.

Benjamin Mako Hill
Creative Commons By-Sa

Notes

[1] Crédit photo : Pranav (Creative Commons By)




Geektionnerd : Steam

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




De l’hacktivisme au web 2.0 – De la révolution à sa dissolution ?

Daniel Zanini H. - CC byLes mouvements alternatifs d’émancipation portés par le numérique, dont le logiciel libre fait partie, ont été récupérés et domestiqués par le système et sa force marketing sous la bannière et le vocable du « web 2.0 ».

Un web 2.0 qui présente de plus l’avantage de favoriser l’institution d’une sorte de totalitarisme global décentralisé avec notre complicité et toutes les traces personnelles, permanentes et continues, que nous laissons, le plus souvent volontairement, dans les nuages d’Internet.

Avec l’avènement du web 2.0, non seulement vous voyez s’éloigner le rêve d’une autre société mais vous renforcez le contrôle et la surveillance de l’actuelle ! Difficile de faire pire en quelque sorte…

Telle n’est pas mon opinion mais mon propre (et donc faillible) résumé d’un article parcouru récemment sur Indymedia dont le titre exact est “Become the media!” : de l’hacktivisme au web 2.0.

Attention, c’est dense, politisé et plein de références à des auteurs qui vous seront peut-être peu familiers si vous ne baignez pas dans une certaine culture intellectuelle « de gauche » (cf Félix Guattari, Jello Biafra, Walter Benjamin, Jean Baudrillard, Gilles Deleuze, Michel de Certeau, Michel Maffesoli).

Nous en avons reproduit la fin ci-dessous pour vous donner (ou non) l’envie de le parcourir dans son intégralité[1].

Je ne vous cache pas qu’il m’intéresse d’avoir vos réactions dans les commentaires. En espérant que les uns et les autres sauront s’écouter et échanger en toute sérénité sur un sujet, je le reconnais bien volontiers, un peu glissant. Un petit débat courtois et non un gros troll poilu pour le dire autrement 😉

Pour ce qui me concerne, je ne partage pas la radicalité et le pessimisme du propos et j’ai justement l’impression que les actions que nous menons participent modestement à échapper à ce piège. Mais il est vrai que lorsque le « logiciel libre » devient « open source », il prend le risque de perdre en route tout ce qui fait sa substantifique moelle.

“Become the media!” : de l’hacktivisme au web 2.0 (extraits)

URL d’origine du document

Dr No – 26 juillet 2010 – Indymedia Nantes

(…)

Quoiqu’il en soit, ce dont il s’agit là encore finalement, avec cette « réappropriation », ce « devenir-media » de la masse et cette « démocratisation » des dispositifs d’informations et de communication, c’est du déploiement toujours plus important d’un macro-système technique, d’un maillage global comme dispositif de socialisation forcée par dressage à la discipline inconsciente d’un code, c’est-à-dire – à l’instar du système électoral ou de la consommation – d’imposition de règles du jeu (ici de la communication) et d’intériorisation de ces règles comme subtil mode de mobilisation et de contrôle social. Indépendamment des contenus qui n’en sont que l’alibi, le médium – le code, le modèle, la forme, le canal, le dispositif, la technique – est le message, il influe directement sur nos modes de perception sensibles, modifie nos rapports à l’espace et au temps et par conséquent nos modes d’être-au-monde. En l’occurrence, « ce qui est médiatisé, ce n’est pas ce qui passe par la presse, la TV, la radio : c’est ce qui est ressaisi par la forme/signe, articulé en modèles, régi par le code. » La réappropriation du code ne jouant donc là au final que comme « reproduction élargie du système » sous couvert de nouvelles modalités. C’est pourquoi il ne faut jamais sous-estimer la capacité de ce système à intégrer les innovations (même et peut-être surtout si elles se veulent « révolutionnaires ») a fortiori si celui-ci fonctionne sur les principes d’interaction, de réversibilité, de participation et de feed-back comme c’est d’ailleurs le cas aujourd’hui beaucoup plus qu’hier.

« l’éthique hacker », l’utopie cyberpunk et les expérimentations cyberculturelles, les trouvailles de « l’hacktivisme » électronique et de « l’Internet militant », du mouvement des logiciels libres, l’Open Source, l’Open Publishing, le P2P, le Wi-Fi, les média-tactiques alternatives, collaboratives et communautaires elles-mêmes, c’est-à-dire en somme toutes ces « pratiques moléculaires alternatives » que Félix Guattari appelaient de ses vœux pour renverser le pouvoir grandissant de l’ingénierie logicielle et les nouvelles modalités de la « société de contrôle » ont pour la plupart, dans ce qu’elles avaient d’original et novateur, été absorbées et recyclées par celle-ci et les industriels pour donner naissance à ce que l’on peut appeler les nouveaux « agencements post-médiatiques » du web 2.0.

C’est-à-dire toutes ces nouvelles applications de l’Internet « participatif » et « collaboratif » basé sur le principe du « contenu généré par les utilisateurs », ce qui précisément, on l’aura remarqué, était bien l’idée de « l’open publishing » (publication libre) proposé par le réseau international des sites Indymedia dans l’esprit du partage horizontal de l’information, de la participation et de la collaboration en vue de favoriser l’auto-organisation des groupes et des individus constitués en « machines de guerre » contre l’axiomatique mondiale exprimée par les Etats.

Un Web 2.0 dit « participatif » et « collaboratif » donc, où effectivement, convergence numérique aidant, la masse devient son propre média (MySpace, Facebook, YouTube, Twitter, Wikis et autres blogs), engendrant à leur tour de nouveaux usages qui inspirent également de nouveaux produits, services et dispositifs reconfigurant de fond en comble notre rapport au monde et nos relations sociales, tout en développant de nouveaux marchés ainsi que de nouveaux « business models » (management 2.0, marketing 2.0, « gratuité », « co-création de valeur », etc.) qui incarnent des changements de paradigmes économiques par où se joue la mutation du capitalisme. Car en effet, force est de constater que les principes du « participatif », du « collaboratif », de la « coopération » et du « partage » sont aujourd’hui devenus les principaux éléments d’un nouvel esprit du capitalisme de l’ère 2.0 fonctionnant par « boucles de récupération » et recyclage écosystémique des singularités comme moteur et dynamique de l’innovation (technologique, économique, culturelle, sociale, etc.). C’est en quelque sorte ce qui se présente plus communément aujourd’hui sous l’appellation d’ « innovation ascendante » qui consiste justement pour les entreprises et/ou les institutions à observer, et même à favoriser, les pratiques de réappropriation, investissement, exploration, détournement, expérimentation par les usagers/consommateurs des produits, services et technologies dans le but de réintégrer les éventuelles micro-inventions et les « usages innovants » dans leur propre processus de création et développement industriel, commercial, technocratique, etc.

C’est une dynamique qui s’appuie sur la compréhension des comportements que permet en l’occurrence la « sociologie des usages » et notamment les travaux de Michel de Certeau sur ce qui constitue en quelque sorte les « arts de faire avec » . Recherche qui se voulait un travail de compréhension et en premier lieu de mise en valeur des arts de vivre la société de consommation, par élaboration de « lignes de fuites » (Deleuze et Guattari) pourrait-on dire, c’est-à-dire plus particulièrement des ruses subtiles, des tactiques de résistance, de contournements, détournement, réappropriation, braconnage, dissimulation, en somme toute la multitude de pratiques inventives et créatives qui se disséminent dans la banalité du quotidien des usagers/consommateurs et que la rationalité occidentale, selon les mots de l’auteur, aurait eu trop tendance à occulter. Et on pourrait voir dans ce travail la saisie de l’essence même de la notion anglo-saxonne de « hacking », de son esprit ou de son éthique élargie à l’ensemble de la société. Quoiqu’il en soit, on le voit bien, ce dont il s’agit avec « l’innovation ascendante » mise en œuvre dans le nouveau paradigme économique des entreprises les plus à l’avant-garde du capitalisme c’est de capter/capturer la puissance créatrice de la socialité de base, l’énergie et le vitalisme qui émergent de ce que Michel Maffesoli appelle la « centralité souterraine ». Dans le même ordre d’idée se développe aujourd’hui dans les milieux du marketing et du management, par le biais des différentes plateformes multimédias de la société en réseaux, le « crowdsourcing » (approvisionnement par la foule) qui consiste pour une entreprise là encore à faire « participer » et « collaborer » directement la foule des internautes comme usagers/consommateurs à la recherche et au développement de nouveaux produits et services, à apporter des améliorations, etc..

Enfin, toutes choses mettant en œuvre un processus communicationnel global s’appuyant sur des dispositifs de « feed-back » et des mécanismes circulaires tout à fait caractéristiques des boucles causales rétroactives qui furent à la base de la modélisation des systèmes cybernétiques qui simulent les lois de la nature et dont la finalité, rappelons-le, est le Contrôle par auto-régulation comme mode de management et de gouvernance.

Des systèmes de contrôle et de gouvernance de l’ère des machines de « troisième espèce » qui se déploient sur toute l’étendue de la vie quotidienne par le biais de la globalisation d’un méga-réseau engagé dans un processus matriciel. Une « matrice communicationnelle », un maillage systémique à vocation ubiquitaire qui tend par ailleurs à rendre obsolètes les modèles panoptiques de surveillance hyper-centralisés et transcendants de type orwellien qu’incarne la fameuse figure de « Big Brother ». Car en effet, ce à quoi on a de plus en plus nettement affaire aujourd’hui c’est à un processus de capillarisation du Contrôle en quelque sorte et qui tend par là à devenir totalement immanent.

Comme le remarquait déjà pertinemment Jean Baudrillard au début des années 70 « même à long terme, l’impossibilité des mégasystèmes policiers signifie simplement que les systèmes actuels intègrent en eux-mêmes, par le feed-back et l’autorégulation, ces métasystèmes de contrôle désormais inutiles. Ils savent introduire ce qui les nie comme variables supplémentaires. (..) Ils ne cessent donc pas d’être totalitaires : ils réalisent en quelque sorte l’idéal de ce que l’on peut appeler un totalitarisme décentralisé. » Par ailleurs, dans son texte annonçant l’avènement d’une "subjectivité post-médiatique" Félix Guattari rappelait que toutes les anciennes formations de pouvoir et leurs façon de modéliser le monde avaient été déterritorialisées. C’est ainsi, disait-il, que « la monnaie, l’identité, le contrôle social passent sous l’égide de la carte à puce. » Car en effet, ce qui se joue aujourd’hui avec tout ce maillage systémique planétaire, ce déploiement du méga-réseau matriciel à vocation ubiquitaire, c’est un processus de globalisation des « sociétés de Contrôle » , fluides, ouvertes, modulaires, multipolaires et à géométrie variable comme installation d’un nouveau régime de domination qui remplacent peu à peu les « sociétés disciplinaires » (Foucault) avec la crise généralisée des milieux d’enfermement en système clos (familles, écoles, armée, usines, prisons, hôpitaux, etc.) ainsi que l’avait bien vu à la même époque Gilles Deleuze, et où, entre autres choses, les individus deviennent peu à peu des entités « dividuelles » encodées comme multiplicité de données dans un macro-système d’information. « Ce sont les sociétés de contrôle qui sont en train de remplacer les sociétés disciplinaires. (..) On ne se trouve plus devant le couple masse-individu. Les individus sont devenus des « dividuels », et les masses, des échantillons, des données, des marchés ou des « banques ». (..) les sociétés de contrôle opèrent par machines de troisième espèce, machines informatiques et ordinateurs (..). Ce n’est pas une évolution technologique sans être plus profondément une mutation du capitalisme. »

Mutation post-industrielle du capitalisme de plus en plus flexible, flottant, immatériel, sémiotique et cognitif, où le « service de vente » devient le centre ou l’âme de « l’entreprise » qui a remplacé « l’usine » de production désormais démantelée, automatisée, externalisée et assez souvent reléguée en périphérie du tiers-monde à l’instar des grandes enseignes multinationales qui se concentrent sur les logiques de Communication et le développement médiatique, si ce n’est psycho-technique, de leur « image de marque ». « On nous apprend que les entreprises ont une âme, ce qui est bien la nouvelle la plus terrifiante du monde. Le marketing est maintenant l’instrument du contrôle social, et forme la race impudente de nos maîtres » affirmera ainsi sans détours Gilles Deleuze. De même, « il n’y a pas besoin de science-fiction pour concevoir un mécanisme de contrôle qui donne à chaque instant la position d’un élément en milieu ouvert, animal dans une réserve, homme dans une entreprise (collier électronique). Félix Guattari imaginait une ville où chacun pouvait quitter son appartement, sa rue, son quartier, grâce à sa carte électronique (dividuelle) qui faisait lever telle ou telle barrière ; mais aussi bien la carte pouvait être recrachée tel jour, ou entre telles heures ; ce qui compte n’est pas la barrière, mais l’ordinateur qui repère la position de chacun, licite ou illicite, et opère une modulation universelle. »

Vision qui prend d’autant plus d’importance aujourd’hui avec l’informatisation généralisée de la société, l’injonction à la mobilité, l’hyperconnectivité et les projets de dissémination des technologies numériques et autres puces communicantes (informatique ubiquitaire/ubimedia) dans tout l’environnement physique de nos métropoles postmodernes où peut désormais s’opérer de façon massive, par la grâce de l’ingénierie logicielle, la traçabilité, la géolocalisation, le fichage et le profilage des « dividus » dispersés dans les flux et les réseaux, dans et par lesquels se dispensent désormais leur être-au-monde fantomatique sous « le règne de la Technique planétaire »

Notes

[1] Crédit photo : Daniel Zanini H. (Creative Commons)