Firefox 4, Google Chrome et l’évolution du Web par Chris Blizzard de Mozilla

Keven Law - CC by-saQue les fans de la première heure se rassurent : la version 4 du célèbre navigateur au panda roux – dont la sortie devrait intervenir d’ici la fin de l’année – promet de recoller au peloton !

Au temps pour ceux qui avaient vendu sa peau un peu trop rapidement : le panda[1] nouveau met l’accent sur les performances, à commencer par un nouveau moteur JavaScript qui, une fois optimisé, pourrait même lui permettre de prendre la tête de la course si l’on en croit Chris Blizzard (Director of Web Platform chez Mozilla[2]), dont nous vous proposons ici la traduction de l’interview qu’il a donnée récemment au site derStandard.at (une fois n’est pas coutume, cette traduction a été complétée de références à l’actualité récente avec l’aide de Paul Rouget, Technology Evangelist chez Mozilla).

S’il est difficile de ne pas céder à la mode du benchmarking, on peut toutefois s’interroger sur ce que l’on attend réellement d’un navigateur.

Revenons un instant en arrière : l’irruption de Firefox a permis de réveiller le Web en le libérant de l’hégémonie d’Internet Explorer qui, après avoir éradiqué à peu près toute concurrence sur le marché des navigateurs, n’a plus connu de développement pendant six ans (soit le temps qui sépare la version 6 de la version 7 du navigateur de Microsoft, qui avait même dissout l’équipe de développement dans cet intervalle). Firefox a réussi à propulser le Web vers de nouveaux horizons balisés de standards ouverts propices à l’innovation. Tant et si bien que de redoutables concurrents sont apparus comme Safari d’Apple et surtout Chrome de Google (voir à ce billet du Framablog) et que Microsoft est en train de mettre les bouchées doubles avec son IE 9 pour rattraper son retard.

Faut-il en conclure que Firefox, ayant accompli sa mission, est devenu inutile ?

Il faut en effet reconnaître que le Web ne s’est jamais aussi bien porté qu’aujourd’hui : les concepteurs de navigateurs se battent dorénavant tous pour implémenter les dernières versions des standards ouverts qui sont la base du Web (HTML5, CSS3) quand ils n’en sont tout simplement pas à l’origine. Et pour cela, nous pouvons tous remercier la fondation Mozilla à l’origine de Firefox.

Pourtant, le Web ne se limite pas à des applications riches et jolies devant s’exécuter le plus rapidement possible.

Les grands acteurs du Web, Mozilla mis à part, tirent leurs revenus de l’exploitation de vos données personnelles. La protection de la vie privée devient aujourd’hui un enjeu majeur pour l’utilisateur (qui doit encore en prendre conscience). Mozilla s’apprête à proposer des solutions novatrices dans ce domaine[3]. Qui d’autre que Mozilla, fondation à but non lucratif, a intérêt à rendre aux utilisateurs le contrôle de leurs données personnelles ? Personne. Et ce n’est pas parce que Apple ou Google (et peut-être un jour Facebook) sort un navigateur performant – fût-il libre (Chromium est la version libre de Google Chrome) – que l’utilisateur jouira des mêmes libertés que l’utilisateur de Firefox, navigateur libre développé par une fondation à but non lucratif.

Firefox 4 : Une génération d’avance en termes de vitesse

Firefox 4: One generation ahead of everyone else speedwise

Andreas Proschofsky – 19 août 2010 – derStandard.at
(Traduction Framalang : Don Rico, Siltaar, Goofy et Antistress)

Chris Blizzard de Mozilla nous parle de la concurrence de Google Chrome, de l’évolution du Web comme plateforme et des attentes que suscite le format WebM.

Ces dernières années Firefox a joué le rôle enviable de l’étoile montante dans le monde des navigateurs. Aujourd’hui, non seulement Google Chrome semble lui avoir volé la vedette mais il vient même lui tailler des croupières. Au cours du dernier GUADEC, Andreas Proschofsky a eu l’occasion de côtoyer Chris Blizzard, « Directeur de plateforme Web » chez Mozilla, et il a réalisé l’interview que vous allez lire, évoquant l’état actuel du marché des navigateurs, les progrès du Web comme plateforme et les améliorations qui arrivent avec Firefox 4+.

derStandard.at : Quand nous avons discuté l’année dernière, vous avez noté que, malgré la notoriété grandissante de Google Chrome, la plupart des développeurs présents dans les conférences techniques – comme le GUADEC – utilisent encore Firefox. Si je jette un coup d’œil autour de moi cette année, les choses semblent avoir considérablement changé : bon nombre de ces utilisateurs avant-gardistes semblent être passés à Chrome / Chromium. Est-ce que vous avez un problème sur ce créneau d’utilisateurs spécifique – mais influent ?

Chris Blizzard : En fait je pense que beaucoup de gens utilisent les deux maintenant, mais c’est vrai que c’est intéressant à voir. De mon point de vue de développeur Web je pense toujours que les outils de Firefox sont de loin supérieurs à ceux des autres.

Il est intéressant de noter que nous n’avons pas vu de changements significatifs dans les statistiques utilisateurs, même si Chrome marque des points importants sur ce segment. Il faut préciser que tous ces chiffres que l’on rapporte sont en réalité des statistiques d’usage et non du nombre d’utilisateurs, si bien que cette avant-garde – qui est grosse utilisatrice du Web – influence les statistiques plus que d’autres, ce qui peut faire croire que Chrome est utilisé par davantage de gens qu’en réalité. Nous avons connu le même effet dans les premiers temps de Firefox, à l’époque nous n’en avions pas conscience faute d’outils adéquats pour le mesurer.

Nous avons aussi effectué quelques recherches et découvert qu’un tas de gens semblent choisir leur navigateur suivant des fonctionnalités particulières. Par exemple beaucoup d’utilisateurs préfèrent retrouver leurs sites récemment visités dès l’ouverture de leur navigateur, donc ils utilisent Chrome. S’ils préfèrent démarrer avec une page vierge, ils utilisent plutôt Firefox. Je pense donc que ce que l’on commence à voir, c’est des gens différents qui veulent faire des choses différentes, et qui vont choisir leur navigateur selon leurs préférences. Et nous n’en sommes qu’au début.

Nous savons que nous ne pourrons pas satisfaire les désirs de tous et ce n’est d’ailleurs pas le but de notre organisation. Nous voulons faire en sorte que le Web devienne une plateforme et nous avons plutôt bien réussi sur ce point.

Google se lance maintenant dans un cycle de développement visant à offrir une nouvelle mise à jour stable toutes les six semaines, pour essayer de proposer des innovations plus rapidement aux utilisateurs. Mozilla, de son côté, publie au mieux une nouvelle version par an : cela n’est-il pas handicapant d’un point de vue marketing ?

Cela dépend du rythme que vous voulez adopter. Les gens de Chrome ont une approche un petit peu différente de la nôtre. Il va être intéressant de voir si d’autres utilisateurs que les avant-gardistes seront d’accord pour voir leur navigateur changer tous les mois et demi. Nous préférons prendre davantage de temps pour préparer les gens à des changements d’interface plus importants.

Pour autant nous ne modifions pas toujours le numéro de version pour les gros changements. Citons par exemple l’isolation des plugins que nous avons récemment ajoutée à la série 3.6.x, qui résulte d’un énorme travail et qui a grandement amélioré l’expérience des utilisateurs de Firefox.

À vrai dire, je suis quelque peu sceptique à l’idée d’un cycle de six semaines. Comment peut-on vraiment innover en un laps de temps si court ? Accélérer la cadence est néanmoins dans nos projets, il faut juste que nous trouvions celle qui nous convient.

Un des avantages d’un cycle de publication rapide, c’est que Google peut diffuser très vite des fonctionnalités comme le futur web-store de Chrome. Aimeriez-vous aussi proposer une plateforme de téléchargement d’applications Web chez Mozilla ?

En ce qui me concerne, je pense qu’un app-store pour le Web est une idée intéressante, car en gros cela rend les applications Web plus accessibles et fournit un modèle de monétisation. Mais pour bien faire, il faut tenir compte de nombreux autres paramètres, et c’est là-dessus que nous allons d’abord nous concentrer.

Quels éléments manque-t-il encore pour concevoir un bon web-store ?

Les performances Javascript sont très importantes, mais nous touchons au but, car nous sommes en passe d’obtenir les mêmes performances que les applications exécutées nativement. Vient ensuite le webGL pour les applications en 3D, et nous devons aussi régler la question du stockage de données hors-connexion qui est loin d’être abouti pour le moment. Il faut aussi accorder une grande importance à la sécurité, question sur laquelle nous sommes justement en train de travailler. Par exemple, grâce à la fonctionnalité ForceHTTPS, un site Web pourra dire à un navigateur de ne communiquer avec lui que par données chiffrées, ce qui préviendra certains types d’attaques. Nous nous penchons aussi sur la politique de sécurité des contenus, ce qui sera très utile pour lutter contre une catégorie entière d’attaques type cross-site scripting (NdT : citons par exemple la fonctionnalité X-FRAME récemment introduite contre le clickjacking).

Dans les tests de performances Javascript récents, Firefox semble avoir dégringolé dans le bas du classement, et se place même derrière Internet Explorer 9. N’arrivez-vous plus à suivre ?

Firefox 4 apportera de nombreuses améliorations dans ce domaine-là aussi, mais elles ne sont pas encore intégrées à nos versions de développement. Nous avons constaté que, lorsque notre Tracing-Engine (NdT : moteur basé sur la technologie du tracé) est utilisé, nous sommes plus rapides que tous les autres. Nous ne sommes à la traîne que dans les cas où cette technologie ne peut être exploitée. Nous travaillons donc à améliorer les performances de base de notre moteur JavaScript, qui, combinées à l’optimisation JIT Tracing , nous donneront une génération d’avance sur tout le monde (NdT : Jägermonkey, le résultat de ce travail, vient d’être intégré à la version de développement de Firefox 4).

La vérité c’est que la marge d’amélioration est encore énorme. La génération actuelle des moteurs Javascript a atteint un palier : en pourcentage, les différences que nous constatons entre les différents navigateurs sont infimes. En outre, les tests de performance ne sont plus d’une grande utilité, car, pour la plupart, ces chiffres ne sont plus influencés par les performances Javascript réelles. Voici un exemple des conséquences négatives des tests de performance : nous avons dû fournir des efforts particuliers sur l’optimisation du calcul de décalage horaire car cela influe négativement certains tests de performance, mais ça n’améliore pas réellement les performances Javascript. Sunspider est affecté par ces problèmes et V8 contient aussi du code bancal, il est donc difficile de trouver de bons tests de performance (NdT : Mozilla vient de lancer Kraken, un test censé mesurer les performances JavaScript en situation réelle).

Firefox 4 va utiliser l’accélération matérielle grâce à Direct2D et à DirectWrite sous Windows. Des fonctionnalités similaires sont-elles prévues pour Linux et Mac OS X ?

Dans la limite des outils qui sont disponibles, oui. Nous essayons de procurer aux utilisateurs la meilleure expérience possible sur chaque plateforme. Pour Windows Vista et 7 nous constatons d’immenses améliorations lorsque le navigateur doit réaliser des tâches graphiques intensives. Sur OS X, par exemple, nous prenons en charge l’OpenGL pour la composition d’images, et nous faisons de même sous Linux. Mais en général les API dont nous disposons sous Windows sont meilleures et plus riches que sur les autres plateformes. Sous Linux, Cairo et Pixman étaient censées être rapides, mais hélas l’infrastructure sur lesquelles elles reposent n’a jamais vraiment atteint la vélocité désirée. Sur OS X, Firefox est assez rapide, mais pour l’instant Direct2D confère l’avantage à la version Windows (NdT : plus d’informations sur cet article de Paul Rouget).

L’isolation des plugins devait n’être que la première étape d’un Firefox multi-processus, avec un processus séparé pour chaque onglet. C’est un des gros morceaux du cahier des charges de Firefox 4. C’est toujours prévu ?

Bien sûr, mais pas pour Firefox 4. Ce sera sans doute disponible pour la version mobile avant la version desktop. C’est intéressant de constater que c’est plus facile sur cette plateforme.

Il y a peu, vous avez endossé le rôle de « Directeur de plateforme Web » chez Mozilla. En quoi cela affecte-il vos responsabilités quotidiennes ?

Auparavant, je me chargeais essentiellement de diriger les groupes d’évangélisation et de communication, mais j’ai fini par travailler de plus en plus sur les questions de plateforme Web – réfléchir à l’avenir du Web, discuter régulièrement avec les autres concepteurs de navigateurs. Tout cela a pris une telle importance que j’ai décidé de m’y consacrer à plein temps.

Par exemple, je viens de participer à une réunion de l’IETF, où nous avons eu des discussions très riches sur le http, les websockets, et aussi sur les codecs. Ils sont en train de mettre au point un codec audio de nouvelle génération pour les communications en temps réel et s’appuient sur l’IETF pour les spécifications. En gros, c’est une combinaison de techniques existantes, et l’accent est mis sur une latence très basse, un domaine où le Vorbis ou le MP3 sont mauvais. Ce travail s’effectue en collaboration avec Skype.

Une des grosses annonces de ces derniers mois concernait la création du WebM comme nouveau format vidéo ouvert basé sur le VP8 et Vorbis. Pensez-vous que ses chances de réussites soient meilleures que celles de Theora ?

Oui, pour des raisons de qualité. Quelques explications : il est bon de savoir que lorsqu’on utilise le H.264, on doit en gros choisir un des trois profils que propose ce codec. En général, les sites vidéos doivent offrir la version basique car c’est la seule prise en compte par l’iPhone, notamment dans ses anciennes versions qui sont utilisées par des dizaines de millions de personnes. Donc, si l’on compare les formats vidéo, il faut comparer le VP8 au H.264 « basique », et ce n’est pas qu’une manœuvre réthorique, c’est la réalité pour tous les services. J’ai discuté avec les gens de YouTube, par exemple : ils ont essayé d’utiliser un autre profil du H.264, mais ils ont dû revenir au « basique » à cause du manque de prise en charge. Sur cette base, la question de la qualité n’a plus lieu d’être, et le VP8 est tout à fait compétitif.

Si l’on parle de l’implémentation de la balise vidéo HTML5, il faut aussi prendre en compte l’évolution du marché. Si l’on envisage un monde où la vidéo HTML5 est répandue dans la majorité des navigateurs – par-là je pense à une proportion de 80%, ce qui devrait être le cas d’ici deux ans –, il faut compter avec les tendances et les changements dans les parts de marché des systèmes d’exploitation. On se rend alors compte qu’on se retrouve avec un marché segmenté. Ceux qui voudront diffuser de la vidéo devront prendre en charge à la fois H.264 et WebM. Sur le long terme, je suis certain que les codecs libres sont en meilleure posture, surtout si l’on prend en considération les tendances à venir comme les communications en temps réel ou les plateformes mobiles, où WebM est très performant – ou va l’être grâce à des partenariats avec des constructeurs de matériel.


Firefox 4 va permettre de construire des extensions « poids plume » sous forme de Jetpacks. Quand vont-ils remplacer la génération actuelle d’extensions ?

Les Jetpacks ne sont pas conçus pour remplacer les extensions XUL. Firefox est une plateforme que l’on peut étoffer à l’envi grâce à une large palette d’interfaces. On peut aussi modifier beaucoup de choses dans les paramètres mêmes de Firefox, ce qu’aucun autre navigateur ne permet. Comme projet, c’est extraordinaire : une grand part de nos innovations sont arrivées par les extensions avant d’intégrer directement le navigateur.

Pour nous, les Jetpacks sont grosso modo un équivalent des extensions pour Chrome, qui offrent beaucoup moins de possibilités que nos extensions XUL classiques. Ils seront néanmoins beaucoup plus faciles à réaliser. Nous allons fournir un éditeur en ligne qui facilitera leur développement. Ces Jetpacks seront aussi plus faciles à tester, et l’on pourra les installer sans avoir à redémarrer le navigateur. Ce qui est d’ailleurs déjà possible avec certaines extensions XUL dans Firefox 4, à condition que cela soit signalé et que l’extensions soit codée avec soin.

Notes

[1] Crédit photo : Keven Law (Creative Commons By-Sa)

[2] Chris Blizzard a déjà fait l’objet d’une traduction sur le Framablog : De l’honnêteté intellectuelle et du HTML5.

[3] Lire à ce propos Comment Firefox peut améliorer le respect de la vie privée en ligne, privacy-related changes coming to CSS :visited et Account Manager coming to Firefox.




Entretien avec Hackable:Devices, site de diffusion massive de matériel libre

Hackable:DevicesLes dimanches pluvieux, quand le bobo va chez Ikea, le hacker surfe sur Hackable:Devices…

Si vous étiez des dernières Ubuntu Party ou RMLL, vous n’avez pu passer à côté du stand, toujours très fréquenté, de Hackable:Devices sans remarquer les étranges appareils et instruments insolites, gadgets et machines que cette dynamique équipe présente fièrement aux passants. Et je ne puis cacher mon émotion d’avoir vu pour de vrai une carte Arduino ou une imprimante 3D à l’œuvre, après en avoir d’abord entendu parler en théorie sur ce blog.

Qu’est-ce donc que Hackable:Devices ? Dire qu’il s’agit d’une boutique en ligne proposant du « hardware open source », ou « matériel libre » en bon français, est vrai mais c’est un peu réducteur car ce serait taire la dimension communautaire (et militante) du projet.

D’ailleurs vous êtes ainsi accueilli en première page du site : « Les logiciels libres n’ont pas amené la liberté qu’au logiciel. Chez hackable-devices nous croyons sincèrement que le matériel et l’électronique peuvent être utilisés et développés selon les mêmes processus communautaires. Nous pensons que la culture du DIY (ou Do It Yourself pour Faites-le vous-même) et l’apprentissage par la pratique doivent être encouragés. Nous savons que les gens se rencontrent pour créer, améliorer et s’amuser tout à la fois. Nous sommes persuadés que les objets doivent réellement vous appartenir. »

Tout d’un coup nous voici à des années-lumière du modèle Apple. Et je me prends à rêver que les professeurs de technologies fassent de plus en plus souvent leurs courses sur ce site.

Impossible d’attendre plus longtemps avant de les rencontrer et mettre nous aussi ce passionnant projet en lumière.

Entretien avec John Lejeune et l’équipe des h:D

Réalisé le 11 août par Siltaär pour Framasoft

Bonjour John, pour commencer, pouvez-vous nous dire qui se cache derrière le smiley bleu du logo ?

Alors, l’équipe se détaille de la manière suivante :

  • Cécile Montagne, qui s’occupe des aspects administratifs et comptables
  • Jérôme Blondon, développeur et actuel chef de projet
  • Johan Charpentier, développeur et actuel administrateur système
  • John Lejeune, développeur et actuel community manager / « chef produit », si tant est que les communautés se manage et que les produits aient un chef. 🙂 En charge du rédactionnel sur le site et sur les routes le reste du temps
  • Louis Montagne, CEO de la SCOP Bearstech, à l’origine du projet
  • Wim Vandeputte, CEO kd85.com, aussi sur les routes pour les ateliers

Sans oublier les remontées d’infos via les utilisateurs, les hackers, les hackspaces, etc..

Ainsi que d’autres personnes qui vont rejoindre la société dès qu’elle sera créée, comme Paul Coudamy.

Dans quelles circonstances s’est monté Hackable Devices ?

Le projet est né chez Bearstech, juste après le dernier Chaos Communication Camp (2007), Laurent Haond et Louis Montagne, qui y étaient, sont revenus avec beaucoup d’idées et du matériel, comme un Neo 1973.

Ca a donné lieu à pas mal de projets chez Bearstech, dont la distribution des OpenMoko, puis, suite à des discussions entre hackers lors du 25C3 à Berlin, au sujet de la diffusion du hardware libre et des hacks électroniques en tous genres, ça a bien pris forme.Il y avait déjà un embryon de stand hackable-devices lors du Hacking At Random 2009. C’est à partir de là que les choses se sont mises en place, et que les premiers développements de la plate-forme ont vu le jour.

Comment s’est fait le rapprochement entre Bearstech, Kd85 et faberNovel ?

Bearstech a déjà créé une société avec faberNovel, en 2006 : af83, c’est un partenaire de choix pour réussir le lancement d’une entreprise. Pour Kd85, le plus naturellement du monde, puisque nous nous retrouvions sur les mêmes évènements (FOSDEM, HAR, CCC, RMLL, etc.). Wim a pas mal promu OpenBSD ces dix dernières années.

On discute aussi aujourd’hui avec d’autres partenaires, comme NodA par exemple.

Pourquoi avoir choisi un nom anglais ?

Parce que « Matériels Bidouillables » ça garde une connotation péjorative que « Hackable » n’a pas, et que ça ne sonne plus juste (tout comme Framasoft a pris le pas sur « FramaLogiciel », je suppose) 🙂

Parce que nous voulions d’emblée avoir une couverture Européenne, mondiale (par la nature même des projets et des fournisseurs), et que l’Anglais reste l’Esperanto de facto.

D’autre part, avec tous ces joyeux lurons qui forment l’équipe, nous pouvons répondre aux demandes en anglais, allemand, espagnol, flamand et bien sûr, français. C’est l’anglais qui nous permet de communiquer entre nous.

Enfin, parce qu’on avait besoin d’un nouveau nom, quelque chose qui soit facilement identifiable et qui soit juste à la limite, toujours un peu ambigu, … On voit le hacking comme l’augmentation, l’amélioration ou la compréhension, et c’est ce message que l’on veut faire passer.

Quels sont les objectifs du site ?

Le site n’est qu’une des 3 activités de la future société Hackable:Devices, mais on ne va pas en dire trop tout de suite 🙂

Ses objectifs :

  • Faciliter et promouvoir la distribution du matériel modifiable, en privilégiant celui qui offre des licences libres (en construisant un site rentable permettant de fédérer les distributeurs de ces matériels, de trouver les nouveaux matériels et de les mettre en avant) ;
  • Fédérer et accompagner ceux qui font des prototypes, des petites séries, des projets, afin d’avoir une plate-forme commune et de produire les meilleurs ;
  • Promouvoir l’initiation, l’éducation et le fun à travers certains produits/kits, et bien sur promouvoir le Libre en général ;
  • Être un support pour les évènements et autres salons lorsque les utilisateurs souhaitent « mettre les mains dedans » ;
  • Servir de base à la création d’objets design, libres et numériques.

D’où est venue l’idée de vendre du matériel ?

C’était un besoin à la base. Pour avoir constaté qu’il n’était pas toujours simple de trouver l’info, d’importer des choses sans surprises, puis de gérer les frais divers (port, douanes, etc..), nous nous sommes dis que nous n’étions pas les seuls à avoir ce genre de problématique. L’expérience du Freerunner a été le déclencheur. On voulait pouvoir avoir accès à un LinuxDevices.com, mais sur lequel on pourrait acheter.

Et avec quelles infrastructures ?

Pour l’instant, grâce à celles de kd85 et de Bearstech. Ce sont ces deux sociétés qui soutiennent et développent le projet en attendant la création d’une entité juridique autonome. Le premier pour la logistique, à savoir tout ce qui concerne la réception du stock, les expéditions. Le second pour gérer le reste, à savoir les développements et l’hébergement du site, les fiches produits, le suivi et la facturation, les plaisirs douaniers et administratifs en tous genres. 🙂

En ce qui concerne les évènements et les ateliers, nous nous partageons la tâche selon les disponibilités de chacun, les proximités géographiques, et nous nous retrouvons parfois au complet sur d’autres, comme les RMLL ou les Chaos Computer Congress.

Comment s’est montée la communauté ?

Par le bouche à oreille principalement, et parce que nous sommes nous même issus de cette communauté.

Ensuite, c’est un travail quotidien de mail, de publication, de déplacements pour des démonstrations, d’ateliers d’initiation…

Et aujourd’hui, combien compte-elle de personnes (hackers, créateurs, fabricants, investisseurs) ?

h:D c’est aujourd’hui plus de 500 utilisateurs actifs, un peu plus de 7000 visiteurs mensuels, pour une quarantaine de produits. Beaucoup de nos membres sont des hackers, même si cela tend à se diffuser, au profit d’un public plus large. Les artistes, designers, plasticiens, musiciens, sont de plus en plus nombreux à nous rejoindre et c’est tant mieux.

Les investisseurs, pour l’instant, point. Nous supportons seuls les coûts, mais ça ne saurait tarder 🙂

Pour combien de projets ?

Près d’une dizaine. Tous ne sont pas nécessairement liés à Hackable:Devices et tous ne sont pas encore publiés, il y a pas mal de work in progress.

C’est un des problèmes à surmonter. On a beau dire release early, release often, concrètement, il faut toujours lutter contre la tendance « oui, mais c’est pas encore prêt, j’ai encore quelques trucs à terminer avant publication ».

L’autre souci souvent rencontré c’est, « ben, ça vaut pas le coup, c’est trop simple, je vais pas publier ça !?! ». Typiquement, tout ce qui tourne autour d’Arduino est souvent dans ce cas. 🙂

Et puis il y a des projets qui demandent pas mal de coordination avant de voir le jour, par exemple en ce moment autour de la surveillance de la consommation énergétique, avec une collaboration entre Snootlab, Nod-A et OpenEnergyMonitor.org, ou encore autour de la fabrication d’un notebook communautaire, avec blogARM.

Quels sont les projets les plus actifs ?

Aujourd’hui, en terme de réalisations, je dirais NanoNote, Milkymist, Mutable Instruments, Proxmark (site officiel) aussi.

Quels sont vos projets préférés ?

Difficile comme question. Au sein de l’équipe, chacun a ses préférences, ce qui fait qu’au final, il n’y a pas un projet qui attire toutes les attentions.

À titre personnel, j’aime bien ce qui est lié au son, à la radio, donc je dirais Tryphon (site officiel), Sonodrome (site officiel), Mutable Instruments (site officiel). Mais j’aime aussi Milkymist (site officiel) et NanoNote (site ooficiel), pour l’aspect Copyleft qu’ils illustrent à merveille.

Parlez-moi du projet NoBox/Soxyd référencé sur Hackable-Devices.org. De quoi s’agit-il ?

Il s’agit de permettre aux utilisateurs de se réapproprier les données, au travers d’une « box » à installer chez soi. La problématique est connue de Framasoft, je me souviens avoir lu récemment la traduction de l’interview d’Eben Moglen, par Glyn Moody.

Comment vous y êtes vous intéressés ?

En ce qui me concerne, j’ai découvert cette problématique avec certains membres de FDN il y a quelques temps déjà. Elle commence à se diffuser grâce à l’émergence de matériel adéquat, mais aussi en réponse au cloud et aux questionnements qu’il apporte.

Sur la plate-forme à proprement parler, elle est apparue sur l’initiative spontanée de Gordontesos, après une discussion sur IRC.

Et où en est-il chez vous ?

Gordontesos a commençé les développements sur un Sheevaplug il y a quelques semaines. La coopération est ouverte.

J’ai eu l’occasion à Bordeaux de discuter du sujet avec Benjamin Bayard lors des RMLL 2010, qui me confirmait l’importance de l’expérience utilisateur au niveau de l’interface graphique. C’est à mon sens le point sur lequel se concentrer.

Et le Freerunner, on est en route pour une v2 ?

J’aimerais bien, mais j’en doute. Avec la prolifération des smartphones, l’apparition d’Android et consort, je doute qu’OpenMoko se relance dans l’aventure, au profit du Wiki Reader. À mon sens, cela restera une plate-forme de tests / prototypage / amusement sans jamais atteindre le grand public.

Une petite baisse de régime sur le flux Identica depuis un mois ? Tout le monde est en vacances ?

Oui. 🙁

Enfin, plus maintenant si vous suivez ce lien 🙂

Cherchez-vous de nouveaux contributeurs ?

Toujours.

Qu’il s’agisse d’info à remonter, d’évènements auxquels participer, de produits susceptibles d’intégrer h:D, de traductions, vous êtes les bienvenus.

Pour finir, la traditionnelle question de clôture des entretiens : « Quelle est la question que je n’ai pas posée mais à laquelle vous auriez voulu répondre ? »

Celle-ci justement. 🙂

Blague à part : « Où en est le hardware Libre ? » peut-être.

Réponse : Ça bouge pas mal ces temps-ci, avec des initiatives telles que Ohanda ou encore le Open Hardware Summit de New-York en septembre. Ce sera peut-être l’occasion de voir émerger une définition commune, en cours sur Freedomdefined.




Quand le hacker se découvre parasite !

Genista - CC by-saPour peu qu’on ne le confonde pas avec le cracker et qu’il ne perde pas en route sa pureté originelle, la figure du hacker a bonne presse actuellement.

Tellement bonne presse que certains n’hésitent pas à en faire une sorte de nouvel héros des temps modernes.

Sauf si l’on rejette en bloc cette modernité.

Attention les yeux, l’article que nous vous proposons reproduit ci-dessous est une très virulente critique d’un livre souvent cité en référence sur ce blog: L’Éthique hacker de Pekka Himanen. Mais précisons d’emblée qu’il n’est pas nécessaire de l’avoir lu pour suivre le propos.

Il émane des courants anti-industriels qui se caractérisent par une critique radicale de toutes les technologies issues des révolutions industrielles de ces deux derniers siècles[1].

Dans ce cadre-là, le problème n’est pas de défendre les libertés menacées d’Internet, le problème c’est Internet lui-même. La posture du hacker est alors au mieux inutile et au pire complice voire idiot utile du système.

Ici notre hacker tombe bruyamment de son piédestal et ne s’en relève pas.

Il va de soi que nous ne partageons pas le point de vue de l’auteur. Mais il nous semble cependant intéressant d’offrir de temps en temps un espace à nos contradicteurs. Ne serait-ce que pour ne pas s’enfermer dans une sorte de discours « librement correct » redondant et ronronnant.

Les hackers et l’esprit du parasitisme

URL d’origine du document

Los Amigos de Ludd – août 2009 – Pièces et Main d’Oeuvre

Nous incluons dans cette livraison un commentaire de l’ouvrage L’Éthique hacker et l’esprit de l’ère de l’information, appelé à devenir la profession de foi d’une nouvelle génération de technoconvaincus partageant la certitude que les décennies à venir leur appartiennent. Son auteur, Pekka Himanen, est le nouvel hérétique de cette éthique du travail coopératif et passionné, à mille lieues des éthiques protestantes et catholiques fondées sur le travail esclave et la mortification rétribués dans l’Au-delà.

Notre époque, qui plus que tout autre récompense l’irresponsabilité, favorise l’apparition de doctrines ahurissantes concoctées dans les laboratoires insonorisés des universités et des entreprises d’un monde qui s’écroule de toutes parts. Des volumes considérables de matière grise sont mobilisés pour nous montrer les voies d’accès à la vie radieuse que nous sommes tous invités à embrasser si nous ne voulons pas rater le coche de l’émancipatrice modernité. C’est ainsi qu’il y a quelques années déjà, nous avions eu vent de l’existence de ces hackers qui aujourd’hui brandissent l’étendard de leur nouvelle éthique.

Disons d’emblée que le pastiche du ci-devant Himanen n’aurait pas attiré notre attention une seule seconde, n’était le relatif intérêt qu’il a suscité chez ceux qui appartiennent à ce que nous pourrions nommer pieusement les « milieux radicaux ». Ce qui fait problème ce n’est pas que le livre d’Himanen soit une compilation de banalités et d’envolées lyriques, mais qu’il ait été possible de rêver, ne serait-ce qu’un seul instant, que ce livre puisse être mis en perspective avec la pensée critique. D’où vient ce malentendu ?

Nous ne nous engagerons pas ici, une fois de plus, dans une critique de la société technicisée, une réalité qui, au bout du compte, fournit le seul argument tangible plaidant en faveur du fait que les thèses des hackers ont pu s’imposer dans certains milieux avec autant de force. Néanmoins, nous n’allons pas nous priver de mettre en évidence quelques-unes des incongruités qui nous ont sauté aux yeux à la lecture du livre d’Himanen.

Ce que Pekka Himanen a nommé de manière ambitieuse « éthique hacker » – le seul fait de pousser l’ambition jusqu’à s’auto-décerner une éthique est en soi quelque chose d’assez suspect –, n’est rien d’autre que la sauce idéologique grâce à laquelle les hackers souhaitent donner un certain prestige à leur vie de néocréateurs, de néosavants voire de néoleaders spirituels. Si jamais ces gens-là réussissent à créer un véritable mouvement de masse, et à y tenir leur place, ils seront parvenus une fois de plus à démontrer l’inusable élasticité du système actuel, où l’ambition technique collective n’entre pas nécessairement en conflit avec l’ambition économique privée, les deux s’accordant bien pour diffuser la propagande en faveur du progrès et de ses réseaux technologiques aux quatre coins de la planète. C’est un fait avéré que, dans les années 1980, 1990, se sont développées des technologies qui ont débordé du cadre traditionnel de leur appropriation capitaliste. Dans la société totale des réseaux planétaires, les technologies de l’information passent par-dessus le contrôle des entreprises privées, et l’impératif technique s’est à ce point emparé de la société qu’il requiert à présent la collaboration de tous et de chacun : pour être en mesure de maintenir le contrôle sur tout ce qui se sait, il faut bien que chacun soit informé un minimum de tout ce qui a trait à l’exercice du contrôle. C’est ainsi que la « société en réseau » est devenue un sujet d’orgueil démocratique pour les nouvelles masses, satisfaites de leur collaboration à l’informatisation des peuples et des nations. Littéralement, tout le monde participe, tout le monde y arrive, personne ne reste à la traîne. Les envahis sont les envahisseurs.

La société en réseau est l’exemple le plus évident de la façon dont la société occidentale parachève l’extension planétaire de son mode de vie. D’un côté, la guerre économique et la violence du marché, de l’autre, la propagande d’un monde interconnecté dont tout le monde peut faire usage au même titre. Et, au beau milieu, une mythologie futuriste fondée sur le jeu et le délire collectif qui font entrer en scène les Ulysse de la nouvelle odyssée informatique, ces hackers qui se présentent comme l’élite aventurière des générations futures.

Quand Himanen critique les éthiques chrétiennes et protestantes du travail, il pose les premières pierres de son analyse fragmentaire. Son intention est de présenter le travail du hacker comme une activité fondée sur la créativité et le jeu passionné (bien supérieure aux activés productives de survie ou aux liens sociaux typiques du travail). D’après lui, l’activité du hacker est un jeu, au sens noble du terme. Pour Himanen, le hacker s’est affranchi de tout ce qui relève de la survie, un chapitre vulgaire de sa vie qu’il doit traverser le plus rapidement possible. Ce présupposé admis, il va de soi que tout ce qui adviendra par la suite sera totalement gratuit, puisque, en somme, l’éthique hacker se doit de considérer comme naturellement constitué le monde matériel qui l’entoure. La vie du hacker commence à ce moment précis : il existe une société à l’état brut qui, pour des raisons qui restent mystérieuses, garantit la survie et le fonctionnement des échanges économiques, simples bagatelles auxquelles le hacker, essentiellement absorbé par les échanges symboliques et scientifiques, n’a aucune de ses précieuses minutes à consacrer.

Par ailleurs, le hacker mène son activité librement et inconditionnellement. Sorte de mélange entre le bohémien du XIXe siècle et le penseur oisif de l’Athènes classique, il a besoin de liberté d’action et de temps libre pour s’organiser à son aise.

Himanen écrit :

Un autre élément important dans la façon particulière des hackers d’aborder le travail est leur relation au temps. Linux, Internet et l’ordinateur personnel n’ont pas été conçus pendant les heures de bureau. Quand Torvalds a écrit ses premières versions de Linux, il travaillait tard dans la nuit et se levait en début d’après-midi pour poursuivre sa tâche. Parfois, il abandonnait son code pour jouer avec son ordinateur ou pour faire complètement autre chose. Ce rapport libre au temps est depuis toujours un élément caractéristique des hackers qui apprécient un rythme de vie à leur mesure (p. 37).

Une déclaration spécialement irritante, qui fait irrésistiblement penser à ce que disent les étudiants boursiers récemment débarqués sur les campus lorsqu’ils se targuent de prendre du bon temps tout en se gaussant de la vie bêtement routinière du monde des employés. De telles attitudes sont le propre d’individus chéris de la société, jouissant du privilège de rayonner dans tous les sens et considérant leurs concitoyens comme des bêtes curieuses condamnées à faire des allers et retours dans leur cage. Mais il y a plus. En digne représentant qu’il est de notre époque artificielle, Himanen va jusqu’à négliger les limites du monde naturel où, jusqu’à nouvel ordre, l’activité humaine doit s’inscrire, ne serait-ce que parce qu’elle reste tributaire d’une contrainte énergétique et pratique incontournable : la lumière du jour. Par où l’on voit que le travail des hackers est à ce point séparé du monde de la production, dont ils ne laissent pourtant pas de dépendre pour le moindre de leur geste, qu’ils ont oublié jusqu’à l’existence d’une nature avec ses rythmes à respecter, parce que c’est sur eux que se fonde l’activité des sociétés humaines. Ces vérités de toujours, croulant sous le fardeau de décennies de technicisation, finiront bien par éclater un jour, quand bien même il sera alors trop tard.

Par-delà sa défense et son illustration du mode de vie hacker en tant que style personnel caractérisé par le rejet des éthiques chrétiennes et protestantes, Himanen présente, dirons-nous, trois autres piliers du hackerisme : un modèle de connaissance, un modèle de communication et un modèle de société responsable.

En ce qui concerne le premier, Himanen voit d’un bon oeil la « société en réseau » ou « académie en réseau » en forme de gigantesque communauté scientifique accouchant de nouveaux paradigmes de la connaissance dans une ambiance coopérative et antihiérarchique, l’élève n’étant plus un simple récepteur des savoirs mais un sujet actif impliqué dans leur création. Au passage, Himanen commet l’erreur grossière d’attribuer à la technologie une qualité qui lui est absolument étrangère, celle d’avoir des effets bénéfiques sur la diffusion et le développement des connaissances, alors que l’inverse est notoire : l’augmentation des moyens technologiques s’est en réalité traduite par une chute abyssale du niveau des connaissances, mais aussi par un recul dans leur appropriation réelle et par l’apparition dans la société de pans entiers de gens devenus incapables d’acquérir par eux-mêmes un savoir autonome. La confiance placée dans le progrès technique a été une des causes d’effritement majeure de la confiance en soi et de l’autonomie intellectuelle, et la pensée de ceux qui pensent encore a perdu en vivacité et en capacité de se remettre en question (l’opuscule d’Himanen en est une preuve). On peut toujours parler, effectivement, de développement fantastique du savoir scientifique, de cohésion sans précédent entre les différentes sphères de la connaissance, mais aucun de ceux qui tiennent ce discours ne parlera de ce qu’il y a derrière – ou devant, c’est selon – toutes ces merveilles : l’appui du pouvoir industriel et financier et le profit qu’il en tire. Et tandis que la science se corrompt en se mettant au service de l’exploitation généralisée, tandis que les thèses universitaires, les articles et les communications scientifiques s’entassent dans les banques de données, il devient impossible de trouver au sein de cette masse gigantesque de savoirs et d’opinions la moindre parcelle d’indépendance intellectuelle. Cela, Himanen semble l’ignorer.

Selon lui :

II va sans dire que l’académie était très influente bien avant les hackers du monde informatique. Par exemple, depuis le XIXe siècle chaque technologie industrielle (électricité, téléphone, télévision, etc.) aurait été impensable sans le soutien des théories scientifiques (p. 8l)

Un exemple parfait des tours de passe-passe intellectuels dont notre époque regorge ! Comment ne pas voir que ce qu’Himanen appelle « théorie scientifique » ne s’était pas encore, à cette époque comme c’est le cas aujourd’hui, tout entière mise à la remorque des applications technologiques et industrielles qui lui imposaient leur rythme et leurs demandes ?

Himanen ajoute :

La dernière révolution industrielle a déjà marqué une transition vers une société qui dépend beaucoup des résultats scientifiques. Les hackers rappellent qu’à l’ère de l’information, c’est le modèle académique ouvert qui permet la création de ces résultats plus que les travaux scientifiques individuels.

Cela signifie tout simplement, que loin de se traduire par une montée en puissance du savoir indépendant, cette université ouverte a au contraire apporté dans son sillage la servitude aujourd’hui omniprésente sur tous les campus, dans tous les laboratoires, les bureaux, les colloques et revues scientifiques de la planète. L’« Académie en réseau » d’Himanen est une tour de Babel où tout le monde est tenu de parler la même langue, où tout le monde est d’accord avec tout le monde et où personne ne peut conquérir un espace qui lui soit propre – ce que nombre de chercheurs lucides seraient prêts à reconnaître si leurs voix trouvaient des occasions de se faire entendre au milieu du vacarme des autoroutes de l’information.

Dès l’instant où nous posons la question de la valeur d’usage pour la société du savoir produit sur le réseau, nous devons saisir à la racine le modèle du savoir hacker comme construction collective, et nous demander quelle place il peut bien occuper dans une société qui s’active en vue de son émancipation. Il ne suffit pas, loin de là, de libérer l’information si on ne livre pas simultanément à un examen radical le contenu et les fins de cette information ; l’utopie hacker pourrait bien être en train de faire miroiter un monde merveilleux d’échanges immatériels sur fond d’une société ravagée par l’exploitation et les catastrophes environnementales (ce qui est le cas).

Les arguments auxquels recourt Himanen pour défendre l’usage émancipateur et collectif du réseau touchent des sommets dans l’art de la tergiversation quand il aborde la question du modèle de communication dans une société ouverte. C’est là qu’Himanen ébauche en quelques lignes le synopsis du totalitarisme technologique du monde libre dans son irrésistible marche vers le progrès. Sa pensée peut être ainsi résumée :

  1. La société en réseau est une forme techniquement évoluée de la société ouverte et libérale née il y a plus de deux siècles. C’est dire que la société en réseau intègre les valeurs de défense des droits de l’individu et de ses libertés civiles, pour leur fournir des moyens toujours plus perfectionnés grâce auxquels elles puissent se répandre et se développer.
  2. La preuve la plus récente de l’accroissement des possibilités techniques du processus de civilisation est le rôle joué par les technologies de l’information lors du conflit yougoslave de 1999.

Voici ce qu’Himanen écrit à ce sujet :

Pendant les attaques aériennes de l’Otan destinées à mettre fin aux massacres (c’est nous qui soulignons), les médias traditionnels étaient pratiquement aux mains du gouvernement (p. 109).

À travers l’organisme Witness, qui dénonçait la violence et les agressions, la technologie a servi de relais pour révéler le massacre au grand jour et désobstruer les canaux de la vérité.

Vers la fin du conflit, l’organisation Witness a formé quatre Kosovars pour qu’ils collectent sur support numérique les preuves visuelles de violation des droits de l’homme. Le matériel était ensuite transmis hors du pays via Internet grâce à un ordinateur portable et un téléphone satellite. Ces éléments ont été remis au Tribunal pénal international (p. 99).

Derrière ces paroles on perçoit la silhouette des héros médaillés de la fin de l’histoire. Dans le monde libre où les hackers prennent leurs aises, la vérité est un facteur qui dépend de l’intervention sur les canaux d’information. Et la vérité suffit à elle seule à démasquer le mal. Pour Himanen, la technologie est le seul moyen objectif d’obtenir la transparence pour une société qui ne tolère plus les tyrans cruels du style Milosevic.

Mais pour pouvoir accepter tout cela, il faut au préalable avoir accepté comme bonnes toutes les valeurs de la société de marché planétaire, de ses stratégies de conquête et d’évacuation de zones habitées. Il faut avoir abandonné toute velléité de résistance aux mensonges des groupes tout-puissants qui gèrent la paix, l’ordre et la pauvreté en suivant les caprices de l’économie politique moderne. Il faut avoir déchargé les masses en Occident de toutes leurs responsabilités et compter sur leur acceptation passive d’un mode de vie destructeur. Croire dans ces conditions que la technologie peut être mise au service d’une fin bénéfique signifie qu’on prend pour argent comptant la farce humanitaire qui sert de vitrine aux systèmes en charge de la servitude contemporaine, et les mensonges de leurs leaders élus.

Au fond, cela n’a rien de surprenant venant de la doctrine hacker. Chaque fois qu’il met l’accent sur la confidentialité, sur l’information et la vie privée, Himanen nous donne une preuve de ses origines bourgeoises. Tout cela, ce sont des valeurs qui appartiennent à la société libérale, qui toutes virent le jour pour former le socle de l’économie d’entreprise en cours de formation.

La défense de la vie privée, qui obsède Himanen, est le cheval de bataille des hackers, qui sont cependant très attentifs à maintenir la séparation artificielle d’origine bourgeoise entre la sphère publique et la sphère privée. Les fanatiques de la démocratie formelle sont tout prêts à brandir l’anathème du goulag à la seconde même où la discussion s’aventure sur ce terrain. Comme on le sait, la construction de l’enceinte privée a été la pierre de touche de l’idéologie forgée par la bourgeoisie pour légitimer le nouveau pillage fondé sur l’individualisme et la concurrence effrénée. Ce qui était en jeu, c’était la fameuse liberté négative, socle du droit libéral, autrement dit la liberté de ne pas être dérangé dans ses propres affaires. Jamais maffia ne trouva meilleur moyen de protéger ses affaires, à un moment où elle s’était ostensiblement rendue maîtresse de la quasi-totalité des richesses. Les phraséologies parlementaire, journalistique, légaliste, civique, etc., ont servi aux couches socioprofessionnelles compromises avec cette maffia à rendre crédible la farce d’une société unie. La leçon n’a pas été perdue pour Himanen, qui, en bon progressiste qu’il est, transpose cette phraséologie à la défense des droits individuels et au droit à une information véridique.

Si la doctrine hacker et son combat contre l’ingérence de l’État et des entreprises dans la sphère privée ont pu être assimilés aux pratiques de contre-information si prisées des milieux gauchistes, c’est justement parce que ces derniers en sont graduellement venus à adopter une position purement réactive face au monde de l’information monopolisé par les grandes agences et les grands groupes d’intérêts. La leçon à tirer de tout cela est qu’il faut tenir ferme sur la critique unitaire de ce que produit le monde de la marchandise, seule manière d’éviter la fétichisation galopante des droits formels qui encadrent l’assignation permanente de l’individu dans le monde marchand[2].

Le discours d’Himanen sur la technologie et la guerre ne va pas sans l’acceptation d’un monde chosifié par les techniques et par l’économie politique. Dès l’instant où il sépare le monde de la production à la fois de ses conséquences sur les modes de vie et de l’idéologie technique qui réclame toujours plus de moyens pour renforcer son autarcie, il est normal qu’il fasse preuve de partialité dans son analyse des moyens techniques : voyant en eux des instruments qui peuvent servir à faire tomber les tyrans, il méconnaît qu’ils sont en fait la forme achevée sous laquelle chaque tyrannie économique d’aujourd’hui a besoin de se montrer – en construisant de toutes pièces la vie dépendante de la marchandise hypostasiée.

Pour finir, l’utopie technolibérale d’Himanen verse fatalement dans l’humanitarisme assistanciel. C’est ce que lui-même nomme sans vergogne « la préoccupation responsable ». Se référant à quelques hackers assez connus, il montre qu’ils sont tous au top niveau de l’engagement social :

Par exemple, Mitch Kapor soutient un programme global de protection de l’environnement et de la santé destiné à régler les problèmes sanitaires engendrés par les activités des entreprises. Sandy Lerner, qui a quitté Cisco Systems en compagnie de Léo Bosach avec 170 millions de dollars en actions, a utilisé cet argent pour créer une fondation consacrée à la lutte contre les mauvais traitements infligés aux animaux (p. 132).

Une philanthropie informatique qui mérite sûrement d’être vantée ! Les idées d’Himanen sur la communauté et la solidarité font bien voir quel bonimenteur il est :

Par exemple, je peux annoncer sur le Net les moments de la semaine où je peux donner un coup de main à une personne âgée pour ses tâches domestiques ; je peux annoncer que je mets ma maison à disposition des enfants pour qu’ils puissent venir y jouer après l’école ; je peux dire que je serais enchanté de promener un des chiens du voisinage le week-end. L’efficacité de ce modèle pourrait sans doute être renforcée en lui ajoutant la condition que la personne aidée s’engage à son tour à aider quelqu’un d’autre. Internet peut être utilisé comme un moyen d’organiser des ressources locales. Graduellement, d’autres apporteront leur contribution à la production de grandes idées sociales, et cela en engendrera de plus grandes encore. Il y aurait un effet d’autoalimentation, comme cela se passe avec le modèle hacker au niveau informatique (p. 87).

Ce « modèle social » est l’ébauche parfaite d’une société totalitaire peuplée de voisins aimables et de tondeuses à gazon, tous connectés à Internet pour s’échanger perpétuellement de menus services, pendant que les mégamachines militaires de leurs États, manipulées par les grands groupes industriels, se chargent du pillage de la planète et de ses habitants.

On entend souvent dire que les hackers ont introduit une nouvelle forme de communauté, où les savoirs et les outils sont partagés dans un esprit de coopération entièrement désintéressé.

De notre point de vue, les hackers sont les enfants d’un monde totalement réifié par la technologie et la marchandise, d’un monde qui a fermé toutes les issues aux manières traditionnelles de produire ses moyens de survie. Ce qu’on appelle le web est de ce point de vue la plus fabuleuse des mégamachines jamais rêvée, dans la mesure exacte où il se présente comme une structure intellectuelle superposée au vieux et difficile monde de la production matérielle – déjà si lointain aux yeux des générations actuelles. En outre, le réseau se nourrit de la contribution intelligente de millions d’individus à son perfectionnement, à la différence des anciennes mégamachines dont la conception était le domaine réservé des élites. Le réseau est le point d’aboutissement de deux cents ans de modernisation : c’est le phantasme hyperindustriel des catégories socioprofessionnelles totalement séparées de leurs moyens de production, urbanisées, consommatrices et se consacrant à la gestion de la culture aujourd’hui nécessaire au maintien de la domination. La sphère tout entière de l’économie de production et d’élimination des déchets est masquée par cette fantastique mégamachine qui semble flotter dans le vide et qui a toutes les apparences d’une excroissance intellectuelle et passionnelle à l’état pur.

La critique fugace qu’Himanen fait de la survie rend à elle seule manifeste le peu de consistance du mode de vie proposé par les hackers : l’esprit ludique, altruiste et de coopération est une guigne dont ne se fichent pourtant pas les minorités privilégiées de « l’ère de l’accès ». Au milieu de tout cela… Qui ou quoi assure le fonctionnement du système ?

La croissance de l’idéologie informationaliste va de pair avec le développement à toutva de la société capitaliste industrielle, dont la base matérielle est assurée par la production technicisée de marchandises, par la destruction des économies locales et par une intensification de la prolétarisation de populations entières et de leur environnement. Au bout du compte, l’idéologie informationaliste est le propre d’une caste privilégiée qui veut croire que les limites de la production pour la survie ont été surmontées, et tous les problèmes qu’elle posait avec, sans voir que le prix à payer a été un retour de la planète entière en deçà des limites de la survie. Une chose est sûre : le programme économique libéral, adossé au développement des marchés soutenus par les valeurs informatiques et par leur commercialisation, ne rencontrera pas d’obstacles insurmontables du côté des techniciens de la veine d’Himanen, qui rêvent d’un réseau humanitaire de services et de bonnes oeuvres.

Le combat mené de nos jours au sein du réseau informatique pour maintenir une « coopération volontaire » est emblématique de la résignation du plus grand nombre face à une société entièrement soumise aux ordres de la technologie capitaliste. Voilà pourquoi les entreprises n’ont plus qu’à laisser faire cette coopération collective spontanée et à en tirer tout le profit qu’elles peuvent, soit, comme elles le font déjà, en la capitalisant en partie, soit tout simplement en la laissant se développer, certaines qu’elles sont que chaque création technique finit tôt ou tard par contribuer à la croissance des besoins techniques du système. À l’intérieur du réseau, le seul progrès est l’accroissement de la dépendance envers la société en réseau, que seul un faible d’esprit pourrait identifier avec la totalité sociale et ses besoins.

Le cas du gourou du logiciel libre, Richard Stallman, en dit long sur le cercle vicieux dans lequel s’est enfermée l’économie en réseau (net economy), qui revendique pour le réseau une liberté antimonopolistique et anti-accapareurs au nom d’un monde où seule la marchandise a voix au chapitre, et où jamais la maintenance des supports techniques du système n’est remise en question[3]. Le libre accès aux codes sources, la possibilité d’utiliser et de modifier les programmes sans avoir à se soucier des droits d’auteur, la défense d’une conception libre et collective des logiciels, les échanges désintéressés de savoirs et d’outils, toutes ces émouvantes revendications reflètent le drame collectif d’une génération coincée entre son intelligence pragmatique et ses illusions technologiques, les seules qu’elle a reçues en guise de transmission effective.

L’obsession qu’ont les hackers de supprimer les droits d’auteurs et de propriété sur les programmes, les livres, les oeuvres d’art, etc. est typique de l’obsession productiviste de tous ceux qui sont disposés à cohabiter pour toujours avec l’inflation des informations médiatiques et des savoirs séparés. Les hackers ont peut-être trouvé très subversif d’attaquer la notion d’auteur, mais ils auraient mieux fait de s’interroger en priorité sur le sens et la valeur d’usage des créations d’auteurs, et sur leurs finalités sociales. On ne nous fera pas croire que les logiciels sont de simples intermédiaires entre l’intelligence collective et ses réalisations pratiques. Le software est devenu en lui-même un médium, qui se reproduit à l’infini sans que personne ne se pose plus la question de la nature et de la finalité du médium technique qu’il implique[4].

Étant donné qu’elle n’a cure ni des besoins sociaux et de leur nature exacte, ni de la question de la division du travail et du caractère totalitaire de la technologie en régime capitaliste[5], l’« éthique hacker » ne peut être qu’une éthique du nouvel esprit parasitaire qui s’accroche au monde pour profiter au maximum de l’instant présent, gaspiller toujours plus d’énergie, et bousiller un nombre toujours plus grand de populations et leurs territoires. Par sa méconnaissance totale, au niveau pratique et quotidien, des rudiments de la survie collective, le hacker se transforme en une sorte d’indolent hyperactif. Par leur méconnaissance des problèmes techniques et du pillage de tout ce qui fait vivre la planète, les hackers se révèlent à nous pour ce qu’ils sont : des fanatiques de l’artificialisation dont le projet n’ajoute qu’un maillon de plus à la chaîne des irresponsabilités qui pèse sur la société humaine de tout son poids destructeur.

Pour toutes ces raisons, l’assimilation fréquemment faite entre, d’une part, les luttes contre les droits d’auteur dans le monde du software, et, d’autre part, les luttes contre les brevets sur les semences et sur les organismes vivants en général, ne peut que résulter d’une confusion volontairement entretenue. Les premières cherchent à se mettre à l’abri sous le voile de dignité des secondes[6]. Dans le premier cas, nous avons affaire à une exigence qui se félicite de l’irréversibilité d’un monde technicisé avec lequel il convient même de collaborer, y compris de façon altruiste et désintéressée, tant que la survie dorée de ces collaborateurs – les hackers – peut être assurée par l’existence des structures techniques antisociales et par la circulation sans encombre des marchandises. Dans le second cas, nous avons affaire à un combat contre la technicisation forcée, les privilèges, le monde de la marchandise, la collaboration avec le pouvoir, et qui prône un retour à des schémas traditionnels d’exploitation de la nature dans un cadre collectif. Dans le premier cas, nous avons affaire à la communauté en réseau jaillie du terreau à jamais incritiqué de l’« abondance empoisonnée » de la société du capital ; dans le second cas, au projet d’une communauté dont tous les membres partagent la responsabilité d’une production à échelle humaine et qui se refuse à tirer des chèques en blanc sur l’avenir d’une technique dont les effets s’annoncent si dévastateurs que personne ne pourra en assumer le coût. Dans le premier cas, nous avons des gens hyperadaptés aux formes modernes de séparation ; dans le second des gens qui défendent avec obstination les ultimes vestiges d’un monde faisant place à des formes autonomes de production. Seule une passion immodérée pour la confusion peut conduire à mettre sur un même plan deux combats aussi radicalement opposés dans leurs motivations fondamentales[7].

Aucune éthique du travail libéré grâce aux machines ne peut déboucher sur un combat en faveur d’une activité humaine libérée des chaînes de la dévastation capitaliste. En croissant et en se multipliant allègrement dans l’atmosphère conditionnée de la société technicisée, les hackers ne peuvent que contribuer à la destruction de tout ce qui reste de réalité extérieure à cette société.

Extrait de : « Les amis de Ludd. Bulletin d’information anti-industriel », tome 2 (titre original : « Los amigos de Ludd. Boletín de información anti-industrial »), numéros cinq et six), publié en 2009 aux éditions La Lenteur (Paris), p. 61-76.

Notes

[1] Crédit photo : Genista (Creative Commons By-Sa)

[2] Milosz écrit très justement : « Ce que l’homme de l’Est dénomme “formalisme inerte de la bourgeoisie” est par ailleurs l’assurance pour un père de famille de retourner chez lui le soir pour dîner et de ne pas partir en voyage dans une région plus propice à accueillir les ours polaires que les êtres humains. » Mais l’objet de la critique est désormais le pouvoir totalitaire d’une modernisation qui est l’héritière aussi bien du socialisme scientifique que du capitalisme démocratique.

[3] Pour en apprendre davantage sur le point de vue réactionnaire de Stallman, on peut lire son détestable article « Qui surveille les surveillants ? » publié au début de l’année 2002 par le tabloïd aujourd’hui disparu Désobéissance globale.

[4] Voilà ce que peut donner une interview de Stallman à propos du Logiciel libre : « - Ce système ne risque-t-il pas selon vous de favoriser une croissance exponentielle des programmes informatiques ? C’est vrai ! C’est un effet collatéral d’importance négligeable comparée aux effets de la promotion de la liberté. »

[5] Le fait que les hackers et les gauchistes soient deux populations qui se recoupent en partie en dit long sur l’incapacité de ces derniers à analyser de manière rigoureuse la technologie.

[6] Cf. l’article de Stallman, « Biopirates ou biocorsaires ? » Archipiélago n°55, où il formule de nouveau cet amalgame pernicieux.

[7] Bien évidemment, il existe au sein des luttes contre les OGM et autres délices de l’industrie moderne des tendances qui profitent de l’occasion pour réaffirmer leur credo citoyenniste et réformiste, et mènent ces luttes à l’impasse à coups de petits calculs arrivistes. Mais cela n’entame pas les présupposés fondamentaux partagés par d’autres tendances, même s’ils sont affirmés de manière partielle.




De la confiance au sein d’une communauté

Notsogoodphotography - CC bySi j’ai demandé l’autorisation à son auteur d’exhumer et reproduire ici-même un de ses articles pourtant déjà vieux de presque dix ans, c’est parce qu’il touche à une notion simple mais essentielle : la confiance.

La grande chance, ou plutôt la grande force, du logiciel libre, et dans son sillage de toute la culture libre, c’est de bénéficier dès le départ d’un certain niveau de confiance.

Pourquoi ? Parce que la licence libre qui l’accompagne.

C’est cette mise sous licence libre qui non seulement donne son nom au logiciel libre mais qui, de par les garanties offertes, favorise l’émergence d’une communauté autour du projet et tisse des liens solides entres ses membres.

Cela ne constitue évidemment pas un gage absolu de succès (cf Comment détruire votre communauté en 10 leçons), mais c’est tout de même un sacré avantage lorsque l’on sait combien cette confiance peine à s’installer dans des structures plus « classiques ».

Le texte ci-dessous est de Jean-Yves Prax qui travaille à Polia Consulting, une société de conseil en Knowledge Management.

Il ne se focalise nullement sur le logiciel libre en tant que tel mais ne s’aventure pas non plus jusqu’à la relation amoureuse[1]. Il se limite ici « à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process… ».

Vous trouverez en bas de page une version PDF de l’article.

Le rôle de la confiance dans la performance collective

URL d’origine du document

”Texte de la conférence faite par Jean-Yves Prax pour l’ouverture du KMForum 2001, le mardi 25 septembre 2001, au Palais des Congrès, Porte Maillot, Paris.

La confiance est un facteur déterminant de la performance collective et en particulier dans le cas des communautés virtuelles ou/et d’équipes dont la production est à forte intensité immatérielle. Même si, d’expérience ou d’intuition, nous partageons tous cette conviction, les mécanismes de création de la confiance restent énigmatiques et peu maîtrisables : la confiance, qu’est-ce que c’est ? comment la créer ? A quelle rationalité obéit-elle ?

Analyser la confiance, c’est aborder l’un des aspects les plus délicat du fonctionnement d’une communauté.

La confiance, qu’est-ce que c’est ?

La littérature sur le sujet est abondante et les définitions très diverses et variées, par exemple :

  • La confiance analysée d’un point de vue rationnel, comme un choix raisonné, par exemple le ratio effort-bénéfice d’une action individuelle au sein d’un collectif ; on entend parler d’indice de confiance, de ce qui est maîtrisable ; la notion peut être utile en cas de délégation.
  • La confiance analysée d’un point de vue normatif, conforme à un label, une certification : par exemple, nous sommes capables de confier notre santé et notre vie à un médecin parfaitement inconnu au seul prétexte qu’il a obtenu un diplôme national, diplôme que nous ne vérifions même pas, alors que nous hésiterons à confier les clefs de notre véhicule à un laveur de voitures.
  • Une confiance par intuition, par croyance, qui ne suppose pas de véritable délibération critique, elle est affective, esthétique, c’est-à-dire purement émotionnelle et par conséquent tout à fait irrationnelle. Beaucoup de comportement racistes sont typiquement dans ce registre (la fameuse "note de sale gueule") mais si vous ne le croyez pas, essayez donc d’aller solliciter un emprunt à votre banquier en babouches !
  • La confiance vue d’un point de vue social, basé sur une sorte « d’engagement de moyens » issu d’un code partagé (souvent implicite) de devoirs réciproques, de valeurs morales et d’éthique. « Il n’a pas réussi, mais il a fait tout ce qu’il pouvait ».

La perspective rationnelle se définit comme « une attente sur les motivations d’autrui à agir conformément à ce qui était prévu dans une situation donnée ». Elle considère l’individu comme un acteur rationnel, prévisible, et sa rationalité est confortée par le fait que ses choix et ses actes sont gagnants, utiles. Cette définition de la confiance, largement présente dans le monde professionnel, a des avantages et des limites.

  • L’avantage majeur est qu’il n’y a pas confusion entre « confiance » et « affinité » ; une personne peut acheter un livre par amazon.com, car elle a confiance dans le système de paiement et de livraison, mais aucune affinité. Ne vous est-il jamais arrivé, impressionné par le professionnalisme d’un individu que vous n’aimez pas beaucoup, de dire « il est bon et je lui fais entièrement confiance, mais je ne passerais pas mes vacances avec lui ».
  • La limite réside dans la prévision de rationalité : un individu confronté à un système complexe : environnement incertain, jeu de contraintes, choix difficiles, n’agit pas toujours de la façon qui était prévue et n’obtient pas toujours les résultats escomptés. Les freins à l’innovation se cachent dans ce domaine : un individu sera freiné dans ses idées et initiatives dès le départ, non pas à cause d’une analyse du projet, mais tout simplement parce qu’il dérange l’ordre établi.

La théorie de la rationalité en économie voudrait que les choix individuels s’appuient sur des raisonnements utilitaires :

  • Si je préfère A à B et B à C, alors je préfère A à C ;
  • Toute décision est fondée sur un calcul coût-bénéfice, ou sur une analyse de risque.

Dans la vraie vie, cette rationalité n’existe pas ! En effectuant leurs choix les hommes n’obéissent pas aux lois bayésiennes de la décision :

  • ils accordent trop de poids à l’information qui leur est parvenue en dernier ;
  • ils ne sont pas sensibles à la taille de l’échantillon, c’est même souvent l’inverse[2],
  • ils réagissent plus à la forme qu’au fond.

La perspective sociale considère qu’un individu n’est pas évalué uniquement par ses résultats mais aussi en tant qu’acteur social ; il peut conforter les prévisions ou de les décevoir, à condition qu’il le fasse dans le respect de ses obligations morales et d’un certain nombre de codes.

Une intentionnalité limitée au champ d’interaction

Comme nous le constatons, le champ d’investigation est immense, mais on peut singulièrement le réduire si l’on accepte l’hypothèse d’une confiance limitée au domaine d’interaction ; je m’explique : lorsqu’on fait confiance à une autre personne, ce n’est pas dans l’absolu, c’est dans un domaine précis, qui est le champ d’interaction prévu ; ainsi une jeune adolescente qui accepte de sortir au cinéma avec son ami lui fait confiance par rapport à un certain nombre de critères ; ces critères ne sont pas les mêmes que ceux qui dicteront le choix du futur directeur général d’une firme internationale, ou encore d’un guide de haute montagne.

Nous nous limiterons ici à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process…

Si l’on prend soin de distinguer la confiance de l’affinité, alors on devine que, dans un groupe de travail ou une équipe, la confiance est en forte interaction avec la compétence : chaque membre fait confiance à un individu pour sa capacité à…

Alors la question devient : « comment créer dans une équipe les conditions de la confiance mutuelle ? »

Comment créer la confiance ?

L’approche de la compétence que propose R. Wittorski[3] nous renseigne sur le processus de création de confiance au sein d’un groupe ; selon lui, la compétence s’élabore à partir de cinq composantes :

La composante cognitive : elle est constituée de deux éléments : les représentations et les théories implicites (paradigmes) ; on distingue les représentations cognitives (savoirs et schèmes d’interprétation) et les représentations actives (construction par l’auteur du sens de la situation).

  • La composante affective : c’est l’un des moteurs de la compétence. Elle regroupe trois éléments : l’image de soi (valorisation de notre personne), l’investissement affectif dans l’action (plaisir de ce que l’on fait), l’engagement (motivation). Le premier élément suggère à quel point elle est influencée par l’environnement social immédiat : un jugement positif ou négatif agira directement sur l’image de soi et aura pour effet de renforcer ou casser la motivation (voir l’effet Pygmalion ci-dessous).
  • La composante sociale : elle représente la reconnaissance par l’environnement immédiat de la pratique de l’individu ou du groupe et aussi l’image que ces derniers se font de cette reconnaissance ; ce dernier point indique que la composante sociale comporte également le choix que l’acteur fera de « ce qui est montrable ». La stratégie du connaisseur n’est pas tant de connaître mais de faire savoir qu’il connaît.
  • La composante culturelle : elle représente l’influence de la culture sociale sur les compétences.
  • La composante praxéologique : elle renvoie à la pratique dont le produit fait l’objet d’une évaluation sociale ; il s’agit de la partie observable (évaluable) de la compétence.
L’effet Pygmalion

Nous opterons pour une approche mixte, à la fois rationnelle, sociale et affective de la confiance, c’est à dire l’ensemble des facteurs permettant la collaboration entre les membres d’une équipe, basées sur le respect mutuel, l’intégrité, l’empathie, la fiabilité. Les cinq composantes citées ci-dessus sont à la fois l’image de soi même, et l’image de soi vu à travers le regard des autres. Le groupe agit comme un miroir grossissant ; en psychologie, on appelle cela l’effet Pygmalion : "La prédiction faite par un individu A sur un individu B finit par se réaliser par un processus subtil et parfois inattendu de modification du comportement réel de B sous la pression des attentes implicites de A".

Il s’agit d’un mécanisme amplificateur en boucle : un jugement négatif de A casse la confiance de B en lui même, ce qui se voit et a pour effet de renforcer A dans son jugement négatif initial[4].

La confiance dans le partage de connaissances

Au cours de nos missions de Knowledge Management, nous avons pu interroger un certain nombre de professionnels de tous niveaux sur la question : « qu’est-ce qui favorise (ou empêche) le partage de connaissance dans un groupe de travail ? » Tous ont spontanément insisté sur le caractère primordial de la confiance dans une équipe et ils ont précisé les facteurs susceptibles de la créer :

1. Réciprocité (jeu gagnant-gagnant)

J’accepte de donner mes idées, mon ingéniosité, mon expérience au groupe, mais j’attends que les autres membres en fassent autant ; chacun veille à respecter un équilibre en faveur d’une performance collective. Ce mécanisme de surveillance exclut le « passager clandestin », c’est à dire celui qui à l’intention de recueillir les fruits du travail du groupe sans y avoir vraiment contribué.

2. Paternité (identité, reconnaissance)

J’accepte de donner une bonne idée à mon entreprise, et de voir cette dernière transformée en une innovation majeure ; mais je ne tolèrerais jamais de voir l’idée signée du nom de mon chef à la place du mien. Il s’agit d’un fort besoin de reconnaissance de la contribution d’un individu au sein d’un groupe.

3. Rétroaction (feed-back du système)

L’erreur est la première source d’apprentissage ; à condition d’avoir un feed-back du système.

L’enfant apprend par un processus répétitif de type essai-erreur-conséquence :

  • essai : il faut que l’organisation encourage les initiatives, les « stratégies tâtonnantes » afin de développer l’autonomie et la créativité ; comment un enfant apprendrait t’il à marcher s’il avait peur d’être ridicule ?
  • erreur : elle doit être documentée et communiquée (feed-back) ; la conséquence la plus immédiate sera d’éviter aux autres de la reproduire !
  • conséquence : c’est le point le plus fondamental ; un système est apprenant dans la mesure où il délivre à l’individu le feedback sur son action, ce qui lui permet immédiatement d’évaluer l’impact de son action sur le système. C’est ce qui pose problème dans les très grandes organisations : l’individu peut faire tout et son contraire, dans la mesure où il n’a jamais de réponse du système , il ne saura jamais évaluer le bien-fondé de ses actions et progresser.

Dans un groupe, l’erreur doit être admise, c’est un signe très fort de la confiance et du fonctionnement effectif du groupe. En revanche on ne devrait jamais laisser quelqu’un la dissimuler.

4. Sens (unité de langage, de valeurs)

Une connaissance strictement personnelle ne peut être partagée que par l’utilisation d’un code et d’une syntaxe connue d’un groupe social, qu’il soit verbal ou non verbal, alphabétique ou symbolique, technique ou politique En faisant partie de la mémoire collective, le langage fournit à chaque individu des possibilités de son propre développement tout en exerçant un fort contrôle social sur lui. Ainsi, le langage est à la fois individuel, communicationnel et communautaire.

Mais ce n’est pas tant un problème de traduction que de sens : dans une conversation, deux interlocuteurs peuvent arriver à partager des mêmes points-de-vue s’ils établissent un processus de coopération : écoute active, participation, questionnement, adaptation sémantique, feed-back, reformulation. En effet, si le mot, comme symbole collectif, appartient à la communauté linguistique et sémantique, le sens qu’il recouvre est purement individuel car il est intimement lié à l’expérience et à l’environnement cognitif dans lequel se place l’individu.

La confiance, une construction incrémentale

Les auteurs et nos expériences s’accordent sur la nature incrémentale du processus de construction de la confiance ; dans certains domaines commerciaux, par exemple, on dit « il faut 10 ans pour gagner la confiance d’un client, et 10 minutes pour la perdre ! ».

Cette notion est largement étayée par le modèle de Tuckman qui voit quatre état chronologiques (ontologiques) majeurs dans le développement d’un groupe : formation, turbulence, normalisation, performance[5].

La confiance se construit, puis se maintient ; alors qu’il est difficile de distinguer un processus standard de construction de la confiance, en revanche, il semble qu’un modèle en 5 composantes puisse rendre compte de son maintien : instantanée, calculée, prédictive, résultat, maintien.

La confiance instantanée

A l’instant même de la rencontre, un individu accorde à l’autre un « crédit de confiance » ; c’est un processus instantané mais limité, peu fondé ni étayé, donc fragile, sous haute surveillance ; une sorte de confiance sous caution. C’est ce qui permet à des gens qui sont parachutés dans des groupes temporaires de pouvoir travailler ensemble, par exemple dans les équipes de théâtre ou de production cinématographique, dans les équipages d’avion, dans les staffs médicaux, etc.

Cette confiance se base principalement sur deux facteurs :

  • On estime que les autres membres ont été sélectionnés par rapport à des critères de fiabilité, compétence, valeurs, etc. On a affaire à la notion de tiers-certificateur, dont on verra plus loin que le rôle peut être capital.
  • On suppose qu’il y a réciprocité : si je n’accorde pas ma confiance à l’autre, alors l’autre en fera autant et il nous sera impossible de construire la moindre relation.

Ce type d’équipe se met très vite au travail et devient performant sans passer par les longues et progressives étapes de maturation.

La confiance calculée

Cette étape est franchie lorsque les acteurs attendent qu’une collaboration apporte un certain bénéfice. La confiance trouve alors sa source dans la conformité ou non de l’exécution d’une tâche collaborative particulière ; par exemple, la confiance d’un client dans une entreprise générale qui construit sa maison peut être assortie de mécanismes de contrôle et de clauses de pénalités de façon à maîtriser des dérives ou des comportements opportunistes.

L’une des façons de créer un climat de confiance est de mettre en place des procédures, comme la définition des rôles et responsabilités, des mécanismes de reporting, etc.

La confiance prédictive

Dans le process prédictif, la confiance est largement basée sur le fait que les acteurs se connaissent bien : ils se basent sur le comportement passé pour prédire le comportement à venir. Les acteurs qui n’ont pas la possibilité d’avoir des relations ou expériences communes réclameront des séances d’entraînement, des réunions ou d’autres dispositifs leur permettant de mieux se connaître.

La confiance basée sur le résultat

Dans ce mécanisme, la confiance est basée sur la performance de l’autre. Au départ, cette confiance dépend des succès passés ; elle sera encore renforcée si l’autre accomplit sa tâche avec succès, et rompue si des problèmes sont rencontrés. Ce mécanisme est particulièrement important dans les communautés virtuelles où les acteurs ne se connaissent pas, ne peuvent pas voir comment les autres travaillent ; ils ne peuvent juger que sur le résultat : délai, qualité des produits

La confiance intensive

Finalement la confiance intensive suppose que les deux parties identifient et acceptant les objectifs, finalités et valeurs de l’autre.

La confiance dans les communautés virtuelles

Le texte ci-dessous est le résultat d’une expérience menée avec quatre groupes d’étudiants devant effectuer une travail commun à distance en utilisant des outils de groupware et de visioconférence.

L’expérience a montré que la confiance jouait un rôle primordial dans la qualité du travail collaboratif et que l’usage d’un outil présentait de nombreux risques de sérieusement l’entamer, voire la détruire. Un certain nombre de comportements ont été révélés comme porteurs de danger :

  • s’enflammer : s’énerver tout seul et se décharger dans un longue tirade écrite ;
  • poser des requêtes ou assigner des tâches irréalisables ;
  • ignorer les requêtes ; ne pas répondre à ses mails ;
  • dire du mal ou critiquer quelqu’un ;
  • ne pas remplir ses engagements.

Bien entendu on se doute que ce genre de comportement n’est pas fait pour améliorer la confiance, mais il se trouve que l’usage d’un outil les rend davantage possibles qu’une interaction physique. En effet, dans une conversation face-à-face, il se produit des sortes de micro-boucles qui ont la vertu de désamorcer des conflits par une meilleure compréhension des points-de-vue de chacun. La plupart des crises sociales sont des crises du langage et du sens.

Le tableau ci-dessous résume les facteurs qui renforcent ou au contraire diminuent l’établissement de la confiance dans une communauté.

La confiance est renforcée quand :

  • La communication est fréquente, les membres sont bien informés et partagent leurs compréhensions.
  • Les messages sont catégorisés ou formatés, ce qui permet aux récepteurs une économie de temps.
  • Les tâches, rôles et responsabilités sont bien définis, chaque membre connaît ses propres objectifs.
  • Les membres tiennent leurs délais et leurs échéances.
  • Il y a un esprit positif permanent, chaque membre reçoit des encouragements et un feed-back.
  • Les membres s’entraident mutuellement.
  • Les attentes personnelles et celles du groupe ont été clairement identifiées.
  • Les membres ont le même niveau d’engagement.

La confiance est affaiblie quand :

  • Il y a peu de communication, les idées ne sont pas partagées.
  • Les membres ne sont pas réactifs ; certains messages urgents restent sans réponse.
  • Les objectifs n’ont pas été clairement définis.
  • Les délais et livrables n’ont pas été clairement définis.
  • L’esprit n’est pas positif et il n’y a pas de feed-back ou celui ci est systématiquement négatif.
  • Les attentes personnelles et celles du groupe n’ont pas été identifiées.
  • Les membres cherchent plutôt à esquiver, à éviter de contribuer.
  • Les membres ne s’engagent pas vraiment.

Ces facteurs contribuent à une performance du groupe élevée ou faible, qui elle-même contribue par une boucle de retour à la motivation des acteurs pour coopérer. On peut parler d’une véritable spirale de la confiance.

La spirale de la confiance

A partir des différents éléments cités ci-dessus, on peut donc évoquer un processus cumulatif, une sorte de spirale, qui peut être positive ou négative :

  • au départ, un acteur va contribuer au groupe sur la base d’une « confiance instantanée », donc forcément limitée ;
  • en fonction de la contribution des autres, du côté positif du feed-back et éventuellement de la performance constatée, cet acteur sera incité à renforcer sa contribution.

En sens opposé, on peut vite imaginer comment se crée un « processus contre-productif » où la dimension sociale d’un groupe joue dans le sens contraire de la compétence individuelle et finit par démotiver complètement la personne. En d’autres termes, si on oppose une personne compétente à un système déficient, le système gagne à tous les coups.

La compétence individuelle, 6ème facteur de performance collective

Dans cet esprit, une étude nord-américaine a démontré que la compétence individuelle n’intervenait qu’en sixième position comme facteur de performance collective ; les spécifications des produits, le système organisationnel, les feed-back du système aux actions étant des préalables à l’efficacité collective :

  1. Spécifications claires (produit de sortie, standards )
  2. Support organisationnel (ressources, priorités, processus, rôles )
  3. Conséquences personnelles (reconnaissance des autres )
  4. Feedback du système (résultat d’une action)
  5. Savoir-être de l’individu (physique, mental, émotionnel)
  6. Compétence et savoir individuel

Cela tend à montrer que les dispositifs de formation professionnelle sont certes nécessaires, mais qu’il peuvent être très dispendieux s’ils ne s’inscrivent pas dans une démarche globale, incluant une refonte des organisations (modes de fonctionnement de l’équipe, management), du système d’évaluation et de reconnaissance (objectifs, réalisation, évaluation de la performance), des processus (modélisation des tâches et des compétences), des spécifications produits.

Les conventions du travail collaboratif

Revenons à nos équipes virtuelles ; il semblerait qu’un certain nombre de conventions ou protocole favorisent l’établissement d’un niveau de confiance suffisant pour un travail collaboratif efficace. Ces conventions se regroupent en cinq catégories :

  • Catégorie : Intégrité
    • Caractéristiques : honnêteté, éthique, loyauté, respect, fiabilité et engagement
    • Facteurs et comportements : être honnête, tenir ses engagements,être réactif, être droit et loyal, être fiable
  • Catégorie : Habilitation
    • Caractéritiques : savoirs, savoir-faire, compétences individuelles et collectives
    • Facteurs et comportements : mettre en application avec succès les savoirs, compétences, partager les expériences, les bonnes pratiques
  • Catégorie :Ouverture
    • Caractéristiques : volonté de partager des idées et des informations, intérêt aux autres, apprendre des erreurs
    • Facteurs et comportements : informer les autres,partager librement les idées et les informations, être curieux,donner un feed-back positif,reconnaître ses erreurs
  • Catégorie : Charisme
    • Caractéristiques :empathie, envie de bien faire, bonne volonté, générosité
    • Facteurs et comportements : s’entraider,être amical, être courtois,avoir de la considération,rester humble,savoir apprécier le travail des autres
  • Catégorie : Attentes
    • Caractéristiques : bénéfice potentiel, cohérence, évaluation
    • Facteurs et comportements : être à l’écoute des attentes, rechercher un consensus ou des compromis, rester cohérent sur les attentes

Ce qui est important dans cette énumération de facteurs, c’est qu’ils n’ont pas tous la même importance par rapport au processus cumulatif de construction de la confiance :

  • Certains sont mineurs, ils seront corrigés en temps réel : quelqu’un oublie de communiquer une information, le groupe lui fait remarquer, il s’en excuse ; c’est une mise au point nécessaire.
  • Certains sont « proportionnels » : tout le monde n’a pas le même charisme et cela n’empêche pas forcément un groupe de fonctionner.
  • Certains sont majeurs et définitifs : c’est notamment le cas des facteurs regroupés dans la catégorie « intégrité » ; une trahison sera perçue comme une atteinte définitive à la confiance.

Conclusion : le rôle de la confiance dans la connaissance collective

Une fois admis que la subjectivité, l’affectif, l’émotion, gouverne nos représentations individuelles, on conçoit que le processus de construction collective d’une représentation passe nécessairement par une étape de mise en commun des perceptions, de confrontation, de négociation et de délibération de ces différentes subjectivités. Ce processus nécessite des qualités humaines d’empathie, de « reliance  »[6] davantage que des capacités d’analyse.

En ce sens, l’organisation n’est pas tant un système de « traitement de l’information » mais bien de « création de connaissance collective ». C’est là que réside l’enjeu humain du Knowledge Management.

Du Knowledge Management au knowledge enabling

Partant de ces considérations sur la nature de la connaissance, profondément engrammée dans l’individu en tant que sujet, on peut en déduire qu’on ne manage pas la connaissance, comme on manage un objet ; le terme Knowledge Management, que j’utilise volontiers, est en fait un abus de langage ; tout au plus peut on manager les conditions dans lesquelles la connaissance peut se créer, se formaliser, s’échanger, se valider, etc. Les anglo-saxons parleraient de knowledge enabling.

Cela permet également d’introduire une précision fondamentale : le management de la connaissance collective est avant tout une problématique de flux ; ce qui est important c’est de manager les transitions entre tous les états de la connaissance : tacite, implicite, explicite, individuel, collectif, etc. Tous les outils du KM (socialisation, formalisation, médiatisation, pédagogie) doivent se focaliser sur l’optimisation de ces flux de transition.

Notes

[1] Crédit photo : Notsogoodphotography – CC by (Creative Commmons By)

[2] « Un mort c’est un drame, dix morts c’est un accident, mille morts c’est une statistique »

[3] R. Wittorski, De la fabrication des compétences, Education permanente, n°135, 1998-2

[4] Alain, dans Dieux déguisés, nous décrit magnifiquement l’effet Pygmalion : « J’ai souvent constaté, avec les enfants et avec les hommes aussi, que la nature humaine se façonne aisément d’après les jugements d’autrui, …Si vous marquez un galérien, vous lui donnez une sorte de droit sauvage. Dans les relations humaines, cela mène fort loin, le jugement appelant sa preuve, et la preuve fortifiant le jugement… La misanthropie ne mène à rien. Si vous vous défiez, vous serez volé. Si vous méprisez, vous serez haï. Les hommes se hâtent de ressembler au portrait que vous vous faites d’eux. Au reste essayez d’élever un enfant d’après l’idée, mille fois répétée à lui, qu’il est stupide et méchant; il sera tel… »

[5] Les termes originaux de Tuckman forming, storming, norming, performing sont assez difficiles à traduire. Beaucoup d’auteurs français traduisent notamment Storming par conflit ; je pense que, dans le mot anglais storming, comme par exemple dans brainstorming, il y a une connotation de chaos créatif, de nécessité de passer d’un état à un autre ; l’adolescence pourrait être une bonne métaphore. De même « Performing » doit être compris au sens de la « représentation d’un orchestre » où l’on entend une pâte musicale unique, au sein de laquelle il est impossible de dissocier un instrument.

[6] Le mot est d’Edgar Morin




Le Libre Accès ou le retour de la Grande Conversation par Jean-Claude Guédon

« Pour partir de loin, je dirai que le Libre Accès répond a une situation de base importante, qui est que la science, globalement et mondialement, est une Grande Conversation.

Et ce processus de découvertes et d’inventions, que l’on trouve dans la science et la technologie d’ailleurs, repose sur la facilite de converser, d’échanger et de construire sur la base de choses antérieures et ainsi de site.

Or on est dans une situation où pour des raisons multiples, complexes et historiques largement, la conversation a été entravée, empêchée, diminuée, ralentie, rendue plus exclusive pour certains au détriment d’autres et ainsi de suite.

Et tout le mouvement du Libre Accès vise quelque part à restaurer les conditions optimales de cette Grande Conversation.

C’est-à-dire de permettre à n’importe qui a les moyens de lire ces textes d’une façon ou d’une autre, d’aller chercher ces textes facilement, de les consulter facilement, de travailler avec eux, d’élaborer d’autres textes, d’autres recherches, d’autres résultats, et ainsi de suite.

Donc le Libre Accès est simplement une manière de mettre en oeuvre un rêve ancien qui était celui de la République des Lettres et des Sciences du XVIIe siècle, qui était de créer une Grande Conversation avec un certains nombres de pairs. Les pairs en l’occurrence étant ces gens qui étaient égaux les uns aux autres par la façon dont ils avaient réussi à se former, à devenir des scientifiques, à travailler ensemble.

Le Libre Accès à lui tout seul ne résoudra pas tous les problèmes de la science contemporaine. Mais le Libre Accès déjà donne une première réponse partielle aux inégalités qui se sont développées graduellement dans le monde scientifique, dans la Républiques des Sciences, en donnant une chance nouvelle à cette Grande Conversation.

Et aussi en développant peut-être des possibilités tout à fait nouvelles pour la question de l’enseignement. Car évidemment quand on a accès aux derniers résultats de la recherche, on peut enseigner une science plus à jour, plus proche du fond de la recherche, et ainsi amener les étudiants plus près d’une capacité d’intervenir beaucoup plus forte… »

La suite de ce passionnant entretien avec Jean-Claude Guédon, ci-dessous en vidéo :

—> La vidéo au format webm

URL d’origine du document

Réalisation Alain Ambrosi – Image et montage Abeille Tard – Production Vecam / C&F éditions

Ce document est issue du très intéressant DVD, ou plutôt doculivre, Sciences & démocratie, véritable mémoire du premier Forum mondial éponyme qui s’est déroulé à Belém en janvier 2009. D’autres extraits sont disponibles sur le site du projet.

L’occasion pour nous de saluer et faire connaître l’excellent travail de la maison d’édition C & F Éditions animée entre autres par Hervé Le Crosnier.




Est-ce grave docteur quand Linux baisse et Ubuntu stagne dans Google Trends ?

Dans un récent billet intitulé Quel avenir pour Linux sur le poste de travail ?, Tristan Nitot posait la question suivante, que l’on peut aussi qualifiée de question qui tue : « Alors qu’on constate que le marché du PC est en fort déclin et que le téléphone mobile se profile comme étant le moyen d’accès à Internet premier pour une majorité de gens, Linux aura-t-il le temps de percer avant que la fenêtre d’opportunité ne se ferme ? Linux aura-t-il le temps de conquérir l’ordinateur de bureau avant que celui-ci ne devienne marginal ? »

Une chose est sûre, si l’on se fie à Google Trends, « Linux » est en spectaculaire déclin :

Google Trends - Linux

Voyez par vous-même

Pour rappel Google Trends « est un outil issu de Google Labs permettant de connaître la fréquence à laquelle un terme a été tapé dans le moteur de recherche Google, avec la possibilité de visualiser ces données par région et par langue » (source Wikipédia).

On pourrait se dire que peut-être est-ce à cause de l’irrésistible envolée d’Ubuntu. Mais non Ubuntu, quand bien même il ait rattrapé Linux, stagne aussi, jusqu’à baisser même sensiblement ces derniers temps :

Google Trends - Ubuntu

Voyez par vous-même

Les deux ensemble :

Google Trends - Linux + Ubuntu

Voyez par vous-même

Attention, cela ne signifie donc rien d’autre que le fait suivant : les internautes passant par le moteur de recherche Google tapent moins souvent les mots clés « Linux » et « Ubuntu » qu’avant. Et c’est tout.

Mais j’ai bien peur que cela soit quand même signifiant…




Le Loup et le Chien

Simaje - CC byLe petit garçon s’ennuyait tout seul chez lui.

Il avait un devoir scolaire à faire pour le lendemain mais il préférait contempler le panorama, par la fenêtre du douzième étage de son appartement : trois barres d’immeuble identiques au sien entourant un parking et un parc, les murs de la résidence, plus loin la route et puis encore plus loin la rivière qu’il aimait bien, même si on ne pouvait plus s’y baigner l’été. Trop polluée avaient dit les autorités.

La vue n’avait rien d’extraordinaire en soi mais elle lui était familière. Et puis c’était amusant de voir tout ça de si haut perché.

Il y avait des enfants qui jouaient juste en bas, dans le parc. Il en connaissait quelques uns. Mais il n’avait pas le droit de les rejoindre. Sa maman disait que ce n’était pas sûr et que c’était de « mauvaises fréquentations ».

Il trouvait que sa maman exagérait parce que tout cela se passait à l’intérieur de la résidence. Une résidence protégée par une enceinte et contrôlée en son unique point d’entrée par un gardien et des caméras de surveillance. En plus chaque immeuble avait ses propres caméras, et pour y pénétrer il y avait un digicode puis un interphone. Le code changeait souvent mais en ce moment c’était « 3142 ». C’est drôle, non, la valeur approchée de Pi arrondie au millième ! Il était fier d’avoir trouvé cela tout seul.

Bon, alors, ce devoir scolaire… Il n’avait pas vraiment d’excuses parce que, contrairement à d’habitude, c’était pas mal intéressant. Il fallait apprendre par coeur la fable de La Fontaine Le Loup et le Chien.

C’est l’histoire d’un loup qui jalouse la vie tranquille et confortable d’un chien jusqu’à ce qu’il découvre que « le prix à payer pour sa sécurité c’est d’être tenu en laisse ». C’est la maîtresse qui disait cela comme ça et c’est vrai qu’elle formulait bien les choses la maîtresse.

Quand elle l’a lu pour la première fois devant nous, elle a posé le livre, s’est assurée que tout le monde avait bien compris et elle a demandé si on préférait le loup ou le chien. Au début, c’était un peu le silence dans la classe. On cherchait surtout à savoir ce que la maîtresse voulait qu’on réponde. Et quand on a pigé qu’elle voulait justement qu’on soit pas d’accord, alors on s’est détendu et on a répondu comme on voulait. Moi, j’ai choisi le chien mais j’étais bien content que la maîtresse ne me demande pas pourquoi.

Le problème, c’est que même quand je les aime bien, je ne suis pas très fort en poésie. Je retiens pas tout et j’ai du mal à me concentrer longtemps sur une tâche. Je le sais puisque c’est ce qu’on me dit depuis la maternelle.

Alors le petit garçon se remit à sa fenêtre. Et il vit alors plusieurs caravanes s’engager puis parcourir lentement la route…

Ils s’en vont, pensa-t-il spontanément. Et cela ne l’étonna pas.

C’est normal, non, pour des « gens du voyage » de s’en aller ailleurs au bout d’un moment ! Sauf que là, il en était sûr, le départ avait été un peu forcé. Et puis d’abord on ne dit pas gens du voyage mais Roms.

Il avait appris cela – et d’autres choses encore comme la signification des mots « nomade » et « sédentaire » – parce que depuis leur arrivée, un mois auparavant, on en parlait souvent dans le quartier, à l’école et même à table avec les parents. On en parlait souvent mais on n’en parlait pas avec eux.

Ils s’étaient installés pas loin, à quelques centaines de mètres, mais là encore interdiction familiale formelle d’aller y voir de plus près. Pourtant, maman, contrairement à papa, elle en disait plutôt du bien à table. Elle disait que c’était une communauté ancestrale, avec une riche culture, qui se montrait solidaire et ne s’était pas perdue dans l’individualisme et le consumérisme, et que c’était à nous de nous adapter et non l’inverse. Alors papa lui souriait et lui répondait qu’il ne tenait qu’à elle de tous les inviter ce soir à dormir dans notre salon. Et maman, ça n’avait pas l’air de l’amuser que papa dise ça. Elle répondait un peu énervée qu’il fallait qu’il arrête de faire son malin et que c’était de la « responsabilité des pouvoirs publics », expression que j’avoue je ne comprenais pas bien – « individualisme » et « consumérisme » non plus d’ailleurs – mais vu l’état de maman, ce n’était vraiment pas la peine d’en rajouter.

C’est dommage parce que je lui aurais bien aussi demandé sur le ton de la provocation pourquoi on disait souvent à la récré que « c’étaient tous des voleurs » ! Moi j’y croyais pas, même si je me demandais comment ils faisaient pour vivre. Faut dire que je me posais aussi d’autres questions moins importantes à leur sujet. Je me disais par exemple qu’ils n’avaient sûrement pas de connexion Internet et que ça doit faire bizarre aujourd’hui de vivre sans. D’ailleurs, nous aussi on est des voleurs. Ben oui, puisqu’on télécharge tous sur Internet !


En tout cas, ils avaient éprouvé toutes les peines du monde à s’installer de manière provisoire quelque part. Même quand le terrain était vide depuis des années, il possédait toujours un propriétaire. Et celui-ci ne tardait pas à se manifester pour refuser vigoureusement leur venue et leur demander plus ou moins gentiment de quitter les lieux. On les avait ainsi déjà déplacés quatre fois. Et c’était visiblement une fois de trop.

Voici donc tout ce que se disait le petit garçon, le nez collé à la fenêtre, en voyant défiler cet étrange cortège.

Il y avait des gens qui marchaient à côté des caravanes, sans se dire un mot, ou alors doucement parce qu’on n’entendait rien de loin. Lorsque la dernière caravane disparut de son champ de vision, il resta un moment suspendu puis se souvint qu’il avait une poésie à mémoriser.

À la réflexion, il se dit qu’il préférait peut-être le loup finalement.

Crédit photo : Simaje (Creative Commons By)




La vie n’est pas en lecture seule

Ciprian Ionescu - CC byUn fichier informatique est dit « en lecture seule » lorsque vous n’avez que le droit de l’exécuter et donc de le lire. Alors qu’un ficher disponible « en lecture/écriture » vous offre en plus la possibilité de le modifier.

Vous n’en ferez peut-être rien mais cette liberté supplémentaire change la donne puisque vous n’êtes plus condamné à être passif. Si un jour il vous prend l’envie d’ajouter du code à un logiciel libre ou de compléter un article de Wikipédia, vous pouvez le faire.

Par extrapolation, nous ne voulons pas d’une vie qui nous serait proposée par d’autres uniquement en lecture seule. Nous souhaitons pouvoir agir sur elle et y participer. « L’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire », nous dit ainsi Benjamin Bayart.

Techniquement parlant, tout est en place pour que cela ait bien lieu et les nouvelles pratiques de la jeune génération témoignent tous les jours de cette aspiration[1].

Et pourtant, il semblerait que certains ne souhaitent pas nous voir profiter pleinement de ce progrès. Et d’ériger alors toujours plus de barrières et de péages artificiels.

Comme nous le signale son auteur en fin d’article, ce petit texte rédigé dans le train en 2006 « a pour simple but de vous faire réflechir aux politiques des grands groupes des médias et/ou de votre gouvernement ». De nombreux bits ont beau avoir coulé sous les ponts d’Internet depuis, il garde toute son acuité. Jusqu’à y voir parfois modestement une sorte de manifeste de la jeunesse du début de ce nouveau siècle.

La vie n’est pas en lecture seule

Life is not read-only

Olivier Cleynen – 2006 – Licence Creative Commons By
(Traduction Framalang : Olivier, Pablo, Djidane et Siltaar)

Pour eux, c’est de la piraterie. Carrément du vol, voilà ce qu’est le téléchargement. Vous prenez quelque chose qui a un prix, sans le payer. Volez-vous à l’étalage ou cambriolez-vous des maisons ? Pourquoi alors télécharger gratuitement ?

Créer du contenu est très difficile : rien que pour remasteriser, créer l’emballage et faire de la publicité pour la dernière compilation, il faut aligner trois millions de dollars. Comment les artistes peuvent-ils s’en sortir ? Comment la vraie culture peut-elle encore survivre ?

En fait. Peut-être que vous n’avez pas vraiment dépossédé quelqu’un de quelque chose. Peut-être ne vous êtes-vous pas vraiment servi dans un rayon. Peut-être que vous n’auriez de toute façon pas dépensé un centime pour ce truc « protégé contre la copie ».

Et tous ces trucs ont la peau dure. De la musique que vous n’avez pas le droit de copier, des films que vous n’avez pas le droit d’enregistrer, des fichiers protégés par des restrictions et des bibliothèques musicales qui disparaissent lorsque vous changez de baladeur… Certaines entreprises produisent même des téléphones et des ordinateurs sur lesquels elles restent maîtresses des programmes que vous pouvez installer.
Les choses empirent lorsque la loi est modifiée pour soutenir ces pratiques : dans de nombreux pays il est devenu illégal de contourner ces restrictions.

Qu’attendez-vous de la vie ? Quelles sont les choses qui comptent vraiment ? Lorsque vous faites le bilan de votre année, qu’en retenez-vous ? Les bons moments passés entre amis ou en famille ? La découverte d’un album génial ? Exprimer votre amour, ou votre révolte ? Apprendre de nouvelles choses ? Avoir une super idée ? Un e-mail de la part de quelqu’un qui compte pour vous ?

Et des choses passent au second plan : un grand nombre de pixels, le tout dernier iPod… déjà dépassé, un abonnement « premium », une augmentation vite dépensée, profiter de sa toute nouvelle télévision HD… Tout le monde apprécie ces trucs, mais si on y réfléchit un peu, c’est pas si important.

Vous ne deviendrez certainement pas un astronaute exceptionnel. Vous ne traverserez pas l’Atlantique à la nage. Vous ne serez pas leader international. La vie c’est maintenant. Et c’est quand on partage ses idées, ses pensées et sentiments.

La vie n’est pas en lecture seule. Elle est faite de petites choses qui ne peuvent être vendues avec des verrous. Si l’on ne peut plus choisir, essayer, goûter, assister, penser, découvrir, faire découvrir, exprimer, partager, débattre, ça ne vaut pas grand chose. La vie devrait être accessible en lecture et en écriture.

Peut-être que le droit d’auteur n’est pas aussi légitime que certains voudraient nous faire croire. En fait, le discours de Martin Luther King « I have a Dream © » est toujours protégé par le droit d’auteur. Vous ne pouvez pas chanter la chanson « Joyeux anniversaire © » dans un film sans payer de droits. L’expression « Liberté d’expression™ » est une marque déposée.

Le partage de fichiers est criminalisé. Certains sont jugés et emprisonnés pour avoir développé des technologies qui permettent d’échanger des fichiers (la loi réprime le fait « d’éditer, de mettre à la disposition du public ou de communiquer au public, sciemment et sous quelque forme que ce soit, un logiciel manifestement destiné à la mise à disposition du public des copies non-autorisées d’œuvres ou objets protégés »).
Mais qu’en est-il de ceux qui ont inventé et vendu les magnétoscopes, les photocopieurs, les lecteurs de cassette munis d’un bouton d’enregistrement ? Et d’ailleurs, où sont les personnes qui ont inventé les baladeurs numériques ?

Vous avez dit deux poids, deux mesures ? Des milliers de personnes gagnent leur vie en poussant nos enfants à fumer ou en développant l’export de mines anti-personnelles. Et à coté de ça, le partage de fichier, ces mêmes fichiers que l’on peut voir sur YouTube, est puni par une amende compensatoire pouvant atteindre 150 000 dollars par fichier.

Et on dit que l’industrie de la musique est en danger.
Qui veut d’une industrie musicale ? Et plus particulièrement telle qu’elle existe ? Laissons l’industrie, aux boîtes de conserve et aux voitures.

La culture ne se meurt pas dès que vous téléchargez un fichier. La créativité n’est pas diminuée lorsque vous découvrez quelque chose. C’est toute la société qui en profite lorsqu’on peut apprendre et s’exprimer.

Participez. Appréciez. Découvrez. Exprimez. Partagez.

Donc. Une société équilibrée où les artistes peuvent gagner leur vie et où le partage de fichiers n’est pas criminalisé est possible. Voici quelques suggestions :

Musique

  • Allez voir les artistes en concerts (sauf s’ils vendent leurs places 200€)
  • Que pensent et font vos artistes favoris ? Renseignez-vous, vous découvrirez peut-être quelque chose
  • Achetez intelligemment votre musique
  • Si l’artiste est mort maintenant, gardez votre argent pour le dépenser autrement
  • Ne vous contentez pas d’écouter, chantez !
  • Ne racheter pas la musique que vous possédez déjà en CD ou vinyl.

Participez

Films

  • Fréquentez les petites salles (qui se soucient surement plus de l’artiste que de l’industrie)
  • Fuyez les MTP (DRM) et les lecteurs « labellisés »
  • Partagez les bons films avec vos amis, ceux qui sont pour vous immanquables.

Logiciel

Tous les jours

LifesNotReadOnly.net a pour simple but de vous faire réflechir aux politiques des grands groupes des médias et/ou de votre gouvernement. Ça n’est qu’un petit manifeste rédigé dans le train en 2006. Olivier Cleynen en est l’auteur. Vous êtes libre de répliquer le contenu de ce site Web, même pour des applications commerciales, sous les termes de la license CC-by.

Notes

[1] Crédit photo : Ciprian Ionescu (Creative Commons By)