Facebook, petite analyse anthropologique avec YourOpenBook.org

Mohd Shazni - CC by L’équipe Framalang s’est dernièrement attelée à la traduction d’un court article de Gene Weingarten, au sujet de ce grand site de réseautage social sur le web. Derrière une apparente naïveté, l’auteur se targue de réaliser une étude anthropologique à partir des données personnelles des millions d’utilisateurs de Facebook, qu’il collecte via YourOpenBook.org, un moteur de recherche dédié aux messages courts de statut de ce qui n’était à l’origine qu’un trombinoscope universitaire en-ligne. Or, si jusque-là la fonctionnalité pouvait sembler manquer au site officiel, c’est aussi qu’elle met en évidence le faible degré de protection des données personnelles de ses utilisateurs que Facebook offre, au moins par défaut.[1].

Ironie du sort, la semaine de sortie de l’article en question, Facebook fut secoué d’une quinte de toux numérique le rendant injoignable pendant plus d’une heure, ce qui anima de grandes conversations sur les autres grands réseaux sociaux, principalement à coup de gazouillis d’ailleurs…

Pas de quoi fouetter un chat me direz-vous, des sites web qui tombent en panne ça arrive, et même au plus gros. Par contre, dans le cas d’un site qui se propose de gérer vos albums photos, votre carnet d’adresses en fouillant dans vos boîtes à lettres électroniques (pour finalement proposer de les remplacer par son service de messagerie interne) et jusqu’à vos connexions aux autres sites web via un service doublon d’OpenID, l’incident peut être révélateur et s’avérer pédagogique. Pour ma part, j’ai ouvert un compte Facebook sans grande conviction en 2006, parce que c’était de bon ton dans l’entreprise où j’étais en stage à l’époque, mais je ne prévoyais pas un plus grand avenir à ce compte qu’à mes comptes Orkut[2] ou CopainsDAvant[3]. Or, si pour ma part j’ai tenu parole, n’alimentant pas vraiment un réseau plus que les autres, force est de constater que l’un d’eux a pris au fil des ans de plus en plus de place sur le web. Et à vrai dire, chaque fois qu’une connaissance s’ajoute à mes contacts, j’ai l’indolence de ne pas aller chercher son adresse de courriel dans son profil pour la noter dans un fichier chez moi. Or, il s’avère que pendant cette fameuse interruption de service, je me suis retrouvé à devoir envoyer un message « urgent » à un ami dont je n’avais jamais noté l’adresse ailleurs… et je n’ai pas pu.

Finalement il apparaît que Facebook, l’utiliser c’est se piéger, même en étant renseigné et modéré. Au moins, les mails stockés sur mon disque dur par Thunderbird[4] me restent accessibles, même hors ligne. Quel qu’en soit le parcours, je conserve ainsi mon courrier numérique sous mon toit (et j’en fais régulièrement des sauvegardes).

Cette anecdote me rappelle une petite phrase, innocemment lancée par Eben Moglen au milieu de son discours en plénière de clôture de la 1ère journée de l’OpenWorldForum la semaine dernière, et qui fut spontanément applaudie par le public, avec 3 secondes de décalage :

“For the moment, what we see is people that chose to put their pictures and personnal informations, their day-to-day emotional and friendships connexions all together in the computers of a single for-profit compagny, run by a fool.”

« Ce que nous voyons pour le moment, se sont des gens qui choisissent de mettre leurs photos et leurs informations personnelles, leurs amitiés et états d’âme au quotidien tous ensemble dans les ordinateurs d’une seule et même entreprise commerciale, menée par un fou. »

Cette fois c’est décidé, dès que j’ai un Diaspora, un GNU/Social ou une Nobox qui tourne chez moi, je ferme mon compte Facebook.

Gene Weingarten: Pourquoi je déteste énoooooooooorrrmément Facebook…

Gene Weingarten: I hate Facebook sooooooooooooooooooooooooooooooo much…

Gene Weingarten – 17 septembre 2009 – WashingtonPost.com
(Traduction Framalang : Julien Reitzel, Goofy, Siltaar)

Les critiques affirment que je suis injuste à l’égard de Facebook simplement parce que je l’ai décrit comme un océan de banalités partagées entre des gens avec une vie aussi vide à laquelle ils font écho. Je défends ma thèse mais admets que mon témoignage n’était pas basé sur des preuves scientifiques — totalement anecdotique — , mais basé sur mes plongeons occasionnels dans ce lagon tiède et morne de conversations fadasses.

Mais cela a changé. Je trouve qu’il est désormais possible de quantifier mathématiquement l’ennui, grâce à un nouveau site web. Openbook, accessible à l’adresse YourOpenBook.org, est un moteur de recherche pour les « messages de statut » de Facebook, le moyen principal utilisé par le « Facebookeur » pour communiquer avec ses amis. Avec Openbook, il est possible de rechercher un mot ou une phrase et de trouver non seulement combien de fois il a été utilisé dans des alertes de statut, mais aussi quand et par qui.

Les créateurs de ce site le présentent comme un outil de mise en garde, pour alerter les gens que le média social ne protège pas leur vie privée de façon adéquate. Mais entre les mains d’un chercheur objectif comme moi-même, Openbook peut être un précieux outil d’interprétation. À travers lui, on peut analyser Facebook anthropologiquement.

C’est d’ailleurs ce que j’ai fait, et voilà ce que ça donne :

  • Quand les gens estiment nécessaire de faire savoir à leurs amis à quel point leur vie est insupportablement aride et abrutissante — ce qu’ils font à une fréquence d’environ 2 000 mises à jour de statut par heure — le mot qu’ils choisissent le plus souvent est « boring » (ennuyeux). Ils ont tendance à l’écrire avec des « o » ou des « r » en plus, pour en accentuer l’effet. Si vous cherchez « boooring » et continuez à rechercher en ajoutant à chaque fois un « o », vous trouverez à chaque fois au moins un résultat, jusqu’à obtenir 31 « o » consécutifs. Quand vous essayez « borrrring » et continuez à ajouter des « r », vous arrivez jusqu’à 47. Juste pour info, la personne qui, par cette méthode, souffre de l’ennui le plus invalidant sur la planète, « boring » avec 51 « r », est Heather S. de Waterloo, dans l’Ontario.
  • Au cours des 16 derniers jours, 130 personnes ont alerté leurs amis du fait qu’ils « ont un bouton ». L’emplacement de l’imperfection est généralement spécifié, tout comme la taille. L’endroit le plus fréquent est le front, étroitement suivi par le lobe de l’oreille puis par la fesse, le plus souvent du côté gauche. La tomate a été la comparaison la plus colorée, tandis que la plus grosse était « Jupiter ». M. Mandel de New York a nommé son bouton Steve (elle est aussi fan de Justin Bieber ET des Jonas brothers, et, dans la rubrique livres favoris, écrit : « j’aime pas lirre »).
  • Des milliers de gens envoient des communiqués décrivant leurs impératifs excrétoires. Souvent, ils contiennent la phrase « je dois aller aux WC ». Il serait incorrect et inique de conclure que toutes les personnes utilisant cette phrase sont vulgaires et/ou rustres. Le chercheur rigoureux a découvert, par exemple John Paul Weisinger de Lufkin, au Texas, qui n’était pas du tout en train de discuter de sa propre biologie. Il était simplement en train de partager avec ses amis une blague qu’il trouve drôle : « Un cochon rentre dans un bar et commande verre après verre après verre sans jamais aller aux toilettes. Le barman demande : “Tu n’as jamais besoin de te soulager ?”, et le cochon répond : “Non, c’est déjà fait, je fais pipi au fur et à mesure que je bois” »
  • Il est possible de jauger mathématiquement la force de l’amour que se portent les gens en observant le nombre de « o » (dans le mot « love ») qu’ils utilisent dans l’expression « I love you so much » (« je t’aime tant »). Par exemple, Baker-Hernandez de Lakewood, Colorado, aime davantage son chat (57 « o ») que Lorne D. Stevens de Detroit aime Jolly Ranchers (10 « o »). Il ne semble pas y avoir de limite supérieure à l’amour que peuvent se porter les gens.
  • Les utilisateurs de Facebook peuvent s’ennuyer, mais, paradoxalement, ils sont aussi facilement amusés. On sait cela, parce qu’ils sont toujours morts de rire. Les « LOL » et autres « MDR » surviennent avec une telle fréquence qu’ils sont littéralement impossibles à compter : des dizaines apparaissent à chaque seconde. Un sous-ensemble de ces rieurs sont en même temps en train de se rouler par terre — mais toujours en trop grand nombre pour en faire le pointage. C’est seulement avec un troisième critère — ceux qui sont à la fois pétés de rire et entrain de se rouler par terre — que le nombre devient palpable : 390 par jour.
  • Dans un intervalle de 5 jours, 266 personnes ont fait référence au dirigeant des États-Unis en l’appelant Président « Oboma ». Soixante-sept autres l’ont appelé Président « Obamma ». Presque tous ces gens faisaient le constat qu’il est un stupide incompétent.

Notes

[1] Crédit photo : Mohd Shazni (Creative Commons By)

[2] Orkut.com, vous connaissez ? C’est l’un des véritables échecs de Google 🙂 Avec les Google Waves ou encore le Google Buzz…

[3] J’ai toujours été très curieux.

[4] En fait j’suis même passé à du mutt + fdm désormais…




L’échec des DRM illustré par les « Livres numériques » de Fnac.com

Cher Framablog,
En raison de l’absence du maître de céans,
Les lutins qui veillent à ton bon fonctionnement,
Ont œuvré pour publier le billet suivant,
Par votre serviteur, introduit longuement.

Témoignage d’un lecteur loin d’être débutant,
Il retrace un épique parcours du combattant,
Pour un livre « gratuit » en téléchargement,
Que sur son site web, la Fnac, propose au chaland.[1]

xverges - CC by Récemment[2] sur rue89.com, on pouvait lire : « Nothomb, Despentes : la rentrée littéraire se numérise un peu ». Et pour un fan de technologie comme je suis, ce titre résonnait plutôt comme « la rentrée littéraire se modernise un peu ». En effet, des livres numériques il en existait déjà au siècle dernier…

Côté libre, il faut avouer qu’on est plutôt bien servi. Citons par exemple cette excellente trilogie de Florent (Warly) Villard « le Patriarche » débutée en 2002, à l’occasion de son « pourcentage de temps réservé aux projets libres personnels » chez MandrakeSoft à l’époque. Citons encore la collection Framabook et ses 7 ouvrages[3], citons aussi la forge littéraire en-ligne InLibroVeritas.net et ses 13500 œuvres sous licence libre[4], ou encore le projet Gutenberg et ses 33 000 œuvres élevées au domaine public, Wikisource.org et ses 90 000 œuvres réparties sur plus de 10 langues et pour finir le portail Gallica de la BnF donnant accès à plus d’1,2 millions d’œuvres numérisées[5]… Ces livres, on peut les télécharger en un clic depuis son navigateur, les transférer dans son téléphone portable[6] en un glissé-déposé, et les lire tranquillement dans le métro, même là où ça ne capte pas[7].

Dans ces conditions, que demander de plus que de faire sa rentrée littéraire sur un écran d’ordinateur ? Pourtant, ces conditions, elles ne sont pas évidentes à rassembler. Évacuons tout de suite la question du matériel. Alors que la plupart des téléphones de dernière génération sont dotés d’un navigateur web, tous ne sont pas utilisables comme de simple clé USB, et y transférer des fichiers peut s’avérer impossible pour certains ! Je n’insisterai pas non plus sur les autres équipements proposés spécifiquement pour cet usage, et qui se révèlent le plus souvent considérablement limités. Après tout, n’importe quel ordinateur devrait pouvoir faire l’affaire.

Mais concernant l’œuvre elle même, il faut qu’elle soit libre, ou librement téléchargeable, ou au moins librement « lisible » pour que ça marche. Et pour le coup, on s’attaque à une pelote de laine particulièrement épineuse à dérouler. Avant qu’on les propose sous forme numérique, pour lire les livres d’Amélie Nothomb il fallait en acheter une copie papier, un objet physique qui coûte à produire, transporter, stocker et présenter dans des rayons. Il fallait donc payer pour obtenir un feuilleté de cellulose, qui s’use, se perd, se brûle… et se prête aussi. Et de cette somme d’argent, après avoir largement rémunéré les intermédiaires, une petite portion était finalement reversée à l’auteur. Et ça, la rémunération de l’auteur, c’est le petit détail qui manque au tableau dépeint quelques paragraphes plus haut. Si je lis « Le Prince » de Nicolas Machiavel, mort en 1527 à Florence, l’ouvrage s’est élevé au domaine public depuis fort longtemps maintenant, et la question ne se pose pas. L’auteur n’aurait plus l’usage d’une rémunération aujourd’hui. Par contre, après avoir lu « Le Patriarche » de Florent Villard, j’ai tellement aimé le bouquin que j’ai spontanément envoyé un chèque à l’auteur, pour l’encourager à écrire la suite[8]. Mais dans le cas d’Amélie malheureusement, sa maison d’édition n’a pas voulu parier sur la philanthropie des futurs lecteurs.

Les autres maisons d’éditions non plus d’ailleurs, et cette question de la rémunération des auteurs, elle se pose en France et partout dans le monde depuis des années, depuis l’arrivée du numérique. Il y a eu des hauts et débats (selon la formule consacrée) pour y répondre, mais il y a malheureusement aussi eu des bas, comme les lois DADVSI et HADOPI 1 et 2…

Les lois HADOPI, on peut les évacuer rapidement : pas une ligne de leur texte ne porte sur la rémunération des auteurs, contrairement à ce qui a pu être clamé. Avec cette initiative législative, les représentant des ayants droit et de la distribution tentèrent juste une fois de plus de plier l’économie numérique de l’abondance aux lois qui régissent l’économie des biens physiques, basée sur le contrôle matériel de l’accès aux œuvres. Au lieu de s’adapter à un marché qui évolue, les moines copistes de DVD[9] tentent encore et toujours de retenir le progrès des technologies de diffusion pour rester rentiers.

Manu_le_manu - CC by nc sa

La loi DADVSI était elle encore plus simple à comprendre. Elle avait déjà pour objectif, 4 ans plus tôt, d’essayer d’imposer une forme de contrôle à la distribution d’œuvres sur Internet, via l’utilisation de verrous numériques aussi nommés DRM. Un procédé saugrenu, consistant à couper les ailes de l’innovation, en tentant de limiter les possibilités des ordinateurs et l’usage de certains fichiers, de telle sorte qu’on ait à considérer ces fichiers comme autant d’objets unitaires et non comme une simple suite d’octets duplicables plusieurs millions de fois par secondes, d’un bout à l’autre de la planète[10], ce qu’ils sont pourtant. En permettant à chaque distributeur de restreindre le nombre de copies possibles pour un fichier, on nous promettait le décollage des offres légales de contenus numériques. Ce fut un échec assez cuisant, rien n’a décollé et encore moins côté bouquin. C’est pourtant pas faute d’avoir expliqué, déjà à l’époque, que mettre des bâtons dans les roues de ses clients n’est pas un plan d’affaires viable.[11]

Ce fut un échec mémorable, chaque distributeur ayant adopté son propre système de « complication d’usage », tenu secret et dont l’étude était punie d’emprisonnement[12], et donc bien évidement incompatible avec ceux des autres distributeurs. Des systèmes à la fois contournables en s’en donnant la peine, et compliqués à mettre en œuvre dans le cadre d’une « consommation » courante… Microsoft à même réussi la prouesse de commercialiser à l’époque des lecteurs incompatibles avec son propre système de verrous numériques[13].

Du côté « pas libre » donc, la situation des livres numériques a souffert d’une orientation stratégique contraire à l’intérêt général, d’une mise en œuvre partielle et désorganisée et globalement d’une incompréhension des technologies numériques. Des caractéristiques qui ne sont pas sans rappeler le fiasco des porte-monnaie Monéo, lancés en 1999. Vous vous souvenez sûrement de ce nouveau moyen de paiement qui devait permettre aux banques de gérer votre monnaie en plus de votre épargne (au lieu de la laisser dormir dans un fourre tout près de la porte d’entrée), et qui fut conçu de manière à coûter moins cher aux banques qu’une carte de crédit classique. Il n’était donc pas sécurisé (pas de code à taper), mais surtout, il rendait l’argent de votre compte en banque « physique », dans la carte. Si elle tombait dans une flaque d’eau, vous perdiez le montant de son rechargement. Sans parler du fait que la carte se mettait dès lors à intéresser des voleurs potentiels, attirés par les 100€ que son porte monnaie intégré (de gré ou de force) pouvait contenir. Évidemment, ce système n’a pas, non plus, rencontré le succès escompté par ses créateurs.

Et pourtant, ces deux fantômes du début de la décennie, DRM et Monéo, reviennent hanter notre univers dématérialisé ces jours-ci. Le premier dans les offres de livres numériques de cette rentrée littéraire, le second imposé dans les restaurants universitaires. Et il ne serait pas étonnant de voir bientôt à la Fnac des bornes de distribution de livres numériques infestés de DRM, et imposant (comme dans les restaurants universitaires) les paiements par Monéo.

Aujourd’hui, alors que des systèmes alternatifs et innovant se mettent en place pour permettre la rémunération des auteurs dans une économie numérique, nous avons testé pour vous l’enfer dans lequel s’entêtent les entreprises « majeures » de la distribution de culture.

Livre numérique sur Fnac.com : le parcours du vieux con battant

D’après l’expérience de Fredchat – 13 septembre 2010

J’ai testé pour vous (avec un succès modéré) le service « Livres numériques » de la Fnac.

Cherchant sur le site de cet important distributeur français un livre de Maupassant, je suis tombé sur une annonce pour un « ebook » en téléchargement gratuit. L’offre a l’air honnête et puis c’est le livre que je cherchais, alors je me dis :

« Essayons voir ce service épatant que tout le monde marketing nous pousse à consommer : le livre électronique. »

Aussi simple que télécharger un fichier ?

Je me lance donc dans l’aventure et il faut, pour commencer, valider une commande sur le site Fnac.com, pour débloquer le téléchargement d’un fichier gratuit. Ça commence donc bien, il faut avoir un compte à la Fnac. Bon, ce n’est plus vraiment gratuit, mais c’est presque de bonne guerre.

Une fois passé ce premier écueil, et une fois la commande validée, le site me donne un lien vers une page de téléchargement. À ce point-là, moi qui aime faire les choses simplement quand c’est possible, je découvre avec désarroi que ce n’est pas le livre qu’on me propose de télécharger sur cette page. Point de fichier PDF, ePub ou d’un quelqu’autre format standard et reconnaissable (voire normalisé), comme les petites icônes vantaient dans les rayons du site. Au lieu de cela, on me propose un tout petit fichier, affublé de l’extension exotique .amsc et qui se révèle ne contenir que quelques lignes de XML. Ce fichier ne contient en fait pas grand chose de plus que l’URL d’un autre fichier à télécharger, un PDF cette fois. J’ai alors l’impression d’avancer vers le but, même si je m’embête rarement autant, dans la vie, pour télécharger un simple fichier, gratuit qui plus est. Seulement voilà, on ne peut pas le télécharger directement ce PDF ! Ils sont très forts à la Fnac, leur fichier gratuit m’a déjà coûté plus de vingt minutes… et je suis toujours bredouille.

Je me renseigne plus avant sur la procédure à suivre, et au cours de cette petite séance de lecture j’apprend qu’il faut obligatoirement passer par un logiciel Adobe, lui-même tout aussi gratuit mais uniquement disponible sous Microsoft Windows et Mac OS X… Linuxiens passez votre chemin.

Mais ce n’est pas tout…

Le logiciel Adobe en question interprète le XML, détecte les informations qui vont bien et, alors que le suspens est à son comble et que l’on croit toucher au but, surprise, le texte qui apparaît enfin n’est pas celui du livre. À la place, on tombe sur un charabia composé d’explications toutes aussi surprenantes que liberticides, avec un bouton « Accepter » en bas de l’écran. Pour un téléchargement gratuit, je me retrouve donc à vendre une deuxième fois mon âme au diable.

En substance, on m’explique que pour avoir accès au livre il me faut en autoriser la lecture sur l’ordinateur en cours d’utilisation, et pour cela, je dois obligatoirement avoir un identifiant Adobe. Cet identifiant, on l’ obtient en s’inscrivant à un « club » géré par l’éditeur du logiciel et qui requiert pour son inscription toute une bordée d’informations personnelles que l’on ne m’a jamais demandées pour acheter un livre… (qui devait être gratuit, excusez-moi d’insister).

Cela fait maintenant près de 40 minutes que je m’acharne sur ma commande Fnac.com d’un livre gratuit et à ce stade, je me surprends moi-même d’avoir trouvé à franchir tous les obstacles. Mais ça y est, je le vois le livre et il commence à en avoir de la valeur à mes yeux ce fichier PDF vu le temps que j’y ai consacré. Toutefois, téléchargeable et lisible uniquement via un logiciel propriétaire Adobe, ce n’est plus vraiment un fichier PDF…

D’ailleurs, alors que je m’apprête à copier ledit fichier vers un périphérique plus adéquat à sa lecture, une petite voix me prévient que je ne peux en autoriser la lecture, via le logiciel propriétaire, que sur un maximum de 6 périphériques, et qu’il faut donc que je m’assure de vouloir vraiment le copier quelque part et entamer le décompte. Je ne suis plus à ça près.

Conclusion

Résultat des courses, je suis fiché chez deux grandes entreprises (avec les dérives d’exploitation de mes données personnelles que cela permet), je ne peux pas lire le livre sous Linux. J’ai perdu mon après-midi et je ne peux pas partager le fichier gratuit, d’une œuvre libre de droits, avec mes amis pour leur épargner l’improbable et complexe procédure de téléchargement que j’ai subie. C’est sûr, avec Fnac.com on comprend vraiment la différence entre gratuit, et libre.

Toutefois, si vous êtes séduit, vous pourrez bientôt acheter le Petit Prince dans cet alléchant format, pour la modique somme de 18€…

Épilogue

Finalement, je crois que je vais rester un vieux con et garder mes livres papier. Au moins, dans ce format je peux les lire où je veux (dans un fauteuil, dans mon lit, sur les toilettes, au bord d’une piscine, etc.), quand je veux, que je sois en-ligne ou pas, et les prêter à mes amis.

Sinon, quand je serai remis de cette mésaventure, j’irai jeter un œil sur Wikisource ou sur le projet Gutenberg, il paraît qu’on y trouve des livres numériques libres, téléchargeables en un clic et dans des formats ouverts et normalisés…

Notes

[1] Crédit photo : xverges (Creative Commons By)

[2] Introduction rédigée le 23 septembre 2010.

[3] Attention, ce qui suit dévoile des moments clés de l’intrigue : bientôt 10 😉

[4] Libres à divers degrés suivant les variations permises par les licences Creative Commons, rendant l’œuvre modifiable ou non et commercialisable ou non.

[5] Pour la plupart du domaine public, librement lisibles, mais pas librement réutilisables. Il faut en effet s’acquitter d’une licence auprès de la Bibliothèque nationale de France pour pouvoir faire un usage commercial des fichiers obtenus depuis le portail. Ça fait quand même une sacrée bibliothèque… Merci à Christophe de l’avoir rappelé dans les commentaires.

[6] Par exemple sous la forme de pages webs, débitées en tranches de 450ko, sinon le téléphone en question sature sa mémoire vive s’il s’agit d’un N95…

[7] Ou encore, en réponse anticipée à un bout de la conclusion du texte présenté, partout où un chargeur solaire parviendra à maintenir l’engin allumé…

[8] Pour la petite histoire, j’ai même envoyés deux chèques, un après la lecture du 1er tome, et un autre à la fin de la 1ère trilogie (c’est prévu pour être une longue histoire). Or, l’auteur se sentant coupable de délaisser son ouvrage n’a encaissé que le 1er chèque, et c’était il y a plus d’un an maintenant. Toutefois, de récentes mises à jour sur le site du livre laissent espérer que la suite pourrait venir sous peu.

[9] Pour reprendre l’expression de Nicolas Dupont-Aignan.

[10] Oui, je sais qu’une sphère n’a pas à proprement parler de bouts, mais elle n’a pas non plus de côtés, et … revenons à nos moutons.

[11] Crédit photo : Manu_le_manu (Creative Commons By NC SA)

[12] Peine disproportionnée que les juges n’appliquèrent pas, et qui fut limitée par le Conseil d’État deux ans plus tard, interrogé par l’April sur le sujet

[13] Comme l’analysaient Formats-Ouverts.org, PCINpact.com, Clubic.com, Numerama.com




Firefox 4, Google Chrome et l’évolution du Web par Chris Blizzard de Mozilla

Keven Law - CC by-saQue les fans de la première heure se rassurent : la version 4 du célèbre navigateur au panda roux – dont la sortie devrait intervenir d’ici la fin de l’année – promet de recoller au peloton !

Au temps pour ceux qui avaient vendu sa peau un peu trop rapidement : le panda[1] nouveau met l’accent sur les performances, à commencer par un nouveau moteur JavaScript qui, une fois optimisé, pourrait même lui permettre de prendre la tête de la course si l’on en croit Chris Blizzard (Director of Web Platform chez Mozilla[2]), dont nous vous proposons ici la traduction de l’interview qu’il a donnée récemment au site derStandard.at (une fois n’est pas coutume, cette traduction a été complétée de références à l’actualité récente avec l’aide de Paul Rouget, Technology Evangelist chez Mozilla).

S’il est difficile de ne pas céder à la mode du benchmarking, on peut toutefois s’interroger sur ce que l’on attend réellement d’un navigateur.

Revenons un instant en arrière : l’irruption de Firefox a permis de réveiller le Web en le libérant de l’hégémonie d’Internet Explorer qui, après avoir éradiqué à peu près toute concurrence sur le marché des navigateurs, n’a plus connu de développement pendant six ans (soit le temps qui sépare la version 6 de la version 7 du navigateur de Microsoft, qui avait même dissout l’équipe de développement dans cet intervalle). Firefox a réussi à propulser le Web vers de nouveaux horizons balisés de standards ouverts propices à l’innovation. Tant et si bien que de redoutables concurrents sont apparus comme Safari d’Apple et surtout Chrome de Google (voir à ce billet du Framablog) et que Microsoft est en train de mettre les bouchées doubles avec son IE 9 pour rattraper son retard.

Faut-il en conclure que Firefox, ayant accompli sa mission, est devenu inutile ?

Il faut en effet reconnaître que le Web ne s’est jamais aussi bien porté qu’aujourd’hui : les concepteurs de navigateurs se battent dorénavant tous pour implémenter les dernières versions des standards ouverts qui sont la base du Web (HTML5, CSS3) quand ils n’en sont tout simplement pas à l’origine. Et pour cela, nous pouvons tous remercier la fondation Mozilla à l’origine de Firefox.

Pourtant, le Web ne se limite pas à des applications riches et jolies devant s’exécuter le plus rapidement possible.

Les grands acteurs du Web, Mozilla mis à part, tirent leurs revenus de l’exploitation de vos données personnelles. La protection de la vie privée devient aujourd’hui un enjeu majeur pour l’utilisateur (qui doit encore en prendre conscience). Mozilla s’apprête à proposer des solutions novatrices dans ce domaine[3]. Qui d’autre que Mozilla, fondation à but non lucratif, a intérêt à rendre aux utilisateurs le contrôle de leurs données personnelles ? Personne. Et ce n’est pas parce que Apple ou Google (et peut-être un jour Facebook) sort un navigateur performant – fût-il libre (Chromium est la version libre de Google Chrome) – que l’utilisateur jouira des mêmes libertés que l’utilisateur de Firefox, navigateur libre développé par une fondation à but non lucratif.

Firefox 4 : Une génération d’avance en termes de vitesse

Firefox 4: One generation ahead of everyone else speedwise

Andreas Proschofsky – 19 août 2010 – derStandard.at
(Traduction Framalang : Don Rico, Siltaar, Goofy et Antistress)

Chris Blizzard de Mozilla nous parle de la concurrence de Google Chrome, de l’évolution du Web comme plateforme et des attentes que suscite le format WebM.

Ces dernières années Firefox a joué le rôle enviable de l’étoile montante dans le monde des navigateurs. Aujourd’hui, non seulement Google Chrome semble lui avoir volé la vedette mais il vient même lui tailler des croupières. Au cours du dernier GUADEC, Andreas Proschofsky a eu l’occasion de côtoyer Chris Blizzard, « Directeur de plateforme Web » chez Mozilla, et il a réalisé l’interview que vous allez lire, évoquant l’état actuel du marché des navigateurs, les progrès du Web comme plateforme et les améliorations qui arrivent avec Firefox 4+.

derStandard.at : Quand nous avons discuté l’année dernière, vous avez noté que, malgré la notoriété grandissante de Google Chrome, la plupart des développeurs présents dans les conférences techniques – comme le GUADEC – utilisent encore Firefox. Si je jette un coup d’œil autour de moi cette année, les choses semblent avoir considérablement changé : bon nombre de ces utilisateurs avant-gardistes semblent être passés à Chrome / Chromium. Est-ce que vous avez un problème sur ce créneau d’utilisateurs spécifique – mais influent ?

Chris Blizzard : En fait je pense que beaucoup de gens utilisent les deux maintenant, mais c’est vrai que c’est intéressant à voir. De mon point de vue de développeur Web je pense toujours que les outils de Firefox sont de loin supérieurs à ceux des autres.

Il est intéressant de noter que nous n’avons pas vu de changements significatifs dans les statistiques utilisateurs, même si Chrome marque des points importants sur ce segment. Il faut préciser que tous ces chiffres que l’on rapporte sont en réalité des statistiques d’usage et non du nombre d’utilisateurs, si bien que cette avant-garde – qui est grosse utilisatrice du Web – influence les statistiques plus que d’autres, ce qui peut faire croire que Chrome est utilisé par davantage de gens qu’en réalité. Nous avons connu le même effet dans les premiers temps de Firefox, à l’époque nous n’en avions pas conscience faute d’outils adéquats pour le mesurer.

Nous avons aussi effectué quelques recherches et découvert qu’un tas de gens semblent choisir leur navigateur suivant des fonctionnalités particulières. Par exemple beaucoup d’utilisateurs préfèrent retrouver leurs sites récemment visités dès l’ouverture de leur navigateur, donc ils utilisent Chrome. S’ils préfèrent démarrer avec une page vierge, ils utilisent plutôt Firefox. Je pense donc que ce que l’on commence à voir, c’est des gens différents qui veulent faire des choses différentes, et qui vont choisir leur navigateur selon leurs préférences. Et nous n’en sommes qu’au début.

Nous savons que nous ne pourrons pas satisfaire les désirs de tous et ce n’est d’ailleurs pas le but de notre organisation. Nous voulons faire en sorte que le Web devienne une plateforme et nous avons plutôt bien réussi sur ce point.

Google se lance maintenant dans un cycle de développement visant à offrir une nouvelle mise à jour stable toutes les six semaines, pour essayer de proposer des innovations plus rapidement aux utilisateurs. Mozilla, de son côté, publie au mieux une nouvelle version par an : cela n’est-il pas handicapant d’un point de vue marketing ?

Cela dépend du rythme que vous voulez adopter. Les gens de Chrome ont une approche un petit peu différente de la nôtre. Il va être intéressant de voir si d’autres utilisateurs que les avant-gardistes seront d’accord pour voir leur navigateur changer tous les mois et demi. Nous préférons prendre davantage de temps pour préparer les gens à des changements d’interface plus importants.

Pour autant nous ne modifions pas toujours le numéro de version pour les gros changements. Citons par exemple l’isolation des plugins que nous avons récemment ajoutée à la série 3.6.x, qui résulte d’un énorme travail et qui a grandement amélioré l’expérience des utilisateurs de Firefox.

À vrai dire, je suis quelque peu sceptique à l’idée d’un cycle de six semaines. Comment peut-on vraiment innover en un laps de temps si court ? Accélérer la cadence est néanmoins dans nos projets, il faut juste que nous trouvions celle qui nous convient.

Un des avantages d’un cycle de publication rapide, c’est que Google peut diffuser très vite des fonctionnalités comme le futur web-store de Chrome. Aimeriez-vous aussi proposer une plateforme de téléchargement d’applications Web chez Mozilla ?

En ce qui me concerne, je pense qu’un app-store pour le Web est une idée intéressante, car en gros cela rend les applications Web plus accessibles et fournit un modèle de monétisation. Mais pour bien faire, il faut tenir compte de nombreux autres paramètres, et c’est là-dessus que nous allons d’abord nous concentrer.

Quels éléments manque-t-il encore pour concevoir un bon web-store ?

Les performances Javascript sont très importantes, mais nous touchons au but, car nous sommes en passe d’obtenir les mêmes performances que les applications exécutées nativement. Vient ensuite le webGL pour les applications en 3D, et nous devons aussi régler la question du stockage de données hors-connexion qui est loin d’être abouti pour le moment. Il faut aussi accorder une grande importance à la sécurité, question sur laquelle nous sommes justement en train de travailler. Par exemple, grâce à la fonctionnalité ForceHTTPS, un site Web pourra dire à un navigateur de ne communiquer avec lui que par données chiffrées, ce qui préviendra certains types d’attaques. Nous nous penchons aussi sur la politique de sécurité des contenus, ce qui sera très utile pour lutter contre une catégorie entière d’attaques type cross-site scripting (NdT : citons par exemple la fonctionnalité X-FRAME récemment introduite contre le clickjacking).

Dans les tests de performances Javascript récents, Firefox semble avoir dégringolé dans le bas du classement, et se place même derrière Internet Explorer 9. N’arrivez-vous plus à suivre ?

Firefox 4 apportera de nombreuses améliorations dans ce domaine-là aussi, mais elles ne sont pas encore intégrées à nos versions de développement. Nous avons constaté que, lorsque notre Tracing-Engine (NdT : moteur basé sur la technologie du tracé) est utilisé, nous sommes plus rapides que tous les autres. Nous ne sommes à la traîne que dans les cas où cette technologie ne peut être exploitée. Nous travaillons donc à améliorer les performances de base de notre moteur JavaScript, qui, combinées à l’optimisation JIT Tracing , nous donneront une génération d’avance sur tout le monde (NdT : Jägermonkey, le résultat de ce travail, vient d’être intégré à la version de développement de Firefox 4).

La vérité c’est que la marge d’amélioration est encore énorme. La génération actuelle des moteurs Javascript a atteint un palier : en pourcentage, les différences que nous constatons entre les différents navigateurs sont infimes. En outre, les tests de performance ne sont plus d’une grande utilité, car, pour la plupart, ces chiffres ne sont plus influencés par les performances Javascript réelles. Voici un exemple des conséquences négatives des tests de performance : nous avons dû fournir des efforts particuliers sur l’optimisation du calcul de décalage horaire car cela influe négativement certains tests de performance, mais ça n’améliore pas réellement les performances Javascript. Sunspider est affecté par ces problèmes et V8 contient aussi du code bancal, il est donc difficile de trouver de bons tests de performance (NdT : Mozilla vient de lancer Kraken, un test censé mesurer les performances JavaScript en situation réelle).

Firefox 4 va utiliser l’accélération matérielle grâce à Direct2D et à DirectWrite sous Windows. Des fonctionnalités similaires sont-elles prévues pour Linux et Mac OS X ?

Dans la limite des outils qui sont disponibles, oui. Nous essayons de procurer aux utilisateurs la meilleure expérience possible sur chaque plateforme. Pour Windows Vista et 7 nous constatons d’immenses améliorations lorsque le navigateur doit réaliser des tâches graphiques intensives. Sur OS X, par exemple, nous prenons en charge l’OpenGL pour la composition d’images, et nous faisons de même sous Linux. Mais en général les API dont nous disposons sous Windows sont meilleures et plus riches que sur les autres plateformes. Sous Linux, Cairo et Pixman étaient censées être rapides, mais hélas l’infrastructure sur lesquelles elles reposent n’a jamais vraiment atteint la vélocité désirée. Sur OS X, Firefox est assez rapide, mais pour l’instant Direct2D confère l’avantage à la version Windows (NdT : plus d’informations sur cet article de Paul Rouget).

L’isolation des plugins devait n’être que la première étape d’un Firefox multi-processus, avec un processus séparé pour chaque onglet. C’est un des gros morceaux du cahier des charges de Firefox 4. C’est toujours prévu ?

Bien sûr, mais pas pour Firefox 4. Ce sera sans doute disponible pour la version mobile avant la version desktop. C’est intéressant de constater que c’est plus facile sur cette plateforme.

Il y a peu, vous avez endossé le rôle de « Directeur de plateforme Web » chez Mozilla. En quoi cela affecte-il vos responsabilités quotidiennes ?

Auparavant, je me chargeais essentiellement de diriger les groupes d’évangélisation et de communication, mais j’ai fini par travailler de plus en plus sur les questions de plateforme Web – réfléchir à l’avenir du Web, discuter régulièrement avec les autres concepteurs de navigateurs. Tout cela a pris une telle importance que j’ai décidé de m’y consacrer à plein temps.

Par exemple, je viens de participer à une réunion de l’IETF, où nous avons eu des discussions très riches sur le http, les websockets, et aussi sur les codecs. Ils sont en train de mettre au point un codec audio de nouvelle génération pour les communications en temps réel et s’appuient sur l’IETF pour les spécifications. En gros, c’est une combinaison de techniques existantes, et l’accent est mis sur une latence très basse, un domaine où le Vorbis ou le MP3 sont mauvais. Ce travail s’effectue en collaboration avec Skype.

Une des grosses annonces de ces derniers mois concernait la création du WebM comme nouveau format vidéo ouvert basé sur le VP8 et Vorbis. Pensez-vous que ses chances de réussites soient meilleures que celles de Theora ?

Oui, pour des raisons de qualité. Quelques explications : il est bon de savoir que lorsqu’on utilise le H.264, on doit en gros choisir un des trois profils que propose ce codec. En général, les sites vidéos doivent offrir la version basique car c’est la seule prise en compte par l’iPhone, notamment dans ses anciennes versions qui sont utilisées par des dizaines de millions de personnes. Donc, si l’on compare les formats vidéo, il faut comparer le VP8 au H.264 « basique », et ce n’est pas qu’une manœuvre réthorique, c’est la réalité pour tous les services. J’ai discuté avec les gens de YouTube, par exemple : ils ont essayé d’utiliser un autre profil du H.264, mais ils ont dû revenir au « basique » à cause du manque de prise en charge. Sur cette base, la question de la qualité n’a plus lieu d’être, et le VP8 est tout à fait compétitif.

Si l’on parle de l’implémentation de la balise vidéo HTML5, il faut aussi prendre en compte l’évolution du marché. Si l’on envisage un monde où la vidéo HTML5 est répandue dans la majorité des navigateurs – par-là je pense à une proportion de 80%, ce qui devrait être le cas d’ici deux ans –, il faut compter avec les tendances et les changements dans les parts de marché des systèmes d’exploitation. On se rend alors compte qu’on se retrouve avec un marché segmenté. Ceux qui voudront diffuser de la vidéo devront prendre en charge à la fois H.264 et WebM. Sur le long terme, je suis certain que les codecs libres sont en meilleure posture, surtout si l’on prend en considération les tendances à venir comme les communications en temps réel ou les plateformes mobiles, où WebM est très performant – ou va l’être grâce à des partenariats avec des constructeurs de matériel.


Firefox 4 va permettre de construire des extensions « poids plume » sous forme de Jetpacks. Quand vont-ils remplacer la génération actuelle d’extensions ?

Les Jetpacks ne sont pas conçus pour remplacer les extensions XUL. Firefox est une plateforme que l’on peut étoffer à l’envi grâce à une large palette d’interfaces. On peut aussi modifier beaucoup de choses dans les paramètres mêmes de Firefox, ce qu’aucun autre navigateur ne permet. Comme projet, c’est extraordinaire : une grand part de nos innovations sont arrivées par les extensions avant d’intégrer directement le navigateur.

Pour nous, les Jetpacks sont grosso modo un équivalent des extensions pour Chrome, qui offrent beaucoup moins de possibilités que nos extensions XUL classiques. Ils seront néanmoins beaucoup plus faciles à réaliser. Nous allons fournir un éditeur en ligne qui facilitera leur développement. Ces Jetpacks seront aussi plus faciles à tester, et l’on pourra les installer sans avoir à redémarrer le navigateur. Ce qui est d’ailleurs déjà possible avec certaines extensions XUL dans Firefox 4, à condition que cela soit signalé et que l’extensions soit codée avec soin.

Notes

[1] Crédit photo : Keven Law (Creative Commons By-Sa)

[2] Chris Blizzard a déjà fait l’objet d’une traduction sur le Framablog : De l’honnêteté intellectuelle et du HTML5.

[3] Lire à ce propos Comment Firefox peut améliorer le respect de la vie privée en ligne, privacy-related changes coming to CSS :visited et Account Manager coming to Firefox.




Microsoft, ennemi des droits de l’homme en Russie ?

Délirante Bestiole - CC byQuand la Russie utilise Microsoft pour réprimer la dissidence, tel est le titre d’un stupéfiant article du New York Times, qui a fort justement fait réagir notre ami Glyn Moddy dans un billet traduit ci-dessous.

Il fallait y penser. Pour museler les écologistes qui souhaitent préserver le lac Baïkal[1], vérifions si leurs ordinateurs ne tournent pas avec des versions de Windows piratées ! Et avec l’aide des avocats de Microsoft qui plus est ! Une histoire incroyable mais malheureusement vraie.

Cependant, comme il est dit en conclusion, il est tout aussi incroyable de constater que ces organisations non gouvernementales n’aient pas encore rencontrés le logiciel libre. Ceci obligerait alors les autorités russes à trouver un autre prétexte pour les embarquer.

Microsoft, ennemi des droits de l’homme en Russie ?

Microsoft, Enemy of Human Rights in Russia?

Glyn Moody – 12 septembre 2010 – Open…
(Traduction Framalang : Goofy, Yoann, Barbidule, Pablo et Garburst)

Voici une jolie fable morale.

Le lac Baïkal est une merveille. Hôte de nombreuses espèces uniques, c’est le lac le plus ancien et le plus profond du monde. Mais Vladimir Poutine s’en moque complètement : il est préoccupé par le taux de chômage croissant dans la région, c’est pourquoi il a autorisé la réouverture d’une papeterie qui pendant des années a déversé du mercure, du chlore et des métaux lourds dans cet écosystème exceptionnel.

Jusque-là, c’est déjà assez déprimant.

Mais voici le moment de l’histoire où cela devient intéressant :

C’est par une fin d’après-midi de janvier qu’une escouade d’officiers de police en civil est arrivée au quartier général d’un groupe écologiste de premier plan. Ils sont passés devant l’équipe en leur adressant à peine la parole et se sont aussitôt emparés des ordinateurs pour les emmener. Ils ont ainsi pris des fichiers qui relataient les efforts d’une génération entière pour protéger la nature sauvage sibérienne.

Le groupe « Baikal Environment Wave » organisait des manifestations contre la décision du premier ministre Vladimir Poutine de ré-ouvrir une papeterie qui polluait le lac Baïkal tout proche, une merveille de la nature qui, selon certaines estimations, concentre 20 pour cent des réserves d’eau douce du monde.

Mais le groupe a été victime de l’une des plus récentes tactiques des autorités pour mater les contestataires : la confiscation des ordinateurs sous prétexte d’y chercher des logiciels Microsoft piratés.

À travers toute la Russie, les services de sécurité ont mené ces dernières années des douzaines d’actions coup de poing de ce genre contre des journaux ou des organisations d’opposition. Les officiels des services de sécurité prétendent que ces enquêtes sont justifiées par la lutte contre le piratage logiciel, endémique en Russie. Cependant ils s’attaquent rarement sinon jamais à des organisations ou des journaux qui soutiennent le gouvernement.

À mesure que ce stratagème s’est développé, les autorités ont reçu l’appui décisif d’un partenaire inattendu : l’entreprise Microsoft elle-même. Dans des cas de poursuites comportant un aspect politique, partout en Russie, les avocats engagés par Microsoft ont vigoureusement aidé la police.

Apparemment, la détermination de Microsoft pour aider à réprimer la contestation n’est pas limitée à ce cas de figure :

Compte-tenu des soupçons portant sur le motif politique de leurs investigations, la police et les juges se sont tournés vers Microsoft pour donner du poids à leurs accusations. En Russie du sud-ouest, le ministre de l’Intérieur a déclaré dans un document officiel que l’enquête sur un défenseur des droits de l’Homme, portant sur la piraterie informatique, avait été lancée « sur le fondement d’une requête » d’un avocat de Microsoft.

Dans une autre ville, Samara, la police a saisi les ordinateurs de deux journaux d’opposition, avec le soutien d’un autre avocat de Microsoft. « Sans la participation de Microsoft, ces poursuite criminelles contre des défenseurs des droits de l’Homme n’auraient tout simplement pas eu lieu », a déclaré le directeur de publication de ces deux journaux, Sergey Kurt-Adzhiyev.

Mais le pire dans cette histoire, c’est qu’il ne sert à rien d’avoir des versions légales des logiciels Microsoft :

Les dirigeants de l’association Baïkal Wave ont précisé qu’ils avaient été avertis que les autorités utiliseraient de telles actions pour faire pression sur les groupes de défense de l’environnement, ils s’étaient donc assurés que tous leurs logiciels étaient légaux.

Mais ils ont vite compris à quel point il leur serait difficile de se défendre.

Ils ont déclaré avoir expliqué aux officiers de police qu’ils se trompaient, en leur montrant les factures et l’emballage d’origine de Microsoft pour prouver qu’il ne s’agissait pas de logiciels piratés. La police n’a pas paru en tenir compte. Un officier supérieur a rédigé sur-le-champ un procès-verbal prétendant que des logiciels illégaux avaient été découverts.

Les défenseurs de l’environnement disent qu’avant l’opération coup de poing, les autocollants de Microsoft « Certificat d’authenticité » étaient collés sur les ordinateurs pour attester de la légalité des logiciels. Mais alors que les ordinateurs étaient emmenés, ils remarquèrent une chose étrange : les autocollants avaient disparu.

Naturellement, il existe une solution simple : utiliser des logiciels libres. Ainsi, pas besoin d’autocollants, et impossible pour les autorités de vous reprocher leur utilisation. D’ailleurs, compte-tenu du meilleur niveau de sécurité que procure le logiciel libre, j’ai du mal à comprendre pourquoi les associations qui défendent les droits de l’Homme ne les installent pas de manière systématique. Espérons que ces pénibles expériences les mettront sur la bonne voie et qu’ils passeront bientôt au libre – pour eux, et pour l’avenir du lac Baïkal.

Notes

[1] Crédit photo : Délirante Bestiole (Creative Commons By)




Tout est libre dans le logiciel libre, sauf sa maison !

Pranav - CC byPar nature décentralisés et collaboratifs, les logiciels libres ont besoin d’être hébergés sur Internet dans des forges qui en assurent leur développement (en offrant de nombreux services comme la gestion des versions ou le suivi des bugs).

SourceForge est certainement la plus célèbre d’entre elles et abrite en son sein plusieurs centaines de milliers de logiciels libres. Google, encore lui, n’est pas en reste avec son Google Code qui accueille de plus en plus d’applications.

Or si ces forges sont bien gratuites et très pratiques (puisque l’on crée et gère son projet en quelques clics), la plupart ne sont paradoxalement pas libres ! Il n’est ainsi pas possible de récupérer le code qui les fait tourner pour installer sa propre forge sur son propre serveur.

On comprend aisément qu’un site comme Facebook garde jalousement son code puisque son objectif est de concentrer au même endroit un maximum d’utilisateurs et surtout pas de les voir partir pour y faire leur petit Facebook personnel dans leur coin. Mais on comprend moins que les développeurs de logiciels libres se retrouvent un peu dans la même situation en acceptant de placer leur code sur des plateformes propriétaires. C’est une question de principe mais aussi de l’avenir incertain d’un code qu’il est alors difficile de déplacer[1].

C’est tout l’objet de cette mise en garde de notre ami Benjamin Mako Hill dont c’est déjà la quatrième traduction.

Il faut des outils libres pour faire des logiciels libres

Free Software Needs Free Tools

Benjamin Mako Hill – 4 juin 2010 – Blog personnel
(Traduction Framalang : Misc, Cheval boiteux, Siltaar et Goofy)

Au cours des dix dernières années, les développeurs de logiciels libres ont été régulièrement tentés par des outils de développement qui offrent la capacité d’élaborer des logiciels libres de façon plus efficace et productive.

Le seul prix à payer, nous dit-on, est que ces outils eux-mêmes ne sont pas libres ou s’exécutent comme des services réseaux avec du code que nous ne pouvons pas voir, ou lancer nous-mêmes. Dans leurs décisions d’utiliser ces outils et services (tels que BitKeeper, SourceForge, Google Code et GitHub), les développeurs de logiciels libres ont décidé que « la fin justifie les moyens » et ont en quelque sorte vendu la liberté de leur communauté de développeurs et d’utilisateurs. Cette décision d’adopter des outils de développement non libres et privés a entamé notre crédibilité dans la promotion des libertés logicielles et a compromis notre liberté comme celle de nos utilisateurs d’une façon que nous devrions rejeter.

En 2002, Linus Torvalds a annoncé que le noyau Linux utiliserait le systéme de gestion de version distribué BitKeeper. Bien que la décision ait généré beaucoup de craintes et de débats, BitKeeper a permis aux codeurs du noyau de travailler de manière décentralisée avec une efficacité qu’il n’aurait pas été possible d’obtenir avec les outils libres de l’époque. Certains développeurs Linux ont décidé que les bénéfices obtenus justifiaient la perte de liberté des développeurs. Trois ans plus tard, les sceptiques prirent leur revanche quand le proprétaire de BitKeeper, Larry McVoy, a retiré la licence gratuite d’utilisation de plusieurs développeurs importants du noyau, car Andrew Tridgell avait commencé à écrire un remplaçant libre de BitKeeper. Les développeurs furent forcés d’écrire leur propre outil libre pour le remplacer, un projet connu maintenant sous le nom de Git.

Bien sûr, les relations entre logiciels libres et outils non libres vont au-delà du cas de BitKeeper. Le code source des logiciels du service SourceForge était jadis disponible pour ses utilisateurs, mais les auteurs sont revenus à un modèle totalement fermé. Bien que SourceForge soit construit sur des briques libres, les utilisateurs interagissent avec le logiciel uniquement via le Web sur l’unique site SourceForge. Comme les utilisateurs n’ont pas de copie du logiciel de Sourceforge, ils ne peuvent pas en demander le code source. Des projets similaires comme le service Tigris.org de CollabNet, Google Code et GitHub ont tous des buts similaires, et gardent leur code pour eux de la même façon. Les services sont souvent fournis gratuitement et promeuvent le développement de logiciel libre, mais leur dévouement ne s’étend pas aux logiciels qui font tourner leur plateforme de développement. Le code source de chacun de ces services reste privé et non modifiable par les développeurs utilisant ces services.

Ces outils de développement proprietaires posent un dilemme à de nombreux développeurs de logiciels libres. Le but de chacun de ces services est de permettre le succès des logiciels libres et l’obtention de plus de libertés grâce à l’utilisation d’outils plus efficaces. CollabNet, Google et GitHub annoncent chacun qu’ils veulent que le logiciel libre progresse et qu’ils veulent l’aider à avancer. Pour certaines raisons, ces entreprises ont choisi de soutenir les libertés logicielles par des moyens moins en phase avec les éthiques du mouvement que celle qu’ils cherchent à créer. Le résultat est que les développeurs sont dépossédés. La liberté du code logiciel que produisent ces hackers est dépendante d’une restriction inacceptable.

Tout d’abord, l’utilisation d’outils non libres envoie un message irrecevable pour les utilisateurs du logiciel libre produit. « La liberté des logiciels est importante pour vous », semblent dire les développeurs, « mais pas pour nous ». Un tel comportement sape l’efficacité basique du fort engagement éthique au cœur du mouvement du logiciel libre. À tous ceux qui ont déja fait le choix du logiciel libre, nous devons montrer que nous pouvons réussir – et prospérer – en utilisant des logiciels libres. Nous devons soutenir les alternatives libres face aux systèmes propriétaires, comme Savane qui peut remplacer SourceForge ou Google Code, et qui est à la base de GNU Savannah, ou encore Gitorious, pour remplacer GitHub, en les utilisant et en les améliorant dans les domaines où ils peuvent être améliorés.

Deuxièmement, nous devrions comprendre en nous projetant plus en avant que le logiciel que nous produisons n’est libre qu’en fonction des logiciels dont il dépend pour son usage, sa distribution et son évolution.

La licence GNU GPL et le code source ne signifient pas grand-chose pour un utilisateur qui veut modifier un programme sans avoir un accés libre au logiciel requis pour permettre cette modification. Il ne s’agit pas que de mettre les libertés des développeurs dans la balance, mais aussi finalement celles des utilisateurs et de tous les développeurs qui prendront le relais. Ceux qui choisissent d’utiliser des logiciels non libres placent tout le monde à la merci des groupes et des individus qui produisent les logiciels dont ils dépendent.

Tandis que les outils de développement propriétaires peuvent aider les développeurs de logiciels libres à produire de meilleurs logiciels à court terme, le prix à payer est inacceptable. Dans le débat controversé des logiciels privés et des services réseaux, les développeurs de logiciels libres devraient se placer du côté de « l’excès » de liberté. Compromettre nos principes afin d’obtenir plus de liberté est auto-destructeur, instable et au final injuste envers nos utilisateurs et la communauté des développeurs de logiciels libres dans son ensemble.

Tout comme les premiers mainteneurs du projet GNU se sont d’abord concentrés sur la création d’outils libres pour la création de logiciel libre, nous devons nous assurer que nous pouvons produire des logiciels sans entrave et utiliser des outils incontestablement ouverts. Si nous échouons, les logiciels seront indirectement moins libres. Nous devons refuser l’utilisation de logiciels qui ne nous garantissent pas les libertés que nous tentons de donner à nos utilisateurs par le développement de logiciels, et nous devons faire pression en ce sens sur les producteurs de nos outils de développement. Le logiciel libre n’a pas réussi en compromettant nos principes. Nous ne serons pas bien servis d’un point de vue technique, pragmatique ou éthique en compromettant la liberté des outils que nous utilisons pour constuire un monde libre.

Benjamin Mako Hill
Creative Commons By-Sa

Notes

[1] Crédit photo : Pranav (Creative Commons By)




Quand le hacker se découvre parasite !

Genista - CC by-saPour peu qu’on ne le confonde pas avec le cracker et qu’il ne perde pas en route sa pureté originelle, la figure du hacker a bonne presse actuellement.

Tellement bonne presse que certains n’hésitent pas à en faire une sorte de nouvel héros des temps modernes.

Sauf si l’on rejette en bloc cette modernité.

Attention les yeux, l’article que nous vous proposons reproduit ci-dessous est une très virulente critique d’un livre souvent cité en référence sur ce blog: L’Éthique hacker de Pekka Himanen. Mais précisons d’emblée qu’il n’est pas nécessaire de l’avoir lu pour suivre le propos.

Il émane des courants anti-industriels qui se caractérisent par une critique radicale de toutes les technologies issues des révolutions industrielles de ces deux derniers siècles[1].

Dans ce cadre-là, le problème n’est pas de défendre les libertés menacées d’Internet, le problème c’est Internet lui-même. La posture du hacker est alors au mieux inutile et au pire complice voire idiot utile du système.

Ici notre hacker tombe bruyamment de son piédestal et ne s’en relève pas.

Il va de soi que nous ne partageons pas le point de vue de l’auteur. Mais il nous semble cependant intéressant d’offrir de temps en temps un espace à nos contradicteurs. Ne serait-ce que pour ne pas s’enfermer dans une sorte de discours « librement correct » redondant et ronronnant.

Les hackers et l’esprit du parasitisme

URL d’origine du document

Los Amigos de Ludd – août 2009 – Pièces et Main d’Oeuvre

Nous incluons dans cette livraison un commentaire de l’ouvrage L’Éthique hacker et l’esprit de l’ère de l’information, appelé à devenir la profession de foi d’une nouvelle génération de technoconvaincus partageant la certitude que les décennies à venir leur appartiennent. Son auteur, Pekka Himanen, est le nouvel hérétique de cette éthique du travail coopératif et passionné, à mille lieues des éthiques protestantes et catholiques fondées sur le travail esclave et la mortification rétribués dans l’Au-delà.

Notre époque, qui plus que tout autre récompense l’irresponsabilité, favorise l’apparition de doctrines ahurissantes concoctées dans les laboratoires insonorisés des universités et des entreprises d’un monde qui s’écroule de toutes parts. Des volumes considérables de matière grise sont mobilisés pour nous montrer les voies d’accès à la vie radieuse que nous sommes tous invités à embrasser si nous ne voulons pas rater le coche de l’émancipatrice modernité. C’est ainsi qu’il y a quelques années déjà, nous avions eu vent de l’existence de ces hackers qui aujourd’hui brandissent l’étendard de leur nouvelle éthique.

Disons d’emblée que le pastiche du ci-devant Himanen n’aurait pas attiré notre attention une seule seconde, n’était le relatif intérêt qu’il a suscité chez ceux qui appartiennent à ce que nous pourrions nommer pieusement les « milieux radicaux ». Ce qui fait problème ce n’est pas que le livre d’Himanen soit une compilation de banalités et d’envolées lyriques, mais qu’il ait été possible de rêver, ne serait-ce qu’un seul instant, que ce livre puisse être mis en perspective avec la pensée critique. D’où vient ce malentendu ?

Nous ne nous engagerons pas ici, une fois de plus, dans une critique de la société technicisée, une réalité qui, au bout du compte, fournit le seul argument tangible plaidant en faveur du fait que les thèses des hackers ont pu s’imposer dans certains milieux avec autant de force. Néanmoins, nous n’allons pas nous priver de mettre en évidence quelques-unes des incongruités qui nous ont sauté aux yeux à la lecture du livre d’Himanen.

Ce que Pekka Himanen a nommé de manière ambitieuse « éthique hacker » – le seul fait de pousser l’ambition jusqu’à s’auto-décerner une éthique est en soi quelque chose d’assez suspect –, n’est rien d’autre que la sauce idéologique grâce à laquelle les hackers souhaitent donner un certain prestige à leur vie de néocréateurs, de néosavants voire de néoleaders spirituels. Si jamais ces gens-là réussissent à créer un véritable mouvement de masse, et à y tenir leur place, ils seront parvenus une fois de plus à démontrer l’inusable élasticité du système actuel, où l’ambition technique collective n’entre pas nécessairement en conflit avec l’ambition économique privée, les deux s’accordant bien pour diffuser la propagande en faveur du progrès et de ses réseaux technologiques aux quatre coins de la planète. C’est un fait avéré que, dans les années 1980, 1990, se sont développées des technologies qui ont débordé du cadre traditionnel de leur appropriation capitaliste. Dans la société totale des réseaux planétaires, les technologies de l’information passent par-dessus le contrôle des entreprises privées, et l’impératif technique s’est à ce point emparé de la société qu’il requiert à présent la collaboration de tous et de chacun : pour être en mesure de maintenir le contrôle sur tout ce qui se sait, il faut bien que chacun soit informé un minimum de tout ce qui a trait à l’exercice du contrôle. C’est ainsi que la « société en réseau » est devenue un sujet d’orgueil démocratique pour les nouvelles masses, satisfaites de leur collaboration à l’informatisation des peuples et des nations. Littéralement, tout le monde participe, tout le monde y arrive, personne ne reste à la traîne. Les envahis sont les envahisseurs.

La société en réseau est l’exemple le plus évident de la façon dont la société occidentale parachève l’extension planétaire de son mode de vie. D’un côté, la guerre économique et la violence du marché, de l’autre, la propagande d’un monde interconnecté dont tout le monde peut faire usage au même titre. Et, au beau milieu, une mythologie futuriste fondée sur le jeu et le délire collectif qui font entrer en scène les Ulysse de la nouvelle odyssée informatique, ces hackers qui se présentent comme l’élite aventurière des générations futures.

Quand Himanen critique les éthiques chrétiennes et protestantes du travail, il pose les premières pierres de son analyse fragmentaire. Son intention est de présenter le travail du hacker comme une activité fondée sur la créativité et le jeu passionné (bien supérieure aux activés productives de survie ou aux liens sociaux typiques du travail). D’après lui, l’activité du hacker est un jeu, au sens noble du terme. Pour Himanen, le hacker s’est affranchi de tout ce qui relève de la survie, un chapitre vulgaire de sa vie qu’il doit traverser le plus rapidement possible. Ce présupposé admis, il va de soi que tout ce qui adviendra par la suite sera totalement gratuit, puisque, en somme, l’éthique hacker se doit de considérer comme naturellement constitué le monde matériel qui l’entoure. La vie du hacker commence à ce moment précis : il existe une société à l’état brut qui, pour des raisons qui restent mystérieuses, garantit la survie et le fonctionnement des échanges économiques, simples bagatelles auxquelles le hacker, essentiellement absorbé par les échanges symboliques et scientifiques, n’a aucune de ses précieuses minutes à consacrer.

Par ailleurs, le hacker mène son activité librement et inconditionnellement. Sorte de mélange entre le bohémien du XIXe siècle et le penseur oisif de l’Athènes classique, il a besoin de liberté d’action et de temps libre pour s’organiser à son aise.

Himanen écrit :

Un autre élément important dans la façon particulière des hackers d’aborder le travail est leur relation au temps. Linux, Internet et l’ordinateur personnel n’ont pas été conçus pendant les heures de bureau. Quand Torvalds a écrit ses premières versions de Linux, il travaillait tard dans la nuit et se levait en début d’après-midi pour poursuivre sa tâche. Parfois, il abandonnait son code pour jouer avec son ordinateur ou pour faire complètement autre chose. Ce rapport libre au temps est depuis toujours un élément caractéristique des hackers qui apprécient un rythme de vie à leur mesure (p. 37).

Une déclaration spécialement irritante, qui fait irrésistiblement penser à ce que disent les étudiants boursiers récemment débarqués sur les campus lorsqu’ils se targuent de prendre du bon temps tout en se gaussant de la vie bêtement routinière du monde des employés. De telles attitudes sont le propre d’individus chéris de la société, jouissant du privilège de rayonner dans tous les sens et considérant leurs concitoyens comme des bêtes curieuses condamnées à faire des allers et retours dans leur cage. Mais il y a plus. En digne représentant qu’il est de notre époque artificielle, Himanen va jusqu’à négliger les limites du monde naturel où, jusqu’à nouvel ordre, l’activité humaine doit s’inscrire, ne serait-ce que parce qu’elle reste tributaire d’une contrainte énergétique et pratique incontournable : la lumière du jour. Par où l’on voit que le travail des hackers est à ce point séparé du monde de la production, dont ils ne laissent pourtant pas de dépendre pour le moindre de leur geste, qu’ils ont oublié jusqu’à l’existence d’une nature avec ses rythmes à respecter, parce que c’est sur eux que se fonde l’activité des sociétés humaines. Ces vérités de toujours, croulant sous le fardeau de décennies de technicisation, finiront bien par éclater un jour, quand bien même il sera alors trop tard.

Par-delà sa défense et son illustration du mode de vie hacker en tant que style personnel caractérisé par le rejet des éthiques chrétiennes et protestantes, Himanen présente, dirons-nous, trois autres piliers du hackerisme : un modèle de connaissance, un modèle de communication et un modèle de société responsable.

En ce qui concerne le premier, Himanen voit d’un bon oeil la « société en réseau » ou « académie en réseau » en forme de gigantesque communauté scientifique accouchant de nouveaux paradigmes de la connaissance dans une ambiance coopérative et antihiérarchique, l’élève n’étant plus un simple récepteur des savoirs mais un sujet actif impliqué dans leur création. Au passage, Himanen commet l’erreur grossière d’attribuer à la technologie une qualité qui lui est absolument étrangère, celle d’avoir des effets bénéfiques sur la diffusion et le développement des connaissances, alors que l’inverse est notoire : l’augmentation des moyens technologiques s’est en réalité traduite par une chute abyssale du niveau des connaissances, mais aussi par un recul dans leur appropriation réelle et par l’apparition dans la société de pans entiers de gens devenus incapables d’acquérir par eux-mêmes un savoir autonome. La confiance placée dans le progrès technique a été une des causes d’effritement majeure de la confiance en soi et de l’autonomie intellectuelle, et la pensée de ceux qui pensent encore a perdu en vivacité et en capacité de se remettre en question (l’opuscule d’Himanen en est une preuve). On peut toujours parler, effectivement, de développement fantastique du savoir scientifique, de cohésion sans précédent entre les différentes sphères de la connaissance, mais aucun de ceux qui tiennent ce discours ne parlera de ce qu’il y a derrière – ou devant, c’est selon – toutes ces merveilles : l’appui du pouvoir industriel et financier et le profit qu’il en tire. Et tandis que la science se corrompt en se mettant au service de l’exploitation généralisée, tandis que les thèses universitaires, les articles et les communications scientifiques s’entassent dans les banques de données, il devient impossible de trouver au sein de cette masse gigantesque de savoirs et d’opinions la moindre parcelle d’indépendance intellectuelle. Cela, Himanen semble l’ignorer.

Selon lui :

II va sans dire que l’académie était très influente bien avant les hackers du monde informatique. Par exemple, depuis le XIXe siècle chaque technologie industrielle (électricité, téléphone, télévision, etc.) aurait été impensable sans le soutien des théories scientifiques (p. 8l)

Un exemple parfait des tours de passe-passe intellectuels dont notre époque regorge ! Comment ne pas voir que ce qu’Himanen appelle « théorie scientifique » ne s’était pas encore, à cette époque comme c’est le cas aujourd’hui, tout entière mise à la remorque des applications technologiques et industrielles qui lui imposaient leur rythme et leurs demandes ?

Himanen ajoute :

La dernière révolution industrielle a déjà marqué une transition vers une société qui dépend beaucoup des résultats scientifiques. Les hackers rappellent qu’à l’ère de l’information, c’est le modèle académique ouvert qui permet la création de ces résultats plus que les travaux scientifiques individuels.

Cela signifie tout simplement, que loin de se traduire par une montée en puissance du savoir indépendant, cette université ouverte a au contraire apporté dans son sillage la servitude aujourd’hui omniprésente sur tous les campus, dans tous les laboratoires, les bureaux, les colloques et revues scientifiques de la planète. L’« Académie en réseau » d’Himanen est une tour de Babel où tout le monde est tenu de parler la même langue, où tout le monde est d’accord avec tout le monde et où personne ne peut conquérir un espace qui lui soit propre – ce que nombre de chercheurs lucides seraient prêts à reconnaître si leurs voix trouvaient des occasions de se faire entendre au milieu du vacarme des autoroutes de l’information.

Dès l’instant où nous posons la question de la valeur d’usage pour la société du savoir produit sur le réseau, nous devons saisir à la racine le modèle du savoir hacker comme construction collective, et nous demander quelle place il peut bien occuper dans une société qui s’active en vue de son émancipation. Il ne suffit pas, loin de là, de libérer l’information si on ne livre pas simultanément à un examen radical le contenu et les fins de cette information ; l’utopie hacker pourrait bien être en train de faire miroiter un monde merveilleux d’échanges immatériels sur fond d’une société ravagée par l’exploitation et les catastrophes environnementales (ce qui est le cas).

Les arguments auxquels recourt Himanen pour défendre l’usage émancipateur et collectif du réseau touchent des sommets dans l’art de la tergiversation quand il aborde la question du modèle de communication dans une société ouverte. C’est là qu’Himanen ébauche en quelques lignes le synopsis du totalitarisme technologique du monde libre dans son irrésistible marche vers le progrès. Sa pensée peut être ainsi résumée :

  1. La société en réseau est une forme techniquement évoluée de la société ouverte et libérale née il y a plus de deux siècles. C’est dire que la société en réseau intègre les valeurs de défense des droits de l’individu et de ses libertés civiles, pour leur fournir des moyens toujours plus perfectionnés grâce auxquels elles puissent se répandre et se développer.
  2. La preuve la plus récente de l’accroissement des possibilités techniques du processus de civilisation est le rôle joué par les technologies de l’information lors du conflit yougoslave de 1999.

Voici ce qu’Himanen écrit à ce sujet :

Pendant les attaques aériennes de l’Otan destinées à mettre fin aux massacres (c’est nous qui soulignons), les médias traditionnels étaient pratiquement aux mains du gouvernement (p. 109).

À travers l’organisme Witness, qui dénonçait la violence et les agressions, la technologie a servi de relais pour révéler le massacre au grand jour et désobstruer les canaux de la vérité.

Vers la fin du conflit, l’organisation Witness a formé quatre Kosovars pour qu’ils collectent sur support numérique les preuves visuelles de violation des droits de l’homme. Le matériel était ensuite transmis hors du pays via Internet grâce à un ordinateur portable et un téléphone satellite. Ces éléments ont été remis au Tribunal pénal international (p. 99).

Derrière ces paroles on perçoit la silhouette des héros médaillés de la fin de l’histoire. Dans le monde libre où les hackers prennent leurs aises, la vérité est un facteur qui dépend de l’intervention sur les canaux d’information. Et la vérité suffit à elle seule à démasquer le mal. Pour Himanen, la technologie est le seul moyen objectif d’obtenir la transparence pour une société qui ne tolère plus les tyrans cruels du style Milosevic.

Mais pour pouvoir accepter tout cela, il faut au préalable avoir accepté comme bonnes toutes les valeurs de la société de marché planétaire, de ses stratégies de conquête et d’évacuation de zones habitées. Il faut avoir abandonné toute velléité de résistance aux mensonges des groupes tout-puissants qui gèrent la paix, l’ordre et la pauvreté en suivant les caprices de l’économie politique moderne. Il faut avoir déchargé les masses en Occident de toutes leurs responsabilités et compter sur leur acceptation passive d’un mode de vie destructeur. Croire dans ces conditions que la technologie peut être mise au service d’une fin bénéfique signifie qu’on prend pour argent comptant la farce humanitaire qui sert de vitrine aux systèmes en charge de la servitude contemporaine, et les mensonges de leurs leaders élus.

Au fond, cela n’a rien de surprenant venant de la doctrine hacker. Chaque fois qu’il met l’accent sur la confidentialité, sur l’information et la vie privée, Himanen nous donne une preuve de ses origines bourgeoises. Tout cela, ce sont des valeurs qui appartiennent à la société libérale, qui toutes virent le jour pour former le socle de l’économie d’entreprise en cours de formation.

La défense de la vie privée, qui obsède Himanen, est le cheval de bataille des hackers, qui sont cependant très attentifs à maintenir la séparation artificielle d’origine bourgeoise entre la sphère publique et la sphère privée. Les fanatiques de la démocratie formelle sont tout prêts à brandir l’anathème du goulag à la seconde même où la discussion s’aventure sur ce terrain. Comme on le sait, la construction de l’enceinte privée a été la pierre de touche de l’idéologie forgée par la bourgeoisie pour légitimer le nouveau pillage fondé sur l’individualisme et la concurrence effrénée. Ce qui était en jeu, c’était la fameuse liberté négative, socle du droit libéral, autrement dit la liberté de ne pas être dérangé dans ses propres affaires. Jamais maffia ne trouva meilleur moyen de protéger ses affaires, à un moment où elle s’était ostensiblement rendue maîtresse de la quasi-totalité des richesses. Les phraséologies parlementaire, journalistique, légaliste, civique, etc., ont servi aux couches socioprofessionnelles compromises avec cette maffia à rendre crédible la farce d’une société unie. La leçon n’a pas été perdue pour Himanen, qui, en bon progressiste qu’il est, transpose cette phraséologie à la défense des droits individuels et au droit à une information véridique.

Si la doctrine hacker et son combat contre l’ingérence de l’État et des entreprises dans la sphère privée ont pu être assimilés aux pratiques de contre-information si prisées des milieux gauchistes, c’est justement parce que ces derniers en sont graduellement venus à adopter une position purement réactive face au monde de l’information monopolisé par les grandes agences et les grands groupes d’intérêts. La leçon à tirer de tout cela est qu’il faut tenir ferme sur la critique unitaire de ce que produit le monde de la marchandise, seule manière d’éviter la fétichisation galopante des droits formels qui encadrent l’assignation permanente de l’individu dans le monde marchand[2].

Le discours d’Himanen sur la technologie et la guerre ne va pas sans l’acceptation d’un monde chosifié par les techniques et par l’économie politique. Dès l’instant où il sépare le monde de la production à la fois de ses conséquences sur les modes de vie et de l’idéologie technique qui réclame toujours plus de moyens pour renforcer son autarcie, il est normal qu’il fasse preuve de partialité dans son analyse des moyens techniques : voyant en eux des instruments qui peuvent servir à faire tomber les tyrans, il méconnaît qu’ils sont en fait la forme achevée sous laquelle chaque tyrannie économique d’aujourd’hui a besoin de se montrer – en construisant de toutes pièces la vie dépendante de la marchandise hypostasiée.

Pour finir, l’utopie technolibérale d’Himanen verse fatalement dans l’humanitarisme assistanciel. C’est ce que lui-même nomme sans vergogne « la préoccupation responsable ». Se référant à quelques hackers assez connus, il montre qu’ils sont tous au top niveau de l’engagement social :

Par exemple, Mitch Kapor soutient un programme global de protection de l’environnement et de la santé destiné à régler les problèmes sanitaires engendrés par les activités des entreprises. Sandy Lerner, qui a quitté Cisco Systems en compagnie de Léo Bosach avec 170 millions de dollars en actions, a utilisé cet argent pour créer une fondation consacrée à la lutte contre les mauvais traitements infligés aux animaux (p. 132).

Une philanthropie informatique qui mérite sûrement d’être vantée ! Les idées d’Himanen sur la communauté et la solidarité font bien voir quel bonimenteur il est :

Par exemple, je peux annoncer sur le Net les moments de la semaine où je peux donner un coup de main à une personne âgée pour ses tâches domestiques ; je peux annoncer que je mets ma maison à disposition des enfants pour qu’ils puissent venir y jouer après l’école ; je peux dire que je serais enchanté de promener un des chiens du voisinage le week-end. L’efficacité de ce modèle pourrait sans doute être renforcée en lui ajoutant la condition que la personne aidée s’engage à son tour à aider quelqu’un d’autre. Internet peut être utilisé comme un moyen d’organiser des ressources locales. Graduellement, d’autres apporteront leur contribution à la production de grandes idées sociales, et cela en engendrera de plus grandes encore. Il y aurait un effet d’autoalimentation, comme cela se passe avec le modèle hacker au niveau informatique (p. 87).

Ce « modèle social » est l’ébauche parfaite d’une société totalitaire peuplée de voisins aimables et de tondeuses à gazon, tous connectés à Internet pour s’échanger perpétuellement de menus services, pendant que les mégamachines militaires de leurs États, manipulées par les grands groupes industriels, se chargent du pillage de la planète et de ses habitants.

On entend souvent dire que les hackers ont introduit une nouvelle forme de communauté, où les savoirs et les outils sont partagés dans un esprit de coopération entièrement désintéressé.

De notre point de vue, les hackers sont les enfants d’un monde totalement réifié par la technologie et la marchandise, d’un monde qui a fermé toutes les issues aux manières traditionnelles de produire ses moyens de survie. Ce qu’on appelle le web est de ce point de vue la plus fabuleuse des mégamachines jamais rêvée, dans la mesure exacte où il se présente comme une structure intellectuelle superposée au vieux et difficile monde de la production matérielle – déjà si lointain aux yeux des générations actuelles. En outre, le réseau se nourrit de la contribution intelligente de millions d’individus à son perfectionnement, à la différence des anciennes mégamachines dont la conception était le domaine réservé des élites. Le réseau est le point d’aboutissement de deux cents ans de modernisation : c’est le phantasme hyperindustriel des catégories socioprofessionnelles totalement séparées de leurs moyens de production, urbanisées, consommatrices et se consacrant à la gestion de la culture aujourd’hui nécessaire au maintien de la domination. La sphère tout entière de l’économie de production et d’élimination des déchets est masquée par cette fantastique mégamachine qui semble flotter dans le vide et qui a toutes les apparences d’une excroissance intellectuelle et passionnelle à l’état pur.

La critique fugace qu’Himanen fait de la survie rend à elle seule manifeste le peu de consistance du mode de vie proposé par les hackers : l’esprit ludique, altruiste et de coopération est une guigne dont ne se fichent pourtant pas les minorités privilégiées de « l’ère de l’accès ». Au milieu de tout cela… Qui ou quoi assure le fonctionnement du système ?

La croissance de l’idéologie informationaliste va de pair avec le développement à toutva de la société capitaliste industrielle, dont la base matérielle est assurée par la production technicisée de marchandises, par la destruction des économies locales et par une intensification de la prolétarisation de populations entières et de leur environnement. Au bout du compte, l’idéologie informationaliste est le propre d’une caste privilégiée qui veut croire que les limites de la production pour la survie ont été surmontées, et tous les problèmes qu’elle posait avec, sans voir que le prix à payer a été un retour de la planète entière en deçà des limites de la survie. Une chose est sûre : le programme économique libéral, adossé au développement des marchés soutenus par les valeurs informatiques et par leur commercialisation, ne rencontrera pas d’obstacles insurmontables du côté des techniciens de la veine d’Himanen, qui rêvent d’un réseau humanitaire de services et de bonnes oeuvres.

Le combat mené de nos jours au sein du réseau informatique pour maintenir une « coopération volontaire » est emblématique de la résignation du plus grand nombre face à une société entièrement soumise aux ordres de la technologie capitaliste. Voilà pourquoi les entreprises n’ont plus qu’à laisser faire cette coopération collective spontanée et à en tirer tout le profit qu’elles peuvent, soit, comme elles le font déjà, en la capitalisant en partie, soit tout simplement en la laissant se développer, certaines qu’elles sont que chaque création technique finit tôt ou tard par contribuer à la croissance des besoins techniques du système. À l’intérieur du réseau, le seul progrès est l’accroissement de la dépendance envers la société en réseau, que seul un faible d’esprit pourrait identifier avec la totalité sociale et ses besoins.

Le cas du gourou du logiciel libre, Richard Stallman, en dit long sur le cercle vicieux dans lequel s’est enfermée l’économie en réseau (net economy), qui revendique pour le réseau une liberté antimonopolistique et anti-accapareurs au nom d’un monde où seule la marchandise a voix au chapitre, et où jamais la maintenance des supports techniques du système n’est remise en question[3]. Le libre accès aux codes sources, la possibilité d’utiliser et de modifier les programmes sans avoir à se soucier des droits d’auteur, la défense d’une conception libre et collective des logiciels, les échanges désintéressés de savoirs et d’outils, toutes ces émouvantes revendications reflètent le drame collectif d’une génération coincée entre son intelligence pragmatique et ses illusions technologiques, les seules qu’elle a reçues en guise de transmission effective.

L’obsession qu’ont les hackers de supprimer les droits d’auteurs et de propriété sur les programmes, les livres, les oeuvres d’art, etc. est typique de l’obsession productiviste de tous ceux qui sont disposés à cohabiter pour toujours avec l’inflation des informations médiatiques et des savoirs séparés. Les hackers ont peut-être trouvé très subversif d’attaquer la notion d’auteur, mais ils auraient mieux fait de s’interroger en priorité sur le sens et la valeur d’usage des créations d’auteurs, et sur leurs finalités sociales. On ne nous fera pas croire que les logiciels sont de simples intermédiaires entre l’intelligence collective et ses réalisations pratiques. Le software est devenu en lui-même un médium, qui se reproduit à l’infini sans que personne ne se pose plus la question de la nature et de la finalité du médium technique qu’il implique[4].

Étant donné qu’elle n’a cure ni des besoins sociaux et de leur nature exacte, ni de la question de la division du travail et du caractère totalitaire de la technologie en régime capitaliste[5], l’« éthique hacker » ne peut être qu’une éthique du nouvel esprit parasitaire qui s’accroche au monde pour profiter au maximum de l’instant présent, gaspiller toujours plus d’énergie, et bousiller un nombre toujours plus grand de populations et leurs territoires. Par sa méconnaissance totale, au niveau pratique et quotidien, des rudiments de la survie collective, le hacker se transforme en une sorte d’indolent hyperactif. Par leur méconnaissance des problèmes techniques et du pillage de tout ce qui fait vivre la planète, les hackers se révèlent à nous pour ce qu’ils sont : des fanatiques de l’artificialisation dont le projet n’ajoute qu’un maillon de plus à la chaîne des irresponsabilités qui pèse sur la société humaine de tout son poids destructeur.

Pour toutes ces raisons, l’assimilation fréquemment faite entre, d’une part, les luttes contre les droits d’auteur dans le monde du software, et, d’autre part, les luttes contre les brevets sur les semences et sur les organismes vivants en général, ne peut que résulter d’une confusion volontairement entretenue. Les premières cherchent à se mettre à l’abri sous le voile de dignité des secondes[6]. Dans le premier cas, nous avons affaire à une exigence qui se félicite de l’irréversibilité d’un monde technicisé avec lequel il convient même de collaborer, y compris de façon altruiste et désintéressée, tant que la survie dorée de ces collaborateurs – les hackers – peut être assurée par l’existence des structures techniques antisociales et par la circulation sans encombre des marchandises. Dans le second cas, nous avons affaire à un combat contre la technicisation forcée, les privilèges, le monde de la marchandise, la collaboration avec le pouvoir, et qui prône un retour à des schémas traditionnels d’exploitation de la nature dans un cadre collectif. Dans le premier cas, nous avons affaire à la communauté en réseau jaillie du terreau à jamais incritiqué de l’« abondance empoisonnée » de la société du capital ; dans le second cas, au projet d’une communauté dont tous les membres partagent la responsabilité d’une production à échelle humaine et qui se refuse à tirer des chèques en blanc sur l’avenir d’une technique dont les effets s’annoncent si dévastateurs que personne ne pourra en assumer le coût. Dans le premier cas, nous avons des gens hyperadaptés aux formes modernes de séparation ; dans le second des gens qui défendent avec obstination les ultimes vestiges d’un monde faisant place à des formes autonomes de production. Seule une passion immodérée pour la confusion peut conduire à mettre sur un même plan deux combats aussi radicalement opposés dans leurs motivations fondamentales[7].

Aucune éthique du travail libéré grâce aux machines ne peut déboucher sur un combat en faveur d’une activité humaine libérée des chaînes de la dévastation capitaliste. En croissant et en se multipliant allègrement dans l’atmosphère conditionnée de la société technicisée, les hackers ne peuvent que contribuer à la destruction de tout ce qui reste de réalité extérieure à cette société.

Extrait de : « Les amis de Ludd. Bulletin d’information anti-industriel », tome 2 (titre original : « Los amigos de Ludd. Boletín de información anti-industrial »), numéros cinq et six), publié en 2009 aux éditions La Lenteur (Paris), p. 61-76.

Notes

[1] Crédit photo : Genista (Creative Commons By-Sa)

[2] Milosz écrit très justement : « Ce que l’homme de l’Est dénomme “formalisme inerte de la bourgeoisie” est par ailleurs l’assurance pour un père de famille de retourner chez lui le soir pour dîner et de ne pas partir en voyage dans une région plus propice à accueillir les ours polaires que les êtres humains. » Mais l’objet de la critique est désormais le pouvoir totalitaire d’une modernisation qui est l’héritière aussi bien du socialisme scientifique que du capitalisme démocratique.

[3] Pour en apprendre davantage sur le point de vue réactionnaire de Stallman, on peut lire son détestable article « Qui surveille les surveillants ? » publié au début de l’année 2002 par le tabloïd aujourd’hui disparu Désobéissance globale.

[4] Voilà ce que peut donner une interview de Stallman à propos du Logiciel libre : « - Ce système ne risque-t-il pas selon vous de favoriser une croissance exponentielle des programmes informatiques ? C’est vrai ! C’est un effet collatéral d’importance négligeable comparée aux effets de la promotion de la liberté. »

[5] Le fait que les hackers et les gauchistes soient deux populations qui se recoupent en partie en dit long sur l’incapacité de ces derniers à analyser de manière rigoureuse la technologie.

[6] Cf. l’article de Stallman, « Biopirates ou biocorsaires ? » Archipiélago n°55, où il formule de nouveau cet amalgame pernicieux.

[7] Bien évidemment, il existe au sein des luttes contre les OGM et autres délices de l’industrie moderne des tendances qui profitent de l’occasion pour réaffirmer leur credo citoyenniste et réformiste, et mènent ces luttes à l’impasse à coups de petits calculs arrivistes. Mais cela n’entame pas les présupposés fondamentaux partagés par d’autres tendances, même s’ils sont affirmés de manière partielle.




Pourquoi il nous tient à cœur de ne pas confondre Hacker et Cracker

Gregor_y - CC by-saSi vous êtes un lecteur assidu du Framablog, vous ne découvrirez probablement pas grand-chose de nouveau dans l’article qui suit. Mais il n’est pas non plus dépourvu d’intérêt, loin s’en faut : il peut être une référence pour tous ceux qui ne connaissent pas bien la différence entre les « hackers » et les « crackers », et ils sont nombreux. On dit souvent, à raison, que cette confusion est de nature médiatique, mais malheureusement ce n’est que partiellement vrai. Avec l’influence que les médias ont pu avoir, il est devenu très courant d’entendre au détour d’une conversation que des « hackers ont piraté (ou que des pirates ont hacké !) tel système ». Et même dans les GUL ! C’est pour cela qu’il m’a paru important de revenir aux sources… Pourquoi hacker n’a rien à voir avec cracker ?

Il me semble d’autant plus dommage de confondre ces deux notions qu’à mon avis le « hacking » a un grand rôle à jouer dans notre société. On a souvent beaucoup de préjugés sur Marx, à cause de la simplification de ses écrits qui a nourri le marxisme (à tel point qu’on appelle les personnes qui étudient directement Marx, les marxiens !). Sans tomber dans le marxisme, le concept de fétichisme de la marchandise me semble particulièrement intéressant pour décrire la situation actuelle : pour faire fonctionner le système économique tel qu’il est, il faut que l’acheteur se réduise à une simple fonction de consommation, sans produire par lui-même, ou pour lui-même. Le fétichisme est à la fois une admiration et une soumission. Il faut acheter des produits de marque. Apple est à mon avis un super exemple : le simple fait de poser une pomme (même pas entière) sur un produit de qualité moyenne, double son prix, et entraîne une myriade de « fans ».

Derrière ce nom barbare du fétichisme de la marchandise, se cache un double phénomène : la sacralisation de la marchandise, engendrant l’aliénation de l’homme à cette dernière. Tout cela pour dire que les produits sont pris pour plus qu’ils ne sont réellement, que par exemple l’homme est prêt à sacrifier beaucoup pour acquérir un objet. Ainsi, le fétichisme de la marchandise permet, à mon sens, de rendre compte de la situation de l’économie actuelle. Une instance économique (le plus souvent les entreprises) produit un objet ou un service qui apparaît cher aux yeux des consommateurs, qui ne doivent l’utiliser que dans le sens pour lequel il a été créé. Encore une fois Apple, cas extrême, permet de rendre compte de la situation : tout ne repose que sur leur image de marque, de haut de gamme, alors que la réalité est terrifiante (Big Brother censure, qualité de l’électronique tout à fait moyenne, matériel et logiciels fermés et propriétaires jusqu’à l’os, bidouillabilité et respect des utilisateurs faibles voire nuls, etc). Là où je veux en venir est que le fétichisme de la marchandise permet de masquer les yeux du consommateur pour que celui-ci se contente d’utiliser servilement ce qu’on lui propose tout en étant satisfait.

Pour entrer plus dans le détail du concept, selon Marx si l’objet est sacralisé c’est parce que le rapport social de production, qui est extérieur au produit, est pris comme faisant partie intégrante de la marchandise. Concrètement, un produit (ou un service) est conçu conformément à des exigences sociales, mais on croit que la valeur sociale attribuée à l’objet vient de l’objet lui-même. On croit que le produit peut exister tout seul, en dehors de tout contexte de société. Par exemple, on peut être fier d’avoir le tout dernier joujou à la mode qui en jette plein les yeux. Dans ce cas, la reconnaissance sociale liée à la possession de l’objet est prise comme étant intégralement due à l’objet que l’on achète. La marchandise est alors élevée à un statut supérieur par une opération certes magique mais inconsciente. L’objet est donc sacralisé, l’aliénation en est ensuite la conséquence : l’objet qui semble posséder des pouvoirs « magiques » doit être protégé, conservé, etc. C’est la soumission qui va de pair avec toute forme de sacré. Et c’est exactement ce qu’essaient de cultiver les entreprises.

De plus, un effet de mode étant très éphémère, l’objet devient vite un fardeau, une vieillerie, car son « pouvoir » secret se tarit. Ce qui, à mon sens, explique la frénésie du schéma achat-consommation-rejet-poubelle de notre système économique, et de nos modes de vie. Le fétichisme de la marchandise vient de là : un rapport social occulté qui entraîne une sacralisation du produit : il faut se contenter pour être heureux d’acheter, de ne pas abîmer, de préserver le produit à l’identique (pour essayer de garder ses vertus magiques que l’on a pu avoir l’impression de palper), de ne pas bidouiller, ni en faire une utilisation trop originale.

Quel est le rapport en fin de compte avec le hacking ? C’est une solution ! Je n’ai fait le rapprochement que très récemment dans une interview de la radio des RMLL de John Lejeune, un animateur du projet Hackable Devices, qui disait que « Tout ce qui est do-it-yourself, bidouille, réappropriation des connaissances, etc, est en train de revenir. L’intérêt est aussi de détourner des fonctions, savoir comment ça marche, comprendre, et désacraliser les objets ». Et effectivement, manipuler, bidouiller, faire par soi-même permet de démystifier le produit, de ne plus être dans une attitude de simple consommation, de ne pas se contenter de vivre en lecture seule[1]. On voit que ce n’est pas compliqué de créer, qu’à l’intérieur de la boîte noire du dernier joujou à la mode, il n’y a finalement rien d’extraordinaire, ni de magique. Le rapport à la marchandise s’inverse : au lieu de se soumettre à elle, on la maîtrise, la contrôle et l’adapte à ses besoins. Confondre « Hacking » et « Cracking » est donc d’autant plus dommageable que les deux notions recouvrent des modes de vie et des fonctionnements différents. Égaliser les deux notions, c’est faire réprimer le vrai « Hacking » par la société et donc en un sens se voiler la face sur des problèmes existants. Cet article me parait donc un début de solution !

Hacker vaillant, rien d’impossible 😉

Lettre ouverte aux médias sur le mauvais usage du terme « hacker »

Open letter to the media about the misuse of the term "hacker"

Matija Šuklje – 2 août 2010 – Hook’s Humble
(Traduction Framalang : Marting, Siltaar, Loque Humaine et Barbidule)

Ces derniers jours et semaines, on a beaucoup parlé dans les médias slovènes de trois Slovènes qui auraient collaboré au botnet Mariposa. Si vous ne savez pas de quoi il s’agit, vous pouvez lire ce communiqué de presse du FBI. Les médias n’ont cessé d’appeller ces présumés cybercriminels des « hackers ». Comme c’est un abus de langage et que nous sommes nombreux, au sein du groupe Slovène de la Free Software Foundation Europe, à nous définir par ce terme de « hackers », nous avons estimé que quelque chose devait être fait. Nous avons donc écrit et envoyé une lettre ouverte aux médias pour leur expliquer la différence entre « hacker » et « cracker » et les inviter aimablement à employer ces mots correctement à l’avenir. Cette action a été soutenue par plusieurs autres groupes et organismes. La suite correspond au texte entier de la lettre ouverte et à sa traduction.

Madame, Monsieur,

Ces dernières semaines, au sujet de l’action du FBI contre un cybercrime ayant abouti à l’arrestation d’un suspect en Slovénie, le mot « hacker » a été utilisé à plusieurs reprises dans les médias dans un contexte et dans un sens erronés. Ce terme ayant un sens différent pour les experts et pour le public profane, nous avons trouvé opportun de vous le signaler par cette lettre ouverte.

« Hacker » vient du verbe « to hack », « bidouiller ». Cette expression fut forgée au MIT (Massachusetts Institute of Technology) dans les années 50, et signifie résoudre un problème technique d’une manière originale. Dans le jargon de l’informatique, elle est encore utilisée pour désigner des modifications inventives ou originales d’un programme ou d’un système, basées sur une compréhension profonde et dans un but qui n’était pas celui prévu initalement.

Beaucoup d’autorités dans le domaine de l’informatique et de la sécurité entendent le terme « hacking » comme un état d’esprit, la capacité à penser hors des frontières, des façons de faire et des méthodes établies, en essayant de surmonter ces obstacles. Les exemples sont nombreux de « hackers » mettant leurs compétences et leur créativité au service de causes nobles et de l’intérêt général, en faisant en sorte que tout le monde puisse utiliser ou modifier leur programme. Des exemples de tels logiciels libres sont : GNU/Linux, Mozilla Firefox, Mozilla Thunderbird, Google Chromium, OpenOffice.org, SpamAssassin, GIMP, Scribus etc.

Ce furent les médias et l’industrie du film qui utilisèrent ensuite (à tort) le mot « hacker » pour désigner les cybercriminels, ce qui provoqua évidemment une certaine confusion. Ce désordre est encore alimenté par l’évolution de la terminologie, et par les traductions dans la langue slovène.

Pour désigner une personne qui s’introduit dans des systèmes informatiques avec une intention criminelle, il est plus approprié d’utiliser le terme « cracker ». Ce terme désigne les personnes qui contournent des systèmes de sécurité sans autorisation et/ou qui utilisent les TIC (c’est-à-dire habituellement des ordinateurs, des téléphones ou des réseaux) pour s’introduire dans des systèmes et se livrer à des activités illégales ou criminelles — vandalisme, fraudes aux cartes de crédit, usurpation d’identité, piratage, et autres types d’activités illégales.


Ainsi, le dictionnaire slovène d’informatique fait bien la distinction entre le terme « hacker », entendu comme « un passionné d’informatique orienté sur la technique » et le terme « cracker » « qui s’introduit dans les systèmes informatiques avec l’intention d’utiliser des données ou des programmes sans autorisation ».

C’est pourquoi il convient d’utiliser le terme « crackers » pour désigner ces personnes suspectées de crimes informatiques. Au cours des dernières décennies, de nombreuses avancées technologiques furent le fruit du phénomène « hacker » — les ordinateurs personnels, l’Internet, le logiciel libre — il serait donc abusif d’assimiler hackers et criminels. Cela équivaudrait à qualifier tous les pharmaciens d’empoisonneurs.

Nous comprenons que la confusion actuelle existe depuis assez longtemps et c’est d’ailleurs pour cela que nous pensons qu’il est largement temps de clarifier ce point ensemble. Aussi nous vous demandons, s’il vous plaît, de bien vouloir à l’avenir utiliser le terme approprié.

Bien cordialement,

Matija Šuklje : coordinateur du groupe slovène de la FSFE[2]

Co-signataires : Andrej Kositer (président du COKS[3]), Simon Delakorda, (directeur du INePA[4]), Andrej Vernekar (président du LUGOS[5]), Klemen Robnik (de Kiberpipa/Cyberpipe[6]) et Ljudmila[7].

Notes

[1] Crédit photo : Gregor_y (Creative Commons By-Sa)

[2] Le groupe slovène de l’association FSFE est un groupe supportant la « Free Software Foundation Europe » ainsi que le logiciel libre et open-source en général, organisé en tant que mouvement citoyen. Nous défendons le logiciel libre, les standards et les formats ouverts.

[3] Le Centre Open Source Slovène (COKS – Center odprte kode Slovenije) soutient au niveau national en Slovénie, le développement l’utilisation et la connaissance des technologies open-source ainsi que des systèmes d’exploitation libres. Nous aidons et soutenons les utilisateurs de ces systèmes d’exploitation dans le secteur public et privé, et coopérons avec les instances européennes dans le domaine de l’open-source et des politiques de gouvernance en informatique.

[4] L’Institut d’Apport en Électronique INePA (Inštitut za elektronsko participacijo) est une organisation non gouvernementale à but non-lucratif dans le domaine de l’e-democratie. L’INePA effectue aussi bien des projets applicatifs et de développement que des activités juridiques et en lien avec les ONG, les institutionsn et les individus qui supportent le consolidation de la démocratie et de la participation politique par l’usage des TIC. L’institut est membre du Réseau Pan-Européen d’eParticipation, et du Réseau de Citoyens d’Europe Centrale et de l’Est.

[5] LUGOS (Linux user group of Slovenia) est une association d’utilisateurs du système d’exploitation libre et open-source GNU/Linux. Parmi ses activités, elle propose entre autre un support aux utilisateurs et traduit des logiciels libres. Elle s’occupe aussi du réseau ouvert sans fil de Ljubljana (wlan-lj) et des lectures hebdomadaires de « Pipe’s Open Terms » (en coopération avec Cyberpipe).

[6] Kiberpipa/Cyberpipe est un collectif de défense de l’open-source et des libertés numériques. Dans le centre de Ljublljana, il crée une culture numérique, et informe experts et grand public par le biais de présentations, de lectures et d’ateliers.

[7] Ljudmila Le laboratoire de Ljubljana pour un média et une culture numérique (1994) est le premier laboratoire à but non-lucratif en Slovénie qui supporte la recherche inventive et créative, au travers de projets de travail autour de l’Internet, de la vidéo numérique, de l’art électronique, de la radio numérique, de la communication, du développement du logiciel open-source et connecte tout ceci dans une approche interdisciplinaire. Il promeut aussi aussi bien l’éducation en groupes autonomes qu’en ateliers et il est le fondateur du réseau de centres multimédia « M3C » en Slovénie.




De la confiance au sein d’une communauté

Notsogoodphotography - CC bySi j’ai demandé l’autorisation à son auteur d’exhumer et reproduire ici-même un de ses articles pourtant déjà vieux de presque dix ans, c’est parce qu’il touche à une notion simple mais essentielle : la confiance.

La grande chance, ou plutôt la grande force, du logiciel libre, et dans son sillage de toute la culture libre, c’est de bénéficier dès le départ d’un certain niveau de confiance.

Pourquoi ? Parce que la licence libre qui l’accompagne.

C’est cette mise sous licence libre qui non seulement donne son nom au logiciel libre mais qui, de par les garanties offertes, favorise l’émergence d’une communauté autour du projet et tisse des liens solides entres ses membres.

Cela ne constitue évidemment pas un gage absolu de succès (cf Comment détruire votre communauté en 10 leçons), mais c’est tout de même un sacré avantage lorsque l’on sait combien cette confiance peine à s’installer dans des structures plus « classiques ».

Le texte ci-dessous est de Jean-Yves Prax qui travaille à Polia Consulting, une société de conseil en Knowledge Management.

Il ne se focalise nullement sur le logiciel libre en tant que tel mais ne s’aventure pas non plus jusqu’à la relation amoureuse[1]. Il se limite ici « à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process… ».

Vous trouverez en bas de page une version PDF de l’article.

Le rôle de la confiance dans la performance collective

URL d’origine du document

”Texte de la conférence faite par Jean-Yves Prax pour l’ouverture du KMForum 2001, le mardi 25 septembre 2001, au Palais des Congrès, Porte Maillot, Paris.

La confiance est un facteur déterminant de la performance collective et en particulier dans le cas des communautés virtuelles ou/et d’équipes dont la production est à forte intensité immatérielle. Même si, d’expérience ou d’intuition, nous partageons tous cette conviction, les mécanismes de création de la confiance restent énigmatiques et peu maîtrisables : la confiance, qu’est-ce que c’est ? comment la créer ? A quelle rationalité obéit-elle ?

Analyser la confiance, c’est aborder l’un des aspects les plus délicat du fonctionnement d’une communauté.

La confiance, qu’est-ce que c’est ?

La littérature sur le sujet est abondante et les définitions très diverses et variées, par exemple :

  • La confiance analysée d’un point de vue rationnel, comme un choix raisonné, par exemple le ratio effort-bénéfice d’une action individuelle au sein d’un collectif ; on entend parler d’indice de confiance, de ce qui est maîtrisable ; la notion peut être utile en cas de délégation.
  • La confiance analysée d’un point de vue normatif, conforme à un label, une certification : par exemple, nous sommes capables de confier notre santé et notre vie à un médecin parfaitement inconnu au seul prétexte qu’il a obtenu un diplôme national, diplôme que nous ne vérifions même pas, alors que nous hésiterons à confier les clefs de notre véhicule à un laveur de voitures.
  • Une confiance par intuition, par croyance, qui ne suppose pas de véritable délibération critique, elle est affective, esthétique, c’est-à-dire purement émotionnelle et par conséquent tout à fait irrationnelle. Beaucoup de comportement racistes sont typiquement dans ce registre (la fameuse "note de sale gueule") mais si vous ne le croyez pas, essayez donc d’aller solliciter un emprunt à votre banquier en babouches !
  • La confiance vue d’un point de vue social, basé sur une sorte « d’engagement de moyens » issu d’un code partagé (souvent implicite) de devoirs réciproques, de valeurs morales et d’éthique. « Il n’a pas réussi, mais il a fait tout ce qu’il pouvait ».

La perspective rationnelle se définit comme « une attente sur les motivations d’autrui à agir conformément à ce qui était prévu dans une situation donnée ». Elle considère l’individu comme un acteur rationnel, prévisible, et sa rationalité est confortée par le fait que ses choix et ses actes sont gagnants, utiles. Cette définition de la confiance, largement présente dans le monde professionnel, a des avantages et des limites.

  • L’avantage majeur est qu’il n’y a pas confusion entre « confiance » et « affinité » ; une personne peut acheter un livre par amazon.com, car elle a confiance dans le système de paiement et de livraison, mais aucune affinité. Ne vous est-il jamais arrivé, impressionné par le professionnalisme d’un individu que vous n’aimez pas beaucoup, de dire « il est bon et je lui fais entièrement confiance, mais je ne passerais pas mes vacances avec lui ».
  • La limite réside dans la prévision de rationalité : un individu confronté à un système complexe : environnement incertain, jeu de contraintes, choix difficiles, n’agit pas toujours de la façon qui était prévue et n’obtient pas toujours les résultats escomptés. Les freins à l’innovation se cachent dans ce domaine : un individu sera freiné dans ses idées et initiatives dès le départ, non pas à cause d’une analyse du projet, mais tout simplement parce qu’il dérange l’ordre établi.

La théorie de la rationalité en économie voudrait que les choix individuels s’appuient sur des raisonnements utilitaires :

  • Si je préfère A à B et B à C, alors je préfère A à C ;
  • Toute décision est fondée sur un calcul coût-bénéfice, ou sur une analyse de risque.

Dans la vraie vie, cette rationalité n’existe pas ! En effectuant leurs choix les hommes n’obéissent pas aux lois bayésiennes de la décision :

  • ils accordent trop de poids à l’information qui leur est parvenue en dernier ;
  • ils ne sont pas sensibles à la taille de l’échantillon, c’est même souvent l’inverse[2],
  • ils réagissent plus à la forme qu’au fond.

La perspective sociale considère qu’un individu n’est pas évalué uniquement par ses résultats mais aussi en tant qu’acteur social ; il peut conforter les prévisions ou de les décevoir, à condition qu’il le fasse dans le respect de ses obligations morales et d’un certain nombre de codes.

Une intentionnalité limitée au champ d’interaction

Comme nous le constatons, le champ d’investigation est immense, mais on peut singulièrement le réduire si l’on accepte l’hypothèse d’une confiance limitée au domaine d’interaction ; je m’explique : lorsqu’on fait confiance à une autre personne, ce n’est pas dans l’absolu, c’est dans un domaine précis, qui est le champ d’interaction prévu ; ainsi une jeune adolescente qui accepte de sortir au cinéma avec son ami lui fait confiance par rapport à un certain nombre de critères ; ces critères ne sont pas les mêmes que ceux qui dicteront le choix du futur directeur général d’une firme internationale, ou encore d’un guide de haute montagne.

Nous nous limiterons ici à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process…

Si l’on prend soin de distinguer la confiance de l’affinité, alors on devine que, dans un groupe de travail ou une équipe, la confiance est en forte interaction avec la compétence : chaque membre fait confiance à un individu pour sa capacité à…

Alors la question devient : « comment créer dans une équipe les conditions de la confiance mutuelle ? »

Comment créer la confiance ?

L’approche de la compétence que propose R. Wittorski[3] nous renseigne sur le processus de création de confiance au sein d’un groupe ; selon lui, la compétence s’élabore à partir de cinq composantes :

La composante cognitive : elle est constituée de deux éléments : les représentations et les théories implicites (paradigmes) ; on distingue les représentations cognitives (savoirs et schèmes d’interprétation) et les représentations actives (construction par l’auteur du sens de la situation).

  • La composante affective : c’est l’un des moteurs de la compétence. Elle regroupe trois éléments : l’image de soi (valorisation de notre personne), l’investissement affectif dans l’action (plaisir de ce que l’on fait), l’engagement (motivation). Le premier élément suggère à quel point elle est influencée par l’environnement social immédiat : un jugement positif ou négatif agira directement sur l’image de soi et aura pour effet de renforcer ou casser la motivation (voir l’effet Pygmalion ci-dessous).
  • La composante sociale : elle représente la reconnaissance par l’environnement immédiat de la pratique de l’individu ou du groupe et aussi l’image que ces derniers se font de cette reconnaissance ; ce dernier point indique que la composante sociale comporte également le choix que l’acteur fera de « ce qui est montrable ». La stratégie du connaisseur n’est pas tant de connaître mais de faire savoir qu’il connaît.
  • La composante culturelle : elle représente l’influence de la culture sociale sur les compétences.
  • La composante praxéologique : elle renvoie à la pratique dont le produit fait l’objet d’une évaluation sociale ; il s’agit de la partie observable (évaluable) de la compétence.
L’effet Pygmalion

Nous opterons pour une approche mixte, à la fois rationnelle, sociale et affective de la confiance, c’est à dire l’ensemble des facteurs permettant la collaboration entre les membres d’une équipe, basées sur le respect mutuel, l’intégrité, l’empathie, la fiabilité. Les cinq composantes citées ci-dessus sont à la fois l’image de soi même, et l’image de soi vu à travers le regard des autres. Le groupe agit comme un miroir grossissant ; en psychologie, on appelle cela l’effet Pygmalion : "La prédiction faite par un individu A sur un individu B finit par se réaliser par un processus subtil et parfois inattendu de modification du comportement réel de B sous la pression des attentes implicites de A".

Il s’agit d’un mécanisme amplificateur en boucle : un jugement négatif de A casse la confiance de B en lui même, ce qui se voit et a pour effet de renforcer A dans son jugement négatif initial[4].

La confiance dans le partage de connaissances

Au cours de nos missions de Knowledge Management, nous avons pu interroger un certain nombre de professionnels de tous niveaux sur la question : « qu’est-ce qui favorise (ou empêche) le partage de connaissance dans un groupe de travail ? » Tous ont spontanément insisté sur le caractère primordial de la confiance dans une équipe et ils ont précisé les facteurs susceptibles de la créer :

1. Réciprocité (jeu gagnant-gagnant)

J’accepte de donner mes idées, mon ingéniosité, mon expérience au groupe, mais j’attends que les autres membres en fassent autant ; chacun veille à respecter un équilibre en faveur d’une performance collective. Ce mécanisme de surveillance exclut le « passager clandestin », c’est à dire celui qui à l’intention de recueillir les fruits du travail du groupe sans y avoir vraiment contribué.

2. Paternité (identité, reconnaissance)

J’accepte de donner une bonne idée à mon entreprise, et de voir cette dernière transformée en une innovation majeure ; mais je ne tolèrerais jamais de voir l’idée signée du nom de mon chef à la place du mien. Il s’agit d’un fort besoin de reconnaissance de la contribution d’un individu au sein d’un groupe.

3. Rétroaction (feed-back du système)

L’erreur est la première source d’apprentissage ; à condition d’avoir un feed-back du système.

L’enfant apprend par un processus répétitif de type essai-erreur-conséquence :

  • essai : il faut que l’organisation encourage les initiatives, les « stratégies tâtonnantes » afin de développer l’autonomie et la créativité ; comment un enfant apprendrait t’il à marcher s’il avait peur d’être ridicule ?
  • erreur : elle doit être documentée et communiquée (feed-back) ; la conséquence la plus immédiate sera d’éviter aux autres de la reproduire !
  • conséquence : c’est le point le plus fondamental ; un système est apprenant dans la mesure où il délivre à l’individu le feedback sur son action, ce qui lui permet immédiatement d’évaluer l’impact de son action sur le système. C’est ce qui pose problème dans les très grandes organisations : l’individu peut faire tout et son contraire, dans la mesure où il n’a jamais de réponse du système , il ne saura jamais évaluer le bien-fondé de ses actions et progresser.

Dans un groupe, l’erreur doit être admise, c’est un signe très fort de la confiance et du fonctionnement effectif du groupe. En revanche on ne devrait jamais laisser quelqu’un la dissimuler.

4. Sens (unité de langage, de valeurs)

Une connaissance strictement personnelle ne peut être partagée que par l’utilisation d’un code et d’une syntaxe connue d’un groupe social, qu’il soit verbal ou non verbal, alphabétique ou symbolique, technique ou politique En faisant partie de la mémoire collective, le langage fournit à chaque individu des possibilités de son propre développement tout en exerçant un fort contrôle social sur lui. Ainsi, le langage est à la fois individuel, communicationnel et communautaire.

Mais ce n’est pas tant un problème de traduction que de sens : dans une conversation, deux interlocuteurs peuvent arriver à partager des mêmes points-de-vue s’ils établissent un processus de coopération : écoute active, participation, questionnement, adaptation sémantique, feed-back, reformulation. En effet, si le mot, comme symbole collectif, appartient à la communauté linguistique et sémantique, le sens qu’il recouvre est purement individuel car il est intimement lié à l’expérience et à l’environnement cognitif dans lequel se place l’individu.

La confiance, une construction incrémentale

Les auteurs et nos expériences s’accordent sur la nature incrémentale du processus de construction de la confiance ; dans certains domaines commerciaux, par exemple, on dit « il faut 10 ans pour gagner la confiance d’un client, et 10 minutes pour la perdre ! ».

Cette notion est largement étayée par le modèle de Tuckman qui voit quatre état chronologiques (ontologiques) majeurs dans le développement d’un groupe : formation, turbulence, normalisation, performance[5].

La confiance se construit, puis se maintient ; alors qu’il est difficile de distinguer un processus standard de construction de la confiance, en revanche, il semble qu’un modèle en 5 composantes puisse rendre compte de son maintien : instantanée, calculée, prédictive, résultat, maintien.

La confiance instantanée

A l’instant même de la rencontre, un individu accorde à l’autre un « crédit de confiance » ; c’est un processus instantané mais limité, peu fondé ni étayé, donc fragile, sous haute surveillance ; une sorte de confiance sous caution. C’est ce qui permet à des gens qui sont parachutés dans des groupes temporaires de pouvoir travailler ensemble, par exemple dans les équipes de théâtre ou de production cinématographique, dans les équipages d’avion, dans les staffs médicaux, etc.

Cette confiance se base principalement sur deux facteurs :

  • On estime que les autres membres ont été sélectionnés par rapport à des critères de fiabilité, compétence, valeurs, etc. On a affaire à la notion de tiers-certificateur, dont on verra plus loin que le rôle peut être capital.
  • On suppose qu’il y a réciprocité : si je n’accorde pas ma confiance à l’autre, alors l’autre en fera autant et il nous sera impossible de construire la moindre relation.

Ce type d’équipe se met très vite au travail et devient performant sans passer par les longues et progressives étapes de maturation.

La confiance calculée

Cette étape est franchie lorsque les acteurs attendent qu’une collaboration apporte un certain bénéfice. La confiance trouve alors sa source dans la conformité ou non de l’exécution d’une tâche collaborative particulière ; par exemple, la confiance d’un client dans une entreprise générale qui construit sa maison peut être assortie de mécanismes de contrôle et de clauses de pénalités de façon à maîtriser des dérives ou des comportements opportunistes.

L’une des façons de créer un climat de confiance est de mettre en place des procédures, comme la définition des rôles et responsabilités, des mécanismes de reporting, etc.

La confiance prédictive

Dans le process prédictif, la confiance est largement basée sur le fait que les acteurs se connaissent bien : ils se basent sur le comportement passé pour prédire le comportement à venir. Les acteurs qui n’ont pas la possibilité d’avoir des relations ou expériences communes réclameront des séances d’entraînement, des réunions ou d’autres dispositifs leur permettant de mieux se connaître.

La confiance basée sur le résultat

Dans ce mécanisme, la confiance est basée sur la performance de l’autre. Au départ, cette confiance dépend des succès passés ; elle sera encore renforcée si l’autre accomplit sa tâche avec succès, et rompue si des problèmes sont rencontrés. Ce mécanisme est particulièrement important dans les communautés virtuelles où les acteurs ne se connaissent pas, ne peuvent pas voir comment les autres travaillent ; ils ne peuvent juger que sur le résultat : délai, qualité des produits

La confiance intensive

Finalement la confiance intensive suppose que les deux parties identifient et acceptant les objectifs, finalités et valeurs de l’autre.

La confiance dans les communautés virtuelles

Le texte ci-dessous est le résultat d’une expérience menée avec quatre groupes d’étudiants devant effectuer une travail commun à distance en utilisant des outils de groupware et de visioconférence.

L’expérience a montré que la confiance jouait un rôle primordial dans la qualité du travail collaboratif et que l’usage d’un outil présentait de nombreux risques de sérieusement l’entamer, voire la détruire. Un certain nombre de comportements ont été révélés comme porteurs de danger :

  • s’enflammer : s’énerver tout seul et se décharger dans un longue tirade écrite ;
  • poser des requêtes ou assigner des tâches irréalisables ;
  • ignorer les requêtes ; ne pas répondre à ses mails ;
  • dire du mal ou critiquer quelqu’un ;
  • ne pas remplir ses engagements.

Bien entendu on se doute que ce genre de comportement n’est pas fait pour améliorer la confiance, mais il se trouve que l’usage d’un outil les rend davantage possibles qu’une interaction physique. En effet, dans une conversation face-à-face, il se produit des sortes de micro-boucles qui ont la vertu de désamorcer des conflits par une meilleure compréhension des points-de-vue de chacun. La plupart des crises sociales sont des crises du langage et du sens.

Le tableau ci-dessous résume les facteurs qui renforcent ou au contraire diminuent l’établissement de la confiance dans une communauté.

La confiance est renforcée quand :

  • La communication est fréquente, les membres sont bien informés et partagent leurs compréhensions.
  • Les messages sont catégorisés ou formatés, ce qui permet aux récepteurs une économie de temps.
  • Les tâches, rôles et responsabilités sont bien définis, chaque membre connaît ses propres objectifs.
  • Les membres tiennent leurs délais et leurs échéances.
  • Il y a un esprit positif permanent, chaque membre reçoit des encouragements et un feed-back.
  • Les membres s’entraident mutuellement.
  • Les attentes personnelles et celles du groupe ont été clairement identifiées.
  • Les membres ont le même niveau d’engagement.

La confiance est affaiblie quand :

  • Il y a peu de communication, les idées ne sont pas partagées.
  • Les membres ne sont pas réactifs ; certains messages urgents restent sans réponse.
  • Les objectifs n’ont pas été clairement définis.
  • Les délais et livrables n’ont pas été clairement définis.
  • L’esprit n’est pas positif et il n’y a pas de feed-back ou celui ci est systématiquement négatif.
  • Les attentes personnelles et celles du groupe n’ont pas été identifiées.
  • Les membres cherchent plutôt à esquiver, à éviter de contribuer.
  • Les membres ne s’engagent pas vraiment.

Ces facteurs contribuent à une performance du groupe élevée ou faible, qui elle-même contribue par une boucle de retour à la motivation des acteurs pour coopérer. On peut parler d’une véritable spirale de la confiance.

La spirale de la confiance

A partir des différents éléments cités ci-dessus, on peut donc évoquer un processus cumulatif, une sorte de spirale, qui peut être positive ou négative :

  • au départ, un acteur va contribuer au groupe sur la base d’une « confiance instantanée », donc forcément limitée ;
  • en fonction de la contribution des autres, du côté positif du feed-back et éventuellement de la performance constatée, cet acteur sera incité à renforcer sa contribution.

En sens opposé, on peut vite imaginer comment se crée un « processus contre-productif » où la dimension sociale d’un groupe joue dans le sens contraire de la compétence individuelle et finit par démotiver complètement la personne. En d’autres termes, si on oppose une personne compétente à un système déficient, le système gagne à tous les coups.

La compétence individuelle, 6ème facteur de performance collective

Dans cet esprit, une étude nord-américaine a démontré que la compétence individuelle n’intervenait qu’en sixième position comme facteur de performance collective ; les spécifications des produits, le système organisationnel, les feed-back du système aux actions étant des préalables à l’efficacité collective :

  1. Spécifications claires (produit de sortie, standards )
  2. Support organisationnel (ressources, priorités, processus, rôles )
  3. Conséquences personnelles (reconnaissance des autres )
  4. Feedback du système (résultat d’une action)
  5. Savoir-être de l’individu (physique, mental, émotionnel)
  6. Compétence et savoir individuel

Cela tend à montrer que les dispositifs de formation professionnelle sont certes nécessaires, mais qu’il peuvent être très dispendieux s’ils ne s’inscrivent pas dans une démarche globale, incluant une refonte des organisations (modes de fonctionnement de l’équipe, management), du système d’évaluation et de reconnaissance (objectifs, réalisation, évaluation de la performance), des processus (modélisation des tâches et des compétences), des spécifications produits.

Les conventions du travail collaboratif

Revenons à nos équipes virtuelles ; il semblerait qu’un certain nombre de conventions ou protocole favorisent l’établissement d’un niveau de confiance suffisant pour un travail collaboratif efficace. Ces conventions se regroupent en cinq catégories :

  • Catégorie : Intégrité
    • Caractéristiques : honnêteté, éthique, loyauté, respect, fiabilité et engagement
    • Facteurs et comportements : être honnête, tenir ses engagements,être réactif, être droit et loyal, être fiable
  • Catégorie : Habilitation
    • Caractéritiques : savoirs, savoir-faire, compétences individuelles et collectives
    • Facteurs et comportements : mettre en application avec succès les savoirs, compétences, partager les expériences, les bonnes pratiques
  • Catégorie :Ouverture
    • Caractéristiques : volonté de partager des idées et des informations, intérêt aux autres, apprendre des erreurs
    • Facteurs et comportements : informer les autres,partager librement les idées et les informations, être curieux,donner un feed-back positif,reconnaître ses erreurs
  • Catégorie : Charisme
    • Caractéristiques :empathie, envie de bien faire, bonne volonté, générosité
    • Facteurs et comportements : s’entraider,être amical, être courtois,avoir de la considération,rester humble,savoir apprécier le travail des autres
  • Catégorie : Attentes
    • Caractéristiques : bénéfice potentiel, cohérence, évaluation
    • Facteurs et comportements : être à l’écoute des attentes, rechercher un consensus ou des compromis, rester cohérent sur les attentes

Ce qui est important dans cette énumération de facteurs, c’est qu’ils n’ont pas tous la même importance par rapport au processus cumulatif de construction de la confiance :

  • Certains sont mineurs, ils seront corrigés en temps réel : quelqu’un oublie de communiquer une information, le groupe lui fait remarquer, il s’en excuse ; c’est une mise au point nécessaire.
  • Certains sont « proportionnels » : tout le monde n’a pas le même charisme et cela n’empêche pas forcément un groupe de fonctionner.
  • Certains sont majeurs et définitifs : c’est notamment le cas des facteurs regroupés dans la catégorie « intégrité » ; une trahison sera perçue comme une atteinte définitive à la confiance.

Conclusion : le rôle de la confiance dans la connaissance collective

Une fois admis que la subjectivité, l’affectif, l’émotion, gouverne nos représentations individuelles, on conçoit que le processus de construction collective d’une représentation passe nécessairement par une étape de mise en commun des perceptions, de confrontation, de négociation et de délibération de ces différentes subjectivités. Ce processus nécessite des qualités humaines d’empathie, de « reliance  »[6] davantage que des capacités d’analyse.

En ce sens, l’organisation n’est pas tant un système de « traitement de l’information » mais bien de « création de connaissance collective ». C’est là que réside l’enjeu humain du Knowledge Management.

Du Knowledge Management au knowledge enabling

Partant de ces considérations sur la nature de la connaissance, profondément engrammée dans l’individu en tant que sujet, on peut en déduire qu’on ne manage pas la connaissance, comme on manage un objet ; le terme Knowledge Management, que j’utilise volontiers, est en fait un abus de langage ; tout au plus peut on manager les conditions dans lesquelles la connaissance peut se créer, se formaliser, s’échanger, se valider, etc. Les anglo-saxons parleraient de knowledge enabling.

Cela permet également d’introduire une précision fondamentale : le management de la connaissance collective est avant tout une problématique de flux ; ce qui est important c’est de manager les transitions entre tous les états de la connaissance : tacite, implicite, explicite, individuel, collectif, etc. Tous les outils du KM (socialisation, formalisation, médiatisation, pédagogie) doivent se focaliser sur l’optimisation de ces flux de transition.

Notes

[1] Crédit photo : Notsogoodphotography – CC by (Creative Commmons By)

[2] « Un mort c’est un drame, dix morts c’est un accident, mille morts c’est une statistique »

[3] R. Wittorski, De la fabrication des compétences, Education permanente, n°135, 1998-2

[4] Alain, dans Dieux déguisés, nous décrit magnifiquement l’effet Pygmalion : « J’ai souvent constaté, avec les enfants et avec les hommes aussi, que la nature humaine se façonne aisément d’après les jugements d’autrui, …Si vous marquez un galérien, vous lui donnez une sorte de droit sauvage. Dans les relations humaines, cela mène fort loin, le jugement appelant sa preuve, et la preuve fortifiant le jugement… La misanthropie ne mène à rien. Si vous vous défiez, vous serez volé. Si vous méprisez, vous serez haï. Les hommes se hâtent de ressembler au portrait que vous vous faites d’eux. Au reste essayez d’élever un enfant d’après l’idée, mille fois répétée à lui, qu’il est stupide et méchant; il sera tel… »

[5] Les termes originaux de Tuckman forming, storming, norming, performing sont assez difficiles à traduire. Beaucoup d’auteurs français traduisent notamment Storming par conflit ; je pense que, dans le mot anglais storming, comme par exemple dans brainstorming, il y a une connotation de chaos créatif, de nécessité de passer d’un état à un autre ; l’adolescence pourrait être une bonne métaphore. De même « Performing » doit être compris au sens de la « représentation d’un orchestre » où l’on entend une pâte musicale unique, au sein de laquelle il est impossible de dissocier un instrument.

[6] Le mot est d’Edgar Morin