Facebook, petite analyse anthropologique avec YourOpenBook.org

Mohd Shazni - CC by L’équipe Framalang s’est dernièrement attelée à la traduction d’un court article de Gene Weingarten, au sujet de ce grand site de réseautage social sur le web. Derrière une apparente naïveté, l’auteur se targue de réaliser une étude anthropologique à partir des données personnelles des millions d’utilisateurs de Facebook, qu’il collecte via YourOpenBook.org, un moteur de recherche dédié aux messages courts de statut de ce qui n’était à l’origine qu’un trombinoscope universitaire en-ligne. Or, si jusque-là la fonctionnalité pouvait sembler manquer au site officiel, c’est aussi qu’elle met en évidence le faible degré de protection des données personnelles de ses utilisateurs que Facebook offre, au moins par défaut.[1].

Ironie du sort, la semaine de sortie de l’article en question, Facebook fut secoué d’une quinte de toux numérique le rendant injoignable pendant plus d’une heure, ce qui anima de grandes conversations sur les autres grands réseaux sociaux, principalement à coup de gazouillis d’ailleurs…

Pas de quoi fouetter un chat me direz-vous, des sites web qui tombent en panne ça arrive, et même au plus gros. Par contre, dans le cas d’un site qui se propose de gérer vos albums photos, votre carnet d’adresses en fouillant dans vos boîtes à lettres électroniques (pour finalement proposer de les remplacer par son service de messagerie interne) et jusqu’à vos connexions aux autres sites web via un service doublon d’OpenID, l’incident peut être révélateur et s’avérer pédagogique. Pour ma part, j’ai ouvert un compte Facebook sans grande conviction en 2006, parce que c’était de bon ton dans l’entreprise où j’étais en stage à l’époque, mais je ne prévoyais pas un plus grand avenir à ce compte qu’à mes comptes Orkut[2] ou CopainsDAvant[3]. Or, si pour ma part j’ai tenu parole, n’alimentant pas vraiment un réseau plus que les autres, force est de constater que l’un d’eux a pris au fil des ans de plus en plus de place sur le web. Et à vrai dire, chaque fois qu’une connaissance s’ajoute à mes contacts, j’ai l’indolence de ne pas aller chercher son adresse de courriel dans son profil pour la noter dans un fichier chez moi. Or, il s’avère que pendant cette fameuse interruption de service, je me suis retrouvé à devoir envoyer un message « urgent » à un ami dont je n’avais jamais noté l’adresse ailleurs… et je n’ai pas pu.

Finalement il apparaît que Facebook, l’utiliser c’est se piéger, même en étant renseigné et modéré. Au moins, les mails stockés sur mon disque dur par Thunderbird[4] me restent accessibles, même hors ligne. Quel qu’en soit le parcours, je conserve ainsi mon courrier numérique sous mon toit (et j’en fais régulièrement des sauvegardes).

Cette anecdote me rappelle une petite phrase, innocemment lancée par Eben Moglen au milieu de son discours en plénière de clôture de la 1ère journée de l’OpenWorldForum la semaine dernière, et qui fut spontanément applaudie par le public, avec 3 secondes de décalage :

“For the moment, what we see is people that chose to put their pictures and personnal informations, their day-to-day emotional and friendships connexions all together in the computers of a single for-profit compagny, run by a fool.”

« Ce que nous voyons pour le moment, se sont des gens qui choisissent de mettre leurs photos et leurs informations personnelles, leurs amitiés et états d’âme au quotidien tous ensemble dans les ordinateurs d’une seule et même entreprise commerciale, menée par un fou. »

Cette fois c’est décidé, dès que j’ai un Diaspora, un GNU/Social ou une Nobox qui tourne chez moi, je ferme mon compte Facebook.

Gene Weingarten: Pourquoi je déteste énoooooooooorrrmément Facebook…

Gene Weingarten: I hate Facebook sooooooooooooooooooooooooooooooo much…

Gene Weingarten – 17 septembre 2009 – WashingtonPost.com
(Traduction Framalang : Julien Reitzel, Goofy, Siltaar)

Les critiques affirment que je suis injuste à l’égard de Facebook simplement parce que je l’ai décrit comme un océan de banalités partagées entre des gens avec une vie aussi vide à laquelle ils font écho. Je défends ma thèse mais admets que mon témoignage n’était pas basé sur des preuves scientifiques — totalement anecdotique — , mais basé sur mes plongeons occasionnels dans ce lagon tiède et morne de conversations fadasses.

Mais cela a changé. Je trouve qu’il est désormais possible de quantifier mathématiquement l’ennui, grâce à un nouveau site web. Openbook, accessible à l’adresse YourOpenBook.org, est un moteur de recherche pour les « messages de statut » de Facebook, le moyen principal utilisé par le « Facebookeur » pour communiquer avec ses amis. Avec Openbook, il est possible de rechercher un mot ou une phrase et de trouver non seulement combien de fois il a été utilisé dans des alertes de statut, mais aussi quand et par qui.

Les créateurs de ce site le présentent comme un outil de mise en garde, pour alerter les gens que le média social ne protège pas leur vie privée de façon adéquate. Mais entre les mains d’un chercheur objectif comme moi-même, Openbook peut être un précieux outil d’interprétation. À travers lui, on peut analyser Facebook anthropologiquement.

C’est d’ailleurs ce que j’ai fait, et voilà ce que ça donne :

  • Quand les gens estiment nécessaire de faire savoir à leurs amis à quel point leur vie est insupportablement aride et abrutissante — ce qu’ils font à une fréquence d’environ 2 000 mises à jour de statut par heure — le mot qu’ils choisissent le plus souvent est « boring » (ennuyeux). Ils ont tendance à l’écrire avec des « o » ou des « r » en plus, pour en accentuer l’effet. Si vous cherchez « boooring » et continuez à rechercher en ajoutant à chaque fois un « o », vous trouverez à chaque fois au moins un résultat, jusqu’à obtenir 31 « o » consécutifs. Quand vous essayez « borrrring » et continuez à ajouter des « r », vous arrivez jusqu’à 47. Juste pour info, la personne qui, par cette méthode, souffre de l’ennui le plus invalidant sur la planète, « boring » avec 51 « r », est Heather S. de Waterloo, dans l’Ontario.
  • Au cours des 16 derniers jours, 130 personnes ont alerté leurs amis du fait qu’ils « ont un bouton ». L’emplacement de l’imperfection est généralement spécifié, tout comme la taille. L’endroit le plus fréquent est le front, étroitement suivi par le lobe de l’oreille puis par la fesse, le plus souvent du côté gauche. La tomate a été la comparaison la plus colorée, tandis que la plus grosse était « Jupiter ». M. Mandel de New York a nommé son bouton Steve (elle est aussi fan de Justin Bieber ET des Jonas brothers, et, dans la rubrique livres favoris, écrit : « j’aime pas lirre »).
  • Des milliers de gens envoient des communiqués décrivant leurs impératifs excrétoires. Souvent, ils contiennent la phrase « je dois aller aux WC ». Il serait incorrect et inique de conclure que toutes les personnes utilisant cette phrase sont vulgaires et/ou rustres. Le chercheur rigoureux a découvert, par exemple John Paul Weisinger de Lufkin, au Texas, qui n’était pas du tout en train de discuter de sa propre biologie. Il était simplement en train de partager avec ses amis une blague qu’il trouve drôle : « Un cochon rentre dans un bar et commande verre après verre après verre sans jamais aller aux toilettes. Le barman demande : “Tu n’as jamais besoin de te soulager ?”, et le cochon répond : “Non, c’est déjà fait, je fais pipi au fur et à mesure que je bois” »
  • Il est possible de jauger mathématiquement la force de l’amour que se portent les gens en observant le nombre de « o » (dans le mot « love ») qu’ils utilisent dans l’expression « I love you so much » (« je t’aime tant »). Par exemple, Baker-Hernandez de Lakewood, Colorado, aime davantage son chat (57 « o ») que Lorne D. Stevens de Detroit aime Jolly Ranchers (10 « o »). Il ne semble pas y avoir de limite supérieure à l’amour que peuvent se porter les gens.
  • Les utilisateurs de Facebook peuvent s’ennuyer, mais, paradoxalement, ils sont aussi facilement amusés. On sait cela, parce qu’ils sont toujours morts de rire. Les « LOL » et autres « MDR » surviennent avec une telle fréquence qu’ils sont littéralement impossibles à compter : des dizaines apparaissent à chaque seconde. Un sous-ensemble de ces rieurs sont en même temps en train de se rouler par terre — mais toujours en trop grand nombre pour en faire le pointage. C’est seulement avec un troisième critère — ceux qui sont à la fois pétés de rire et entrain de se rouler par terre — que le nombre devient palpable : 390 par jour.
  • Dans un intervalle de 5 jours, 266 personnes ont fait référence au dirigeant des États-Unis en l’appelant Président « Oboma ». Soixante-sept autres l’ont appelé Président « Obamma ». Presque tous ces gens faisaient le constat qu’il est un stupide incompétent.

Notes

[1] Crédit photo : Mohd Shazni (Creative Commons By)

[2] Orkut.com, vous connaissez ? C’est l’un des véritables échecs de Google 🙂 Avec les Google Waves ou encore le Google Buzz…

[3] J’ai toujours été très curieux.

[4] En fait j’suis même passé à du mutt + fdm désormais…




L’échec des DRM illustré par les « Livres numériques » de Fnac.com

Cher Framablog,
En raison de l’absence du maître de céans,
Les lutins qui veillent à ton bon fonctionnement,
Ont œuvré pour publier le billet suivant,
Par votre serviteur, introduit longuement.

Témoignage d’un lecteur loin d’être débutant,
Il retrace un épique parcours du combattant,
Pour un livre « gratuit » en téléchargement,
Que sur son site web, la Fnac, propose au chaland.[1]

xverges - CC by Récemment[2] sur rue89.com, on pouvait lire : « Nothomb, Despentes : la rentrée littéraire se numérise un peu ». Et pour un fan de technologie comme je suis, ce titre résonnait plutôt comme « la rentrée littéraire se modernise un peu ». En effet, des livres numériques il en existait déjà au siècle dernier…

Côté libre, il faut avouer qu’on est plutôt bien servi. Citons par exemple cette excellente trilogie de Florent (Warly) Villard « le Patriarche » débutée en 2002, à l’occasion de son « pourcentage de temps réservé aux projets libres personnels » chez MandrakeSoft à l’époque. Citons encore la collection Framabook et ses 7 ouvrages[3], citons aussi la forge littéraire en-ligne InLibroVeritas.net et ses 13500 œuvres sous licence libre[4], ou encore le projet Gutenberg et ses 33 000 œuvres élevées au domaine public, Wikisource.org et ses 90 000 œuvres réparties sur plus de 10 langues et pour finir le portail Gallica de la BnF donnant accès à plus d’1,2 millions d’œuvres numérisées[5]… Ces livres, on peut les télécharger en un clic depuis son navigateur, les transférer dans son téléphone portable[6] en un glissé-déposé, et les lire tranquillement dans le métro, même là où ça ne capte pas[7].

Dans ces conditions, que demander de plus que de faire sa rentrée littéraire sur un écran d’ordinateur ? Pourtant, ces conditions, elles ne sont pas évidentes à rassembler. Évacuons tout de suite la question du matériel. Alors que la plupart des téléphones de dernière génération sont dotés d’un navigateur web, tous ne sont pas utilisables comme de simple clé USB, et y transférer des fichiers peut s’avérer impossible pour certains ! Je n’insisterai pas non plus sur les autres équipements proposés spécifiquement pour cet usage, et qui se révèlent le plus souvent considérablement limités. Après tout, n’importe quel ordinateur devrait pouvoir faire l’affaire.

Mais concernant l’œuvre elle même, il faut qu’elle soit libre, ou librement téléchargeable, ou au moins librement « lisible » pour que ça marche. Et pour le coup, on s’attaque à une pelote de laine particulièrement épineuse à dérouler. Avant qu’on les propose sous forme numérique, pour lire les livres d’Amélie Nothomb il fallait en acheter une copie papier, un objet physique qui coûte à produire, transporter, stocker et présenter dans des rayons. Il fallait donc payer pour obtenir un feuilleté de cellulose, qui s’use, se perd, se brûle… et se prête aussi. Et de cette somme d’argent, après avoir largement rémunéré les intermédiaires, une petite portion était finalement reversée à l’auteur. Et ça, la rémunération de l’auteur, c’est le petit détail qui manque au tableau dépeint quelques paragraphes plus haut. Si je lis « Le Prince » de Nicolas Machiavel, mort en 1527 à Florence, l’ouvrage s’est élevé au domaine public depuis fort longtemps maintenant, et la question ne se pose pas. L’auteur n’aurait plus l’usage d’une rémunération aujourd’hui. Par contre, après avoir lu « Le Patriarche » de Florent Villard, j’ai tellement aimé le bouquin que j’ai spontanément envoyé un chèque à l’auteur, pour l’encourager à écrire la suite[8]. Mais dans le cas d’Amélie malheureusement, sa maison d’édition n’a pas voulu parier sur la philanthropie des futurs lecteurs.

Les autres maisons d’éditions non plus d’ailleurs, et cette question de la rémunération des auteurs, elle se pose en France et partout dans le monde depuis des années, depuis l’arrivée du numérique. Il y a eu des hauts et débats (selon la formule consacrée) pour y répondre, mais il y a malheureusement aussi eu des bas, comme les lois DADVSI et HADOPI 1 et 2…

Les lois HADOPI, on peut les évacuer rapidement : pas une ligne de leur texte ne porte sur la rémunération des auteurs, contrairement à ce qui a pu être clamé. Avec cette initiative législative, les représentant des ayants droit et de la distribution tentèrent juste une fois de plus de plier l’économie numérique de l’abondance aux lois qui régissent l’économie des biens physiques, basée sur le contrôle matériel de l’accès aux œuvres. Au lieu de s’adapter à un marché qui évolue, les moines copistes de DVD[9] tentent encore et toujours de retenir le progrès des technologies de diffusion pour rester rentiers.

Manu_le_manu - CC by nc sa

La loi DADVSI était elle encore plus simple à comprendre. Elle avait déjà pour objectif, 4 ans plus tôt, d’essayer d’imposer une forme de contrôle à la distribution d’œuvres sur Internet, via l’utilisation de verrous numériques aussi nommés DRM. Un procédé saugrenu, consistant à couper les ailes de l’innovation, en tentant de limiter les possibilités des ordinateurs et l’usage de certains fichiers, de telle sorte qu’on ait à considérer ces fichiers comme autant d’objets unitaires et non comme une simple suite d’octets duplicables plusieurs millions de fois par secondes, d’un bout à l’autre de la planète[10], ce qu’ils sont pourtant. En permettant à chaque distributeur de restreindre le nombre de copies possibles pour un fichier, on nous promettait le décollage des offres légales de contenus numériques. Ce fut un échec assez cuisant, rien n’a décollé et encore moins côté bouquin. C’est pourtant pas faute d’avoir expliqué, déjà à l’époque, que mettre des bâtons dans les roues de ses clients n’est pas un plan d’affaires viable.[11]

Ce fut un échec mémorable, chaque distributeur ayant adopté son propre système de « complication d’usage », tenu secret et dont l’étude était punie d’emprisonnement[12], et donc bien évidement incompatible avec ceux des autres distributeurs. Des systèmes à la fois contournables en s’en donnant la peine, et compliqués à mettre en œuvre dans le cadre d’une « consommation » courante… Microsoft à même réussi la prouesse de commercialiser à l’époque des lecteurs incompatibles avec son propre système de verrous numériques[13].

Du côté « pas libre » donc, la situation des livres numériques a souffert d’une orientation stratégique contraire à l’intérêt général, d’une mise en œuvre partielle et désorganisée et globalement d’une incompréhension des technologies numériques. Des caractéristiques qui ne sont pas sans rappeler le fiasco des porte-monnaie Monéo, lancés en 1999. Vous vous souvenez sûrement de ce nouveau moyen de paiement qui devait permettre aux banques de gérer votre monnaie en plus de votre épargne (au lieu de la laisser dormir dans un fourre tout près de la porte d’entrée), et qui fut conçu de manière à coûter moins cher aux banques qu’une carte de crédit classique. Il n’était donc pas sécurisé (pas de code à taper), mais surtout, il rendait l’argent de votre compte en banque « physique », dans la carte. Si elle tombait dans une flaque d’eau, vous perdiez le montant de son rechargement. Sans parler du fait que la carte se mettait dès lors à intéresser des voleurs potentiels, attirés par les 100€ que son porte monnaie intégré (de gré ou de force) pouvait contenir. Évidemment, ce système n’a pas, non plus, rencontré le succès escompté par ses créateurs.

Et pourtant, ces deux fantômes du début de la décennie, DRM et Monéo, reviennent hanter notre univers dématérialisé ces jours-ci. Le premier dans les offres de livres numériques de cette rentrée littéraire, le second imposé dans les restaurants universitaires. Et il ne serait pas étonnant de voir bientôt à la Fnac des bornes de distribution de livres numériques infestés de DRM, et imposant (comme dans les restaurants universitaires) les paiements par Monéo.

Aujourd’hui, alors que des systèmes alternatifs et innovant se mettent en place pour permettre la rémunération des auteurs dans une économie numérique, nous avons testé pour vous l’enfer dans lequel s’entêtent les entreprises « majeures » de la distribution de culture.

Livre numérique sur Fnac.com : le parcours du vieux con battant

D’après l’expérience de Fredchat – 13 septembre 2010

J’ai testé pour vous (avec un succès modéré) le service « Livres numériques » de la Fnac.

Cherchant sur le site de cet important distributeur français un livre de Maupassant, je suis tombé sur une annonce pour un « ebook » en téléchargement gratuit. L’offre a l’air honnête et puis c’est le livre que je cherchais, alors je me dis :

« Essayons voir ce service épatant que tout le monde marketing nous pousse à consommer : le livre électronique. »

Aussi simple que télécharger un fichier ?

Je me lance donc dans l’aventure et il faut, pour commencer, valider une commande sur le site Fnac.com, pour débloquer le téléchargement d’un fichier gratuit. Ça commence donc bien, il faut avoir un compte à la Fnac. Bon, ce n’est plus vraiment gratuit, mais c’est presque de bonne guerre.

Une fois passé ce premier écueil, et une fois la commande validée, le site me donne un lien vers une page de téléchargement. À ce point-là, moi qui aime faire les choses simplement quand c’est possible, je découvre avec désarroi que ce n’est pas le livre qu’on me propose de télécharger sur cette page. Point de fichier PDF, ePub ou d’un quelqu’autre format standard et reconnaissable (voire normalisé), comme les petites icônes vantaient dans les rayons du site. Au lieu de cela, on me propose un tout petit fichier, affublé de l’extension exotique .amsc et qui se révèle ne contenir que quelques lignes de XML. Ce fichier ne contient en fait pas grand chose de plus que l’URL d’un autre fichier à télécharger, un PDF cette fois. J’ai alors l’impression d’avancer vers le but, même si je m’embête rarement autant, dans la vie, pour télécharger un simple fichier, gratuit qui plus est. Seulement voilà, on ne peut pas le télécharger directement ce PDF ! Ils sont très forts à la Fnac, leur fichier gratuit m’a déjà coûté plus de vingt minutes… et je suis toujours bredouille.

Je me renseigne plus avant sur la procédure à suivre, et au cours de cette petite séance de lecture j’apprend qu’il faut obligatoirement passer par un logiciel Adobe, lui-même tout aussi gratuit mais uniquement disponible sous Microsoft Windows et Mac OS X… Linuxiens passez votre chemin.

Mais ce n’est pas tout…

Le logiciel Adobe en question interprète le XML, détecte les informations qui vont bien et, alors que le suspens est à son comble et que l’on croit toucher au but, surprise, le texte qui apparaît enfin n’est pas celui du livre. À la place, on tombe sur un charabia composé d’explications toutes aussi surprenantes que liberticides, avec un bouton « Accepter » en bas de l’écran. Pour un téléchargement gratuit, je me retrouve donc à vendre une deuxième fois mon âme au diable.

En substance, on m’explique que pour avoir accès au livre il me faut en autoriser la lecture sur l’ordinateur en cours d’utilisation, et pour cela, je dois obligatoirement avoir un identifiant Adobe. Cet identifiant, on l’ obtient en s’inscrivant à un « club » géré par l’éditeur du logiciel et qui requiert pour son inscription toute une bordée d’informations personnelles que l’on ne m’a jamais demandées pour acheter un livre… (qui devait être gratuit, excusez-moi d’insister).

Cela fait maintenant près de 40 minutes que je m’acharne sur ma commande Fnac.com d’un livre gratuit et à ce stade, je me surprends moi-même d’avoir trouvé à franchir tous les obstacles. Mais ça y est, je le vois le livre et il commence à en avoir de la valeur à mes yeux ce fichier PDF vu le temps que j’y ai consacré. Toutefois, téléchargeable et lisible uniquement via un logiciel propriétaire Adobe, ce n’est plus vraiment un fichier PDF…

D’ailleurs, alors que je m’apprête à copier ledit fichier vers un périphérique plus adéquat à sa lecture, une petite voix me prévient que je ne peux en autoriser la lecture, via le logiciel propriétaire, que sur un maximum de 6 périphériques, et qu’il faut donc que je m’assure de vouloir vraiment le copier quelque part et entamer le décompte. Je ne suis plus à ça près.

Conclusion

Résultat des courses, je suis fiché chez deux grandes entreprises (avec les dérives d’exploitation de mes données personnelles que cela permet), je ne peux pas lire le livre sous Linux. J’ai perdu mon après-midi et je ne peux pas partager le fichier gratuit, d’une œuvre libre de droits, avec mes amis pour leur épargner l’improbable et complexe procédure de téléchargement que j’ai subie. C’est sûr, avec Fnac.com on comprend vraiment la différence entre gratuit, et libre.

Toutefois, si vous êtes séduit, vous pourrez bientôt acheter le Petit Prince dans cet alléchant format, pour la modique somme de 18€…

Épilogue

Finalement, je crois que je vais rester un vieux con et garder mes livres papier. Au moins, dans ce format je peux les lire où je veux (dans un fauteuil, dans mon lit, sur les toilettes, au bord d’une piscine, etc.), quand je veux, que je sois en-ligne ou pas, et les prêter à mes amis.

Sinon, quand je serai remis de cette mésaventure, j’irai jeter un œil sur Wikisource ou sur le projet Gutenberg, il paraît qu’on y trouve des livres numériques libres, téléchargeables en un clic et dans des formats ouverts et normalisés…

Notes

[1] Crédit photo : xverges (Creative Commons By)

[2] Introduction rédigée le 23 septembre 2010.

[3] Attention, ce qui suit dévoile des moments clés de l’intrigue : bientôt 10 😉

[4] Libres à divers degrés suivant les variations permises par les licences Creative Commons, rendant l’œuvre modifiable ou non et commercialisable ou non.

[5] Pour la plupart du domaine public, librement lisibles, mais pas librement réutilisables. Il faut en effet s’acquitter d’une licence auprès de la Bibliothèque nationale de France pour pouvoir faire un usage commercial des fichiers obtenus depuis le portail. Ça fait quand même une sacrée bibliothèque… Merci à Christophe de l’avoir rappelé dans les commentaires.

[6] Par exemple sous la forme de pages webs, débitées en tranches de 450ko, sinon le téléphone en question sature sa mémoire vive s’il s’agit d’un N95…

[7] Ou encore, en réponse anticipée à un bout de la conclusion du texte présenté, partout où un chargeur solaire parviendra à maintenir l’engin allumé…

[8] Pour la petite histoire, j’ai même envoyés deux chèques, un après la lecture du 1er tome, et un autre à la fin de la 1ère trilogie (c’est prévu pour être une longue histoire). Or, l’auteur se sentant coupable de délaisser son ouvrage n’a encaissé que le 1er chèque, et c’était il y a plus d’un an maintenant. Toutefois, de récentes mises à jour sur le site du livre laissent espérer que la suite pourrait venir sous peu.

[9] Pour reprendre l’expression de Nicolas Dupont-Aignan.

[10] Oui, je sais qu’une sphère n’a pas à proprement parler de bouts, mais elle n’a pas non plus de côtés, et … revenons à nos moutons.

[11] Crédit photo : Manu_le_manu (Creative Commons By NC SA)

[12] Peine disproportionnée que les juges n’appliquèrent pas, et qui fut limitée par le Conseil d’État deux ans plus tard, interrogé par l’April sur le sujet

[13] Comme l’analysaient Formats-Ouverts.org, PCINpact.com, Clubic.com, Numerama.com




Firefox 4, Google Chrome et l’évolution du Web par Chris Blizzard de Mozilla

Keven Law - CC by-saQue les fans de la première heure se rassurent : la version 4 du célèbre navigateur au panda roux – dont la sortie devrait intervenir d’ici la fin de l’année – promet de recoller au peloton !

Au temps pour ceux qui avaient vendu sa peau un peu trop rapidement : le panda[1] nouveau met l’accent sur les performances, à commencer par un nouveau moteur JavaScript qui, une fois optimisé, pourrait même lui permettre de prendre la tête de la course si l’on en croit Chris Blizzard (Director of Web Platform chez Mozilla[2]), dont nous vous proposons ici la traduction de l’interview qu’il a donnée récemment au site derStandard.at (une fois n’est pas coutume, cette traduction a été complétée de références à l’actualité récente avec l’aide de Paul Rouget, Technology Evangelist chez Mozilla).

S’il est difficile de ne pas céder à la mode du benchmarking, on peut toutefois s’interroger sur ce que l’on attend réellement d’un navigateur.

Revenons un instant en arrière : l’irruption de Firefox a permis de réveiller le Web en le libérant de l’hégémonie d’Internet Explorer qui, après avoir éradiqué à peu près toute concurrence sur le marché des navigateurs, n’a plus connu de développement pendant six ans (soit le temps qui sépare la version 6 de la version 7 du navigateur de Microsoft, qui avait même dissout l’équipe de développement dans cet intervalle). Firefox a réussi à propulser le Web vers de nouveaux horizons balisés de standards ouverts propices à l’innovation. Tant et si bien que de redoutables concurrents sont apparus comme Safari d’Apple et surtout Chrome de Google (voir à ce billet du Framablog) et que Microsoft est en train de mettre les bouchées doubles avec son IE 9 pour rattraper son retard.

Faut-il en conclure que Firefox, ayant accompli sa mission, est devenu inutile ?

Il faut en effet reconnaître que le Web ne s’est jamais aussi bien porté qu’aujourd’hui : les concepteurs de navigateurs se battent dorénavant tous pour implémenter les dernières versions des standards ouverts qui sont la base du Web (HTML5, CSS3) quand ils n’en sont tout simplement pas à l’origine. Et pour cela, nous pouvons tous remercier la fondation Mozilla à l’origine de Firefox.

Pourtant, le Web ne se limite pas à des applications riches et jolies devant s’exécuter le plus rapidement possible.

Les grands acteurs du Web, Mozilla mis à part, tirent leurs revenus de l’exploitation de vos données personnelles. La protection de la vie privée devient aujourd’hui un enjeu majeur pour l’utilisateur (qui doit encore en prendre conscience). Mozilla s’apprête à proposer des solutions novatrices dans ce domaine[3]. Qui d’autre que Mozilla, fondation à but non lucratif, a intérêt à rendre aux utilisateurs le contrôle de leurs données personnelles ? Personne. Et ce n’est pas parce que Apple ou Google (et peut-être un jour Facebook) sort un navigateur performant – fût-il libre (Chromium est la version libre de Google Chrome) – que l’utilisateur jouira des mêmes libertés que l’utilisateur de Firefox, navigateur libre développé par une fondation à but non lucratif.

Firefox 4 : Une génération d’avance en termes de vitesse

Firefox 4: One generation ahead of everyone else speedwise

Andreas Proschofsky – 19 août 2010 – derStandard.at
(Traduction Framalang : Don Rico, Siltaar, Goofy et Antistress)

Chris Blizzard de Mozilla nous parle de la concurrence de Google Chrome, de l’évolution du Web comme plateforme et des attentes que suscite le format WebM.

Ces dernières années Firefox a joué le rôle enviable de l’étoile montante dans le monde des navigateurs. Aujourd’hui, non seulement Google Chrome semble lui avoir volé la vedette mais il vient même lui tailler des croupières. Au cours du dernier GUADEC, Andreas Proschofsky a eu l’occasion de côtoyer Chris Blizzard, « Directeur de plateforme Web » chez Mozilla, et il a réalisé l’interview que vous allez lire, évoquant l’état actuel du marché des navigateurs, les progrès du Web comme plateforme et les améliorations qui arrivent avec Firefox 4+.

derStandard.at : Quand nous avons discuté l’année dernière, vous avez noté que, malgré la notoriété grandissante de Google Chrome, la plupart des développeurs présents dans les conférences techniques – comme le GUADEC – utilisent encore Firefox. Si je jette un coup d’œil autour de moi cette année, les choses semblent avoir considérablement changé : bon nombre de ces utilisateurs avant-gardistes semblent être passés à Chrome / Chromium. Est-ce que vous avez un problème sur ce créneau d’utilisateurs spécifique – mais influent ?

Chris Blizzard : En fait je pense que beaucoup de gens utilisent les deux maintenant, mais c’est vrai que c’est intéressant à voir. De mon point de vue de développeur Web je pense toujours que les outils de Firefox sont de loin supérieurs à ceux des autres.

Il est intéressant de noter que nous n’avons pas vu de changements significatifs dans les statistiques utilisateurs, même si Chrome marque des points importants sur ce segment. Il faut préciser que tous ces chiffres que l’on rapporte sont en réalité des statistiques d’usage et non du nombre d’utilisateurs, si bien que cette avant-garde – qui est grosse utilisatrice du Web – influence les statistiques plus que d’autres, ce qui peut faire croire que Chrome est utilisé par davantage de gens qu’en réalité. Nous avons connu le même effet dans les premiers temps de Firefox, à l’époque nous n’en avions pas conscience faute d’outils adéquats pour le mesurer.

Nous avons aussi effectué quelques recherches et découvert qu’un tas de gens semblent choisir leur navigateur suivant des fonctionnalités particulières. Par exemple beaucoup d’utilisateurs préfèrent retrouver leurs sites récemment visités dès l’ouverture de leur navigateur, donc ils utilisent Chrome. S’ils préfèrent démarrer avec une page vierge, ils utilisent plutôt Firefox. Je pense donc que ce que l’on commence à voir, c’est des gens différents qui veulent faire des choses différentes, et qui vont choisir leur navigateur selon leurs préférences. Et nous n’en sommes qu’au début.

Nous savons que nous ne pourrons pas satisfaire les désirs de tous et ce n’est d’ailleurs pas le but de notre organisation. Nous voulons faire en sorte que le Web devienne une plateforme et nous avons plutôt bien réussi sur ce point.

Google se lance maintenant dans un cycle de développement visant à offrir une nouvelle mise à jour stable toutes les six semaines, pour essayer de proposer des innovations plus rapidement aux utilisateurs. Mozilla, de son côté, publie au mieux une nouvelle version par an : cela n’est-il pas handicapant d’un point de vue marketing ?

Cela dépend du rythme que vous voulez adopter. Les gens de Chrome ont une approche un petit peu différente de la nôtre. Il va être intéressant de voir si d’autres utilisateurs que les avant-gardistes seront d’accord pour voir leur navigateur changer tous les mois et demi. Nous préférons prendre davantage de temps pour préparer les gens à des changements d’interface plus importants.

Pour autant nous ne modifions pas toujours le numéro de version pour les gros changements. Citons par exemple l’isolation des plugins que nous avons récemment ajoutée à la série 3.6.x, qui résulte d’un énorme travail et qui a grandement amélioré l’expérience des utilisateurs de Firefox.

À vrai dire, je suis quelque peu sceptique à l’idée d’un cycle de six semaines. Comment peut-on vraiment innover en un laps de temps si court ? Accélérer la cadence est néanmoins dans nos projets, il faut juste que nous trouvions celle qui nous convient.

Un des avantages d’un cycle de publication rapide, c’est que Google peut diffuser très vite des fonctionnalités comme le futur web-store de Chrome. Aimeriez-vous aussi proposer une plateforme de téléchargement d’applications Web chez Mozilla ?

En ce qui me concerne, je pense qu’un app-store pour le Web est une idée intéressante, car en gros cela rend les applications Web plus accessibles et fournit un modèle de monétisation. Mais pour bien faire, il faut tenir compte de nombreux autres paramètres, et c’est là-dessus que nous allons d’abord nous concentrer.

Quels éléments manque-t-il encore pour concevoir un bon web-store ?

Les performances Javascript sont très importantes, mais nous touchons au but, car nous sommes en passe d’obtenir les mêmes performances que les applications exécutées nativement. Vient ensuite le webGL pour les applications en 3D, et nous devons aussi régler la question du stockage de données hors-connexion qui est loin d’être abouti pour le moment. Il faut aussi accorder une grande importance à la sécurité, question sur laquelle nous sommes justement en train de travailler. Par exemple, grâce à la fonctionnalité ForceHTTPS, un site Web pourra dire à un navigateur de ne communiquer avec lui que par données chiffrées, ce qui préviendra certains types d’attaques. Nous nous penchons aussi sur la politique de sécurité des contenus, ce qui sera très utile pour lutter contre une catégorie entière d’attaques type cross-site scripting (NdT : citons par exemple la fonctionnalité X-FRAME récemment introduite contre le clickjacking).

Dans les tests de performances Javascript récents, Firefox semble avoir dégringolé dans le bas du classement, et se place même derrière Internet Explorer 9. N’arrivez-vous plus à suivre ?

Firefox 4 apportera de nombreuses améliorations dans ce domaine-là aussi, mais elles ne sont pas encore intégrées à nos versions de développement. Nous avons constaté que, lorsque notre Tracing-Engine (NdT : moteur basé sur la technologie du tracé) est utilisé, nous sommes plus rapides que tous les autres. Nous ne sommes à la traîne que dans les cas où cette technologie ne peut être exploitée. Nous travaillons donc à améliorer les performances de base de notre moteur JavaScript, qui, combinées à l’optimisation JIT Tracing , nous donneront une génération d’avance sur tout le monde (NdT : Jägermonkey, le résultat de ce travail, vient d’être intégré à la version de développement de Firefox 4).

La vérité c’est que la marge d’amélioration est encore énorme. La génération actuelle des moteurs Javascript a atteint un palier : en pourcentage, les différences que nous constatons entre les différents navigateurs sont infimes. En outre, les tests de performance ne sont plus d’une grande utilité, car, pour la plupart, ces chiffres ne sont plus influencés par les performances Javascript réelles. Voici un exemple des conséquences négatives des tests de performance : nous avons dû fournir des efforts particuliers sur l’optimisation du calcul de décalage horaire car cela influe négativement certains tests de performance, mais ça n’améliore pas réellement les performances Javascript. Sunspider est affecté par ces problèmes et V8 contient aussi du code bancal, il est donc difficile de trouver de bons tests de performance (NdT : Mozilla vient de lancer Kraken, un test censé mesurer les performances JavaScript en situation réelle).

Firefox 4 va utiliser l’accélération matérielle grâce à Direct2D et à DirectWrite sous Windows. Des fonctionnalités similaires sont-elles prévues pour Linux et Mac OS X ?

Dans la limite des outils qui sont disponibles, oui. Nous essayons de procurer aux utilisateurs la meilleure expérience possible sur chaque plateforme. Pour Windows Vista et 7 nous constatons d’immenses améliorations lorsque le navigateur doit réaliser des tâches graphiques intensives. Sur OS X, par exemple, nous prenons en charge l’OpenGL pour la composition d’images, et nous faisons de même sous Linux. Mais en général les API dont nous disposons sous Windows sont meilleures et plus riches que sur les autres plateformes. Sous Linux, Cairo et Pixman étaient censées être rapides, mais hélas l’infrastructure sur lesquelles elles reposent n’a jamais vraiment atteint la vélocité désirée. Sur OS X, Firefox est assez rapide, mais pour l’instant Direct2D confère l’avantage à la version Windows (NdT : plus d’informations sur cet article de Paul Rouget).

L’isolation des plugins devait n’être que la première étape d’un Firefox multi-processus, avec un processus séparé pour chaque onglet. C’est un des gros morceaux du cahier des charges de Firefox 4. C’est toujours prévu ?

Bien sûr, mais pas pour Firefox 4. Ce sera sans doute disponible pour la version mobile avant la version desktop. C’est intéressant de constater que c’est plus facile sur cette plateforme.

Il y a peu, vous avez endossé le rôle de « Directeur de plateforme Web » chez Mozilla. En quoi cela affecte-il vos responsabilités quotidiennes ?

Auparavant, je me chargeais essentiellement de diriger les groupes d’évangélisation et de communication, mais j’ai fini par travailler de plus en plus sur les questions de plateforme Web – réfléchir à l’avenir du Web, discuter régulièrement avec les autres concepteurs de navigateurs. Tout cela a pris une telle importance que j’ai décidé de m’y consacrer à plein temps.

Par exemple, je viens de participer à une réunion de l’IETF, où nous avons eu des discussions très riches sur le http, les websockets, et aussi sur les codecs. Ils sont en train de mettre au point un codec audio de nouvelle génération pour les communications en temps réel et s’appuient sur l’IETF pour les spécifications. En gros, c’est une combinaison de techniques existantes, et l’accent est mis sur une latence très basse, un domaine où le Vorbis ou le MP3 sont mauvais. Ce travail s’effectue en collaboration avec Skype.

Une des grosses annonces de ces derniers mois concernait la création du WebM comme nouveau format vidéo ouvert basé sur le VP8 et Vorbis. Pensez-vous que ses chances de réussites soient meilleures que celles de Theora ?

Oui, pour des raisons de qualité. Quelques explications : il est bon de savoir que lorsqu’on utilise le H.264, on doit en gros choisir un des trois profils que propose ce codec. En général, les sites vidéos doivent offrir la version basique car c’est la seule prise en compte par l’iPhone, notamment dans ses anciennes versions qui sont utilisées par des dizaines de millions de personnes. Donc, si l’on compare les formats vidéo, il faut comparer le VP8 au H.264 « basique », et ce n’est pas qu’une manœuvre réthorique, c’est la réalité pour tous les services. J’ai discuté avec les gens de YouTube, par exemple : ils ont essayé d’utiliser un autre profil du H.264, mais ils ont dû revenir au « basique » à cause du manque de prise en charge. Sur cette base, la question de la qualité n’a plus lieu d’être, et le VP8 est tout à fait compétitif.

Si l’on parle de l’implémentation de la balise vidéo HTML5, il faut aussi prendre en compte l’évolution du marché. Si l’on envisage un monde où la vidéo HTML5 est répandue dans la majorité des navigateurs – par-là je pense à une proportion de 80%, ce qui devrait être le cas d’ici deux ans –, il faut compter avec les tendances et les changements dans les parts de marché des systèmes d’exploitation. On se rend alors compte qu’on se retrouve avec un marché segmenté. Ceux qui voudront diffuser de la vidéo devront prendre en charge à la fois H.264 et WebM. Sur le long terme, je suis certain que les codecs libres sont en meilleure posture, surtout si l’on prend en considération les tendances à venir comme les communications en temps réel ou les plateformes mobiles, où WebM est très performant – ou va l’être grâce à des partenariats avec des constructeurs de matériel.


Firefox 4 va permettre de construire des extensions « poids plume » sous forme de Jetpacks. Quand vont-ils remplacer la génération actuelle d’extensions ?

Les Jetpacks ne sont pas conçus pour remplacer les extensions XUL. Firefox est une plateforme que l’on peut étoffer à l’envi grâce à une large palette d’interfaces. On peut aussi modifier beaucoup de choses dans les paramètres mêmes de Firefox, ce qu’aucun autre navigateur ne permet. Comme projet, c’est extraordinaire : une grand part de nos innovations sont arrivées par les extensions avant d’intégrer directement le navigateur.

Pour nous, les Jetpacks sont grosso modo un équivalent des extensions pour Chrome, qui offrent beaucoup moins de possibilités que nos extensions XUL classiques. Ils seront néanmoins beaucoup plus faciles à réaliser. Nous allons fournir un éditeur en ligne qui facilitera leur développement. Ces Jetpacks seront aussi plus faciles à tester, et l’on pourra les installer sans avoir à redémarrer le navigateur. Ce qui est d’ailleurs déjà possible avec certaines extensions XUL dans Firefox 4, à condition que cela soit signalé et que l’extensions soit codée avec soin.

Notes

[1] Crédit photo : Keven Law (Creative Commons By-Sa)

[2] Chris Blizzard a déjà fait l’objet d’une traduction sur le Framablog : De l’honnêteté intellectuelle et du HTML5.

[3] Lire à ce propos Comment Firefox peut améliorer le respect de la vie privée en ligne, privacy-related changes coming to CSS :visited et Account Manager coming to Firefox.




Tout est libre dans le logiciel libre, sauf sa maison !

Pranav - CC byPar nature décentralisés et collaboratifs, les logiciels libres ont besoin d’être hébergés sur Internet dans des forges qui en assurent leur développement (en offrant de nombreux services comme la gestion des versions ou le suivi des bugs).

SourceForge est certainement la plus célèbre d’entre elles et abrite en son sein plusieurs centaines de milliers de logiciels libres. Google, encore lui, n’est pas en reste avec son Google Code qui accueille de plus en plus d’applications.

Or si ces forges sont bien gratuites et très pratiques (puisque l’on crée et gère son projet en quelques clics), la plupart ne sont paradoxalement pas libres ! Il n’est ainsi pas possible de récupérer le code qui les fait tourner pour installer sa propre forge sur son propre serveur.

On comprend aisément qu’un site comme Facebook garde jalousement son code puisque son objectif est de concentrer au même endroit un maximum d’utilisateurs et surtout pas de les voir partir pour y faire leur petit Facebook personnel dans leur coin. Mais on comprend moins que les développeurs de logiciels libres se retrouvent un peu dans la même situation en acceptant de placer leur code sur des plateformes propriétaires. C’est une question de principe mais aussi de l’avenir incertain d’un code qu’il est alors difficile de déplacer[1].

C’est tout l’objet de cette mise en garde de notre ami Benjamin Mako Hill dont c’est déjà la quatrième traduction.

Il faut des outils libres pour faire des logiciels libres

Free Software Needs Free Tools

Benjamin Mako Hill – 4 juin 2010 – Blog personnel
(Traduction Framalang : Misc, Cheval boiteux, Siltaar et Goofy)

Au cours des dix dernières années, les développeurs de logiciels libres ont été régulièrement tentés par des outils de développement qui offrent la capacité d’élaborer des logiciels libres de façon plus efficace et productive.

Le seul prix à payer, nous dit-on, est que ces outils eux-mêmes ne sont pas libres ou s’exécutent comme des services réseaux avec du code que nous ne pouvons pas voir, ou lancer nous-mêmes. Dans leurs décisions d’utiliser ces outils et services (tels que BitKeeper, SourceForge, Google Code et GitHub), les développeurs de logiciels libres ont décidé que « la fin justifie les moyens » et ont en quelque sorte vendu la liberté de leur communauté de développeurs et d’utilisateurs. Cette décision d’adopter des outils de développement non libres et privés a entamé notre crédibilité dans la promotion des libertés logicielles et a compromis notre liberté comme celle de nos utilisateurs d’une façon que nous devrions rejeter.

En 2002, Linus Torvalds a annoncé que le noyau Linux utiliserait le systéme de gestion de version distribué BitKeeper. Bien que la décision ait généré beaucoup de craintes et de débats, BitKeeper a permis aux codeurs du noyau de travailler de manière décentralisée avec une efficacité qu’il n’aurait pas été possible d’obtenir avec les outils libres de l’époque. Certains développeurs Linux ont décidé que les bénéfices obtenus justifiaient la perte de liberté des développeurs. Trois ans plus tard, les sceptiques prirent leur revanche quand le proprétaire de BitKeeper, Larry McVoy, a retiré la licence gratuite d’utilisation de plusieurs développeurs importants du noyau, car Andrew Tridgell avait commencé à écrire un remplaçant libre de BitKeeper. Les développeurs furent forcés d’écrire leur propre outil libre pour le remplacer, un projet connu maintenant sous le nom de Git.

Bien sûr, les relations entre logiciels libres et outils non libres vont au-delà du cas de BitKeeper. Le code source des logiciels du service SourceForge était jadis disponible pour ses utilisateurs, mais les auteurs sont revenus à un modèle totalement fermé. Bien que SourceForge soit construit sur des briques libres, les utilisateurs interagissent avec le logiciel uniquement via le Web sur l’unique site SourceForge. Comme les utilisateurs n’ont pas de copie du logiciel de Sourceforge, ils ne peuvent pas en demander le code source. Des projets similaires comme le service Tigris.org de CollabNet, Google Code et GitHub ont tous des buts similaires, et gardent leur code pour eux de la même façon. Les services sont souvent fournis gratuitement et promeuvent le développement de logiciel libre, mais leur dévouement ne s’étend pas aux logiciels qui font tourner leur plateforme de développement. Le code source de chacun de ces services reste privé et non modifiable par les développeurs utilisant ces services.

Ces outils de développement proprietaires posent un dilemme à de nombreux développeurs de logiciels libres. Le but de chacun de ces services est de permettre le succès des logiciels libres et l’obtention de plus de libertés grâce à l’utilisation d’outils plus efficaces. CollabNet, Google et GitHub annoncent chacun qu’ils veulent que le logiciel libre progresse et qu’ils veulent l’aider à avancer. Pour certaines raisons, ces entreprises ont choisi de soutenir les libertés logicielles par des moyens moins en phase avec les éthiques du mouvement que celle qu’ils cherchent à créer. Le résultat est que les développeurs sont dépossédés. La liberté du code logiciel que produisent ces hackers est dépendante d’une restriction inacceptable.

Tout d’abord, l’utilisation d’outils non libres envoie un message irrecevable pour les utilisateurs du logiciel libre produit. « La liberté des logiciels est importante pour vous », semblent dire les développeurs, « mais pas pour nous ». Un tel comportement sape l’efficacité basique du fort engagement éthique au cœur du mouvement du logiciel libre. À tous ceux qui ont déja fait le choix du logiciel libre, nous devons montrer que nous pouvons réussir – et prospérer – en utilisant des logiciels libres. Nous devons soutenir les alternatives libres face aux systèmes propriétaires, comme Savane qui peut remplacer SourceForge ou Google Code, et qui est à la base de GNU Savannah, ou encore Gitorious, pour remplacer GitHub, en les utilisant et en les améliorant dans les domaines où ils peuvent être améliorés.

Deuxièmement, nous devrions comprendre en nous projetant plus en avant que le logiciel que nous produisons n’est libre qu’en fonction des logiciels dont il dépend pour son usage, sa distribution et son évolution.

La licence GNU GPL et le code source ne signifient pas grand-chose pour un utilisateur qui veut modifier un programme sans avoir un accés libre au logiciel requis pour permettre cette modification. Il ne s’agit pas que de mettre les libertés des développeurs dans la balance, mais aussi finalement celles des utilisateurs et de tous les développeurs qui prendront le relais. Ceux qui choisissent d’utiliser des logiciels non libres placent tout le monde à la merci des groupes et des individus qui produisent les logiciels dont ils dépendent.

Tandis que les outils de développement propriétaires peuvent aider les développeurs de logiciels libres à produire de meilleurs logiciels à court terme, le prix à payer est inacceptable. Dans le débat controversé des logiciels privés et des services réseaux, les développeurs de logiciels libres devraient se placer du côté de « l’excès » de liberté. Compromettre nos principes afin d’obtenir plus de liberté est auto-destructeur, instable et au final injuste envers nos utilisateurs et la communauté des développeurs de logiciels libres dans son ensemble.

Tout comme les premiers mainteneurs du projet GNU se sont d’abord concentrés sur la création d’outils libres pour la création de logiciel libre, nous devons nous assurer que nous pouvons produire des logiciels sans entrave et utiliser des outils incontestablement ouverts. Si nous échouons, les logiciels seront indirectement moins libres. Nous devons refuser l’utilisation de logiciels qui ne nous garantissent pas les libertés que nous tentons de donner à nos utilisateurs par le développement de logiciels, et nous devons faire pression en ce sens sur les producteurs de nos outils de développement. Le logiciel libre n’a pas réussi en compromettant nos principes. Nous ne serons pas bien servis d’un point de vue technique, pragmatique ou éthique en compromettant la liberté des outils que nous utilisons pour constuire un monde libre.

Benjamin Mako Hill
Creative Commons By-Sa

Notes

[1] Crédit photo : Pranav (Creative Commons By)




Pirates De l’Internet, Unissez-Vous !

Hillman54 - CC by« Mais qu’est-ce que tu fous encore devant ton ordi ! N’oublie pas que tu m’avais promis d’aller avec moi au MAXXI ! Remue-toi, on est déjà en retard… »

Fichtre alors, je ne m’en souvenais effectivement pas ! De plus ou moins bonne grâce me voici donc en train d’accompagner N. au MAXXI.

Mais qu’est-ce donc que ce MAXXI ? Situé à Rome, il s’agit du nom donné au tout nouveau « musée national des arts du XXIe siècle » – contracté, ça donne donc MAXXI – dédié à toutes les formes de création de l’art contemporain[1].

Avant de poursuivre, il faut que je vous dise que l’Art Contemporain a toujours été un vif sujet de débat entre N. et moi. J’ai bien saisi qu’on a pu parler d’avant-garde à certaines époques du passé mais aujourd’hui j’ai peine à ne pas y voir avant tout une grande supercherie où argent, marketing et petits arrangements entre amis du microcosme sont rois. Du coup l’Art Contemporain, au mieux cela me divertit (et ne dépasse pas le stade du divertissement), au pire cela m’ennuie voire me scandalise. Elle me répond calmement et invariablement que c’est parce que je ne le connais pas bien, ce qui est tout à fait vrai au demeurant, et que de toutes les façons je suis resté bloqué à Marcel Duchamp ! Elle ne le dit jamais ouvertement mais le pense très fort : le « syndrome du vieux con » me guette.

Ceci étant dit, j’étais quand même curieux de voir ce que donnait ce musée. D’abord parce que je trouvais cela bien ambitieux, pour ne pas dire pompeux, de la définir déjà comme un musée des « arts du XXIe siècle ». Et puis on m’avait dit le plus grand bien de son architecture signée Zaha Hadid. Dans une ville où règne la vieille pierre, un peu de modernité fait toujours contraste.

Je confirme. C’est une bâtisse impressionnante. Beaux volumes et beaux espaces, comme on peut s’en rendre compte sur cette vidéo (cf aussi ce reportage AFP).

Le contenant est donc intéressant. Je n’en dirai pas tant du contenu. Comme d’habitude, une succession d’installations à l’originalité convenue qui veulent toutes nous dire simultanément quelque chose sur le moi profond de l’artiste et le monde profane ou sacré qui nous entoure. On appelle cela le « message » de l’œuvre, et cela fait le bonheur des critiques d’art des beaux quartiers.

Mais force est de constater que cela ne fait pas le mien.

Finalement, l’intérêt principal reste encore de partager cela avec quelqu’un en lui demandant à chaque fois ce qu’il en pense. On n’apprendra pas forcément grand chose sur l’exposition, mais on peut en apprendre beaucoup sur la personne qui nous accompagne…

Tiens, voilà justement N. qui me demande mon impression générale au sortir de la dernière salle. Je m’y attendais. Et voulant moi aussi faire mon original, je commence ainsi ma réponse : « c’est bien gentil tout ça, mais si tu veux mon avis, ce n’est pas une bonne idée d’avoir ignoré la culture libre quand on la prétention de présenter l’art du XXIe siècle… ».

Et c’est à ce moment-là que je remarque une bien étrange affiche qui recouvre tout le mur de la cafétéria du musée.

Elle est signée de l’artiste Miltos Manetas et n’avait pas encore été traduite en français.

Piracy Manifesto - MAXXI

Pirates de l’Internet, unissez-vous !

Pirates of the Internet Unite!

Miltos Manetas – Juillet 2009 – MAXXI
(Traduction Framalang : Don Rico, Martin, Barbidule et Goofy)

Extrait d’un journal du futur : « Un homme a été contrôlé hier à la frontière franco-italienne. L’inspection de son ordinateur a permis de découvrir que celui-ci recelait des produits piratés, principalement des logiciels Adobe et de la musique des Beatles. L’homme a été arrêté sur-le-champ ».

Qu’il s’agisse d’un poème ou d’un médicament, d’un logiciel ou d’un disque, d’un film ou d’un livre, tout ce qui est populaire et rentable doit la majeure partie de sa valeur économique à la manipulation des Foules. Nul n’a demandé à savoir à quoi ressemble le logo Coca-Cola, ni à connaître le refrain de « Like a Virgin ». L’Éducation, les Médias et la Propagande nous les font avaler de force, en les martelant à l’envi ou en spéculant sur notre soif, notre faim, notre besoin de communication et de divertissement, et surtout sur notre sentiment de solitude et notre mal-être. À l’ère d’Internet, ce qui peut être copié peut être partagé. Pour ce qui est des contenus, on peut tout distribuer, à tout le monde en même temps.

À l’aune de cette constatation, une nouvelle classe sociale émerge. Il ne s’agit pas d’une classe laborieuse mais d’une classe de Producteurs. Par essence, ces Producteurs sont des pirates et des hackers ; ils réutilisent les images, les sons, et les idées du Monde. Ils en créent certains, mais pour la plupart ils les empruntent à d’autres.

L’information est aujourd’hui partie intégrante de notre organisme, elle est littéralement « installée » dans notre cerveau, et l’on ne peut l’effacer sur demande. C’est pourquoi nous avons le droit de posséder l’information qu’on nous projette : nous sommes en droit d’être maîtres de nous-mêmes ! Parce que nous vivons dans des sociétés mondialisées construites sur l’inégalité et le profit, parce que le contenu d’une chanson, d’un film ou d’un livre représentent des atouts dans une lutte sans merci pour survivre, tout citoyen possède le droit moral de s’approprier une copie numérique d’une œuvre quelle qu’elle soit. Parce que l’informatique est un langage international, les secrets du monde sont de nos jours écrits en Adobe et en Microsoft, il est légitime de vouloir les hacker. Enfin, parce que la pauvreté est le champ expérimental de l’industrie pharmaceutique, la médecine devrait être libre de tout brevet.

De nos jours, quiconque possède un ordinateur est à la fois Producteur et Pirate. Nous sommes tous citoyens de l’Internet, c’est notre nouvelle nation, le seul territoire qu’il soit justifié de défendre et de protéger. Internet est une terre d’information et de savoir. Chacun devrait être en mesure de la fouler sans contrepartie financière ; seules les grandes entreprises devraient payer pour l’utiliser.

Internet génère des « Internets », des situations qui existent non seulement en ligne, mais aussi dans le monde physique, déterminées par ce qui se passe sur le réseau. L’heure est venue de fonder un Mouvement du Piratage mondial. La liberté d’enfreindre le copyright, celle d’avoir accès sans restriction au savoir et aux traitements médicaux, voilà nos nouveaux « Biens communs ». Ce sont des Droits Universels, et en tant que tels, les Autorités ne les concéderont pas sans lutter, mais le combat à livrer sera inédit car pour la première fois, les Foules enfreignent spontanément la Loi à l’échelle planétaire.

Aujourd’hui, tout le monde copie : les jeunes gens, les adultes, nos aînés, les électeurs de gauche comme de droite. Quiconque possède un ordinateur copie quelque chose. Telle une nouvelle Athéna, l’Information jaillit toute armée du crâne ouvert de la Technologie pour nous aider dans notre quête.

Pirates de l’Internet, unissez-vous !

Piracy Manifesto - Manetas

Notes

[1] Crédit photo : Hillman54 (Creative Commons By)




Plaidoyer pour étudier le droit à l’école

Zara - CC by-saUn jour que je questionnais une élève sur ses pratiques numériques qui me semblaient un peu confuses, j’ai eu cette curieuse mais révélatrice réponse : « si je peux techniquement le faire, je ne vois pas pourquoi je me l’interdirais, de toutes les façons tout le monde le fait, et puis ça ne fait pas de mal à une mouche ».

L’élève étant manifestement de bonne foi (et bonne élève de surcroît), cet épisode me plongea dans un abîme de perplexité. Ici la possibilité de faire vaut droit de faire !

Effectivement, au sens propre du terme, on ne fait physiquement pas de mal à une mouche. Point besoin d’explication pour comprendre d’emblée que ce n’est pas bien de voler l’orange du marchand et que si d’aventure l’on s’y essayait on pourrait se faire prendre. Il en va autrement sur Internet où non seulement il est très facile et sans risque de voler l’orange, mais on ne sent pas spontanément que l’on est en train de commettre un délit puisqu’on ne dépossède pas le marchand de son orange, on ne fait que la copier[1].

J’eus alors l’idée de jeter un œil du côté des programmes officiels de l’institution scolaire. Et voici ce que je lus noir sur blanc dans celui de l’ECJS au lycée : « Le seul savoir nouveau auquel il faut initier les élèves, grâce à l’ECJS, concerne le droit, trop ignoré de l’enseignement scolaire français. Il s’agit de faire découvrir le sens du droit, en tant que garant des libertés, et non d’enseigner le droit dans ses techniques. »

Le droit serait donc trop souvent ignoré. Il est rare de voir l’Éducation nationale nous faire un tel aveu. Surtout lorsque, comme nous le rappelle l’adage, « nul n’est censé ignorer la loi ». Et puis il y a cette phrase à graver dans le marbre : « Il s’agit de faire découvrir le sens du droit en tant que garant des libertés ».

À sa décharge, reconnaissons que du temps d’avant Internet, un jeune était bien peu souvent confronté directement et personnellement à des questions juridiques. Mais la situation a changé aujourd’hui avec l’avènement des nouvelles technologies. Pas un jour sans qu’il ne rencontre, implicitement ou explicitement, des problèmes de vie privée, de droits d’auteur, de contrats ou de licences d’utilisation. Et rien ne distingue à priori un adulte internaute connecté au Net d’un adolescent internaute connecté au Net.

Un Internet qui est par essence ouvert, permissif et partageur. Rappelons-nous ce qui a été joliment dit dans un article précédent : « La copie est pour les ordinateurs ce que la respiration est pour les organismes vivants ».

Nous voici donc projetés dans un nouveau monde étrange où la copie est naturelle et donne accès à un formidable univers de possibles. Elle est tellement naturelle qu’il est presque impossible d’ériger des barrières techniques pour la limiter. Tôt ou tard elles seront levées. Si pour diverses raisons vous voulez la contraindre ou l’abolir, l’arsenal technique est vain. Il n’y a que la loi qui puisse vous secourir. Une loi non coercitive qui n’apporte pas automatiquement avec elle ses verrous numériques. Elle dit simplement ce qui doit ou ne doit pas être. Elle demande avant tout une posture morale. C’est pourquoi, ici plus qu’ailleurs, elle nécessite une éducation.

Oui, dans la pratique, je peux tout faire ou presque sur Internet, mais ai-je le droit de tout faire ? Et si tel n’est pas le cas, ai-je bien compris pourquoi on me le refuse ?

Non pas une éducation passive qui se contenterait d’égréner les grandes lois en vigueur. Mais une éducation active qui met en avant celles que les jeunes rencontrent même sans le savoir au quotidien. Une éducation qui interroge ces lois en même temps qu’elle en donne connaissance. D’où viennent-elles ? Comment ont-elles évolué ? Sont-elles toujours pertinentes aujourd’hui ? Une éducation qui ne s’interdit pas l’analyse critique en prenant conscience qu’à l’heure du réseau on peut réellement le cas échéant se donner les moyens de participer à leurs « mises à jour »

Dans le cas contraire, nous prenons le risque que la réponse de mon élève devienne la réponse de toute une génération.

Parce que si possibilité de faire vaut droit de faire, alors c’est le chaos qui nous guette et vous obtenez une armée de « rebelles sans cause » sur laquelle vous ne pouvez pas vous appuyer. On a ainsi pu dire, lors du débat sur la loi Hadopi, que l’on était en face de la « génération du partage ». Rien n’est moins vrai malheureusement, le partage existant bien moins dans la tête des jeunes que dans le paramétrage par défaut de leurs logiciels de P2P. Preuve en est qu‘ils se ruent désormais sur les plateformes de direct download (RapidShare, MegaVideo…) où tout est centralisé sur un unique serveur, où le partage a pour ainsi dire disparu.

Parce que si possibilité de faire vaut droit de faire, comment voulez-vous de plus expliquer à un jeune ce qu’est un logiciel libre. Il n’y verra aucune différence avec un logiciel gratuit ou piraté. Il n’aura alors plus d’autres qualités que celle de son usage, et à ce petit jeu-là c’est souvent le logiciel commercial cracké qui l’emporte.

Parce que si possibilité de faire vaut droit de faire, « l’Alternative Libre » ne sera ni comprise ni soutenue. Si adhésion, enthousiasme et énergie il y a chez ceux qui la défendent, c’est parce qu’ils savent que tout autour on érige des murs toujours plus hauts. Que ces murs puissent aujourd’hui facilement être franchis ou contournés n’est pas le plus important ici. C’est aussi en respectant scrupuleusement toutes les conditions d’utilisation, même les plus drastiques, des projets numériques que l’on découvre qu’il existe d’autres logiciels, d’autres encyclopédies, d’autres cartes du monde ou d’autres manières de faire de la musique.

Tout membre de la « Communauté du Libre » possède un minimum de connaissances juridiques. En face de la moindre ressource, son premier réflexe est de s’enquérir de sa licence. Quels sont mes droits et mes devoirs ? Quelles sont les conditions de son usage, de sa copie, de sa modification ? Il n’est ainsi guère étonnant qu’il soit l’un des seuls à réellement lire et respecter les contrats d’utilisation lorsqu’il installe un logiciel ou s’inscrit à un service Web. Ce savoir-là ne s’est pas construit grâce à l’école (parfois même malgré l’école). Il a été acquis sur le tas, en autodidacte, parce que, motivé, il a simplement cherché à comprendre de quoi il s’agissait. Se faisant notre membre s’est donné des clés pour mieux appréhender le monde contemporain, pour mieux y participer aussi.

On le retrouvera dès lors logiquement en première ligne de batailles DADVSI, Hadopi, ACTA, Brevets logiciels ou neutralité du réseau, qui sont autant des batailles politiques et techniques que des batailles juridiques qui ne peuvent être gagnées sans une connaissance précise et pointue de la legislation du moment. D’ailleurs, comme c’est curieux, ces batailles sont menées pour que le droit soit véritablement le « garant des libertés » et non l’inverse !

Ces batailles sont aussi menées au nom d’une certaine idée de la justice. On peut bien sûr s’y opposer parce qu’on en a une autre idée mais aussi longtemps que le droit sera ignoré à l’école, ce qui risque surtout d’arriver c’est de ne pas avoir d’idée du tout ! Méconnaissance et indifférence sont nos pires adversaires ici. Elles nous condamnent à faire partie d’une minorité d’initiés éclairés ne réussissant pas à trouver assez de renforts pour peser durablement sur le cours des évènements.

Oui, il y a urgence à démocratiser et « faire découvrir le sens du droit en tant que garant des libertés » à la jeune génération qui manque cruellement de répères en la matière, à un moment où, Internet oblige, de plus en plus de questions se posent tout de suite à elle. Différer à plus tard son étude revient non seulement à s’en remettre aveuglement entre les mains des experts mais surtout à prendre le risque de devenir un spectateur passif et inculte de l’évolution actuelle de nos sociétés.

Il est dit que « concourir à la formation de citoyens libres, autonomes, et exerçant leur raison critique dans une cité à laquelle ils participent activement est une des missions fondamentales du système éducatif ». Impossible de ne plus y inclure le droit dans ce noble et ambitieux objectif.

Notes

[1] Crédit photo : Zara (Creative Commons By-Sa)




De la motivation au sein d’une communauté

Il est fort probable que vous ayez déjà vu la vidéo ci-dessous. Elle m’est revenue en mémoire à la faveur du précédent billet De la confiance au sein d’une communauté dont elle lui fait en quelques sorte écho.

Cette vidéo me passionne dans le fond et dans la forme.

Le fond c’est son sujet, à savoir la motivation. Qu’est-ce qui nous motive au juste ?, se demande ici Dan Pink, en fustigeant l’efficacité des récompenses traditionnelles, argent en tête de gondole.

Pour vous la résumer, rien de tel que ce commentaire glané sur le site Rue89 :

« Des études comportementales scientifiques, indubitablement indépendantes du complot socialo-communiste mondial (MIT, unversité de Chicago et Carnegie, financées par la banque fédérale US), démontrent que, si l’amélioration de la productivité d’une tâche mécanique peut-être induite par sa récompense en terme de rémunération, ce n’est pas le cas des tâches cognitives et créatives.

Dans ce cas, le principe de la carotte est plutôt contre-productif. Pour les œuvres humaines plus compliquées que le travail à la chaine, en effet, les trois facteurs identifiés comme induisant une amélioration de la créativité, de la productivité et de la qualité sont :

  • Autonomy, qui se traduit comme ça se prononce.
  • Mastery, le développement personnel et la recherche de l’expertise.
  • Purpose, le but de l’activité, qui sera autant de motivation qu’il satisfait aux critères éthiques et moraux du collaborateur.

Ces résultats, outre qu’ils expliquent l’efficacité de modèles de développement coopératifs tels que Linux ou Wikipédia, remettent en question les dogmes du management, voire de notre modèle économique.

  • Taf à la con où humain = machine : motivation = thunes.
  • Taf intelligent où humain = 1 cerveau au bout des bras : motivation = autonomie + développement personnel + éthique.

C’est-à-dire le contraire de l’idéologie globalement à l’œuvre dans l’organisation de nos sociétés. »

Rien d’étonnant à ce que les deux plus célèbres projets libres soient cités en exemple parce qu’ils corroborent à merveille la théorie. On prend d’ailleurs bien soin de souligner que la participation à ces projets se fait après le boulot (alimentaire ?), sur notre temps libre.

Confiance et motivation ont assurément contribué à leur réussite. Et comme par hasard c’est ce qui semble faire le plus défaut aujourd’hui dans le monde du travail (cf par exemple les interventions de Bernard Stiegler sur la déprolétarisation et l’économie de la contribution).

Mais la forme de la vidéo est tout aussi remarquable, c’est-à-dire la mise en graphique, réalisée par la société londonienne Cognitive Media pour le compte de la RSA (Royal Society for the encouragement of Arts, Manufactures & Commerce), qui suit, illustre et structure visuellement en temps réel les propos de Dan Pink. Le dessin sollicite autrement la vue et donne sens à ce que l’on entend, apportant véritablement quelque chose en plus.

Il est vrai que cela a un côté un peu violent, parce qu’on est en quelque sorte bombardé d’informations multi-directionnelles. Mais ne pouvant prendre notre souffle, on est comme happé par l’exposé. Impossible d’en sortir ou de s’ennuyer, sauf à complètement se déconnecter.

À l’heure de la rentrée scolaire qui s’en vient à grands pas, l’enseignant que je suis trouve cette approche pédagogique extrêmement intéressante. Non seulement j’ai bien compris (alors que je n’ai qu’un piètre niveau d’anglais) mais je crois déjà, en une seule vision, en avoir retenu l’essentiel, sachant que, malgré la densité du discours, on fait tenir le tout en une dizaine de minutes top chrono[1] !

Et si jamais quelque chose vous a échappé, il suffit de la regarder à nouveau, quand vous voulez sur Internet, sans compter que, cerise sur le gâteau, vous obtenez à la fin un énorme, unique et cohérent poster de tous les dessins effectués prêt à être imprimé !

Le format est donc tout bonnement excellent (faudrait que Thierry Stœhr en consacre un billet sur son blog dédié, si ne c’est déjà fait).

Je me prends déjà à rêver d’une forge libre pleine à craquer de ce genre d’animations. Ce sont mes élèves qui seraient contents ! Mais aurait-on alors besoin des profs ? Si, oui, quand même un peu je pense 😉

D’ailleurs à ce propos, je suggère aux collègues d’anglais de trouver un prétexte pour montrer un jour cette vidéo à leurs lycéens, ça en vaut la peine et pourrait faire l’objet d’un intéressant débat dans la foulée, surtout si quelques uns ne savent pas encore ce qu’est Linux ou comment fonctionne Wikipédia.

Bon, il serait peut-être temps de la montrer, cette vidéo après une telle introduction…

—> La vidéo au format webm

URL d’origine de la vidéo sur RSA.org et au format Ogg sur TinyOgg.

Il en existe aussi une version sous-titrée en français, mais c’est presqu’alors impossible de suivre les dessins en direct live ! (mieux vaut plutôt écouter Dan Pink dire à peu près la même chose lors d’une conférences TED, autre format riche et pertinent).

Remarque : Il y a d’autres animations sur RSA.org sur des sujets aussi passionnants que l’empathie de notre civilisation, la question de l’éthique et de la charité et la crise du capitalisme.

Notes

[1] Note : L’article sur La Confiance a été peu parcouru, un commentaire me faisant de suite remarquer qu’il souffrait d’un syndrome qui affectie souvent ce blog, le syndrome TLDR, à savoir « Too Long; Didn’t Read » soit « Trop long pour être lu ». Il aurait dû lui aussi faire l’objet d’une telle animation !




De l’hacktivisme au web 2.0 – De la révolution à sa dissolution ?

Daniel Zanini H. - CC byLes mouvements alternatifs d’émancipation portés par le numérique, dont le logiciel libre fait partie, ont été récupérés et domestiqués par le système et sa force marketing sous la bannière et le vocable du « web 2.0 ».

Un web 2.0 qui présente de plus l’avantage de favoriser l’institution d’une sorte de totalitarisme global décentralisé avec notre complicité et toutes les traces personnelles, permanentes et continues, que nous laissons, le plus souvent volontairement, dans les nuages d’Internet.

Avec l’avènement du web 2.0, non seulement vous voyez s’éloigner le rêve d’une autre société mais vous renforcez le contrôle et la surveillance de l’actuelle ! Difficile de faire pire en quelque sorte…

Telle n’est pas mon opinion mais mon propre (et donc faillible) résumé d’un article parcouru récemment sur Indymedia dont le titre exact est “Become the media!” : de l’hacktivisme au web 2.0.

Attention, c’est dense, politisé et plein de références à des auteurs qui vous seront peut-être peu familiers si vous ne baignez pas dans une certaine culture intellectuelle « de gauche » (cf Félix Guattari, Jello Biafra, Walter Benjamin, Jean Baudrillard, Gilles Deleuze, Michel de Certeau, Michel Maffesoli).

Nous en avons reproduit la fin ci-dessous pour vous donner (ou non) l’envie de le parcourir dans son intégralité[1].

Je ne vous cache pas qu’il m’intéresse d’avoir vos réactions dans les commentaires. En espérant que les uns et les autres sauront s’écouter et échanger en toute sérénité sur un sujet, je le reconnais bien volontiers, un peu glissant. Un petit débat courtois et non un gros troll poilu pour le dire autrement 😉

Pour ce qui me concerne, je ne partage pas la radicalité et le pessimisme du propos et j’ai justement l’impression que les actions que nous menons participent modestement à échapper à ce piège. Mais il est vrai que lorsque le « logiciel libre » devient « open source », il prend le risque de perdre en route tout ce qui fait sa substantifique moelle.

“Become the media!” : de l’hacktivisme au web 2.0 (extraits)

URL d’origine du document

Dr No – 26 juillet 2010 – Indymedia Nantes

(…)

Quoiqu’il en soit, ce dont il s’agit là encore finalement, avec cette « réappropriation », ce « devenir-media » de la masse et cette « démocratisation » des dispositifs d’informations et de communication, c’est du déploiement toujours plus important d’un macro-système technique, d’un maillage global comme dispositif de socialisation forcée par dressage à la discipline inconsciente d’un code, c’est-à-dire – à l’instar du système électoral ou de la consommation – d’imposition de règles du jeu (ici de la communication) et d’intériorisation de ces règles comme subtil mode de mobilisation et de contrôle social. Indépendamment des contenus qui n’en sont que l’alibi, le médium – le code, le modèle, la forme, le canal, le dispositif, la technique – est le message, il influe directement sur nos modes de perception sensibles, modifie nos rapports à l’espace et au temps et par conséquent nos modes d’être-au-monde. En l’occurrence, « ce qui est médiatisé, ce n’est pas ce qui passe par la presse, la TV, la radio : c’est ce qui est ressaisi par la forme/signe, articulé en modèles, régi par le code. » La réappropriation du code ne jouant donc là au final que comme « reproduction élargie du système » sous couvert de nouvelles modalités. C’est pourquoi il ne faut jamais sous-estimer la capacité de ce système à intégrer les innovations (même et peut-être surtout si elles se veulent « révolutionnaires ») a fortiori si celui-ci fonctionne sur les principes d’interaction, de réversibilité, de participation et de feed-back comme c’est d’ailleurs le cas aujourd’hui beaucoup plus qu’hier.

« l’éthique hacker », l’utopie cyberpunk et les expérimentations cyberculturelles, les trouvailles de « l’hacktivisme » électronique et de « l’Internet militant », du mouvement des logiciels libres, l’Open Source, l’Open Publishing, le P2P, le Wi-Fi, les média-tactiques alternatives, collaboratives et communautaires elles-mêmes, c’est-à-dire en somme toutes ces « pratiques moléculaires alternatives » que Félix Guattari appelaient de ses vœux pour renverser le pouvoir grandissant de l’ingénierie logicielle et les nouvelles modalités de la « société de contrôle » ont pour la plupart, dans ce qu’elles avaient d’original et novateur, été absorbées et recyclées par celle-ci et les industriels pour donner naissance à ce que l’on peut appeler les nouveaux « agencements post-médiatiques » du web 2.0.

C’est-à-dire toutes ces nouvelles applications de l’Internet « participatif » et « collaboratif » basé sur le principe du « contenu généré par les utilisateurs », ce qui précisément, on l’aura remarqué, était bien l’idée de « l’open publishing » (publication libre) proposé par le réseau international des sites Indymedia dans l’esprit du partage horizontal de l’information, de la participation et de la collaboration en vue de favoriser l’auto-organisation des groupes et des individus constitués en « machines de guerre » contre l’axiomatique mondiale exprimée par les Etats.

Un Web 2.0 dit « participatif » et « collaboratif » donc, où effectivement, convergence numérique aidant, la masse devient son propre média (MySpace, Facebook, YouTube, Twitter, Wikis et autres blogs), engendrant à leur tour de nouveaux usages qui inspirent également de nouveaux produits, services et dispositifs reconfigurant de fond en comble notre rapport au monde et nos relations sociales, tout en développant de nouveaux marchés ainsi que de nouveaux « business models » (management 2.0, marketing 2.0, « gratuité », « co-création de valeur », etc.) qui incarnent des changements de paradigmes économiques par où se joue la mutation du capitalisme. Car en effet, force est de constater que les principes du « participatif », du « collaboratif », de la « coopération » et du « partage » sont aujourd’hui devenus les principaux éléments d’un nouvel esprit du capitalisme de l’ère 2.0 fonctionnant par « boucles de récupération » et recyclage écosystémique des singularités comme moteur et dynamique de l’innovation (technologique, économique, culturelle, sociale, etc.). C’est en quelque sorte ce qui se présente plus communément aujourd’hui sous l’appellation d’ « innovation ascendante » qui consiste justement pour les entreprises et/ou les institutions à observer, et même à favoriser, les pratiques de réappropriation, investissement, exploration, détournement, expérimentation par les usagers/consommateurs des produits, services et technologies dans le but de réintégrer les éventuelles micro-inventions et les « usages innovants » dans leur propre processus de création et développement industriel, commercial, technocratique, etc.

C’est une dynamique qui s’appuie sur la compréhension des comportements que permet en l’occurrence la « sociologie des usages » et notamment les travaux de Michel de Certeau sur ce qui constitue en quelque sorte les « arts de faire avec » . Recherche qui se voulait un travail de compréhension et en premier lieu de mise en valeur des arts de vivre la société de consommation, par élaboration de « lignes de fuites » (Deleuze et Guattari) pourrait-on dire, c’est-à-dire plus particulièrement des ruses subtiles, des tactiques de résistance, de contournements, détournement, réappropriation, braconnage, dissimulation, en somme toute la multitude de pratiques inventives et créatives qui se disséminent dans la banalité du quotidien des usagers/consommateurs et que la rationalité occidentale, selon les mots de l’auteur, aurait eu trop tendance à occulter. Et on pourrait voir dans ce travail la saisie de l’essence même de la notion anglo-saxonne de « hacking », de son esprit ou de son éthique élargie à l’ensemble de la société. Quoiqu’il en soit, on le voit bien, ce dont il s’agit avec « l’innovation ascendante » mise en œuvre dans le nouveau paradigme économique des entreprises les plus à l’avant-garde du capitalisme c’est de capter/capturer la puissance créatrice de la socialité de base, l’énergie et le vitalisme qui émergent de ce que Michel Maffesoli appelle la « centralité souterraine ». Dans le même ordre d’idée se développe aujourd’hui dans les milieux du marketing et du management, par le biais des différentes plateformes multimédias de la société en réseaux, le « crowdsourcing » (approvisionnement par la foule) qui consiste pour une entreprise là encore à faire « participer » et « collaborer » directement la foule des internautes comme usagers/consommateurs à la recherche et au développement de nouveaux produits et services, à apporter des améliorations, etc..

Enfin, toutes choses mettant en œuvre un processus communicationnel global s’appuyant sur des dispositifs de « feed-back » et des mécanismes circulaires tout à fait caractéristiques des boucles causales rétroactives qui furent à la base de la modélisation des systèmes cybernétiques qui simulent les lois de la nature et dont la finalité, rappelons-le, est le Contrôle par auto-régulation comme mode de management et de gouvernance.

Des systèmes de contrôle et de gouvernance de l’ère des machines de « troisième espèce » qui se déploient sur toute l’étendue de la vie quotidienne par le biais de la globalisation d’un méga-réseau engagé dans un processus matriciel. Une « matrice communicationnelle », un maillage systémique à vocation ubiquitaire qui tend par ailleurs à rendre obsolètes les modèles panoptiques de surveillance hyper-centralisés et transcendants de type orwellien qu’incarne la fameuse figure de « Big Brother ». Car en effet, ce à quoi on a de plus en plus nettement affaire aujourd’hui c’est à un processus de capillarisation du Contrôle en quelque sorte et qui tend par là à devenir totalement immanent.

Comme le remarquait déjà pertinemment Jean Baudrillard au début des années 70 « même à long terme, l’impossibilité des mégasystèmes policiers signifie simplement que les systèmes actuels intègrent en eux-mêmes, par le feed-back et l’autorégulation, ces métasystèmes de contrôle désormais inutiles. Ils savent introduire ce qui les nie comme variables supplémentaires. (..) Ils ne cessent donc pas d’être totalitaires : ils réalisent en quelque sorte l’idéal de ce que l’on peut appeler un totalitarisme décentralisé. » Par ailleurs, dans son texte annonçant l’avènement d’une "subjectivité post-médiatique" Félix Guattari rappelait que toutes les anciennes formations de pouvoir et leurs façon de modéliser le monde avaient été déterritorialisées. C’est ainsi, disait-il, que « la monnaie, l’identité, le contrôle social passent sous l’égide de la carte à puce. » Car en effet, ce qui se joue aujourd’hui avec tout ce maillage systémique planétaire, ce déploiement du méga-réseau matriciel à vocation ubiquitaire, c’est un processus de globalisation des « sociétés de Contrôle » , fluides, ouvertes, modulaires, multipolaires et à géométrie variable comme installation d’un nouveau régime de domination qui remplacent peu à peu les « sociétés disciplinaires » (Foucault) avec la crise généralisée des milieux d’enfermement en système clos (familles, écoles, armée, usines, prisons, hôpitaux, etc.) ainsi que l’avait bien vu à la même époque Gilles Deleuze, et où, entre autres choses, les individus deviennent peu à peu des entités « dividuelles » encodées comme multiplicité de données dans un macro-système d’information. « Ce sont les sociétés de contrôle qui sont en train de remplacer les sociétés disciplinaires. (..) On ne se trouve plus devant le couple masse-individu. Les individus sont devenus des « dividuels », et les masses, des échantillons, des données, des marchés ou des « banques ». (..) les sociétés de contrôle opèrent par machines de troisième espèce, machines informatiques et ordinateurs (..). Ce n’est pas une évolution technologique sans être plus profondément une mutation du capitalisme. »

Mutation post-industrielle du capitalisme de plus en plus flexible, flottant, immatériel, sémiotique et cognitif, où le « service de vente » devient le centre ou l’âme de « l’entreprise » qui a remplacé « l’usine » de production désormais démantelée, automatisée, externalisée et assez souvent reléguée en périphérie du tiers-monde à l’instar des grandes enseignes multinationales qui se concentrent sur les logiques de Communication et le développement médiatique, si ce n’est psycho-technique, de leur « image de marque ». « On nous apprend que les entreprises ont une âme, ce qui est bien la nouvelle la plus terrifiante du monde. Le marketing est maintenant l’instrument du contrôle social, et forme la race impudente de nos maîtres » affirmera ainsi sans détours Gilles Deleuze. De même, « il n’y a pas besoin de science-fiction pour concevoir un mécanisme de contrôle qui donne à chaque instant la position d’un élément en milieu ouvert, animal dans une réserve, homme dans une entreprise (collier électronique). Félix Guattari imaginait une ville où chacun pouvait quitter son appartement, sa rue, son quartier, grâce à sa carte électronique (dividuelle) qui faisait lever telle ou telle barrière ; mais aussi bien la carte pouvait être recrachée tel jour, ou entre telles heures ; ce qui compte n’est pas la barrière, mais l’ordinateur qui repère la position de chacun, licite ou illicite, et opère une modulation universelle. »

Vision qui prend d’autant plus d’importance aujourd’hui avec l’informatisation généralisée de la société, l’injonction à la mobilité, l’hyperconnectivité et les projets de dissémination des technologies numériques et autres puces communicantes (informatique ubiquitaire/ubimedia) dans tout l’environnement physique de nos métropoles postmodernes où peut désormais s’opérer de façon massive, par la grâce de l’ingénierie logicielle, la traçabilité, la géolocalisation, le fichage et le profilage des « dividus » dispersés dans les flux et les réseaux, dans et par lesquels se dispensent désormais leur être-au-monde fantomatique sous « le règne de la Technique planétaire »

Notes

[1] Crédit photo : Daniel Zanini H. (Creative Commons)