Firefox 4, Google Chrome et l’évolution du Web par Chris Blizzard de Mozilla

Keven Law - CC by-saQue les fans de la première heure se rassurent : la version 4 du célèbre navigateur au panda roux – dont la sortie devrait intervenir d’ici la fin de l’année – promet de recoller au peloton !

Au temps pour ceux qui avaient vendu sa peau un peu trop rapidement : le panda[1] nouveau met l’accent sur les performances, à commencer par un nouveau moteur JavaScript qui, une fois optimisé, pourrait même lui permettre de prendre la tête de la course si l’on en croit Chris Blizzard (Director of Web Platform chez Mozilla[2]), dont nous vous proposons ici la traduction de l’interview qu’il a donnée récemment au site derStandard.at (une fois n’est pas coutume, cette traduction a été complétée de références à l’actualité récente avec l’aide de Paul Rouget, Technology Evangelist chez Mozilla).

S’il est difficile de ne pas céder à la mode du benchmarking, on peut toutefois s’interroger sur ce que l’on attend réellement d’un navigateur.

Revenons un instant en arrière : l’irruption de Firefox a permis de réveiller le Web en le libérant de l’hégémonie d’Internet Explorer qui, après avoir éradiqué à peu près toute concurrence sur le marché des navigateurs, n’a plus connu de développement pendant six ans (soit le temps qui sépare la version 6 de la version 7 du navigateur de Microsoft, qui avait même dissout l’équipe de développement dans cet intervalle). Firefox a réussi à propulser le Web vers de nouveaux horizons balisés de standards ouverts propices à l’innovation. Tant et si bien que de redoutables concurrents sont apparus comme Safari d’Apple et surtout Chrome de Google (voir à ce billet du Framablog) et que Microsoft est en train de mettre les bouchées doubles avec son IE 9 pour rattraper son retard.

Faut-il en conclure que Firefox, ayant accompli sa mission, est devenu inutile ?

Il faut en effet reconnaître que le Web ne s’est jamais aussi bien porté qu’aujourd’hui : les concepteurs de navigateurs se battent dorénavant tous pour implémenter les dernières versions des standards ouverts qui sont la base du Web (HTML5, CSS3) quand ils n’en sont tout simplement pas à l’origine. Et pour cela, nous pouvons tous remercier la fondation Mozilla à l’origine de Firefox.

Pourtant, le Web ne se limite pas à des applications riches et jolies devant s’exécuter le plus rapidement possible.

Les grands acteurs du Web, Mozilla mis à part, tirent leurs revenus de l’exploitation de vos données personnelles. La protection de la vie privée devient aujourd’hui un enjeu majeur pour l’utilisateur (qui doit encore en prendre conscience). Mozilla s’apprête à proposer des solutions novatrices dans ce domaine[3]. Qui d’autre que Mozilla, fondation à but non lucratif, a intérêt à rendre aux utilisateurs le contrôle de leurs données personnelles ? Personne. Et ce n’est pas parce que Apple ou Google (et peut-être un jour Facebook) sort un navigateur performant – fût-il libre (Chromium est la version libre de Google Chrome) – que l’utilisateur jouira des mêmes libertés que l’utilisateur de Firefox, navigateur libre développé par une fondation à but non lucratif.

Firefox 4 : Une génération d’avance en termes de vitesse

Firefox 4: One generation ahead of everyone else speedwise

Andreas Proschofsky – 19 août 2010 – derStandard.at
(Traduction Framalang : Don Rico, Siltaar, Goofy et Antistress)

Chris Blizzard de Mozilla nous parle de la concurrence de Google Chrome, de l’évolution du Web comme plateforme et des attentes que suscite le format WebM.

Ces dernières années Firefox a joué le rôle enviable de l’étoile montante dans le monde des navigateurs. Aujourd’hui, non seulement Google Chrome semble lui avoir volé la vedette mais il vient même lui tailler des croupières. Au cours du dernier GUADEC, Andreas Proschofsky a eu l’occasion de côtoyer Chris Blizzard, « Directeur de plateforme Web » chez Mozilla, et il a réalisé l’interview que vous allez lire, évoquant l’état actuel du marché des navigateurs, les progrès du Web comme plateforme et les améliorations qui arrivent avec Firefox 4+.

derStandard.at : Quand nous avons discuté l’année dernière, vous avez noté que, malgré la notoriété grandissante de Google Chrome, la plupart des développeurs présents dans les conférences techniques – comme le GUADEC – utilisent encore Firefox. Si je jette un coup d’œil autour de moi cette année, les choses semblent avoir considérablement changé : bon nombre de ces utilisateurs avant-gardistes semblent être passés à Chrome / Chromium. Est-ce que vous avez un problème sur ce créneau d’utilisateurs spécifique – mais influent ?

Chris Blizzard : En fait je pense que beaucoup de gens utilisent les deux maintenant, mais c’est vrai que c’est intéressant à voir. De mon point de vue de développeur Web je pense toujours que les outils de Firefox sont de loin supérieurs à ceux des autres.

Il est intéressant de noter que nous n’avons pas vu de changements significatifs dans les statistiques utilisateurs, même si Chrome marque des points importants sur ce segment. Il faut préciser que tous ces chiffres que l’on rapporte sont en réalité des statistiques d’usage et non du nombre d’utilisateurs, si bien que cette avant-garde – qui est grosse utilisatrice du Web – influence les statistiques plus que d’autres, ce qui peut faire croire que Chrome est utilisé par davantage de gens qu’en réalité. Nous avons connu le même effet dans les premiers temps de Firefox, à l’époque nous n’en avions pas conscience faute d’outils adéquats pour le mesurer.

Nous avons aussi effectué quelques recherches et découvert qu’un tas de gens semblent choisir leur navigateur suivant des fonctionnalités particulières. Par exemple beaucoup d’utilisateurs préfèrent retrouver leurs sites récemment visités dès l’ouverture de leur navigateur, donc ils utilisent Chrome. S’ils préfèrent démarrer avec une page vierge, ils utilisent plutôt Firefox. Je pense donc que ce que l’on commence à voir, c’est des gens différents qui veulent faire des choses différentes, et qui vont choisir leur navigateur selon leurs préférences. Et nous n’en sommes qu’au début.

Nous savons que nous ne pourrons pas satisfaire les désirs de tous et ce n’est d’ailleurs pas le but de notre organisation. Nous voulons faire en sorte que le Web devienne une plateforme et nous avons plutôt bien réussi sur ce point.

Google se lance maintenant dans un cycle de développement visant à offrir une nouvelle mise à jour stable toutes les six semaines, pour essayer de proposer des innovations plus rapidement aux utilisateurs. Mozilla, de son côté, publie au mieux une nouvelle version par an : cela n’est-il pas handicapant d’un point de vue marketing ?

Cela dépend du rythme que vous voulez adopter. Les gens de Chrome ont une approche un petit peu différente de la nôtre. Il va être intéressant de voir si d’autres utilisateurs que les avant-gardistes seront d’accord pour voir leur navigateur changer tous les mois et demi. Nous préférons prendre davantage de temps pour préparer les gens à des changements d’interface plus importants.

Pour autant nous ne modifions pas toujours le numéro de version pour les gros changements. Citons par exemple l’isolation des plugins que nous avons récemment ajoutée à la série 3.6.x, qui résulte d’un énorme travail et qui a grandement amélioré l’expérience des utilisateurs de Firefox.

À vrai dire, je suis quelque peu sceptique à l’idée d’un cycle de six semaines. Comment peut-on vraiment innover en un laps de temps si court ? Accélérer la cadence est néanmoins dans nos projets, il faut juste que nous trouvions celle qui nous convient.

Un des avantages d’un cycle de publication rapide, c’est que Google peut diffuser très vite des fonctionnalités comme le futur web-store de Chrome. Aimeriez-vous aussi proposer une plateforme de téléchargement d’applications Web chez Mozilla ?

En ce qui me concerne, je pense qu’un app-store pour le Web est une idée intéressante, car en gros cela rend les applications Web plus accessibles et fournit un modèle de monétisation. Mais pour bien faire, il faut tenir compte de nombreux autres paramètres, et c’est là-dessus que nous allons d’abord nous concentrer.

Quels éléments manque-t-il encore pour concevoir un bon web-store ?

Les performances Javascript sont très importantes, mais nous touchons au but, car nous sommes en passe d’obtenir les mêmes performances que les applications exécutées nativement. Vient ensuite le webGL pour les applications en 3D, et nous devons aussi régler la question du stockage de données hors-connexion qui est loin d’être abouti pour le moment. Il faut aussi accorder une grande importance à la sécurité, question sur laquelle nous sommes justement en train de travailler. Par exemple, grâce à la fonctionnalité ForceHTTPS, un site Web pourra dire à un navigateur de ne communiquer avec lui que par données chiffrées, ce qui préviendra certains types d’attaques. Nous nous penchons aussi sur la politique de sécurité des contenus, ce qui sera très utile pour lutter contre une catégorie entière d’attaques type cross-site scripting (NdT : citons par exemple la fonctionnalité X-FRAME récemment introduite contre le clickjacking).

Dans les tests de performances Javascript récents, Firefox semble avoir dégringolé dans le bas du classement, et se place même derrière Internet Explorer 9. N’arrivez-vous plus à suivre ?

Firefox 4 apportera de nombreuses améliorations dans ce domaine-là aussi, mais elles ne sont pas encore intégrées à nos versions de développement. Nous avons constaté que, lorsque notre Tracing-Engine (NdT : moteur basé sur la technologie du tracé) est utilisé, nous sommes plus rapides que tous les autres. Nous ne sommes à la traîne que dans les cas où cette technologie ne peut être exploitée. Nous travaillons donc à améliorer les performances de base de notre moteur JavaScript, qui, combinées à l’optimisation JIT Tracing , nous donneront une génération d’avance sur tout le monde (NdT : Jägermonkey, le résultat de ce travail, vient d’être intégré à la version de développement de Firefox 4).

La vérité c’est que la marge d’amélioration est encore énorme. La génération actuelle des moteurs Javascript a atteint un palier : en pourcentage, les différences que nous constatons entre les différents navigateurs sont infimes. En outre, les tests de performance ne sont plus d’une grande utilité, car, pour la plupart, ces chiffres ne sont plus influencés par les performances Javascript réelles. Voici un exemple des conséquences négatives des tests de performance : nous avons dû fournir des efforts particuliers sur l’optimisation du calcul de décalage horaire car cela influe négativement certains tests de performance, mais ça n’améliore pas réellement les performances Javascript. Sunspider est affecté par ces problèmes et V8 contient aussi du code bancal, il est donc difficile de trouver de bons tests de performance (NdT : Mozilla vient de lancer Kraken, un test censé mesurer les performances JavaScript en situation réelle).

Firefox 4 va utiliser l’accélération matérielle grâce à Direct2D et à DirectWrite sous Windows. Des fonctionnalités similaires sont-elles prévues pour Linux et Mac OS X ?

Dans la limite des outils qui sont disponibles, oui. Nous essayons de procurer aux utilisateurs la meilleure expérience possible sur chaque plateforme. Pour Windows Vista et 7 nous constatons d’immenses améliorations lorsque le navigateur doit réaliser des tâches graphiques intensives. Sur OS X, par exemple, nous prenons en charge l’OpenGL pour la composition d’images, et nous faisons de même sous Linux. Mais en général les API dont nous disposons sous Windows sont meilleures et plus riches que sur les autres plateformes. Sous Linux, Cairo et Pixman étaient censées être rapides, mais hélas l’infrastructure sur lesquelles elles reposent n’a jamais vraiment atteint la vélocité désirée. Sur OS X, Firefox est assez rapide, mais pour l’instant Direct2D confère l’avantage à la version Windows (NdT : plus d’informations sur cet article de Paul Rouget).

L’isolation des plugins devait n’être que la première étape d’un Firefox multi-processus, avec un processus séparé pour chaque onglet. C’est un des gros morceaux du cahier des charges de Firefox 4. C’est toujours prévu ?

Bien sûr, mais pas pour Firefox 4. Ce sera sans doute disponible pour la version mobile avant la version desktop. C’est intéressant de constater que c’est plus facile sur cette plateforme.

Il y a peu, vous avez endossé le rôle de « Directeur de plateforme Web » chez Mozilla. En quoi cela affecte-il vos responsabilités quotidiennes ?

Auparavant, je me chargeais essentiellement de diriger les groupes d’évangélisation et de communication, mais j’ai fini par travailler de plus en plus sur les questions de plateforme Web – réfléchir à l’avenir du Web, discuter régulièrement avec les autres concepteurs de navigateurs. Tout cela a pris une telle importance que j’ai décidé de m’y consacrer à plein temps.

Par exemple, je viens de participer à une réunion de l’IETF, où nous avons eu des discussions très riches sur le http, les websockets, et aussi sur les codecs. Ils sont en train de mettre au point un codec audio de nouvelle génération pour les communications en temps réel et s’appuient sur l’IETF pour les spécifications. En gros, c’est une combinaison de techniques existantes, et l’accent est mis sur une latence très basse, un domaine où le Vorbis ou le MP3 sont mauvais. Ce travail s’effectue en collaboration avec Skype.

Une des grosses annonces de ces derniers mois concernait la création du WebM comme nouveau format vidéo ouvert basé sur le VP8 et Vorbis. Pensez-vous que ses chances de réussites soient meilleures que celles de Theora ?

Oui, pour des raisons de qualité. Quelques explications : il est bon de savoir que lorsqu’on utilise le H.264, on doit en gros choisir un des trois profils que propose ce codec. En général, les sites vidéos doivent offrir la version basique car c’est la seule prise en compte par l’iPhone, notamment dans ses anciennes versions qui sont utilisées par des dizaines de millions de personnes. Donc, si l’on compare les formats vidéo, il faut comparer le VP8 au H.264 « basique », et ce n’est pas qu’une manœuvre réthorique, c’est la réalité pour tous les services. J’ai discuté avec les gens de YouTube, par exemple : ils ont essayé d’utiliser un autre profil du H.264, mais ils ont dû revenir au « basique » à cause du manque de prise en charge. Sur cette base, la question de la qualité n’a plus lieu d’être, et le VP8 est tout à fait compétitif.

Si l’on parle de l’implémentation de la balise vidéo HTML5, il faut aussi prendre en compte l’évolution du marché. Si l’on envisage un monde où la vidéo HTML5 est répandue dans la majorité des navigateurs – par-là je pense à une proportion de 80%, ce qui devrait être le cas d’ici deux ans –, il faut compter avec les tendances et les changements dans les parts de marché des systèmes d’exploitation. On se rend alors compte qu’on se retrouve avec un marché segmenté. Ceux qui voudront diffuser de la vidéo devront prendre en charge à la fois H.264 et WebM. Sur le long terme, je suis certain que les codecs libres sont en meilleure posture, surtout si l’on prend en considération les tendances à venir comme les communications en temps réel ou les plateformes mobiles, où WebM est très performant – ou va l’être grâce à des partenariats avec des constructeurs de matériel.


Firefox 4 va permettre de construire des extensions « poids plume » sous forme de Jetpacks. Quand vont-ils remplacer la génération actuelle d’extensions ?

Les Jetpacks ne sont pas conçus pour remplacer les extensions XUL. Firefox est une plateforme que l’on peut étoffer à l’envi grâce à une large palette d’interfaces. On peut aussi modifier beaucoup de choses dans les paramètres mêmes de Firefox, ce qu’aucun autre navigateur ne permet. Comme projet, c’est extraordinaire : une grand part de nos innovations sont arrivées par les extensions avant d’intégrer directement le navigateur.

Pour nous, les Jetpacks sont grosso modo un équivalent des extensions pour Chrome, qui offrent beaucoup moins de possibilités que nos extensions XUL classiques. Ils seront néanmoins beaucoup plus faciles à réaliser. Nous allons fournir un éditeur en ligne qui facilitera leur développement. Ces Jetpacks seront aussi plus faciles à tester, et l’on pourra les installer sans avoir à redémarrer le navigateur. Ce qui est d’ailleurs déjà possible avec certaines extensions XUL dans Firefox 4, à condition que cela soit signalé et que l’extensions soit codée avec soin.

Notes

[1] Crédit photo : Keven Law (Creative Commons By-Sa)

[2] Chris Blizzard a déjà fait l’objet d’une traduction sur le Framablog : De l’honnêteté intellectuelle et du HTML5.

[3] Lire à ce propos Comment Firefox peut améliorer le respect de la vie privée en ligne, privacy-related changes coming to CSS :visited et Account Manager coming to Firefox.




Pirates De l’Internet, Unissez-Vous !

Hillman54 - CC by« Mais qu’est-ce que tu fous encore devant ton ordi ! N’oublie pas que tu m’avais promis d’aller avec moi au MAXXI ! Remue-toi, on est déjà en retard… »

Fichtre alors, je ne m’en souvenais effectivement pas ! De plus ou moins bonne grâce me voici donc en train d’accompagner N. au MAXXI.

Mais qu’est-ce donc que ce MAXXI ? Situé à Rome, il s’agit du nom donné au tout nouveau « musée national des arts du XXIe siècle » – contracté, ça donne donc MAXXI – dédié à toutes les formes de création de l’art contemporain[1].

Avant de poursuivre, il faut que je vous dise que l’Art Contemporain a toujours été un vif sujet de débat entre N. et moi. J’ai bien saisi qu’on a pu parler d’avant-garde à certaines époques du passé mais aujourd’hui j’ai peine à ne pas y voir avant tout une grande supercherie où argent, marketing et petits arrangements entre amis du microcosme sont rois. Du coup l’Art Contemporain, au mieux cela me divertit (et ne dépasse pas le stade du divertissement), au pire cela m’ennuie voire me scandalise. Elle me répond calmement et invariablement que c’est parce que je ne le connais pas bien, ce qui est tout à fait vrai au demeurant, et que de toutes les façons je suis resté bloqué à Marcel Duchamp ! Elle ne le dit jamais ouvertement mais le pense très fort : le « syndrome du vieux con » me guette.

Ceci étant dit, j’étais quand même curieux de voir ce que donnait ce musée. D’abord parce que je trouvais cela bien ambitieux, pour ne pas dire pompeux, de la définir déjà comme un musée des « arts du XXIe siècle ». Et puis on m’avait dit le plus grand bien de son architecture signée Zaha Hadid. Dans une ville où règne la vieille pierre, un peu de modernité fait toujours contraste.

Je confirme. C’est une bâtisse impressionnante. Beaux volumes et beaux espaces, comme on peut s’en rendre compte sur cette vidéo (cf aussi ce reportage AFP).

Le contenant est donc intéressant. Je n’en dirai pas tant du contenu. Comme d’habitude, une succession d’installations à l’originalité convenue qui veulent toutes nous dire simultanément quelque chose sur le moi profond de l’artiste et le monde profane ou sacré qui nous entoure. On appelle cela le « message » de l’œuvre, et cela fait le bonheur des critiques d’art des beaux quartiers.

Mais force est de constater que cela ne fait pas le mien.

Finalement, l’intérêt principal reste encore de partager cela avec quelqu’un en lui demandant à chaque fois ce qu’il en pense. On n’apprendra pas forcément grand chose sur l’exposition, mais on peut en apprendre beaucoup sur la personne qui nous accompagne…

Tiens, voilà justement N. qui me demande mon impression générale au sortir de la dernière salle. Je m’y attendais. Et voulant moi aussi faire mon original, je commence ainsi ma réponse : « c’est bien gentil tout ça, mais si tu veux mon avis, ce n’est pas une bonne idée d’avoir ignoré la culture libre quand on la prétention de présenter l’art du XXIe siècle… ».

Et c’est à ce moment-là que je remarque une bien étrange affiche qui recouvre tout le mur de la cafétéria du musée.

Elle est signée de l’artiste Miltos Manetas et n’avait pas encore été traduite en français.

Piracy Manifesto - MAXXI

Pirates de l’Internet, unissez-vous !

Pirates of the Internet Unite!

Miltos Manetas – Juillet 2009 – MAXXI
(Traduction Framalang : Don Rico, Martin, Barbidule et Goofy)

Extrait d’un journal du futur : « Un homme a été contrôlé hier à la frontière franco-italienne. L’inspection de son ordinateur a permis de découvrir que celui-ci recelait des produits piratés, principalement des logiciels Adobe et de la musique des Beatles. L’homme a été arrêté sur-le-champ ».

Qu’il s’agisse d’un poème ou d’un médicament, d’un logiciel ou d’un disque, d’un film ou d’un livre, tout ce qui est populaire et rentable doit la majeure partie de sa valeur économique à la manipulation des Foules. Nul n’a demandé à savoir à quoi ressemble le logo Coca-Cola, ni à connaître le refrain de « Like a Virgin ». L’Éducation, les Médias et la Propagande nous les font avaler de force, en les martelant à l’envi ou en spéculant sur notre soif, notre faim, notre besoin de communication et de divertissement, et surtout sur notre sentiment de solitude et notre mal-être. À l’ère d’Internet, ce qui peut être copié peut être partagé. Pour ce qui est des contenus, on peut tout distribuer, à tout le monde en même temps.

À l’aune de cette constatation, une nouvelle classe sociale émerge. Il ne s’agit pas d’une classe laborieuse mais d’une classe de Producteurs. Par essence, ces Producteurs sont des pirates et des hackers ; ils réutilisent les images, les sons, et les idées du Monde. Ils en créent certains, mais pour la plupart ils les empruntent à d’autres.

L’information est aujourd’hui partie intégrante de notre organisme, elle est littéralement « installée » dans notre cerveau, et l’on ne peut l’effacer sur demande. C’est pourquoi nous avons le droit de posséder l’information qu’on nous projette : nous sommes en droit d’être maîtres de nous-mêmes ! Parce que nous vivons dans des sociétés mondialisées construites sur l’inégalité et le profit, parce que le contenu d’une chanson, d’un film ou d’un livre représentent des atouts dans une lutte sans merci pour survivre, tout citoyen possède le droit moral de s’approprier une copie numérique d’une œuvre quelle qu’elle soit. Parce que l’informatique est un langage international, les secrets du monde sont de nos jours écrits en Adobe et en Microsoft, il est légitime de vouloir les hacker. Enfin, parce que la pauvreté est le champ expérimental de l’industrie pharmaceutique, la médecine devrait être libre de tout brevet.

De nos jours, quiconque possède un ordinateur est à la fois Producteur et Pirate. Nous sommes tous citoyens de l’Internet, c’est notre nouvelle nation, le seul territoire qu’il soit justifié de défendre et de protéger. Internet est une terre d’information et de savoir. Chacun devrait être en mesure de la fouler sans contrepartie financière ; seules les grandes entreprises devraient payer pour l’utiliser.

Internet génère des « Internets », des situations qui existent non seulement en ligne, mais aussi dans le monde physique, déterminées par ce qui se passe sur le réseau. L’heure est venue de fonder un Mouvement du Piratage mondial. La liberté d’enfreindre le copyright, celle d’avoir accès sans restriction au savoir et aux traitements médicaux, voilà nos nouveaux « Biens communs ». Ce sont des Droits Universels, et en tant que tels, les Autorités ne les concéderont pas sans lutter, mais le combat à livrer sera inédit car pour la première fois, les Foules enfreignent spontanément la Loi à l’échelle planétaire.

Aujourd’hui, tout le monde copie : les jeunes gens, les adultes, nos aînés, les électeurs de gauche comme de droite. Quiconque possède un ordinateur copie quelque chose. Telle une nouvelle Athéna, l’Information jaillit toute armée du crâne ouvert de la Technologie pour nous aider dans notre quête.

Pirates de l’Internet, unissez-vous !

Piracy Manifesto - Manetas

Notes

[1] Crédit photo : Hillman54 (Creative Commons By)




Plaidoyer pour étudier le droit à l’école

Zara - CC by-saUn jour que je questionnais une élève sur ses pratiques numériques qui me semblaient un peu confuses, j’ai eu cette curieuse mais révélatrice réponse : « si je peux techniquement le faire, je ne vois pas pourquoi je me l’interdirais, de toutes les façons tout le monde le fait, et puis ça ne fait pas de mal à une mouche ».

L’élève étant manifestement de bonne foi (et bonne élève de surcroît), cet épisode me plongea dans un abîme de perplexité. Ici la possibilité de faire vaut droit de faire !

Effectivement, au sens propre du terme, on ne fait physiquement pas de mal à une mouche. Point besoin d’explication pour comprendre d’emblée que ce n’est pas bien de voler l’orange du marchand et que si d’aventure l’on s’y essayait on pourrait se faire prendre. Il en va autrement sur Internet où non seulement il est très facile et sans risque de voler l’orange, mais on ne sent pas spontanément que l’on est en train de commettre un délit puisqu’on ne dépossède pas le marchand de son orange, on ne fait que la copier[1].

J’eus alors l’idée de jeter un œil du côté des programmes officiels de l’institution scolaire. Et voici ce que je lus noir sur blanc dans celui de l’ECJS au lycée : « Le seul savoir nouveau auquel il faut initier les élèves, grâce à l’ECJS, concerne le droit, trop ignoré de l’enseignement scolaire français. Il s’agit de faire découvrir le sens du droit, en tant que garant des libertés, et non d’enseigner le droit dans ses techniques. »

Le droit serait donc trop souvent ignoré. Il est rare de voir l’Éducation nationale nous faire un tel aveu. Surtout lorsque, comme nous le rappelle l’adage, « nul n’est censé ignorer la loi ». Et puis il y a cette phrase à graver dans le marbre : « Il s’agit de faire découvrir le sens du droit en tant que garant des libertés ».

À sa décharge, reconnaissons que du temps d’avant Internet, un jeune était bien peu souvent confronté directement et personnellement à des questions juridiques. Mais la situation a changé aujourd’hui avec l’avènement des nouvelles technologies. Pas un jour sans qu’il ne rencontre, implicitement ou explicitement, des problèmes de vie privée, de droits d’auteur, de contrats ou de licences d’utilisation. Et rien ne distingue à priori un adulte internaute connecté au Net d’un adolescent internaute connecté au Net.

Un Internet qui est par essence ouvert, permissif et partageur. Rappelons-nous ce qui a été joliment dit dans un article précédent : « La copie est pour les ordinateurs ce que la respiration est pour les organismes vivants ».

Nous voici donc projetés dans un nouveau monde étrange où la copie est naturelle et donne accès à un formidable univers de possibles. Elle est tellement naturelle qu’il est presque impossible d’ériger des barrières techniques pour la limiter. Tôt ou tard elles seront levées. Si pour diverses raisons vous voulez la contraindre ou l’abolir, l’arsenal technique est vain. Il n’y a que la loi qui puisse vous secourir. Une loi non coercitive qui n’apporte pas automatiquement avec elle ses verrous numériques. Elle dit simplement ce qui doit ou ne doit pas être. Elle demande avant tout une posture morale. C’est pourquoi, ici plus qu’ailleurs, elle nécessite une éducation.

Oui, dans la pratique, je peux tout faire ou presque sur Internet, mais ai-je le droit de tout faire ? Et si tel n’est pas le cas, ai-je bien compris pourquoi on me le refuse ?

Non pas une éducation passive qui se contenterait d’égréner les grandes lois en vigueur. Mais une éducation active qui met en avant celles que les jeunes rencontrent même sans le savoir au quotidien. Une éducation qui interroge ces lois en même temps qu’elle en donne connaissance. D’où viennent-elles ? Comment ont-elles évolué ? Sont-elles toujours pertinentes aujourd’hui ? Une éducation qui ne s’interdit pas l’analyse critique en prenant conscience qu’à l’heure du réseau on peut réellement le cas échéant se donner les moyens de participer à leurs « mises à jour »

Dans le cas contraire, nous prenons le risque que la réponse de mon élève devienne la réponse de toute une génération.

Parce que si possibilité de faire vaut droit de faire, alors c’est le chaos qui nous guette et vous obtenez une armée de « rebelles sans cause » sur laquelle vous ne pouvez pas vous appuyer. On a ainsi pu dire, lors du débat sur la loi Hadopi, que l’on était en face de la « génération du partage ». Rien n’est moins vrai malheureusement, le partage existant bien moins dans la tête des jeunes que dans le paramétrage par défaut de leurs logiciels de P2P. Preuve en est qu‘ils se ruent désormais sur les plateformes de direct download (RapidShare, MegaVideo…) où tout est centralisé sur un unique serveur, où le partage a pour ainsi dire disparu.

Parce que si possibilité de faire vaut droit de faire, comment voulez-vous de plus expliquer à un jeune ce qu’est un logiciel libre. Il n’y verra aucune différence avec un logiciel gratuit ou piraté. Il n’aura alors plus d’autres qualités que celle de son usage, et à ce petit jeu-là c’est souvent le logiciel commercial cracké qui l’emporte.

Parce que si possibilité de faire vaut droit de faire, « l’Alternative Libre » ne sera ni comprise ni soutenue. Si adhésion, enthousiasme et énergie il y a chez ceux qui la défendent, c’est parce qu’ils savent que tout autour on érige des murs toujours plus hauts. Que ces murs puissent aujourd’hui facilement être franchis ou contournés n’est pas le plus important ici. C’est aussi en respectant scrupuleusement toutes les conditions d’utilisation, même les plus drastiques, des projets numériques que l’on découvre qu’il existe d’autres logiciels, d’autres encyclopédies, d’autres cartes du monde ou d’autres manières de faire de la musique.

Tout membre de la « Communauté du Libre » possède un minimum de connaissances juridiques. En face de la moindre ressource, son premier réflexe est de s’enquérir de sa licence. Quels sont mes droits et mes devoirs ? Quelles sont les conditions de son usage, de sa copie, de sa modification ? Il n’est ainsi guère étonnant qu’il soit l’un des seuls à réellement lire et respecter les contrats d’utilisation lorsqu’il installe un logiciel ou s’inscrit à un service Web. Ce savoir-là ne s’est pas construit grâce à l’école (parfois même malgré l’école). Il a été acquis sur le tas, en autodidacte, parce que, motivé, il a simplement cherché à comprendre de quoi il s’agissait. Se faisant notre membre s’est donné des clés pour mieux appréhender le monde contemporain, pour mieux y participer aussi.

On le retrouvera dès lors logiquement en première ligne de batailles DADVSI, Hadopi, ACTA, Brevets logiciels ou neutralité du réseau, qui sont autant des batailles politiques et techniques que des batailles juridiques qui ne peuvent être gagnées sans une connaissance précise et pointue de la legislation du moment. D’ailleurs, comme c’est curieux, ces batailles sont menées pour que le droit soit véritablement le « garant des libertés » et non l’inverse !

Ces batailles sont aussi menées au nom d’une certaine idée de la justice. On peut bien sûr s’y opposer parce qu’on en a une autre idée mais aussi longtemps que le droit sera ignoré à l’école, ce qui risque surtout d’arriver c’est de ne pas avoir d’idée du tout ! Méconnaissance et indifférence sont nos pires adversaires ici. Elles nous condamnent à faire partie d’une minorité d’initiés éclairés ne réussissant pas à trouver assez de renforts pour peser durablement sur le cours des évènements.

Oui, il y a urgence à démocratiser et « faire découvrir le sens du droit en tant que garant des libertés » à la jeune génération qui manque cruellement de répères en la matière, à un moment où, Internet oblige, de plus en plus de questions se posent tout de suite à elle. Différer à plus tard son étude revient non seulement à s’en remettre aveuglement entre les mains des experts mais surtout à prendre le risque de devenir un spectateur passif et inculte de l’évolution actuelle de nos sociétés.

Il est dit que « concourir à la formation de citoyens libres, autonomes, et exerçant leur raison critique dans une cité à laquelle ils participent activement est une des missions fondamentales du système éducatif ». Impossible de ne plus y inclure le droit dans ce noble et ambitieux objectif.

Notes

[1] Crédit photo : Zara (Creative Commons By-Sa)




De l’hacktivisme au web 2.0 – De la révolution à sa dissolution ?

Daniel Zanini H. - CC byLes mouvements alternatifs d’émancipation portés par le numérique, dont le logiciel libre fait partie, ont été récupérés et domestiqués par le système et sa force marketing sous la bannière et le vocable du « web 2.0 ».

Un web 2.0 qui présente de plus l’avantage de favoriser l’institution d’une sorte de totalitarisme global décentralisé avec notre complicité et toutes les traces personnelles, permanentes et continues, que nous laissons, le plus souvent volontairement, dans les nuages d’Internet.

Avec l’avènement du web 2.0, non seulement vous voyez s’éloigner le rêve d’une autre société mais vous renforcez le contrôle et la surveillance de l’actuelle ! Difficile de faire pire en quelque sorte…

Telle n’est pas mon opinion mais mon propre (et donc faillible) résumé d’un article parcouru récemment sur Indymedia dont le titre exact est “Become the media!” : de l’hacktivisme au web 2.0.

Attention, c’est dense, politisé et plein de références à des auteurs qui vous seront peut-être peu familiers si vous ne baignez pas dans une certaine culture intellectuelle « de gauche » (cf Félix Guattari, Jello Biafra, Walter Benjamin, Jean Baudrillard, Gilles Deleuze, Michel de Certeau, Michel Maffesoli).

Nous en avons reproduit la fin ci-dessous pour vous donner (ou non) l’envie de le parcourir dans son intégralité[1].

Je ne vous cache pas qu’il m’intéresse d’avoir vos réactions dans les commentaires. En espérant que les uns et les autres sauront s’écouter et échanger en toute sérénité sur un sujet, je le reconnais bien volontiers, un peu glissant. Un petit débat courtois et non un gros troll poilu pour le dire autrement 😉

Pour ce qui me concerne, je ne partage pas la radicalité et le pessimisme du propos et j’ai justement l’impression que les actions que nous menons participent modestement à échapper à ce piège. Mais il est vrai que lorsque le « logiciel libre » devient « open source », il prend le risque de perdre en route tout ce qui fait sa substantifique moelle.

“Become the media!” : de l’hacktivisme au web 2.0 (extraits)

URL d’origine du document

Dr No – 26 juillet 2010 – Indymedia Nantes

(…)

Quoiqu’il en soit, ce dont il s’agit là encore finalement, avec cette « réappropriation », ce « devenir-media » de la masse et cette « démocratisation » des dispositifs d’informations et de communication, c’est du déploiement toujours plus important d’un macro-système technique, d’un maillage global comme dispositif de socialisation forcée par dressage à la discipline inconsciente d’un code, c’est-à-dire – à l’instar du système électoral ou de la consommation – d’imposition de règles du jeu (ici de la communication) et d’intériorisation de ces règles comme subtil mode de mobilisation et de contrôle social. Indépendamment des contenus qui n’en sont que l’alibi, le médium – le code, le modèle, la forme, le canal, le dispositif, la technique – est le message, il influe directement sur nos modes de perception sensibles, modifie nos rapports à l’espace et au temps et par conséquent nos modes d’être-au-monde. En l’occurrence, « ce qui est médiatisé, ce n’est pas ce qui passe par la presse, la TV, la radio : c’est ce qui est ressaisi par la forme/signe, articulé en modèles, régi par le code. » La réappropriation du code ne jouant donc là au final que comme « reproduction élargie du système » sous couvert de nouvelles modalités. C’est pourquoi il ne faut jamais sous-estimer la capacité de ce système à intégrer les innovations (même et peut-être surtout si elles se veulent « révolutionnaires ») a fortiori si celui-ci fonctionne sur les principes d’interaction, de réversibilité, de participation et de feed-back comme c’est d’ailleurs le cas aujourd’hui beaucoup plus qu’hier.

« l’éthique hacker », l’utopie cyberpunk et les expérimentations cyberculturelles, les trouvailles de « l’hacktivisme » électronique et de « l’Internet militant », du mouvement des logiciels libres, l’Open Source, l’Open Publishing, le P2P, le Wi-Fi, les média-tactiques alternatives, collaboratives et communautaires elles-mêmes, c’est-à-dire en somme toutes ces « pratiques moléculaires alternatives » que Félix Guattari appelaient de ses vœux pour renverser le pouvoir grandissant de l’ingénierie logicielle et les nouvelles modalités de la « société de contrôle » ont pour la plupart, dans ce qu’elles avaient d’original et novateur, été absorbées et recyclées par celle-ci et les industriels pour donner naissance à ce que l’on peut appeler les nouveaux « agencements post-médiatiques » du web 2.0.

C’est-à-dire toutes ces nouvelles applications de l’Internet « participatif » et « collaboratif » basé sur le principe du « contenu généré par les utilisateurs », ce qui précisément, on l’aura remarqué, était bien l’idée de « l’open publishing » (publication libre) proposé par le réseau international des sites Indymedia dans l’esprit du partage horizontal de l’information, de la participation et de la collaboration en vue de favoriser l’auto-organisation des groupes et des individus constitués en « machines de guerre » contre l’axiomatique mondiale exprimée par les Etats.

Un Web 2.0 dit « participatif » et « collaboratif » donc, où effectivement, convergence numérique aidant, la masse devient son propre média (MySpace, Facebook, YouTube, Twitter, Wikis et autres blogs), engendrant à leur tour de nouveaux usages qui inspirent également de nouveaux produits, services et dispositifs reconfigurant de fond en comble notre rapport au monde et nos relations sociales, tout en développant de nouveaux marchés ainsi que de nouveaux « business models » (management 2.0, marketing 2.0, « gratuité », « co-création de valeur », etc.) qui incarnent des changements de paradigmes économiques par où se joue la mutation du capitalisme. Car en effet, force est de constater que les principes du « participatif », du « collaboratif », de la « coopération » et du « partage » sont aujourd’hui devenus les principaux éléments d’un nouvel esprit du capitalisme de l’ère 2.0 fonctionnant par « boucles de récupération » et recyclage écosystémique des singularités comme moteur et dynamique de l’innovation (technologique, économique, culturelle, sociale, etc.). C’est en quelque sorte ce qui se présente plus communément aujourd’hui sous l’appellation d’ « innovation ascendante » qui consiste justement pour les entreprises et/ou les institutions à observer, et même à favoriser, les pratiques de réappropriation, investissement, exploration, détournement, expérimentation par les usagers/consommateurs des produits, services et technologies dans le but de réintégrer les éventuelles micro-inventions et les « usages innovants » dans leur propre processus de création et développement industriel, commercial, technocratique, etc.

C’est une dynamique qui s’appuie sur la compréhension des comportements que permet en l’occurrence la « sociologie des usages » et notamment les travaux de Michel de Certeau sur ce qui constitue en quelque sorte les « arts de faire avec » . Recherche qui se voulait un travail de compréhension et en premier lieu de mise en valeur des arts de vivre la société de consommation, par élaboration de « lignes de fuites » (Deleuze et Guattari) pourrait-on dire, c’est-à-dire plus particulièrement des ruses subtiles, des tactiques de résistance, de contournements, détournement, réappropriation, braconnage, dissimulation, en somme toute la multitude de pratiques inventives et créatives qui se disséminent dans la banalité du quotidien des usagers/consommateurs et que la rationalité occidentale, selon les mots de l’auteur, aurait eu trop tendance à occulter. Et on pourrait voir dans ce travail la saisie de l’essence même de la notion anglo-saxonne de « hacking », de son esprit ou de son éthique élargie à l’ensemble de la société. Quoiqu’il en soit, on le voit bien, ce dont il s’agit avec « l’innovation ascendante » mise en œuvre dans le nouveau paradigme économique des entreprises les plus à l’avant-garde du capitalisme c’est de capter/capturer la puissance créatrice de la socialité de base, l’énergie et le vitalisme qui émergent de ce que Michel Maffesoli appelle la « centralité souterraine ». Dans le même ordre d’idée se développe aujourd’hui dans les milieux du marketing et du management, par le biais des différentes plateformes multimédias de la société en réseaux, le « crowdsourcing » (approvisionnement par la foule) qui consiste pour une entreprise là encore à faire « participer » et « collaborer » directement la foule des internautes comme usagers/consommateurs à la recherche et au développement de nouveaux produits et services, à apporter des améliorations, etc..

Enfin, toutes choses mettant en œuvre un processus communicationnel global s’appuyant sur des dispositifs de « feed-back » et des mécanismes circulaires tout à fait caractéristiques des boucles causales rétroactives qui furent à la base de la modélisation des systèmes cybernétiques qui simulent les lois de la nature et dont la finalité, rappelons-le, est le Contrôle par auto-régulation comme mode de management et de gouvernance.

Des systèmes de contrôle et de gouvernance de l’ère des machines de « troisième espèce » qui se déploient sur toute l’étendue de la vie quotidienne par le biais de la globalisation d’un méga-réseau engagé dans un processus matriciel. Une « matrice communicationnelle », un maillage systémique à vocation ubiquitaire qui tend par ailleurs à rendre obsolètes les modèles panoptiques de surveillance hyper-centralisés et transcendants de type orwellien qu’incarne la fameuse figure de « Big Brother ». Car en effet, ce à quoi on a de plus en plus nettement affaire aujourd’hui c’est à un processus de capillarisation du Contrôle en quelque sorte et qui tend par là à devenir totalement immanent.

Comme le remarquait déjà pertinemment Jean Baudrillard au début des années 70 « même à long terme, l’impossibilité des mégasystèmes policiers signifie simplement que les systèmes actuels intègrent en eux-mêmes, par le feed-back et l’autorégulation, ces métasystèmes de contrôle désormais inutiles. Ils savent introduire ce qui les nie comme variables supplémentaires. (..) Ils ne cessent donc pas d’être totalitaires : ils réalisent en quelque sorte l’idéal de ce que l’on peut appeler un totalitarisme décentralisé. » Par ailleurs, dans son texte annonçant l’avènement d’une "subjectivité post-médiatique" Félix Guattari rappelait que toutes les anciennes formations de pouvoir et leurs façon de modéliser le monde avaient été déterritorialisées. C’est ainsi, disait-il, que « la monnaie, l’identité, le contrôle social passent sous l’égide de la carte à puce. » Car en effet, ce qui se joue aujourd’hui avec tout ce maillage systémique planétaire, ce déploiement du méga-réseau matriciel à vocation ubiquitaire, c’est un processus de globalisation des « sociétés de Contrôle » , fluides, ouvertes, modulaires, multipolaires et à géométrie variable comme installation d’un nouveau régime de domination qui remplacent peu à peu les « sociétés disciplinaires » (Foucault) avec la crise généralisée des milieux d’enfermement en système clos (familles, écoles, armée, usines, prisons, hôpitaux, etc.) ainsi que l’avait bien vu à la même époque Gilles Deleuze, et où, entre autres choses, les individus deviennent peu à peu des entités « dividuelles » encodées comme multiplicité de données dans un macro-système d’information. « Ce sont les sociétés de contrôle qui sont en train de remplacer les sociétés disciplinaires. (..) On ne se trouve plus devant le couple masse-individu. Les individus sont devenus des « dividuels », et les masses, des échantillons, des données, des marchés ou des « banques ». (..) les sociétés de contrôle opèrent par machines de troisième espèce, machines informatiques et ordinateurs (..). Ce n’est pas une évolution technologique sans être plus profondément une mutation du capitalisme. »

Mutation post-industrielle du capitalisme de plus en plus flexible, flottant, immatériel, sémiotique et cognitif, où le « service de vente » devient le centre ou l’âme de « l’entreprise » qui a remplacé « l’usine » de production désormais démantelée, automatisée, externalisée et assez souvent reléguée en périphérie du tiers-monde à l’instar des grandes enseignes multinationales qui se concentrent sur les logiques de Communication et le développement médiatique, si ce n’est psycho-technique, de leur « image de marque ». « On nous apprend que les entreprises ont une âme, ce qui est bien la nouvelle la plus terrifiante du monde. Le marketing est maintenant l’instrument du contrôle social, et forme la race impudente de nos maîtres » affirmera ainsi sans détours Gilles Deleuze. De même, « il n’y a pas besoin de science-fiction pour concevoir un mécanisme de contrôle qui donne à chaque instant la position d’un élément en milieu ouvert, animal dans une réserve, homme dans une entreprise (collier électronique). Félix Guattari imaginait une ville où chacun pouvait quitter son appartement, sa rue, son quartier, grâce à sa carte électronique (dividuelle) qui faisait lever telle ou telle barrière ; mais aussi bien la carte pouvait être recrachée tel jour, ou entre telles heures ; ce qui compte n’est pas la barrière, mais l’ordinateur qui repère la position de chacun, licite ou illicite, et opère une modulation universelle. »

Vision qui prend d’autant plus d’importance aujourd’hui avec l’informatisation généralisée de la société, l’injonction à la mobilité, l’hyperconnectivité et les projets de dissémination des technologies numériques et autres puces communicantes (informatique ubiquitaire/ubimedia) dans tout l’environnement physique de nos métropoles postmodernes où peut désormais s’opérer de façon massive, par la grâce de l’ingénierie logicielle, la traçabilité, la géolocalisation, le fichage et le profilage des « dividus » dispersés dans les flux et les réseaux, dans et par lesquels se dispensent désormais leur être-au-monde fantomatique sous « le règne de la Technique planétaire »

Notes

[1] Crédit photo : Daniel Zanini H. (Creative Commons)




La vie n’est pas en lecture seule

Ciprian Ionescu - CC byUn fichier informatique est dit « en lecture seule » lorsque vous n’avez que le droit de l’exécuter et donc de le lire. Alors qu’un ficher disponible « en lecture/écriture » vous offre en plus la possibilité de le modifier.

Vous n’en ferez peut-être rien mais cette liberté supplémentaire change la donne puisque vous n’êtes plus condamné à être passif. Si un jour il vous prend l’envie d’ajouter du code à un logiciel libre ou de compléter un article de Wikipédia, vous pouvez le faire.

Par extrapolation, nous ne voulons pas d’une vie qui nous serait proposée par d’autres uniquement en lecture seule. Nous souhaitons pouvoir agir sur elle et y participer. « L’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire », nous dit ainsi Benjamin Bayart.

Techniquement parlant, tout est en place pour que cela ait bien lieu et les nouvelles pratiques de la jeune génération témoignent tous les jours de cette aspiration[1].

Et pourtant, il semblerait que certains ne souhaitent pas nous voir profiter pleinement de ce progrès. Et d’ériger alors toujours plus de barrières et de péages artificiels.

Comme nous le signale son auteur en fin d’article, ce petit texte rédigé dans le train en 2006 « a pour simple but de vous faire réflechir aux politiques des grands groupes des médias et/ou de votre gouvernement ». De nombreux bits ont beau avoir coulé sous les ponts d’Internet depuis, il garde toute son acuité. Jusqu’à y voir parfois modestement une sorte de manifeste de la jeunesse du début de ce nouveau siècle.

La vie n’est pas en lecture seule

Life is not read-only

Olivier Cleynen – 2006 – Licence Creative Commons By
(Traduction Framalang : Olivier, Pablo, Djidane et Siltaar)

Pour eux, c’est de la piraterie. Carrément du vol, voilà ce qu’est le téléchargement. Vous prenez quelque chose qui a un prix, sans le payer. Volez-vous à l’étalage ou cambriolez-vous des maisons ? Pourquoi alors télécharger gratuitement ?

Créer du contenu est très difficile : rien que pour remasteriser, créer l’emballage et faire de la publicité pour la dernière compilation, il faut aligner trois millions de dollars. Comment les artistes peuvent-ils s’en sortir ? Comment la vraie culture peut-elle encore survivre ?

En fait. Peut-être que vous n’avez pas vraiment dépossédé quelqu’un de quelque chose. Peut-être ne vous êtes-vous pas vraiment servi dans un rayon. Peut-être que vous n’auriez de toute façon pas dépensé un centime pour ce truc « protégé contre la copie ».

Et tous ces trucs ont la peau dure. De la musique que vous n’avez pas le droit de copier, des films que vous n’avez pas le droit d’enregistrer, des fichiers protégés par des restrictions et des bibliothèques musicales qui disparaissent lorsque vous changez de baladeur… Certaines entreprises produisent même des téléphones et des ordinateurs sur lesquels elles restent maîtresses des programmes que vous pouvez installer.
Les choses empirent lorsque la loi est modifiée pour soutenir ces pratiques : dans de nombreux pays il est devenu illégal de contourner ces restrictions.

Qu’attendez-vous de la vie ? Quelles sont les choses qui comptent vraiment ? Lorsque vous faites le bilan de votre année, qu’en retenez-vous ? Les bons moments passés entre amis ou en famille ? La découverte d’un album génial ? Exprimer votre amour, ou votre révolte ? Apprendre de nouvelles choses ? Avoir une super idée ? Un e-mail de la part de quelqu’un qui compte pour vous ?

Et des choses passent au second plan : un grand nombre de pixels, le tout dernier iPod… déjà dépassé, un abonnement « premium », une augmentation vite dépensée, profiter de sa toute nouvelle télévision HD… Tout le monde apprécie ces trucs, mais si on y réfléchit un peu, c’est pas si important.

Vous ne deviendrez certainement pas un astronaute exceptionnel. Vous ne traverserez pas l’Atlantique à la nage. Vous ne serez pas leader international. La vie c’est maintenant. Et c’est quand on partage ses idées, ses pensées et sentiments.

La vie n’est pas en lecture seule. Elle est faite de petites choses qui ne peuvent être vendues avec des verrous. Si l’on ne peut plus choisir, essayer, goûter, assister, penser, découvrir, faire découvrir, exprimer, partager, débattre, ça ne vaut pas grand chose. La vie devrait être accessible en lecture et en écriture.

Peut-être que le droit d’auteur n’est pas aussi légitime que certains voudraient nous faire croire. En fait, le discours de Martin Luther King « I have a Dream © » est toujours protégé par le droit d’auteur. Vous ne pouvez pas chanter la chanson « Joyeux anniversaire © » dans un film sans payer de droits. L’expression « Liberté d’expression™ » est une marque déposée.

Le partage de fichiers est criminalisé. Certains sont jugés et emprisonnés pour avoir développé des technologies qui permettent d’échanger des fichiers (la loi réprime le fait « d’éditer, de mettre à la disposition du public ou de communiquer au public, sciemment et sous quelque forme que ce soit, un logiciel manifestement destiné à la mise à disposition du public des copies non-autorisées d’œuvres ou objets protégés »).
Mais qu’en est-il de ceux qui ont inventé et vendu les magnétoscopes, les photocopieurs, les lecteurs de cassette munis d’un bouton d’enregistrement ? Et d’ailleurs, où sont les personnes qui ont inventé les baladeurs numériques ?

Vous avez dit deux poids, deux mesures ? Des milliers de personnes gagnent leur vie en poussant nos enfants à fumer ou en développant l’export de mines anti-personnelles. Et à coté de ça, le partage de fichier, ces mêmes fichiers que l’on peut voir sur YouTube, est puni par une amende compensatoire pouvant atteindre 150 000 dollars par fichier.

Et on dit que l’industrie de la musique est en danger.
Qui veut d’une industrie musicale ? Et plus particulièrement telle qu’elle existe ? Laissons l’industrie, aux boîtes de conserve et aux voitures.

La culture ne se meurt pas dès que vous téléchargez un fichier. La créativité n’est pas diminuée lorsque vous découvrez quelque chose. C’est toute la société qui en profite lorsqu’on peut apprendre et s’exprimer.

Participez. Appréciez. Découvrez. Exprimez. Partagez.

Donc. Une société équilibrée où les artistes peuvent gagner leur vie et où le partage de fichiers n’est pas criminalisé est possible. Voici quelques suggestions :

Musique

  • Allez voir les artistes en concerts (sauf s’ils vendent leurs places 200€)
  • Que pensent et font vos artistes favoris ? Renseignez-vous, vous découvrirez peut-être quelque chose
  • Achetez intelligemment votre musique
  • Si l’artiste est mort maintenant, gardez votre argent pour le dépenser autrement
  • Ne vous contentez pas d’écouter, chantez !
  • Ne racheter pas la musique que vous possédez déjà en CD ou vinyl.

Participez

Films

  • Fréquentez les petites salles (qui se soucient surement plus de l’artiste que de l’industrie)
  • Fuyez les MTP (DRM) et les lecteurs « labellisés »
  • Partagez les bons films avec vos amis, ceux qui sont pour vous immanquables.

Logiciel

Tous les jours

LifesNotReadOnly.net a pour simple but de vous faire réflechir aux politiques des grands groupes des médias et/ou de votre gouvernement. Ça n’est qu’un petit manifeste rédigé dans le train en 2006. Olivier Cleynen en est l’auteur. Vous êtes libre de répliquer le contenu de ce site Web, même pour des applications commerciales, sous les termes de la license CC-by.

Notes

[1] Crédit photo : Ciprian Ionescu (Creative Commons By)




La démocratie 2.0 à l’œuvre en France pour défendre la neutralité du réseau

Codice Internet - cc-by-saSujet récurrent depuis maintenant de nombreuses années, la Neutralité du Net, principe pourtant fondateur de l’Internet, est de plus en plus menacée. En France, plusieurs lois récentes l’attaquent, comme la Hadopi, la Loppsi ou l’Arjel. Mais c’est le cas partout en Europe, comme au Royaume Uni, en Allemagne ou en Italie. Et finalement, le reste du monde n’est pas non plus dans une ère favorable aux libertés comme on le constate en Australie ou en Nouvelle-Zélande, ainsi que dans beaucoup d’autres démocraties et de non-démocraties. La Neutralité du Net n’existe tout simplement plus en Chine ou en Iran ainsi que dans d’autres pays qui tentent ouvertement de contrôler l’opinion publique.

Les enjeux de cette Neutralité sont considérables, tant sur un plan économique, que politique et culturel. C’est l’existence même du réseau qui est en cause, car la Neutralité du Net c’est la prévention des discriminations à l’égard de la source, de la destination et du contenu de l’information transmise via le réseau.

Préserver cette situation de non-privilèges dans les télé-communications pourrait être naturel pour tous, mais ça ne l’est apparemment pas pour les fournisseurs d’accès à Internet, quand bien même la loi française définit la neutralité des réseaux de communication de manière claire et sans équivoque :

Article L32-1 du Code des Postes et communications électroniques :
II.-Dans le cadre de leurs attributions respectives, le ministre chargé des communications électroniques et l’Autorité de régulation des communications électroniques et des postes (note: ARCEP) […] veillent :
« 5° Au respect par les opérateurs de communications électroniquesdu secret des correspondances et du principe de neutralité au regard du contenu des messages transmis, ainsi que de la protection des données à caractère personnel; »
« 13° Au respect de la plus grande neutralité possible, d’un point de vue technologique, des mesures qu’ils prennent […] »

C’est cette liberté de transmission qui met tous les utilisateurs d’Internet sur un pied d’égalité, qui donne la même chance à tout le monde (qu’on soit une multinationale ou un artisan local) et qui permet à tous de recevoir et de distribuer l’information de son choix, et ce, quelques soient ses ressources financières ou son statut. C’est grâce à cette « neutralité » que de petites entreprises peuvent se faire connaître sur la toile et que les petits projets libres peuvent se développer. C’est comme ça que sont apparus Microsoft (un lecteur nous indique en commentaire que l’ancienneté de Microsoft, créé 1975, dessert l’argument, lisons donc « eBay » à la place), Google, ou Facebook… Et maintenant, des projets prometteurs voient le jour tels que Seeks, Diaspora ou Movim et peuvent se développer sans se faire phagocyter voire interdire par leurs « aînés » devenus d’influentes puissances commerciales.

Pourtant, aujourd’hui de nombreux opérateurs de télécommunications (Orange, Comcast, SFR, Free…) mais aussi des gouvernements souhaitent remettre en cause cette neutralité dans le but de monopoliser, ou de censurer les différents flux d’information, les protocoles, les sites, les blogs, nos paroles.

On peut parler entre autres de l’affaire Free / Dailymotion, de la polémique que le filtrage du Port 25 (SMTP) par Orange a suscité, de la loi LOPPSI ou de la loi sur les jeux en lignes (ARJEL) et de son obligation de filtrage alors qu’il a été démontré, plusieurs fois, que ce filtrage est impossible et peut avoir des effets collatéraux dangereux et simplement sans précédents. Autant de « petits » détails qui nous rappellent que la liberté d’expression, rendue possible par le numérique [1], est menacée et que la liste des dérives s’allonge.

Les gouvernements eux, cherchent à mettre en place des techniques de filtrage du réseau, bridant notre liberté d’expression (Hadopi en France), ou dans le but d’avoir la mainmise sur les organes de presses (Berlusconi en Italie), pour empêcher les manifestants de se concerter (Iran), ou filtrer des sites prétenduement « pédophiles » (Australie)…

C’est dans ce contexte qu’une loi sur la Neutralité du Net vient d’être proposées en France pour la fin de l’année. Et elle est bienvenue car la lecture du rapport « La neutralité de l’Internet. Un atout pour le développement de l’économie numérique » de la secrétaire d’État chargée de la Prospective et du Développement de l’économie numérique Nathalie Kosciusko-Morizet (UMP), fait froid dans le dos, comme le disait récemment Benjamin Bayart sur Écrans.fr : « Dans ce rapport, ce qui saute aux yeux, c’est l’incompétence ». Et en effet, de l’incompétence on en trouve dans ce rapport mais pas seulement, on trouve également des traces de lobbyisme de vendeurs de contenus ayant racheté un FAI, ou de FAI ayant acheté du contenu à vendre

C’est un autre personnage politique donc, le député Christian Paul (PS), qui a mis en ligne sur son blog une ébauche de proposition de loi consacrant la Neutralité du Net.

Pour compléter cette ébauche, il invite les citoyens à commenter et améliorer le texte en-ligne grâce à un outil libre : co-ment. Et il a également rédigé une tribune ré-affirmant l’importance de la Neutralité du Net en guise d’introduction à son projet de loi. C’est cette tribune, publiée conjointement sur Numérama et sur son blog (sous licence libre) que nous vous invitons à lire ci-dessous.

Il est primordial de réaliser l’importance de la Neutralité du Net et d’établir des règles pour la pérenniser. Cette loi ne doit pas être faite dans l’intérêt privé de certains groupes industriels, mais pour et par les citoyens. La France pourrait, sur ce sujet, retrouver ses Lumières et montrer la voie à suivre…

Merci à Skhaen pour la rédaction originale de cette introduction.

Proposition de loi visant à affirmer le principe de neutralité de l’internet, et son contenu

Christian Paul – 16 août 2010 – Numerama

I had a dream… J’ai fait un rêve, ou plutôt un cauchemar. Je me réveillais en 2030, buvais une tasse de café noir, puis allumais mon ordinateur, et me voyais soudain interdire l’accès à l’Internet. Mes dernières déclarations sur les pratiques abusives des géants de l’Internet n’y étaient certainement pas pour rien. Ou, du moins, quelques propos sur le « filtrage de bordure », directement intégré à ma « box » sous prétexte de lutte contre les contenus illicites, avec un « moteur de contrôle » jugeant automatiquement de la légalité de mes faits et gestes. Le service où je publiais jusqu’ici régulièrement des tribunes (lointain successeur de Médiapart, de Rue 89 ou de Numérama !), où j’avais accès à une information que l’on ne trouvait plus forcément dans les médias traditionnels, venait de fermer, après une longue descente aux enfers au gré de la généralisation des accords de priorisation de certains services et contenus. Un de mes principaux canaux d’expression avait disparu.

Ces derniers temps, ma « box » Internet me conseillait fermement (m’imposait même parfois) plusieurs heures par jour le visionnage de programmes choisis par mon opérateur. J’étais certes informé de cette limitation, mais que faire alors que tous les opérateurs se comportaient à l’identique et que le contournement de ce dispositif de contrôle était passible de prison ? J’avais eu par ailleurs à changer ces dernières années plusieurs fois d’équipement, au gré des accords exclusifs entre mon FAI avec le constructeur ou l’éditeur le plus offrant. Mes plaintes contre cette censure et cette vente forcée avaient été classées sans suite par le procureur compétent du tribunal de Nevers.

Je me souvenais alors qu’il y a plus de 20 ans, l’irruption de l’Internet portait la promesse d’une croissance durable de la diversité, de nouvelles médiations, d’un plus grand accès à l’information et à la culture et d’une amélioration du droit réel à l’initiative économique pour le plus grand nombre.

Mais depuis son ouverture au grand public au milieu des années 90, les coups de canifs à la liberté et l’égalité des utilisateurs du « réseau des réseaux » s’étaient multipliés. Les réseaux « de pair à pair » avaient été combattus en tant que tel, alors qu’ils ne sont pourtant que de simples outils dont seuls certains usages sont répréhensibles. Le choix de l’appareil de raccordement au réseau, la « box », avait progressivement été imposé aux particuliers par tous les opérateurs. Les services « exclusifs » s’étaient généralisés, après une période transitoire où ils étaient seulement plus prioritaires que les autres.

Retour à 2010, au cœur de l’été. Pourquoi faut-il s’inquiéter ? Le cadre juridique garantissant nos libertés a considérablement évolué [2], et les dernières années ont donné le signal de la régression. Mais aujourd’hui, le socle même de ces libertés est en jeu, du fait de l’évolution du cadre technique que préfigurent les débats actuels. Comme le dit Lawrence Lessig, « Code is Law », « le logiciel et le matériel font du cyberespace ce qu’il est » [3]. Pour autant, la menace n’est pas que technique. Jiwa, sur lequel j’aimais écouter de la musique, n’est pas aujourd’hui en liquidation du fait d’une censure généralisée du net ou de mutations du réseau, mais à cause du maintien d’un modèle inadapté de négociation de gré à gré des droits. Il produit des effets également très négatifs, et la responsabilité du gouvernement qui tarde à agir, écrasante.

Le débat sur la « neutralité du net », qui a cours en France ou aux Etats-Unis depuis des mois, doit être l’occasion de réaffirmer les principes d’ouverture et de liberté auxquels nous sommes attachés. À la laïcité garantissant la liberté de conscience et le libre exercice des cultes doit correspondre dans l’espace numérique une « laïcité informationnelle » garantissant nos libertés de choix, d’initiative et d’expression.

Qu’on ne s’y trompe pas ! Notre amour de la liberté nous conduit non pas au laisser-faire, mais au choix d’une « bonne » régulation. La transparence et l’information sur les pratiques des opérateurs ne suffisent à l’évidence pas. Les pouvoirs publics doivent prendre leurs responsabilités et garantir de nouveaux droits à tous les internautes. Nous n’accepterions pas que tel ou tel opérateur de réseau autoroutier n’accueille plus que les automobiles d’une certaine marque. De même, nous n’accepterions pas que les fournisseurs d’énergie électrique nous imposent le choix d’un panneau de raccordement ou de la marque de notre machine à laver. Il doit en être de même dans le monde numérique. Un accès à l’Internet n’est, au niveau le plus simple, qu’un ensemble de signaux électriques convoyés par notre fournisseur d’accès. Le choix de notre appareil de raccordement doit être libre, pour peu que les normes en vigueur ou à inventer rapidement soient respectées. Sous réserve du paiement permettant de disposer d’une puissance suffisante, chacun est également libre de faire fonctionner simultanément autant d’appareils électriques qu’il le souhaite. Il doit en être de même pour le numérique. Les règles de circulation des signaux numériques en notre domicile doivent relever de notre seul choix.

Choisissons un combat juste. Il ne s’agit pas ici de défendre le tout gratuit. Il est logique que celui qui consomme plus de ressources, par exemple en visualisant continuellement des vidéos en haute définition, ait à payer plus cher que celui qui envoie et reçoit quelques courriers électroniques par jour. Il s’agit par contre de s’assurer que l’utilisation du réseau restera libre et non faussée, tant en émission qu’en réception.

C’est pourquoi je transmets ces jours-ci à Jean-Marc Ayrault, président du groupe PS à l’Assemblée nationale le texte d’une proposition de loi affirmant le principe de neutralité de l’internet, et son contenu. Son article 1er est sans ambiguïté : « Le principe de neutralité doit être respecté par toute action ou décision ayant un impact sur l’organisation, la mise à disposition, l’usage commercial ou privé des réseaux numériques. Ce principe s’entend comme l’interdiction de discriminations liées aux contenus, aux tarifications, aux émetteurs ou aux destinataires des échanges numériques de données. »

Vous en lirez le texte complet sur mon blog. Aidez-moi à enrichir cette proposition, le principe et son contenu. C’est un nouveau combat pour la liberté du net, pour sa « bonne » régulation, pour résister à son asservissement commercial.

Vite, prenons date ! Mieux vaut prévenir, que tenter de réparer tardivement. La neutralité du net apparait, d’ores et déjà, comme un principe offensif, efficace et indispensable.

Christian PAUL, député de la Nièvre

Notes

[1] « l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire » – Benjamin Bayart dans La bataille HADOPI 2009

[2] Avec les lois LCEN, DADVSI, la loi sur les jeux en ligne, HADOPI 1 et 2, en attendant la LOPPSI2…

[3] À lire en français sur le Framablog




Tout ce que vous devez savoir sur Internet en 9 points

Pascal - CC byDescendez dans la rue et demandez (gentiment) aux gens de vous parler du logiciel libre et vous constaterez encore trop souvent ignorance et méconnaissance du sujet.

Mais c’est paradoxalement également le cas d’Internet alors que, contrairement au cas précédent, tout le monde en a entendu parler et (presque) tout le monde en fait usage au quotidien[1].

Comment voulez-vous que les gens adhèrent aux mouvements de défense de la neutralité du Net si ils ne comprennent même pas ce qu’est le Net ?

Une nouvelle traduction qui souhaite participer à améliorer la situation…

PS : J’ai particulièrement apprécié cette phrase : « La copie est pour les ordinateurs ce que la respiration est pour les organismes vivants ».

Tout ce que vous devez savoir sur Internet

Everything you need to know about the internet

John Naughton – 20 juin 2010 – The Guardian – The Observer
(Traduction Framalang : Olivier Rosseler)

En dépit de toutes les réponses qu’Internet nous apporte, son plein potentiel à transformer nos vies reste encore à découvrir. Voici neuf points clés pour comprendre l’outil le plus puissant de notre époque, et où il nous emmène.

Notre marche vers le futur a connu un drôle d’évènement. D’outil exotique, l’Internet est devenu une commodité, comme l’électricité ou l’eau courante, et ce, sans vraiment qu’on s’en aperçoive. Nous sommes donc devenus complètement dépendants d’un système pour lequel nous montrons étrangement très peu de curiosité.

J’exagère en parlant de dépendance ? Demandez son avis à l’Estonie, l’un des pays les plus dépendants d’Internet au monde, qui a été presque entièrement paralysé durant deux semaines en 2007 par des attaques dirigées contre son infrastructure réseau. Ou bien imaginez qu’un jour vous ne puissiez plus réserver de vols, effectuer d’opération sur votre compte bancaire, vérifier les horaires de bus, faire de recherches, appeler votre famille avec Skype, acheter de la musique chez Apple ou des livres chez Amazon, vendre des trucs sur eBay, regarder des vidéos sur Youtube ou écouter les programmes de la BBC sur iPlayer, ou toutes les 1001 autres choses qui vous sont devenues aussi naturelles que respirer.

Internet s’est doucement mais sûrement infiltré dans nos vies, sans véritable évaluation du phénomène de notre part. Ce n’est pas par manque d’informations sur ce réseau, au contraire, on pourrait se noyer dedans. C’est plutôt par manque de compréhension du phénomène. Nous sommes, comme le décrit un grand penseur du cyberespace, Manuel Castells, hypnotisés par l’information.

Les médias traditionnels ne nous aident pas beaucoup ici car leur couverture d’Internet est largement, si ce n’est entièrement, négative. S’ils veulent bien reconnaître que c’est un outil essentiel à l’éducation de nos enfants, ils n’ont également de cesse de souligner que c’est un espace envahi par des prédateurs virtuels à la recherche de gamins à séduire et tromper. On dit ainsi que « Google nous rend stupide », qu’il détourne notre attention, et qu’il est aussi à l’origine d’une épidémie de plagiat. Et puis l’échange de fichiers détruit la musique, les nouvelles en ligne tuent la presse traditionnelle et Amazon assassine les librairies. Le réseau se moque des injonctions légales et le Web est tissé de mensonges, de déformations et de demi-vérités. Quant aux réseaux sociaux, ils attisent le feu de ces « flash mobs » vindicatifs qui tendent des pièges à d’innocents journalistes comme Jan Moir, etc.

Que devrait en penser un observateur indépendant ? Si Internet est une chose si horrible, pourquoi est-ce que 27% de la population mondiale (environ 1,8 milliards de personnes) l’utilisent joyeusement chaque jour et que des milliards d’autres n’espèrent qu’une chose, pouvoir les rejoindre ?

Quelle vision plus équilibrée du Net pouvons nous offrir ? Que vous manque-t-il pour mieux comprendre le phénomène Internet ? Après mûre réflexion, j’en suis arrivé à la conclusion qu’il suffit de quelques grandes idées qui, mises bout à bout, dissipent l’hypnotisme dont Castells parle avec tant d’éloquence.

Combien d’idées exactement ? En 1956, le psychologue George Miller a publié un article célèbre dans le journal Psychological Review. Son titre était « Sept, plus ou moins deux, le nombre magique : limites de notre capacité à assimiler les informations » et Miller y résume ses expériences précédentes qui visaient à mesurer les limites de la mémoire à court terme. À chaque fois il rapporte que la « capacité à intégrer » est comprise entre cinq et neuf items. Miller n’a pourtant pas tiré de conclusion de ses expériences, il s’est contenté simplement de conjecturer que « le chiffre sept qui revient régulièrement a peut-être une signification, ou alors ce n’est que pure coïncidence ». Et cela s’arrêtait là pour lui.

Mais Miller a sous-estimé l’attrait de la culture populaire pour tout ce qui contient « magique » dans le titre. Et cet article propulsa Miller au rang d’une espèce de sage, celui qui aurait découvert une vraie vérité de la nature humaine. Il écrira plus tard : « Mon problème est que j’ai été persécuté par une nombre entier. Pendant sept ans ce nombre m’a poursuivi, jusque dans mes données les plus personnelles, et m’a traqué jusque dans les pages de nos journaux les plus publics… Soit ce nombre a vraiment quelque chose de particulier, soit je suis atteint de délire paranoïaque. » L’idée qui émerge de l’article de Miller a pourtant traversé les années. Il semblerait que notre mémoire à court terme ne puisse emmagasiner que cinq à neuf « morceaux » d’information à tout moment (ici morceau signifie « unité significative »). Lorsqu’il s’agit de déterminer combien d’idées auront un véritable impact sur les lecteurs, il semble logique de s’arrêter au nombre magique de neuf. Les voici donc.

1. Prenez la longue vue

Ce qu’il y a de particulier lorsqu’on vit une révolution, c’est qu’il est difficile de prendre du recul. Vous imaginez vous, habitant Saint-Petersbourg en 1917, dans les mois précédant la prise du pouvoir par Lénine et les bolcheviques ? Vous sentez que quelque chose de grand se trame, que des rumeurs et des théories se contredisent, mais personne ne sait ce qu’il va en résulter. C’est seulement avec un peu de recul qu’il est possible de se faire une idée de ce qui se passe. Mais la clarté que nous offre le recul est trompeuse, elle sous-estime la complexité des évènements tels qu’ils apparaissent à ceux qui les vivent.

Internet est donc parmi nous désormais. Nous vivons une transformation radicale de notre écosystème de communication. Ne disposant pas du luxe du recul, nous ignorons encore où cela va nous mener. Et s’il y a un enseignement que l’on peut tirer de l’histoire des communications, c’est bien que l’impact à court terme des nouvelles technologies est plutôt surestimé alors que leur impact à long terme est sous-estimé.

Nous en sommes les témoins permanents, comme des petits scientifiques, commentateurs, écrivains, consultants et visionnaires en herbe qui offrent leur petite interprétation personnelle de l’impact d’Internet sur le business, la publication, le commerce, l’éducation, la politique et le futur de la civilisation telle que nous la connaissons. Ces idées sont souvent résumées en slogans chocs, redites ou autres aphorismes : l’information « veut être libre », la « longue traîne » est le futur du commerce en ligne, « Facebook vient de prendre le contrôle d’Internet », etc. Ces slogans ne sont que des extrapolations à court terme des expériences d’hier et d’aujourd’hui. Ils ne révèlent rien de la révolution que nous vivons.

Alors peut-on faire mieux, sans tomber dans le piège de la prétention à l’omniscience ?

On commence avec une idée neuve : pourquoi ne pas regarder si l’histoire peut nous apprendre quelque chose ? L’humanité a déjà connu une transformation de son écosystème de communication avec l’invention de l’imprimerie. Cette technologie a changé le monde, elle a effectivement façonné l’environnement culturel dans lequel nous avons grandi. Et l’avantage, du point de vue de cet article, est que nous bénéficions du recul, nous savons ce qui s’est passé.

Une expérience de pensée

Ok, on va donc faire ce que les Allemands appellent une Gedankenexperiment, une expérience de pensée. Imaginons que les changements que va apporter Internet dans notre écosystème de communication soient comparables à la rupture introduite par l’imprimerie. Quel enseignement pourrions-nous tirer d’une telle expérience ? Les premières Bibles imprimées sont sorties en 1455 des presses inventées par Johannes Gutenberg dans la ville allemande de Mayence. Alors, vous êtes en 1472, soit 17 ans après 1455. Concentrez vous un peu plus et imaginez que vous êtes l’équivalent médiéval d’un enquéteur pour un institut de sondage. Vous êtes là, sur le pont de Mayence avec vos feuillets de réponse et vous posez aux passants quelques questions. Voici quatre questions : sur une échelle de un à cinq, où 1 correspond à pas du tout d’accord et 5 signifie complètement d’accord, pensez-vous que l’invention de Herr Gutenberg va :

  1. Saper l’autorité de l’église catholique ?
  2. Encourager la Réforme ?
  3. Permettre l’avènement de la science moderne ?
  4. Faire émerger des classes sociales et des professions encore inconnues ?
  5. Modifier notre conception de l’enfance, au profit d’une vision protectrice des premières années d’une personne ?

Sur une échelle de un à cinq ! Le simple fait de poser la question révèle toute la stupidité qu’elle renferme. L’imprimerie a entraîné tous ces changements, mais personne en 1472 à Mayence (ou n’importe où dans le monde) n’aurait pu se douter de l’impact qu’elle allait avoir.

Cet article est daté de 2010, soit 17 ans après que le Web ait émergé. Si je ne me trompe pas en comparant Internet et l’imprimerie pour leurs effets sur notre écosystème de communication, il serait complètement absurde de ma part (ou de la part de n’importe qui d’autre) de prétendre en connaître les ramifications à long terme. L’honnêteté impose donc d’avouer notre ignorance.

Cependant, tous ceux que le Net touche exigent une réponse immédiate. Les journalistes de la presse écrite et leurs employeurs s’inquiètent du devenir de leur industrie. Il en va de même pour les vendeurs de musique, les maisons d’édition, les chaînes de TV, les stations de radio, les gouvernements, les agences de voyages, les universités, les entreprises de téléphonie, les compagnies aériennes, les bibliothèques, et bien d’autres encore. Malheureusement pour eux, ils vont devoir apprendre à être patients. Et pour certains, la réponse viendra trop tard.

2 Le Web n’est pas Internet

On pense souvent, à tort, que le Web et Internet désignent la même chose. Ça n’est pas le cas.

Pour mieux comprendre la différence, on peut faire une analogie avec le réseau ferré. Internet, c’est les rails et la signalisation, c’est l’infrastructure sur laquelle repose tous les services. Sur le réseau ferré, l’infrastructure accueille différents types de services : les trains à grande vitesse, les trains locaux qui marquent tous les arrêts, les trains de banlieue, les trains de marchandise et (parfois) ceux dédiés à l’entretien.

Sur Internet, les pages Web ne constituent qu’une part du trafic qui circule sur ces voies virtuelles. Les autres types de trafic sont par exemple la musique échangée par les réseaux pair-à-pair, ou de l’iTunes Store, les films voyageant par BitTorrent, les mises à jour logicielles, les e-mails, la messagerie instantanée, les conversations téléphoniques par Skype ou d’autres services de VoIP (la téléphonie Internet), les services de streaming vidéo et audio et encore d’autres trucs trop obscurs pour être mentionnés. Or (et c’est là que ça devient intéressant) l’Internet dans 10 ans abritera sans doute de nouveaux types de trafics, des innovations que l’on n’imaginerait même pas dans nos rêves les plus fous.

Retenez que le Web est gigantesque et très important, mais ce n’est qu’un des nombreux services qui tournent sur Internet. Le Net est plus grand encore et surtout bien plus important que les services qu’il véhicule. Saisissez cette distinction simple et vous aurez accompli un grand pas vers la sagesse.

3 La rupture est un atout, pas un défaut

Le Net a une capacité sans précédent à bouleverser l’ordre établi, ce qui peut choquer les gens. Un jour votre entreprise est florissante, à la tête de votre label de musique par exemple, et le lendemain vous vous battez pour votre survie et vous payez des sommes fantastiques à des avocats spécialisés en propriété intellectuelle dans un combat perdu d’avance pour tenter de stopper l’hémorragie. Ou alors vous dirigez un groupe de presse et vous vous demandez où se sont évaporés les revenus publicitaires réguliers que vous engrangiez. Ou encore, vous êtes ce bibliothécaire universitaire qui se demande pourquoi de nos jours les étudiants consultent uniquement Google.

Comment tout cela a-t-il pu arriver ? Et surtout, pourquoi aussi vite ?

La réponse se cache dans les entrailles de l’architecture du réseau. À sa conception, dans les années 1970, Vint Cerf et Robert Kahn, ingénieurs en chef, ont été confronté à deux difficultés principales : comment créer un système liant pléthore d’autres réseaux en toute transparence, et comment créer un système taillé pour le futur ? Leur solution est désarmante de simplicité. Elle est construite autour de deux axiomes. Premièrement, le réseau n’appartiendra à personne, aucune institution ne devrait décider de qui pourrait rejoindre le réseau ou de l’usage qui en est fait. Deuxièmement, le réseau ne devrait pas être optimisé pour un usage particulier. C’est d’un réseau simple, qui ne fait qu’une chose : accompagner les paquets de données de leur point d’entrée jusqu’à leur destination. Le réseau se devait d’être neutre quant au contenu de ces paquets, que ce soient des bouts d’e-mail, une vidéo porno, une conversation téléphonique, une image… Le réseau ne fait pas la différence et les traite de la même manière.

En mettant en application ces deux concepts, Vint Cerf et Robert Kahn créèrent un terrain de jeu mondial ouvert aux surprises. Avec ce singulier cahier des charges, si vous avez une idée qui peut se concrétiser grâce à des paquets de données, alors Internet est tout de suite à disposition pour la mettre en œuvre. Et aucune demande d’autorisation n’est requise. L’explosion de la créativité que le monde a connu depuis l’émergence du réseau dans les années 1980 a certainement pris beaucoup d’institutions et d’entreprises par surprise, mais elle était prévisible si l’on s’en réfère à son architecture. Le monde est plein de programmeurs futés et le Net était le terrain de jeu parfait pour tester leurs inventions. Quelles inventions ? Le Web lui-même par exemple. On le doit essentiellement à un seul individu, Tim Berners-Lee, qui, en 1991, a mis son code sur un serveur Internet sans demander la permission à qui que ce soit.

Dix ans après les travaux de Berners-Lee, un ado rebelle, féru de musique, du nom de Shawn Fanning passa six mois à écrire un logiciel de partage de fichiers de musique et, en 1999, il mit sa petite surprise en ligne. Répondant au nom de Napster, il conquit 60 millions d’utilisateurs enchantés avant que les maisons de disque ne le fassent fermer. Mais le virus de l’échange de fichiers s’était déjà propagé.

Et pendant ce temps, plein d’autres programmeurs tout aussi ingénieux nous concoctaient des surprises plus sombres : le spam, les virus, les vers et autres exploitations de failles de sécurité qu’ils ont pu faire déferler sur un réseau qui ne se soucie pas du contenu de vos paquets de données. Les dangers potentiels de cette explosion de « pourriciels » sont alarmants. Par exemple, des groupes mystérieux ont assemblé ce qu’on appelle des « botnets » (constitué de millions d’ordinateurs connectés au réseau et secrètement corrompus) pouvant être utilisés pour lancer des attaques massives et coordonnées qui pourraient tout à fait mettre à genoux l’infrastructure réseau de n’importe quelle entreprise, voire de pays entiers. À l’exception de l’Estonie en 2007, nous n’avons heureusement pas assisté à ce genre d’attaque jusque là, mais on peut craindre que cela finisse par se produire. Ce sera alors le 11 septembre du Net.

Les bouleversements qu’apporte le Net sont inscrits dans son ADN technique. En jargon de programmeur, c’est un avantage, et non un bogue, c’est à dire une fonctionnalité intentionnelle, pas une erreur. Il est difficilement envisageable du supprimer les fonctions du réseau qui permettent ces surprises désagréables sans affecter les autres formes de créativité qu’il génère.

4 Pensez écologie, pas économie

L’économie, comme outil d’analyse, peut perdre ses repères lorsqu’elle est appliquée au Net. En effet l’économie s’intéresse à la distribution de ressources limitées, alors que le monde virtuel, au contraire, se distingue plutôt par l’abondance. Similairement, l’écologie (l’étude des systèmes naturels) se spécialise dans l’abondance et emprunter le regard d’un écologiste pour décrire Internet n’est pas dénué de sens.

Depuis l’avènement du Web en 1993, l’écosystème médiatique est devenu incommensurablement plus complexe. L’ancien écosystème des médias de masse industrialisé s’essoufle, détenu par quelques éditeurs et diffuseurs puissants mais peu réactifs, à destination d’un public de masse constitué essentiellement de consommateurs passifs, cible de contenus formatés. Il se caractérise également par la faiblesse du nombre de moyens de communication et par une évolution lente. Le nouvel écosystème se développe rapidement, les éditeurs se comptent par millions et le public en milliards de lecteurs, d’auditeurs, de spectateurs actifs, expert en Web et très informés. Les moyens de communications sont indénombrables et tout cela évolue à une vitesse phénoménale.

Pour un écologiste, ce sont les signes distinctifs d’un écosystème dont la biodiversité a explosé. C’est un monde où les grandes créatures comme les dinosaures (pensez à Time Warner, Encyclopædia Britannica) continuent à avancer lentement, paisiblement, en s’échangeant de l’information par grosses bribes, mais où parallèlement la vie évolue en un écosystème où des miliards de plus petites espèces consomment, transforment, agrègent ou désagrègent et échangent l’information par petites bribes et duquel de nouvelles formes de vie géantes (Google, Facebook…) émergent. Dans la nature, une telle biodiversité accrue, où énergie et matière se consomment et se consument plus rapidement, est synonyme de croissance de l’ensemble du système.

Est-il possible que la sphère de l’information subisse une telle évolution ? Et si c’est le cas, qui en profitera à long terme ?

5 La complexité est la nouvelle réalité

Même si vous n’êtes pas d’accord avec la métaphore écologique, notre environnement informationnel devient plus complexe, cela ne fait aucun doute.

Nombre de participants, densité d’interactions, vitesse d’évolution… cette complexité est sans commune mesure avec tout ce qu’on a pu voir auparavant. Et elle n’est pas une aberration, il ne faut pas souhaiter qu’elle retourne d’où elle vient : c’est la nouvelle réalité, une réalité avec laquelle nous devons composer. Cela ne sera pas facile, pour plusieurs raisons.

D’abord, le comportement des systèmes complexes est souvent difficile à comprendre, et encore plus à prédire. Ensuite, et c’est là le point important, nos systèmes de création de valeur et de gouvernances ne sont pas équipés pour affronter la complexité. L’approche habituelle des entreprises est de réduire la complexité : racheter un concurrent, rendre captif le consommateur, créer des produits et des services standardisés, etc. Dans le nouvel environnement ces stratégies risquent fort d’échouer. Il faudra être intelligent, habile, flexible, réactif et accepter les échecs afin de proposer de meilleures statégies pour s’adapter à tout ce que cet environnement connecté cache comme surprises.

6 Le réseau est l’ordinateur désormais

Pour la génération du baby-boom, les ordinateurs étaient des PC isolés, tournant avec des logiciels Windows. Et puis, ces appareils se sont connectés, d’abord localement (dans les réseaux d’entreprises) et enfin mondialement (grâce à Internet). Mais à mesure que les accès à haut débit se sont démocratisés, on a assisté à quelque chose d’étrange : avec une connexion rapide au réseau, aussi bien l’endroit où sont stockées vos données que celui où le processeur opère est devenu secondaire. Et votre travail s’en est retrouvé simplifié. On a vu d’abord les entreprises dont le cœur de métier est la recherche (Yahoo, Google, Microsoft dans une certaine mesure) se mettre au webmail, ce service d’e-mail fourni par des programmes qui ne tournent pas sur votre PC mais sur des serveurs, quelque part dans le nuage Internet. Puis Google a lancé ses produits bureautiques dématérialisés, le traitement de texte, le tableur, les présentations, etc.

Une transition s’effectue entre un monde où le PC était l’ordinateur et un monde où le réseau devient l’ordinateur. Et nous sommes désormais à l’ère de l’informatique dans les nuages, une technologie où, par l’intermédiaire d’appareils simples (téléphones portables, netbooks, tablettes), on peut accéder à des services délivrés par de puissants serveurs quelque part sur le Net. Cette évolution a des implications importantes pour notre vie privée et notre sécurité alors que dans le même temps le développement économique et la perception publique évoluent lentement par rapport à la vitesse à laquelle se produisent les changements. Que deviennent vos photos de famille si elles sont stockées dans les nuages et que vous emportez votre mot de passe dans la tombe ? Et qu’en est-il de vos documents et de vos e-mails, eux aussi stockés dans les nuages sur un serveur tiers ? Ou encore votre reputation sur eBay ? Dans tous les domaines, le passage à l’informatique dans les nuages a des implications importantes car il nous rend plus dépendant encore du Net. Et pourtant nous avançons comme des somnambules dans ce meilleur des mondes.

7 Le Web évolue

Il fut un temps où le Web n’était qu’un outil de publication, où les éditeurs (professionnels ou amateurs) mettaient en ligne des pages Web statiques et passives. Nombreux sont ceux, dans le monde des médias, pour qui cette description correspond toujours à la réalité du Web.

Or le Web a connu depuis au moins trois phases évolutives : du Web 1.0 du début, au Web 2.0 fait de « petites briques faiblement liées » (NdT : en référence au livre Small Pieces Loosely Joined) – réseaux sociaux, remix, webmail, etc. – et, selon l’idée de Tim Berners-Lee, il devient maintenant une sorte de Web 3.0 sémantique où les pages Web contiennent suffisamment de données pour permettree aux logiciels d’analyser leur pertinence et leur fonction.

Si nous voulons comprendre le Web tel qu’il est et non pas tel qu’il fut, il faut constamment adapter les perceptions que nous nous en faisons. Nous devons nous souvenir qu’il n’est plus seulement un moyen de publication.

8 Huxley et Orwell sont les serre-livres de notre futur

Il y a maintenant quelques années de cela, le critique culturel et théoricien des médias Neil Postman prédisait que les intuitions de deux écrivains encadreraient notre futur, comme deux serre-livres. Pour Aldous Huxley, nous serons détruits par les choses que nous aimons, alors que pour George Orwell nous serons détruits par les choses que nous craignons.

À l’époque de Postman, l’Internet n’avait pas encore aquis l’importance qu’il a maintenant, mais je crois qu’il avait raison. D’un côté (du côté huxleyen), le Net a eu une profonde influence libératrice sur nos vies : l’information, le divertissement, le plaisir, la joie, la communication et la consommation sans effort ni limites. À tel point que cela en est presque devenu une drogue, surtout pour les plus jeunes générations. L’inquiétude des professeurs, des gouvernements et des hommes politiques est à la mesure du phénomène. « Google nous rend-il stupide ? » : tel est le titre de l’un des articles les plus cités en 2008 du magazine Atlantic. Nicholas Carr, blogueur réputé, en est l’auteur et il s’y demande si l’accès permanent à l’information en ligne (pas seulement Google) fait de nous des penseurs superficiels et turbulents à la capacité de concentration réduite (d’après une étude de Nielsen, entreprise spécialiste des études de marché, un internaute reste en moyenne 56 secondes sur une page Web). Pour d’autres, l’usage immodéré d’Internet serait en train de reconfigurer les connexions dans notre cerveau.

De l’autre côté, le côté orwellien, Internet est ce qui s’approche le plus de la machine de surveillance parfaite. Tous vos faits et gestes sur le Net sont enregistrés, chaque e-mail envoyé, chaque site Web visité, chaque fichier téléchargé, chaque terme cherché, tout est enregistré et stocké quelques part. Soit sur les serveurs de votre fournisseur d’accès, soit chez les fournisseurs de services dans les nuages que vous utilisez. C’est l’outil rêvé d’un état totalitaire qui souhaiterait connaître le comportement, les activités sociales et les modes de pensée de ses sujets.

9 Les lois sur la propriété intellectuelle ne sont plus adaptées à leur objet

Dans le monde analogique, il était difficile de copier et on perdait en qualité (les copies de copies devenaient graduellement moins bonnes). Dans le monde numérique, la copie se fait sans peine et elle est parfaite. En réalité, la copie est pour les ordinateurs ce que la respiration est pour les organismes vivants, puisqu’elle est présente dans toutes les opérations de calcul. Lorsque par exemple vous regardez une page Web, une copie de celle-ci est chargée dans la mémoire de votre ordinateur (ou de votre téléphone portable, de votre iPad…) avant que l’appareil ne puisse l’afficher sur l’écran. Si bien que vous ne pouvez même pas regarder un contenu quelconque sur le Web sans en faire (à votre insu) une copie.

Notre régime de propriété intellectuelle actuel a été conçu à une époque où la copie était difficile et imparfaite, il n’est donc pas étonnant de constater qu’il n’est plus en phase avec le monde connecté. Et, pour remuer le couteau dans la plaie (ou déposer la cerise sur le gateau, question de point de vue), la technologie numérique propose aux usagers d’Internet des logiciels simplifiant au maximum la copie, l’édition, le remix et la publication de ce qui est disponible sous forme numérique, ce qui englobe pratiquement tout de nos jours. Ainsi, des millions de personnes sont devenues des éditeurs, en ce sens qu’ils publient leurs créations sur des plateformes mondiales telles que Blogger, Flickr et Youtube. Et par ricochet les violations du droit d’auteur, même minimes, sont partout.

Tout désagréable qu’il soit, c’est un fait incontournable, tout comme le fait que les jeunes adultes ont tendance à boire trop d’alcool. L’ultime protection anti-copie est de débrancher le Net. Le droit d’auteur n’est pas mauvais en soi (l’alcool non plus), mais il est devenu tellement déconnecté de la réalité qu’il perd tout crédit. Une réforme est plus que nécessaire pour adapter le droit d’auteur au monde numérique. Mais il semblerait qu’aucun législateur ne soit encore parvenu à cette conclusion. L’attente risque donc d’être longue.

Post-scriptum

Il serait ridicule de prétendre que ces neuf idées englobent tout ce qu’il faut savoir à propos du Net. Elles constituent simplement les fondations d’une vision plus globale de la situation et peuvent même servir d’antidote face à certaines étroites et hâtives extrapolations sur le développement du cyberespace.

Malheureusement, s’il y a une vérité connue à propos d’Internet, elle est plutôt prosaïque : la seule réponse rationnelle à toutes les questions sur les implications à long terme du réseau est la célèbre phrase attribuée au ministre des Affaires étrangères de Mao Tsé-toung, Zhou Enlai, qui interrogé sur le bilan qu’il faisait de la Révolution française répondit sagement : « Il est encore trop tôt pour se prononcer ».

Et c’est bien le cas.

John Naughton est professeur à l’Open University. Il rédige actuellement un livre sur le phénomène Internet.

Notes

[1] Crédit photo : Pascal (Creative Commons By)




Les incolmatables fuites de chez WikiLeaks – Portrait de Julian Assange

New Media Days - CC by-saAvec l’avènement d’Internet on parle régulièrement de révolution dès qu’un petit malin trouve le moyen de faire avec des bits d’information ce qu’on faisait jusque là avec des atomes de matière.

Pourtant, sur Internet il se passe parfois de vraies (r)évolutions, quand un petit malin innove réellement et trouve le moyen d’y faire ce qu’on n’y faisait pas avant !

Et c’est précisément le cas de WikiLeaks.org un site savamment mis au point par Julian Assange dès 2006 dans le but de divulguer « de manière anonyme, non identifiable et sécurisée, des documents témoignant d’une réalité sociale et politique, voire militaire, qui nous serait cachée, afin d’assurer une transparence planétaire. Les documents sont ainsi soumis pour analyse, commentaires et enrichissements à l’examen d’une communauté planétaire d’éditeurs, relecteurs et correcteurs wiki bien informés ».

Récemment rendu célèbre en France par la publication d’une vidéo montrant l’armée américaine en pleine bavure contre des civils Irakiens, le site et son créateur sont depuis dans l’œil du cyclone, ayant en effet attiré l’attention d’instances américaines soucieuses de ne pas voir d’autres documents officiels ou officieux ainsi libérés sur le net. L’équipe de WikiLeaks continue pourtant contre vents et marées à publier des vérités.

Portrait d’un homme discret et courageux, aux convictions simples, mais qui lui aussi participe à faire bouger les lignes du monde[1].

Julian Assange, lanceur d’alertes

Julian Assange: the whistleblower

Stephen Moss – 14 juillet 2010 – The Guardian
(Traduction Framalang par : Siltaar, Goofy, Yoann, misc, Julien)

Il se pourrait bien que Julian Assange, le fondateur de Wikileaks, préfigure l’avenir du journalisme d’investigation. Mais il n’est pas journaliste.

Tout est bizarre dans cette histoire. À commencer par Julian Assange lui-même : fondateur, directeur et porte-parole de Wikileaks, mais aussi guide spirituel de ce réseau planétaire de lanceurs d’alertes. Il est grand, cadavérique, porte des jeans râpés, une veste marron, une cravate noire et des tennis hors d’âge. Quelqu’un a dit qu’il ressemblait à Andy Warhol avec ses cheveux blancs précoces, mais je ne sais plus qui – voilà justement ce qui le mettrait hors de lui, parce qu’il place la précision au-dessus de tout. Il déteste la subjectivité dans le journalisme ; je crains que sa propre subjectivité ne le pousse à détester les journalistes aussi, et que Wikileaks, qui se définit comme « un système généralisé de fuites de documents, impossible à censurer ou pister », soit essentiellement un moyen de tailler en pièces les imbéciles subjectifs dans mon genre.

Si Assange écrivait cet article, il reproduirait ici sa conférence d’une heure et demie à l’université d’été du Centre de journalisme d’investigation à Londres. Sans oublier les dix minutes que nous avons passées à discuter sur le chemin du restaurant – j’ai failli le faire renverser par une BMW lancée à vive allure, ce qui aurait pu changer l’histoire du journalisme d’investigation – et les 20 minutes de bavardage au restaurant avant qu’il ne me fasse sentir courtoisement que le temps qui m’était imparti touchait à sa fin. « Quand vous recevez (sur moi) des informations de seconde main, soyez extrêmement prudent », me dit-il sur le chemin, pointant du doigt des failles d’un article du New Yorker, pourtant très long, très documenté, sans aucun doute archi-vérifié, mais dont l’auteur fait des suppositions sur une activiste de Wikileaks en se basant sur rien moins que le T-shirt qu’elle porte.

« Le journalisme devrait ressembler davantage à une science exacte », me déclare-t-il au restaurant. « Autant que possible, les faits devraient être vérifiables. Si les journalistes veulent que leur profession soit crédible à long terme, ils doivent s’efforcer d’aller dans ce sens. Avoir plus de respect pour leurs lecteurs ». Il aime l’idée qu’un article de 2000 mots devrait s’appuyer sur une source documentaire de 25000 mots, et dit qu’il n’y a aucune raison de ne pas agir ainsi sur Internet. Maintenant que j’y repense, je ne suis pas sûr que la voiture était une BMW, ni même qu’elle fonçait.

Assange a lancé wikileaks.org en janvier 2007 et a sorti des scoops impressionnants pour une organisation constituée d’une poignée de membres, et pratiquement dépourvue de financement. Wikileaks a donné des preuves de la corruption et du népotisme de l’ancien président du Kenya Daniel Arap Moi, a rendu publiques les procédures opérationnelles standard en vigueur au centre de détention de Guantánamo, a même publié le contenu du compte Yahoo de Sarah Palin. Mais ce qui a vraiment propulsé Wikileaks au premier plan des grands médias, c’est la vidéo publiée en avril dans laquelle on voit l’attaque d’un hélicoptère américain sur Bagdad en juillet 2007, qui a fait un certain nombre de victimes parmi les civils irakiens et provoqué la mort de deux employés de l’agence Reuters, Saeed Chmagh et Namir Noor-Eldeen.

La vidéo, publiée dans une version de 39 minutes sans montage et dans un film de 18 minutes intitulé Meutres collatéraux, donne un aperçu glaçant de la désinvolture avec laquelle les militaires américains identifient leurs cibles (les pilotes de l’hélicoptère ont pris les appareils photos des journalistes de Reuters pour des armes), leur acharnement à achever un homme grièvement blessé qui s’efforçait de ramper pour se mettre à l’abri, et l’absence de tout scrupule même pour deux enfants dans une camionnette qui venait récupérer les victimes et qui a été immédiatement attaquée. « C’est de leur faute s’ils ont entraîné deux enfants dans la bataille », dit l’un d’eux. « C’est clair », répond son collègue de façon réaliste. Il s’agissait pourtant d’une des batailles les plus déséquilibrées que vous verrez jamais. Il existe très peu d’appareils photos capables de dégommer un hélicoptère de combat.

Ma thèse, qui sera bientôt réduite en miettes par Assange avec à peu près tout ce que j’avais comme préjugés après mes lectures à son sujet, est que cette vidéo représente un moment décisif pour WikiLeaks. Mais, juste avant que je puisse lui en parler, un bel étudiant barbu qui était à la conférence me devance. « Julian, avant que vous ne partiez, puis-je vous serrer la main, dit-il, car j’aime vraiment ce que vous faites et vous êtes pour moi comme un héros, sincèrement ». Ils se serrent la main. L’icône vivante et l’adorateur. Le parallèle avec Warhol devient de plus en plus flagrant : Assange comme fondateur d’une nouvelle forme d’actualités.

Et voici cette thèse. « Est-ce que la vidéo du mois d’avril a tout changé ? » demandais-je. Il s’agit d’une question rhétorique car je suis quasi-certain que ce fut le cas. « Non » répondit-il. « Les journalistes aiment toujours avoir un prétexte pour n’avoir pas parlé la semaine d’avant de ce dont ils parlent maintenant. Ils aiment toujours prétendre qu’il y a quelque chose de nouveau ». Il lui faut cependant admettre que le champ de diffusion de WikiLeaks est en pleine expansion. Au début de sa conférence, il disait qu’il avait la tête « remplie de beaucoup trop de choses actuellement », comme pour excuser la nature hésitante et déstructurée de son discours. Quelles choses ? « Nous avons essayé de recueillir des fonds pendant les six derniers mois », dit-il, « nous avons donc publié très peu de choses et maintenant nous avons une énorme file d’attente d’informations qui se sont entassées. Nous travaillons sur ces questions ainsi que sur des systèmes informatiques afin d’accélérer notre processus de publication. »

WikiLeaks n’emploie que cinq personnes à plein temps et environ 40 autres qui, selon lui, « réalisent très régulièrement des choses », s’appuyant sur 800 bénévoles occasionnels et 10 000 soutiens et donateurs – une structure informelle, décentralisée, qui pourrait devenir un modèle d’organisation pour les médias à venir, puisque ce que l’on pourrait appeler les « usines à journalisme » sont de plus en plus dépassées et non viables financièrement. C’est un moment délicat dans le développement de ce qu’Assange préfère considérer comme « un mouvement ». « Nous avons tous les problèmes que peut rencontrer une jeune pousse lors de sa création », dit-il, « combinés avec un environnement extrêmement hostile et un espionnage étatique. »

Le danger d’infiltration par les services de sécurité est important. « Il est difficile d’obtenir rapidement de nouvelles recrues, dit-il, parce que chaque personne doit être contrôlée, et cela rend la communication interne très difficile car il faut tout chiffrer et mettre en place des procédures de sécurité. Nous devons d’ailleurs également être prêts à affronter des poursuites judiciaires. » D’un autre côté, positif cette fois, la campagne récente de financement a permis de récolter un million de dollars, principalement auprès de petits donateurs. Les grands groupes industriels eux, se sont tenus à bonne distance de WikiLeaks en raison de soupçons politiques et d’inquiétudes légales sur la publication d’informations confidentielles sur Internet. Sans compter les carences habituelles des organisations financées par l’occident, toujours promptes à dénoncer dans leurs rapports les mauvaises pratiques des pays émergents mais qui sont beaucoup moins prêtes à mettre en lumière les recoins les moins reluisants des pays soi-disant avancés.

WikiLeaks est-il le modèle journalistique de l’avenir ? La réponse qu’il donne est typiquement à côté de la question. « Partout dans le monde, la frontière entre ce qui est à l’intérieur d’une entreprise et ce qui est à l’extérieur est en train d’être gommée. Dans l’armée, le recours à des mercenaires sous contrat indique que la frontière entre militaires et non-militaires tend à disparaître. En ce qui concerne les informations, vous pouvez constater la même dérive – qu’est-ce qui relève du journal et qu’est-ce qui ne l’est déjà plus ? Selon les commentaires publiés sur des sites grand public et militants… » Il semble alors perdre le fil, je le presse donc d’émettre une prédiction sur l’état des médias d’ici une dizaine d’années. « En ce qui concerne la presse financière et spécialisée, ce sera probablement la même chose qu’aujourd’hui – l’analyse quotidienne de la situation économique dont vous avez besoin pour gérer vos affaires. Mais en ce qui concerne l’analyse politique et sociale, des bouleversements sont à prévoir. Vous pouvez déjà constater que c’est en train d’arriver ».

Assange doit faire attention à assurer sa sécurité personnelle. Bradley Manning, 22 ans, analyste des services de renseignement de l’armée américaine a été arrêté et accusé d’avoir envoyé à Wikileaks les vidéos de l’attaque de Bagdad, et les autorités pensent que l’organisation posséde une autre vidéo d’une attaque sur le village afghan de Granai durant laquelle de nombreux civils ont péri. Il y a également eu des rapports controversés selon lesquels Wikileaks aurait mis la main sur 260 000 messages diplomatiques classés, et les autorités américaines ont déclaré vouloir interroger Assange au sujet de ces documents, dont la publication mettrait selon eux en danger la sécurité nationale. Quelques sources ayant des contacts avec les agences de renseignement l’ont prévenu qu’il était en danger, et lui ont conseillé de ne pas voyager vers les USA. Il refuse de confirmer que Manning était la source de la vidéo de Bagdad, mais il dit que celui qui l’a divulguée est « un héros ».

Lors de la conférence, j’ai entendu un homme à coté de moi dire à son voisin: « Est-ce que tu penses qu’il y a des espions ici ? Les USA lui courent après tu sais ? ». Et bien sûr, c’est possible. Mais faire une conférence devant 200 étudiants dans le centre de Londres n’est pas le comportement de quelqu’un qui se sent particulièrement menacé. D’un autre côté, l’organisateur de la conférence me dit qu’Assange s’efforce de ne pas dormir 2 fois d’affilée au même endroit. Est-ce qu’il prend ces menaces au sérieux ? « Quand vous les recevez pour la première fois, vous devez les prendre au sérieux. Certaines personnes très informées m’ont dit qu’il y avait de gros problèmes, mais maintenant les choses se sont décantées. Les déclarations publiques du département d’état des États-Unis ont été pour la plupart raisonnables. Certaines demandes faites en privé n’ont pas été raisonnables, mais le ton de ces déclarations privées a changé au cours du dernier mois et elles sont devenues plus positives ».

Assange, en dépit de ses hésitations, respire la confiance en soi, voire un certain manque de modestie. Lorsque je lui demande si la croissance rapide et l’importance grandissante de WikiLeaks le surprennent, il répond par la négative. « J’ai toujours été convaincu que l’idée aurait du succès, dans le cas contraire, je ne m’y serais pas consacré ou n’aurais pas demandé à d’autres personnes de s’en occuper. » Récemment, il a passé une grande partie de son temps en Islande, où le droit à l’information est garanti et où il compte un grand nombre de partisans. C’est là-bas qu’a été réalisé le laborieux décryptage de la vidéo de Bagdad. Cependant, il déclare qu’il n’a pas de base réelle. « Je suis comme un correspondant de guerre, je suis partout et nulle part » dit-il. « Ou comme ceux qui fondent une société multinationale et rendent visite régulièrement aux bureaux régionaux. Nous sommes soutenus par des militants dans de nombreux pays ».

Assange est né dans le Queensland en 1971 au sein de ce que l’on pourrait appeler une famille très anticonformiste – ici on se fie sur des sources secondaires contre lesquelles il m’a mis en garde, il serait vraiment utile de consulter de la documentation. Ses parents exploitaient une compagnie de théâtre, si bien qu’il est allé dans 37 écoles différentes (selon certains pourtant, comme sa mère estimait que l’école n’apprend qu’à respecter l’autorité, elle lui faisait principalement cours à la maison). Ses parents ont divorcé puis sa mère s’est remariée, mais il y eut une rupture avec son nouveau mari, ce qui les a conduit elle, Julian et son demi-frère à partir sur les routes. Tout cela semble trop wharolien pour être vrai, mais il s’agit sans doute de la vérité. Ce n’est pas le moment de lui demander de raconter sa vie et je ne pense pas qu’il s’y prêterait s’il en avait le temps. En effet, ses réponses sont généralement laconiques et un peu hésitantes. Lorsque je lui demande s’il y a quelque chose que WikiLeaks ne publierait pas, il me répond : « Cette question n’est pas intéressante » avec son doux accent australien, et en reste là. Assange n’est pas quelqu’un qui éprouve le besoin de « combler les blancs » dans une conversation.

Il est tombé littéralement amoureux des ordinateurs dès son adolescence, est rapidement devenu un hacker confirmé et a même fondé son propre groupe nommé « International Subversives » qui a réussi à pirater les ordinateurs du Département de la Défense des États-Unis. Il s’est marié à 18 ans et a rapidement eu un fils, mais le mariage n’a pas duré et une longue bataille pour la garde de l’enfant a, dit-on, augmenté sa haine de l’autorité. Il existe aussi des rumeurs selon lesquelles il se figurait que le gouvernement conspirait contre lui. Nous avons donc ici une image journalistique parfaite : expert informatique, avec plus de 20 ans d’expérience en piratage, une hostilité à l’autorité et des théories conspirationnistes. Le lancement de WikiLeaks au milieu de sa trentaine semblait inévitable.

« Il s’agit plus d’un journaliste qui voit quelque chose et qui essaie de lui trouver une explication » dit-il. « C’est généralement de cette manière qu’on écrit une histoire. Nous voyons quelque chose à un moment donné et nous essayons d’écrire une histoire cohérente pour l’expliquer. Cependant, ce n’est pas comme ça que je vois les choses. Il est vrai que j’avais certaines capacités et que j’avais aussi la chance d’être dans un pays occidental disposant de ressources financières et d’Internet. De plus, très peu de personnes ont bénéficié de la combinaison de capacités et de relations dont je disposais. Il est également vrai que j’ai toujours été intéressé par la politique, la géopolitique et même peut-être le secret, dans une certaine mesure ». Ce n’est pas réellement une réponse, mais c’est tout ce que j’obtiendrai. Encore une fois, comme chez Warhol, le détachement semble presque cultivé.

Dans son discours, Assange a indiqué n’être ni de gauche ni de droite – ses ennemis tentant toujours de lui coller une étiquette pour saper son organisation. Ce qui compte avant tout est de publier l’information. « Les faits avant tout, madame, » est sa manière de me résumer sa philosophie. « Ensuite, nous en ferons ce que nous voudrons. Vous ne pouvez rien faire de sensé sans savoir dans quelle situation vous êtes. » Mais quand il rejette les étiquettes politiques, il précise que Wikileaks cultive sa propre éthique. « Nous avons des valeurs. Je suis un activiste de l’information. Vous sortez les informations pour les donner au peuple. Nous croyons qu’un dossier plus complet, plus précis, plus riche aux plans intellectuel et historique, est un dossier intrinsèquement bon qui donnera aux gens les outils pour prendre des décisions intelligentes ». Il précise qu’une part évidente de leur objectif est de dénoncer les cas de violation des droits de l’Homme, quels qu’en soient les lieux et les auteurs.

Il a décrit la mise au point d’une plateforme sécurisée pour les lanceurs d’alerte (son argument-clé étant la protection des sources) comme une vocation, et je lui demande si cela va rester le point central de sa vie. Sa réponse me surprend. « J’ai plein d’autres idées, et dès que Wikileaks sera suffisamment fort pour prospérer sans moi, je m’en irai réaliser d’autres de ces idées. Wikileaks peut déjà survivre sans moi, mais je ne sais pas s’il continuerait à prospérer. »

Est-ce que l’impact de Wikileaks, quatre ans après sa création, est une critique implicite du journalisme conventionnel ? Nous sommes-nous assoupis au travail ? « Il y a eu un échec scandaleux dans la protection des sources, » indique-t-il. « Ce sont ces sources qui prennent tous les risques. J’étais à une conférence sur le journalisme il y a quelque mois, et il y avait des affiches expliquant qu’un millier de journalistes ont été tués depuis 1944. C’est inacceptable. Combien de policiers ont été tués depuis 1944 ? »

Je ne le comprends pas, pensant qu’il déplore toutes ces morts de journalistes. Son idée, bien au contraire, n’est pas que beaucoup de journalistes soient morts au front, mais qu’il y en ait eu si peu. « Seulement un millier ! » dit-il, haussant un peu le ton lorsqu’il comprend que je n’ai pas saisi où il voulait en venir. « Combien sont morts dans des accidents de voiture depuis 1944 ? Probablement 40 000. Les policiers, qui ont un rôle important à jouer pour stopper des crimes, sont plus nombreux à mourir. Ils prennent leur rôle au sérieux. » dit-il. « La plupart des journalistes morts depuis 1944 le furent en des lieux comme l’Irak. Très peu de journalistes occidentaux y sont morts. Je pense que c’est une honte internationale que si peu de journalistes occidentaux aient été tués ou arrêtés sur le champ de bataille. Combien de journalistes ont été arrêtés l’année dernière aux États-Unis, un pays comptant 300 millions de personnes ? Combien de journalistes ont été arrêtés l’année dernière en Angleterre ? »

Les journalistes, poursuit-il, laissent les autres prendre des risques et s’en attribuent ensuite tout le bénéfice. Ils ont laissé l’état et les gros intérêts s’en tirer trop longtemps, alors un réseau de hackers et de lanceurs d’alertes reposant sur des ordinateurs, donnant du sens à des données complexes, et avec la mission de les rendre publiquement disponibles est maintenant prêt à faire tout simplement mieux. C’est une affirmation qui aurait mérité débat, et je m’y serais fermement engagé s’il n’était pas en train de siroter du vin blanc et sur le point de commander son dîner. Mais une chose que je tiens à souligner : le nombre de journalistes morts depuis 1944 est plus proche de 2000. Après tout, souvenez-vous, la précision, s’en tenir aux faits, présenter la vérité sans fard est tout ce qui compte dans le nouveau monde de l’information.

Notes

[1] Credit photo : New Media Days (Creative Commons By-Sa)