Chouchoutez vos contributeurs et contributrices !

Le groupe Framalang a traduit l’article de Julien, qui a listé tous les moyens de se tirer une balle dans le pied quand on coordonne un projet libre.

Apprenez à les éviter !

Halte à la stratégie de l'échec !
Halte à la stratégie de l’échec !

Conduite de projets Open Source : 10 erreurs à éviter

Article original : https://julien.danjou.info/blog/2016/foss-projects-management-bad-practice
Auteur : Julien Danjou(CC-BY-SA)
Traduction : lyn., KoS, AlienSpoon, David 5.1, Simon, goofy, Slimane Aguercif, Fred, galadas, terhemis, gégé

Il y a quelques semaines, lors de l’OpenStack Summit (réunion annuelle des contributeurs à OpenStack, NDT), j’ai eu l’occasion de discuter de mon expérience de la conduite de projets Open Source. Je me suis rendu compte qu’après avoir fait partie de plusieurs communautés et beaucoup contribué pendant des années, je pourrais faire profiter les nouveaux venus de conseils et d’avis expérimentés.

Il existe une foule de ressources disponibles expliquant comment conduire un projet Open Source. Mais aujourd’hui, je voudrais aborder ce sujet sous un angle différent, en insistant sur ce qu’il convient de ne pas faire avec les personnes qui y participent. Je tire cette expérience des nombreux projets Open Source auxquels j’ai participé ces dernières années. Je vais décrire, sans ordre particulier, quelques mauvaises pratiques que j’ai constatées, en les illustrant par des exemples concrets.

 

1. Considérer les contributeurs comme une nuisance

fail roadQuand les informaticiens sont au travail, qu’ils soient chargés du développement ou de la maintenance d’un logiciel, il est une chose dont ils n’ont pas besoin : du travail supplémentaire. Pour la plupart d’entre eux, la première réaction à toute contribution externe est : « Zut, du travail en plus ». Et c’est effectivement le cas.

Par conséquent, certains développeurs essayent d’éviter ce travail supplémentaire : ils déclarent ne pas vouloir de contributions, ou font en sorte que les contributeurs se sentent indésirables. Cela peut prendre de nombreuses formes, comme les ignorer ou être désagréable avec eux. Ainsi, les développeurs évitent d’avoir à traiter le surplus de travail qu’on leur met sur le dos.

C’est une des plus grandes erreurs que l’on peut commettre, et une vision fausse de l’Open Source. Si des gens vous apportent du travail supplémentaire, faites tout ce que vous pouvez pour bien les accueillir afin qu’ils continuent à travailler avec vous. Il s’agit peut-être de ceux qui prendront votre relève d’ici peu. Préparez votre future retraite.

Prenons le cas de mon ami Gordon, que j’ai vu démarrer en tant que contributeur sur Ceilometer en 2013. Il examinait très bien le code, si bien qu’il me donnait en fait davantage de travail : non seulement en détectant les anomalies dans mes contributions, mais aussi en me faisant vérifier les siennes. Au lieu de m’en prendre à lui pour qu’il arrête de me faire retravailler mon code et vérifier ses correctifs, j’ai proposé qu’on lui fasse davantage confiance en l’ajoutant officiellement à l’équipe des correcteurs sur un des projets.

Et s’ils ne font pas cette première contribution, ils ne feront pas non plus la seconde. En fait, ils n’en feront aucune ; et ces projets perdraient alors leurs futurs correcteurs.

2. Ne confier aux autres que le sale boulot

Lorsque de nouveaux contributeurs se présentent pour travailler sur un certain projet, leurs motivations peuvent être très diverses. Certains sont des utilisateurs, d’autres veulent simplement voir ce que c’est de contribuer. Ressentir le frisson de la participation, comme un simple exercice ou avec la volonté d’apprendre afin de contribuer en retour à l’écosystème qu’ils utilisent.

En général, les développeurs confient le sale boulot à ces personnes, c’est à dire des tâches sans intérêt, à faible valeur ajoutée, et qui n’auront sans doute aucun impact direct sur le projet.

Pour certains, ce n’est pas grave, pour d’autres, ça l’est. Certains seront vexés de se voir confier du travail sans grand intérêt, alors que d’autres seront heureux de le faire pourvu qu’on leur témoigne de la reconnaissance. Soyez sensible à cela, et félicitez ces personnes. C’est la seule manière de les garder dans le projet.

3. Mépriser les petites contributions

Quand le premier patch d’un nouveau contributeur est une correction d’orthographe, qu’en pensent les développeurs ? Qu’ils s’en fichent, que vous gâchez de leur temps précieux avec votre petite contribution. Et personne ne s’intéresse à la perfection grammaticale d’une documentation, n’est-ce pas ?

C’est faux. Voyez mes premières contributions à home-assistant et Postmodern : j’ai corrigé des fautes d’orthographe dans la documentation.

J’ai contribué au projet Org-mode pendant quelques années. Mon premier patch corrigeait simplement une chaîne de caractères du code. Ensuite, j’ai envoyé 56 patchs, corrigeant des bogues et ajoutant de nouvelles fonctionnalités élégantes, et j’ai aussi codé quelques extensions. À ce jour, je suis toujours seizième dans la liste des plus gros contributeurs d’Org-mode, qui en contient 390. Certainement pas ce qu’on appellerait un petit contributeur, donc. Je suis sûr que la communauté est bien contente de n’avoir pas méprisé ma première correction dans la documentation.

4. Mettre la barre trop haut pour les nouveaux arrivants.

Quand de nouveaux contributeurs arrivent, leurs connaissances du projet, de son contexte, et des technologies sont très variables. L’une des erreurs que les gens font le plus souvent consiste à demander aux nouveaux contributeurs des choses trop compliquées, dont ils ne pourront pas venir à bout. Cela leur fait peur (surtout les timides ou les introvertis) et ils risquent de disparaître, se croyant trop stupides pour aider.

piscine

Avant de faire le moindre commentaire, vous ne devriez avoir strictement aucun a priori sur leur niveau. Cela permet d’éviter ce genre de situations. Il faut également mettre beaucoup de délicatesse quand vous estimez les compétences des nouveaux, car certains pourraient se vexer si vous les sous-estimez trop.

Quand son niveau est bien estimé (un petit nombre d’échanges devrait suffire), vous devez former votre contributeur en ne le guidant ni trop ni trop peu, afin qu’il puisse s’épanouir. Il faut du temps et de l’expérience pour y parvenir, et vous allez probablement perdre certains contributeurs avant de bien maîtriser ce processus, mais c’est un chemin que tous ceux qui gèrent des projets doivent suivre.

Façonner ainsi les nouveaux arrivants est au cœur de la gestion de vos contributeurs, et ce quel que soit votre projet. Et je suis quasiment sûr que cela s’applique à tout projet, même en dehors du logiciel libre.

5. Exiger des gens qu’ils fassent des sacrifices sur le plan personnel

C’est un point qui dépend beaucoup du projet et du contexte, mais il est très important. Dans le logiciel libre, où la plupart des gens vont contribuer par bonne volonté et parfois sur leur temps libre, vous ne devez surtout pas exiger d’eux qu’ils fassent des sacrifices personnels importants. Ça ne passera pas.

L’une des pires manières de faire cette erreur est de fixer un rendez-vous à l’autre bout du monde pour discuter du projet. Cela place les contributeurs qui vivent loin dans une situation injuste, car ils ne peuvent pas forcément quitter leur famille pour la semaine, prendre l’avion ou un autre moyen de transport, louer une chambre d’hôtel… Ce n’est pas bon : tout devrait être mis en œuvre pour que les contributeurs se sentent partie prenante du projet et intégrés à la communauté, sans que l’on exige cela de leur part. Entendons-nous bien, cela ne veut pas dire qu’il faut s’interdire toute rencontre ou activité sociale, au contraire. Pensez simplement à n’exclure personne lorsque vous discutez d’un projet.

Il en va de même pour les moyens de communication susceptibles de compliquer la vie des participants : se retrouver sur IRC (il est difficile pour certaines personnes de réserver une heure, surtout lorsqu’il faut tenir compte des différents fuseaux horaires), faire une visioconférence (en particulier quand on n’utilise pas de logiciel libre et gratuit), etc.

En gros, tout ce qui impose de se synchroniser en temps réel avec l’avancement du projet est contraignant pour certains contributeurs.

C’est pourquoi le meilleur moyen de communiquer reste le courriel, mais tous les outils de communication asynchrones (pisteurs de bogues, etc.) feront l’affaire dans la mesure où ils permettent à chacun de travailler à son rythme et à l’heure qui lui convient.

6. Ne pas avoir de code de conduite

À une époque où de plus en plus de communautés s’ouvrent à un public plus large que celui auquel elles étaient habituées (ce qui est fantastique), les codes de conduite semblent être un sujet à la mode, mais aussi délicat.

En réalité, toutes les communautés ont un code de conduite, qu’il soit inscrit noir sur blanc ou suivi inconsciemment par chacun. Sa forme dépend de la taille et de la culture de la communauté.

Cependant, en fonction de la taille de votre communauté et de la façon dont ce code s’applique, vous auriez peut-être intérêt à l’écrire dans un document, comme l’a par exemple fait Debian.

Ce n’est pas parce que vous aurez rédigé un code de conduite que tous les membres de votre communauté vont soudain se transformer en adorables Bisounours le suivant à la lettre, mais il fournit des règles que vous pouvez citer en cas de besoin. Il peut être utile de le transmettre à certains pour leur faire comprendre que leur comportement ne convient pas, et cela peut aider si une exclusion devient nécessaire, même s’il ne sert que rarement à cela, puisqu’en général personne ne veut aller aussi loin.

Je pense qu’on peut très bien se passer d’un tel document sur de petits projets. Mais vous devez garder à l’esprit qu’un code de conduite implicite découlera de votre comportement. La manière dont vos membres les plus influents communiqueront avec les autres installera l’ambiance à travers tout le réseau. Ne sous-estimez pas cela.

Quand nous avons commencé le projet Ceilometer, nous avons suivi le code de conduite du projet OpenStack avant même qu’il ait été écrit, et probablement avons-nous même placé la barre un peu plus haut. En étant agréables, accueillants et ouverts d’esprit, nous avons réussi à obtenir une certaine mixité, avec plus de 25% de femmes dans notre équipe permanente — bien au dessus de la moyenne actuelle d’OpenStack et de la plupart des projets de logiciel libre !

7. Mettre les non-anglophones à l’écart

Il est important d’être conscient que la grande majorité des projets de logiciel libre utilisent l’anglais en tant que langue de communication principale. C’est logique. C’est une langue répandue, et qui semble remplir ce rôle correctement.

Mais une grande partie des codeurs n’ont pas l’anglais pour langue maternelle. Beaucoup ne le parlent pas couramment. Cela signifie que le rythme auquel ils peuvent converser peut-être très lent, ce qui peut en frustrer certains, notamment ceux qui sont nés en terre anglophone.

 

Le Brexit, c’est maintenant

On peut observer ce phénomène dans les rencontres de codeurs, lors de conférences par exemple. Quand les gens débattent, il peut être très difficile pour certains d’expliquer leurs pensées en anglais et de communiquer à un rythme correct, ce qui ralentit la conversation et la transmission des idées. La pire chose qu’un anglophone puisse faire dans ce cas est de leur couper la parole, ou de les ignorer, pour la seule raison qu’ils ne parlent pas assez vite. Je comprends que cela puisse être frustrant, mais le problème n’est pas la façon de parler des non-anglophones mais les outils de communication utilisés qui ne mettent pas tout le monde au même niveau en privilégiant des conversations orales.

La même chose s’applique, à un moindre degré, aux rencontres sur IRC, qui sont relativement synchrones. Les médias complètement asynchrones ne pâtissent pas de ce défaut, et c’est pourquoi ils faudrait, à mon avis, les privilégier.

8. Pas de vision, aucune délégation des tâches

C’est une autre grosse erreur de gestion si le responsable ne parvient pas à gérer la croissance du projet alors que des gens sont disponibles et prêts à aider.

Évidemment, lorsque le flux des contributeurs commence à grossir, ajoutant de nouvelles fonctionnalités, demandant des retours et des instructions à suivre, certains responsables se retrouvent la tête sous l’eau et ne savent pas comment répondre. Ce qui a pour conséquences de frustrer les contributeurs, qui vont simplement partir.

Il est important d’avoir une vision de votre projet et de la communiquer. Dites clairement à vos contributeurs ce que vous voulez, et ne voulez pas, dans votre projet. Exprimer ces informations de manière claire (et non-agressive !) permet de minimiser les frictions entre vos contributeurs. Ils vont vite savoir s’ils veulent rejoindre ou non votre navire et quoi en attendre. Donc, soyez un bon capitaine.

S’ils choisissent de travailler avec vous et de contribuer, vous devez rapidement commencer à croire en eux et à leur déléguer certaines de vos responsabilités. Cela peut être n’importe quelle tâche que vous faites d’habitude vous-même : vérifier les patchs de certains sous-systèmes, traquer les bogues, écrire la documentation… Laissez les gens s’approprier entièrement une partie du projet car ils se sentiront responsables et ils y mettront autant de soin que vous. Faire le contraire en voulant tout contrôler vous-même est la meilleure façon de vous retrouver seul avec votre logiciel open source.

Aucun projet ne va gagner en taille et en popularité de cette manière.

En 2009, quand Uli Schlachter a envoyé son premier patch à awesome, cela m’a donné plus de travail. J’ai du vérifier son patch, et j’étais déjà bien occupé pour sortir la nouvelle version d’awesome sur mon temps libre en dehors de mon travail ! Le travail d’Uli n’était pas parfait, et j’ai eu à gérer les bogues moi-même. Plus de travail. Alors qu’ai-je fait ? Quelques minutes plus tard, je lui ai répondu en lui envoyant un plan de ce qu’il devait faire et de ce que je pensais de son travail.

En retour, Uli envoya d’autres patchs et améliora le projet. Savez-vous ce que fait Uli aujourd’hui ? Il est responsable du gestionnaire des fenêtres awesome à ma place depuis 2010. J’ai réussi à transmettre ma vision, déléguer, puis à quitter le projet en le laissant dans de bonnes mains !

9. Ignorer certains types de contributions

Les gens contribuent de différentes manières, et pas toujours en codant. Il y a beaucoup de choses autour d’un projet de logiciel libre : la documentation, le tri de bogues, le support, la gestion de l’expérience utilisateur, la communication, les traductions…

Par exemple, il a fallu du temps pour que Debian songe à donner le statut de Développeur Debian à leurs traducteurs. OpenStack prend la même direction en essayant de reconnaître les contributions autres que techniques.

Dès lors que votre projet commence à récompenser certaines personnes et à créer différents statuts dans la communauté, vous devez faire très attention à n’oublier personne, car c’est le meilleur moyen de perdre des contributeurs en chemin.

10. Oublier d’être reconnaissant

Cette liste est le fruit de nombreuses années de bidouillages open source et de contributions à des logiciels libres. L’expérience et le ressenti de chacun sont différents, et les mauvaises pratiques peuvent prendre différentes formes : si vous connaissez ou si vous avez vous-même rencontré d’autres obstacles dans vos contributions à des projets open-source, n’hésitez pas à compléter la liste dans les commentaires. C’est une forme de contribution.

 

 




Non, je ne veux pas télécharger votre &@µ$# d’application !

« Ne voulez-vous pas plutôt utiliser notre application ? »…

De plus en plus, les écrans de nos ordiphones et autres tablettes se voient pollués de ce genre de message dès qu’on ose utiliser un bon vieux navigateur web.

Étrangement, c’est toujours « pour notre bien » qu’on nous propose de s’installer sur notre machine parmi les applications que l’on a vraiment choisies…

Ruben Verborgh nous livre ici une toute autre analyse, et nous dévoile les dessous d’une conquête de nos attentions et nos comportements au détriment de nos libertés. Un article blog traduit par Framalang, et sur lequel l’auteur nous a offert encouragements, éclairages et relecture ! Toute l’équipe de Framalang l’en remercie chaleureusement et espère que nous avons fait honneur à son travail 😉

Cross platform applications - CC-BY Tsahi Levent-Levi
Cross platform applications – CC-BY Tsahi Levent-Levi

Utilisez plutôt le Web

Auteur : Ruben Verborgh

Source : blog de l’auteur

Traduction : Julien, David_5.1, AlienSpoon, roptat, syst, serici, audionuma, sebastienc, framasky, Ruben Verborgh, Diane, Éric + les anonymes.

Sous des prétextes mensongers, les applications mobiles natives nous éloignent du Web. Nous ne devrions pas les laisser faire.

Peu de choses m’agacent plus qu’un site quelconque qui me demande « Ne voulez-vous pas utiliser plutôt notre application ? ». Évidemment que je ne veux pas, c’est pour ça que j’utilise votre site web. Certaines personnes aiment les applications et d’autres non, mais au-delà des préférences personnelles, il existe un enjeu plus important. La supplique croissante des applications pour envahir, littéralement, notre espace personnel affaiblit certaines des libertés pour lesquelles nous avons longtemps combattu. Le Web est la première plate-forme dans l’histoire de l’humanité qui nous permette de partager des informations et d’accéder à des services à travers un programme unique : un navigateur. Les applications, quant à elles, contournent joyeusement cette interface universelle, la remplaçant par leur propre environnement. Est-ce vraiment la prétendue meilleure expérience utilisateur qui nous pousse vers les applications natives, ou d’autres forces sont-elles à l’œuvre ?

Il y a 25 ans, le Web commença à tous nous transformer. Aujourd’hui, nous lisons, écoutons et regardons différemment. Nous communiquons à une échelle et à une vitesse inconnues auparavant. Nous apprenons des choses que nous n’aurions pas pu apprendre il y a quelques années, et discutons avec des personnes que nous n’aurions jamais rencontrées. Le Web façonne le monde de façon nouvelle et passionnante, et affecte la vie des gens au quotidien. C’est pour cela que certains se battent pour protéger le réseau Internet qui permet au Web d’exister à travers le globe. Des organisations comme Mozilla s’évertuent à faire reconnaître Internet comme une ressource fondamentale plutôt qu’un bien de luxe, et heureusement, elles y parviennent.

Toutefois, les libertés que nous apporte le Web sont menacées sur plusieurs fronts. L’un des dangers qui m’inquiète particulièrement est le développement agressif des applications natives qui tentent de se substituer au Web. Encore récemment, le directeur de la conception produit de Facebook comparait les sites web aux vinyles : s’éteignant peu à peu sans disparaître complètement. Facebook et d’autres souhaitent en effet que nous utilisions plutôt leurs applications ; mais pas simplement pour nous fournir une « meilleure expérience utilisateur ». Leur façon de nous pousser vers les applications met en danger un écosystème inestimable. Nous devons nous assurer que le Web ne disparaisse jamais, et ce n’est pas juste une question de nostalgie.

Internet, notre réseau global, est une ressource fondamentale. Le web, notre espace d'information mondial, est de loin l'application la plus importante d'Internet. Nous devons aussi le protéger.
Internet, notre réseau global, est une ressource fondamentale. Le web, notre espace d’information mondial, est de loin l’application la plus importante d’Internet. Nous devons aussi le protéger.

Le Web : une interface indépendante ouverte sur des milliards de sources

Pour comprendre pourquoi le Web est si important, il faut s’imaginer le monde d’avant le Web. De nombreux systèmes d’information existaient mais aucun ne pouvait réellement être interfacé avec les autres. Chaque source d’information nécessitait sa propre application. Dans cette situation, on comprend pourquoi la majeure partie de la population ne prenait pas la peine d’accéder à aucun de ces systèmes d’information.

Le Web a permis de libérer l’information grâce à une interface uniforme. Enfin, un seul logiciel – un navigateur web – suffisait pour interagir avec plusieurs sources. Mieux encore, le Web est ouvert : n’importe qui peut créer des navigateurs et des serveurs, et ils sont tous compatibles entre eux grâce à des standards ouverts. Peu après son arrivée, cet espace d’informations qu’était le Web est devenu un espace d’applications, où plus de 3 milliards de personnes pouvaient créer du contenu, passer des commandes et communiquer – le tout grâce au navigateur.

Au fil des années, les gens se mirent à naviguer sur le Web avec une large panoplie d’appareils qui étaient inimaginables à l’époque de la création du Web. Malgré cela, tous ces appareils peuvent accéder au Web grâce à cette interface uniforme. Il suffit de construire un site web une fois pour que celui-ci soit accessible depuis n’importe quel navigateur sur n’importe quel appareil (tant qu’on n’utilise rien de spécial ou qu’on suit au moins les méthodes d’amélioration progressive). De plus, un tel site continuera à fonctionner indéfiniment, comme le prouve le premier site web jamais créé. La compatibilité fonctionne dans les deux sens : mon site fonctionne même dans les navigateurs qui lui préexistaient.

La capacité qu’a le Web à fournir des informations et des services sur différents appareils et de façon pérenne est un don immense pour l’humanité. Pourquoi diable voudrions-nous revenir au temps où chaque source d’information nécessitait son propre logiciel ?

Les applications : des interfaces spécifiques à chaque appareil et une source unique

Après les avancées révolutionnaires du web, les applications natives essaient d’accomplir l’exacte inverse : forcer les gens à utiliser une interface spécifique pour chacune des sources avec lesquelles ils veulent interagir. Les applications natives fonctionnent sur des appareils spécifiques, et ne donnent accès qu’à une seule source (ironiquement, elles passent en général par le web, même s’il s’agit plus précisément d’une API web que vous n’utilisez pas directement). Ainsi elles détricotent des dizaines d’années de progrès dans les technologies de l’information. Au lieu de nous apporter un progrès, elles proposent simplement une expérience que le Web peut déjà fournir sans recourir à des techniques spécifiques à une plate-forme. Pire, les applications parviennent à susciter l’enthousiasme autour d’elles. Mais pendant que nous installons avec entrain de plus en plus d’applications, nous sommes insidieusement privés de notre fenêtre d’ouverture universelle sur l’information et les services du monde entier.

Ils trouvent nos navigateurs trop puissants

Pourquoi les éditeurs de contenus préfèrent-ils les applications ? Parce-qu’elles leur donnent bien plus de contrôle sur ce que nous pouvons et ne pouvons pas faire. Le « problème » avec les navigateurs, du point de vue de l’éditeur, est qu’ils appartiennent aux utilisateurs. Cela signifie que nous sommes libres d’utiliser le navigateur de notre choix. Cela signifie que nous pouvons utiliser des plugins qui vont étendre les capacités du navigateur, par exemple pour des raisons d’accessibilité, ou pour ajouter de nouvelles fonctionnalités. Cela signifie que nous pouvons installer des bloqueurs de publicité afin de restreindre à notre guise l’accès de tierces parties à notre activité en ligne. Et plus important encore, cela signifie que nous pouvons nous échapper vers d’autres sites web d’un simple clic.

Si, en revanche, vous utilisez l’application, ce sont eux qui décident à quoi vous avez accès. Votre comportement est pisté sans relâche, les publicités sont affichées sans pitié. Et la protection légale est bien moindre dans ce cadre. L’application offre les fonctionnalités que le fournisseur choisit, à prendre ou à laisser, et vous ne pourrez ni les modifier ni les contourner. Contrairement au Web qui vous donne accès au code source de la page, les applications sont distribuées sous forme de paquets binaires fermés.

« Ne voulez-vous pas plutôt l’application ? »

J’ai procédé à une petite expérience pour mesurer exactement quelle proportion des sites Web les plus visités incitent leurs utilisateurs à installer l’application. J’ai écrit un programme pour déterminer automatiquement si un site web affiche une bannière de promotion de son application. L’outil utilise PhantomJS pour simuler un navigateur d’appareil mobile et capture les popups qui pourraient être insérés dynamiquement. La détection heuristique est basée sur une combinaison de mots-clés et d’indices du langage naturel.
Ce graphique montre combien de sites du top Alexa (classés par catégorie) vous proposent d’utiliser leur application :

Plus d'un tiers des 500 sites les plus visités vous proposent d'utiliser leur application.
Plus d’un tiers des 500 sites les plus visités vous proposent d’utiliser leur application.

Les chiffres obtenus sont basés sur une heuristique et sous-estiment probablement la réalité. Dans certaines catégories, au moins un tiers des sites préfèrent que vous utilisiez leur application. Cela signifie qu’un tiers des plus gros sites essaient de nous enfermer dans leur plate-forme propriétaire. Sans surprise, les catégories informations locales, sports et actualités atteignent un pourcentage élevé, puisqu’ils souhaitent être en première ligne pour vous offrir les meilleures publicités. Il est intéressant de noter que les contenus pour adultes sont en bas du classement : soit peu de personnes acceptent d’être vues avec une application classée X, soit les sites pornographiques adorent infecter leurs utilisateurs avec des malwares via le navigateur.

Des prétextes mensongers

Même si les éditeurs de contenu demandent si nous « souhaitons » utiliser leur application, c’est un euphémisme. Ils veulent que nous l’utilisions. En nous privant de la maîtrise plus grande offerte par les navigateurs, ils peuvent mieux influencer les éléments que nous voyons et les choix que nous faisons. Le Web nous appartient à tous, alors que l’application n’est réellement qu’entre les mains de l’éditeur. Généralement, ils justifient l’existence de l’application en plus du site web en marmonnant des arguments autour d’une « expérience utilisateur améliorée », qui serait évidemment « bien plus rapide ». Il est curieux que les éditeurs préfèrent investir dans une technologie complètement différente, plutôt que de prendre la décision logique d’améliorer leur site internet en le rendant plus léger. Leur objectif principal, en réalité, est de nous garder dans l’application. Depuis iOS 9, cliquer sur un lien dans une application permet d’ouvrir un navigateur interne à l’application. Non seulement cette fonctionnalité prête à confusion (depuis quelle application suis-je parti(e), déjà ?), mais surtout elle augmente le contrôle de l’application sur votre activité en ligne. Et une simple pression du doigt vous « ramène » vers l’application que vous n’aviez en fait jamais quittée. Dans ce sens, les applications contribuent sciemment à la « bulle de filtre ».

Les Articles Instantanés de Facebook sont un exemple extrême : un lien normal vous dirige vers la version « optimisée » d’une page à l’intérieur-même de l’application Facebook. Facebook salue cette nouveauté comme un moyen de « créer des articles rapides et interactifs sur Facebook » et ils ne mentent même pas sur ce point : vous ne naviguez même plus sur le vrai Web. Les Articles Instantanés sont vendus comme une expérience « interactive et immersive » avec plus de « flexibilité et de contrôle » (pour les fournisseurs de contenu bien sûr) qui entraînent de nouvelles possibilités de monétisation, et nous rendent une fois de plus « mesurables et traçables ».

Soyons honnêtes sur ce point : le Web fournit déjà des expériences interactives et immersives. Pour preuve, les Articles Instantanés sont développés en HTML5 ! Le Web, en revanche, vous permet de quitter Facebook, de contrôler ce que vous voyez, et de savoir si vous êtes pisté. Le nom « Articles Instantanés » fait référence à la promesse d’une rapidité accrue, et bien qu’ils soient effectivement plus rapides, cette rapidité ne nous est pas vraiment destinée. Facebook explique que les utilisateurs lisent 20% d’articles en plus et ont 70% de chances en moins d’abandonner leur lecture. Ces résultats favorisent principalement les éditeurs… et Facebook, qui a la possibilité de prendre une part des revenus publicitaires.

Rendez-nous le Web

Ne vous y trompez pas : les applications prétendent exister pour notre confort, mais leur véritable rôle est de nous attirer dans un environnement clos pour que les éditeurs de contenu puissent gagner plus d’argent en récoltant nos données et en vendant des publicités auxquelles on ne peut pas échapper. Les développeurs aussi gagnent plus, puisqu’ils sont désormais amenés à élaborer des interfaces pour plusieurs plate-formes au lieu d’une seule, le Web (comme si l’interface de programmation du Web n’était pas déjà assez coûteuse). Et les plate-formes de téléchargement d’applications font également tinter la caisse enregistreuse. Je ne suis pas naïf : les sites web aussi font de l’argent, mais au moins le font-ils dans un environnement ouvert dont nous avons nous-mêmes le contrôle. Pour l’instant, on peut encore souvent choisir entre le site et l’application, mais si ce choix venait à disparaître, l’accès illimité à l’information que nous considérons à juste titre comme normal sur le Web pourrait bien se volatiliser avec.

Certaines voix chez Facebook prédisent déjà la fin des sites web, et ce serait en effet bon pour eux : ils deviendraient enfin l’unique portail d’accès à Internet. Certains ont déjà oublié qu’il existe un Internet au-delà de Facebook ! La réaction logique de certains éditeurs est d’enfermer leur contenu au sein de leur propre application, pour ne plus dépendre de Facebook (ou ne plus avoir à y faire transiter leurs profits). Tout ceci crée exactement ce que je crains : un monde d’applications fragmenté, où un unique navigateur ne suffit plus pour consommer tous les contenus du monde. Nous devenons les prisonniers de leurs applis :

Last thing I remember, I was running for the door.

I had to find the passage back to the place I was before.

“Relax,” said the night man, “we are programmed to receive.”

“You can check out any time you like, but you can never leave!”

Eagles – Hotel California

 

Mon dernier souvenir, c’est que je courais vers la porte,

Je devais trouver un passage pour retourner d’où je venais

« Relax », m’a dit le gardien, « on est programmés pour recevoir »

« Tu peux rendre ta chambre quand tu veux, mais tu ne pourras jamais partir ! »

Eagles, Hotel California

Cette chanson me rappelle soudain le directeur de Facebook comparant les sites web et le vinyle. L’analogie ne pourrait pas être plus juste. Le Web est un disquaire, les sites sont des disques et le navigateur un tourne-disque : il peut jouer n’importe quel disque, et différents tourne-disques peuvent jouer le même disque. En revanche, une application est une boîte à musique : elle est peut-être aussi rapide qu’un fichier MP3, mais elle ne joue qu’un seul morceau, et contient tout un mécanisme dont vous n’auriez même pas besoin si seulement ce morceau était disponible en disque. Et ai-je déjà mentionné le fait qu’une boîte à musique ne vous laisse pas choisir le morceau qu’elle joue ?

Les sites web sont comme les vinyles : un tourne-disque suffit pour les écouter tous. Image : turntable CC-BY-SA Traaf
Les sites web sont comme les vinyles : un tourne-disque suffit pour les écouter tous.
Image : turntable CC-BY-SA Traaf

C’est la raison pour laquelle je préfère les tourne-disques aux boîtes à musique – et les navigateurs aux applications. Alors à tous les éditeurs qui me demandent d’utiliser leur application, je voudrais répondre : pourquoi n’utilisez-vous pas plutôt le Web ?




Ray’s Day 2016, la nouvelle choisie par le Framablog

Chez Framasoft, on adore le Ray’s Day et on s’efforce d’y participer à notre manière. Aujourd’hui nous avons publié nos contributions :

Mais c’est aussi l’occasion de découvrir des textes malicieux comme celui que nous republions ici, puisqu’il est sous licence CC-BY-SA… C’est Framasky qui l’a repéré et nous l’avons trouvé sympa. Bravo à Snædis Ika pour sa nouvelle, que nous vous invitons à déguster.

J’aime pas les cookies

inz8o98g_400x400Une nouvelle de Snædis Ika

Et si dans la vraie vie aussi, il y avait des cookies, comme ceux qui nous suivent un peu partout sur le net ? C’est sur la base de cette idée que j’ai écrit le petit texte qui suit.

Bonne lecture

* * *

Je jette un coup d’œil à la vitrine de cette toute nouvelle boutique de fringue qui habille toutes les filles qui ont un minimum de goûts. Les vêtements ont l’air de bonne qualité, ils sont colorés et les vendeuses ont l’air aussi sympathiques qu’elles sont squelettiques. Et soudain, je me fige. J’aperçois une robe, non, LA robe. Elle est rouge, ni trop courte ni trop longue, elle est superbe. Aucune chance qu’elle ne m’aille.

Peu importe, il me la faut, j’inspire un grand coup et je franchis le pas de la porte. Une clochette électronique n’a pas le temps de signaler mon entrée que déjà se tient devant moi une vendeuse dont le sourire rouge vif mange la moitié du visage, l’autre étant dévorée par des yeux d’un vert pomme peu naturel qu’une épaisse couche de maquillage rend démesurés. C’est à se demander comment un corps aussi frêle peut soutenir ces deux yeux et cette bouche.

« – Bonjour Madame ! Bienvenue dans notre magasin, prenez un cookie s’il vous plaît ! » m’accueille la vendeuse avec une affreuse voix nasillarde.

D’un geste élégant de la main, elle m’indique un petit panier sur le comptoir dans lequel sont disposés sur une serviette en papier rose des cookies fort appétissants. Je trouve l’accueil tout à fait agréable, et l’attention envers les clientes plus que charmante. Je me dois cependant de décliner son offre, aussi alléchante soit-elle.

« – Bonjour ! Non merci, je suis au régime, et si je veux rentrer dans cette magnifique robe que j’aperçois derrière vous sans être trop boudinée, je crains de devoir me passer de cookies pendant quelques temps. » je réponds à contrecœur.

Et pourtant les cookies, j’adore ça ; le biscuit qui craque sous la dent, les pépites de chocolat fondantes. Toute le monde aime ça. La seule condition pour les apprécier c’est de ne pas être trop regardant quant à la quantité de beurre qu’ils contiennent. Et je ne suis habituellement pas du genre trop regardante quant à ce genre de choses.

« – Excusez-moi, Madame, mais je me permets d’insister », reprend la vendeuse

« – Je vais insister aussi, Madame, je vous ai dit que je ne voulais pas de cookie. Je n’en prendrai pas. » je rétorque d’un ton ferme, fière de moi.

« – C’est la politique du magasin, Madame ! Désormais vous ne pouvez pas rentrer si vous ne prenez pas un cookie. » Le ton de la vendeuse se fait presque menaçant derrière son immuable sourire.

« – C’est quoi pour une politique ! Le but, c’est de faire grossir les clientes ?

— Je vous laisse le choix, vous n’êtes obligée à rien, Madame. Si vous n’acceptez pas les conditions du magasin, vous êtes libre de partir.

— Donc mon seul choix, c’est manger un cookie ou d’aller voir ailleurs ?

— Vous avez bien compris, Madame.

— OK. Raboule le cookie, il me faut cette robe ! »

6849414675_b40a00a84b_m
photo Stuart Spivak CC-BY-SA 2.0

Je tends la main sous l’imposant regard et saisis un cookie, un pas trop gros. La vendeuse me fixe toujours et je comprends que je ne dois pas juste prendre un cookie comme elle me l’a si gentiment proposé imposé mais quelle attend que je le mange. Je m’exécute et ses mâchoires semblent se relâcher, agrandissant encore son sourire. Histoire de faire part de mon agacement, j’ouvre grand la bouche et tire la langue pour lui montrer que je n’ai pas fait semblant, que je l’ai bien mangé, son cookie. Elle n’en fait pas cas et s’écarte joyeusement. Je suis à peine passée devant elle, toujours un peu perplexe face à cette histoire de biscuits que la vendeuse s’attaque déjà à la cliente suivante. Celle-ci ne se laisse pas prier et gobe sagement son cookie, visiblement habituée à cette situation.

Et moi qui croyais naïvement que tout à l’heure au supermarché, on m’avait offert un cookie pour essayer de m’en vendre un paquet. Je ne vais tout de même pas manger un cookie dans chaque magasin dans lequel je rentre, c’est absurde !

Je décide de me changer les idées et commence à faire un tour. Je regarde LA robe du coin de l’œil, je n’ose pas m’approcher tout de suite. Mon intérêt se porte sur un t-shirt orange basique. Je le prends à la main.

« – Bonjour ! Est-ce que je peux vous renseigner, Madame ? »

Cette question qui me fait sursauter me vient d’une vendeuse que je découvre juste à côté de moi. Je crois d’abord avoir affaire à la même que tout à l’heure. Mais j’aperçois que la première vendeuse se trouve toujours à l’entrée à distribuer ses biscuits. En regardant bien, je remarque que celle qui s’adresse à moi a un grain de beauté sur la joue. Ce grain de beauté est d’ailleurs beaucoup trop bien placé pour être vrai.

« – Non merci, je regarde seulement. Je réponds de la manière la plus polie possible. » J’aime bien qu’on me fiche la paix quand je fais du shopping. Et le reste du temps aussi.

« – Très bien, Madame. »

Je détourne les yeux de la vendeuse et commence à feindre de me passionner pour le t-shirt orange comme s’il s’agissait d’une poterie rare de la plus grande finesse en attendant qu’elle ne s’en prenne à quelqu’un d’autre. Du coin de l’œil, je vois qu’elle reste plantée à côté de moi. Souriante.

« – Madame, sachez tout de même que le vêtement le plus acheté en ce moment par les clientes ayant un profil similaire au vôtre est cette superbe robe à froufrous roses. »

Je me retourne à nouveau pour lui faire face et vois que d’un délicat signe de la main, elle caresse une robe à froufrous rose qu’elle tient dans l’autre main par le cintre. Je suis certaine qu’elle ne l’avait pas en main quand elle m’a adressé la parole il y a quelques secondes. Et j’ai beau jeter un œil autour de nous, je ne vois pas d’où elle a bien pu la sortir. Elle est apparue, c’est tout. De nulle part.

« – Ah non, il y a erreur, je réponds, clairement pas des gens qui ont le même profil que moi. Jamais je ne mettrai une horreur pareille ! Je pense que je vais me passer de vos conseils et me faire mon propre avis. Merci.

— Très bien, Madame. »

J’allais reprendre mon minutieux examen du t-shirt, mais quelque chose me turlupine et je ne peux m’empêcher de poser la question.

« – Simple curiosité, qu’est-ce que vous entendez par clientes ayant un profil similaire au mien ?

— Eh bien, Madame, il s’agit de clientes exigeantes, entre 25 et 30 ans, qui regardent la robe rouge sans oser l’essayer et mesurant moins d’un mètre soixante.

— C’est plutôt précis. Et pas vraiment flatteur.

— Nos profils sont tout ce qu’il y a de plus pertinents, Madame. D’ailleurs, je tiens à vous préciser que les personnes qui ont acheté le t-shirt que vous tenez entre les mains ont également acheté en moyenne 5 articles supplémentaires, parmi lesquels figurent cette robe à pois, ces chaussettes rayées, ce t-shirt bariolé, ce jeans délavé et des sous-vêtements affriolants qui sont exceptionnellement en action jusqu’à ce soir. »

Alliant le geste à la parole, elle me montre un à un les vêtements alors qu’elle les énumère, ils apparaissent tour à tour dans l’une de ses mains et elle finit par être presque entièrement dissimulée derrière la pile de vêtements dont ne dépasse plus que ses yeux et son sourire.

« – Donc peu importe ce que je dis, vous allez continuer à me conseiller des trucs bidons que d’autres clientes – dont vous supposez qu’elles ont les mêmes goûts que moi parce qu’on a regardé le même vêtement ou qu’on n’a pas assez grandi à la puberté – ont soit disant acheté. Et je suis censée vous croire sur parole ?

— Je peux également vous conseiller ce que les personnes qui habitent dans votre région ont acheté, Madame. Et je vous rends attentive au fait qu’il se peut que ce t-shirt orange soit en rupture de stock dans approximativement 10 minutes et 13 secondes. »

De son index droit qui dépasse des sous-vêtements affriolants qu’elle vient de me présenter, la vendeuse désigne le t-shirt que je porte à la main. Je baisse les yeux et le regarde un instant, perplexe. Avant de remarquer :

« – Je l’ai entre les mains, personne ne va me le voler. S’il risque d’être en rupture de stock, c’est parce que je risque de l’acheter, non ?

— Je vois qu’il s’agit du dernier exemplaire en votre taille et qu’il n’en reste plus en rayon. Statistiquement, cela signifie qu’il ne sera plus disponible dans 10 minutes et 13 secondes, Madame. »

Ce magasin commence à me faire flipper. J’ai l’impression d’être dans un très mauvais film de science-fiction, ou dans une caméra cachée, quoique pas très cachée la caméra de surveillance. Je lui adresse un sourire charmeur, au cas où. La voix de la vendeuse me tire de cette pensée.

« – Et je vois que vous avez acheté une brique de lait au supermarché, Madame. Sachez que les personnes qui achètent du lait ont généralement une préférence pour les t-shirts bleus, par exemple comme celui-ci. »

Un nouvel habit vient rejoindre la pile derrière laquelle se dissimule chaque fois un peu plus la vendeuse. Je jette un regard vers le sac de course que j’ai posé à mes pieds. Effectivement une brique de lait en dépasse, ainsi qu’un sachet de noix et une tige de poireau. Pour quelqu’un qui prétend manger sainement sain, c’est pas si mal. Heureusement qu’on ne voit pas ce qui se cache dessous. Moi qui rechignais à prendre un cookie, quand je pense à ce que j’ai acheté… Je détourne l’attention de la vendeuse de mes achats, ne pouvant retenir une remarque ironique.

« – Et les personnes qui achètent des poireaux ? Elles préfèrent le vert ?

— C’est tout à fait faux, Madame. Les clientes qui achètent des poireaux, ainsi que celles qui consultent la météo tous les jours ont tendance à avoir une préférence pour les vêtements blancs », répond la vendeuse le plus sérieusement du monde.

« – C’est n’importe quoi ces histoires, je n’y crois pas une seconde. »

418342500_a065eecfda_m
Photo Sandra Cohen-Rose CC-BY 2.0

Je me défais de la vendeuse et file en cabine pour essayer le t-shirt et LA robe, mais surtout pour me mettre à l’abri et reprendre mes esprits quelques minutes. J’enfile la robe rouge et bien que le modèle n’ait clairement pas été dessiné pour d’aussi petites jambes, elle me plaît ! Je me change et prends mon courage à deux mains pour sortir de la cabine, satisfaite de ma journée.

La vendeuse au grain de beauté et aux conseils personnalisés m’attend derrière le rideau. Elle me tend déjà la robe à froufrous rose qu’elle me présente toujours avec le même sourire. Elle semble un peu perdue me voyant ressortir tout sourire et bien décidée à faire l’acquisition de la fameuse robe rouge. Je comprends vite que les personnes qui ont mon profil ne l’achètent pas d’habitude et je me dirige fièrement vers la caisse alors que la vendeuse reste plantée devant la cabine, sa robe à froufrous à la main.

Le reste de la pile de vêtements qui la dissimulait a disparu, tout comme son sourire.




Bientôt l’Internet des objets risqués ?

Il sera peut-être une nouvelle fois traité de Cassandre et de parano, mais Bruce Schneier enfonce le clou !

Sensible aux signaux qu’envoient de façon croissante les faits divers mettant en cause les objets connectés — le fameux Internet des objets pour lequel « se mobilise » (sic) la grande distribution avec la French Techce spécialiste de la sécurité informatique qui a rejoint récemment le comité directeur du projet Tor veut montrer que les risques désormais ne concernent plus seulement la vie numérique mais bien, directement ou non, la vie réelle. Il insiste aussi une fois encore sur les limites de la technologie et la nécessité d’un volontarisme politique.

Quand l’internet des objets menace la sécurité du monde réel

par Bruce Schneier

Article original sur son blog Real-World Security and the Internet of Things

Traduction Framalang : Valdo, KoS, serici, audionuma, goofy

BruceSchneierByTerryRobinson
Photo par Terry Robinson (licence CC BY-SA 2.0)

Les récits de catastrophes qui impliquent l’Internet des objets sont à la mode. Ils mettent en scène les voitures connectées (avec ou sans conducteur), le réseau électrique, les barrages hydroélectriques et les conduits d’aération. Un scénario particulièrement réaliste et vivant, qui se déroule dans un avenir proche, a été publié le mois dernier dans New York Magazine, décrivant une cyberattaque sur New York qui comprend le piratage de voitures, du réseau de distribution de l’eau, des hôpitaux, des ascenseurs et du réseau électrique. Dans de tels récits, un chaos total s’ensuit et des milliers de gens meurent. Bien sûr, certains de ces scénarios exagérèrent largement la destruction massive, mais les risques pour les individus sont bien réels. Et la sécurité classique des ordinateurs et des réseaux numériques n’est pas à la hauteur pour traiter de tels problèmes.

La sécurité traditionnelle des informations repose sur un triptyque : la confidentialité, l’intégrité et l’accès. On l’appelle aussi « C.I.A », ce qui, il faut bien le reconnaître, entretient la confusion dans le contexte de la sécurité nationale. Mais fondamentalement, voici les trois choses que je peux faire de vos données : les voler (confidentialité), les modifier (intégrité), ou vous empêcher de les obtenir (accès).

« L’internet des objets permettra des attaques que nous ne pouvons même pas imaginer. »

Jusqu’à présent, les menaces occasionnées par internet ont surtout concerné la confidentialité. Elles peuvent coûter cher; d’après cette étude chaque piratage de données a coûté 3.8 millions de dollars en moyenne. Elles peuvent s’avérer très gênantes, c’était le cas par exemple quand des photos de célébrités ont été volées sur le cloud d’Apple en 2014 ou lors du piratage du site de rencontres Ashley Madison en 2015. Elles peuvent faire des dégâts, comme quand le gouvernement de Corée du Nord a volé des milliers de documents à Sony ou quand des hackers ont piraté 83 millions de comptes de la banque JPMorgan Chase, dans les deux cas en 2014. Elles peuvent menacer la sécurité nationale, on l’a vu dans le cas du piratage de l’Office of Personnel Management par — pense-t-on — la Chine en 2015.

Avec l’Internet des objets, les menaces sur l’intégrité et la disponibilité sont plus importantes que celles concernant la confidentialité. C’est une chose si votre serrure intelligente peut être espionnée pour savoir qui est à la maison. C’est autre chose si elle peut être piratée pour permettre à un cambrioleur d’ouvrir la porte ou vous empêcher de l’ouvrir. Un pirate qui peut vous retirer le contrôle de votre voiture ou en prendre le contrôle est bien plus dangereux que celui qui peut espionner vos conversations ou pister la localisation de votre voiture.

Avec l’avènement de l’internet des objets et des systèmes physiques connectés en général, nous avons donné à Internet des bras et des jambes : la possibilité d’affecter directement le monde physique. Les attaques contre des données et des informations sont devenues des attaques contre la chair, l’acier et le béton.

Les menaces d’aujourd’hui incluent des hackers qui font s’écraser des avions en s’introduisant dans des réseaux informatiques, et qui désactivent à distance des voitures, qu’elles soient arrêtées et garées ou lancées à pleine vitesse sur une autoroute. Nous nous inquiétons à propos des manipulations de comptage des voix des machines de vote électronique, des canalisations d’eau gelées via des thermostats piratés, et de meurtre à distance au travers d’équipements médicaux piratés. Les possibilités sont à proprement parler infinies. L’internet des objets permettra des attaques que nous ne pouvons même pas imaginer.

thermostat connecté
Thermostat connecté, photo par athriftymrs.com, licence CC BY-SA 2.0

L’accroissement des risques provient de trois choses : le contrôle logiciel des systèmes, les interconnexions entre systèmes, et les systèmes automatiques ou autonomes. Jetons un œil à chacune d’entre elles.

Contrôle logiciel. L’internet des objets est le résultat de la transformation de tous les objets en ordinateurs. Cela nous apporte une puissance et une flexibilité énormes, mais aussi des insécurités par la même occasion. À mesure que les objets deviennent contrôlables de façon logicielle, ils deviennent vulnérables à toutes les attaques dont nous avons été témoins contre les ordinateurs. Mais étant donné qu’un bon nombre de ces objets sont à la fois bon marché et durables, la plupart des systèmes de mise à jour et de correctifs qui fonctionnent pour les ordinateurs et les téléphones intelligents ne fonctionneront pas ici. À l’heure actuelle, la seule manière de mieux sécuriser les routeurs individuels c’est de les jeter à la poubelle pour en acheter de nouveaux. Et la sécurité que vous obtenez en changeant fréquemment d’ordiphone ou d’ordinateur ne servira à rien pour protéger votre thermostat ou votre réfrigérateur : en moyenne vous changez ce dernier tous les 15 ans, et l’autre à peu près… jamais. Une étude récente de Princeton a découvert 500 000 appareils non sécurisés sur Internet. Ce nombre est sur le point d’augmenter de façon explosive.

Interconnexions. Ces systèmes devenant de plus en plus interconnectés, une vulnérabilité de l’un entraîne des attaques contres les autres. Nous avons déjà vu des comptes Gmail compromis à cause d’une vulnérabilité dans un réfrigérateur connecté Samsung, le réseau d’un hôpital compromis à cause de vulnérabilités dans du matériel médical et l’entreprise Target piratée à cause d’une vulnérabilité dans son système d’air conditionné. Les systèmes sont soumis à nombre d’externalités qui affectent d’autres systèmes de façon imprévisible et potentiellement dangereuse. Ce qui peut sembler bénin aux concepteurs d’un système particulier peut s’avérer néfaste une fois combiné à un autre système. Les vulnérabilités d’un système peuvent se répercuter sur un autre système et le résultat sera une vulnérabilité que personne n’a vu venir et que personne ne prendra la responsabilité de corriger. L’internet des objets va rendre les failles exploitables beaucoup plus communes. C’est mathématique. Si 100 systèmes interagissent entre eux, cela fait environ 5000 interactions et 5 000 vulnérabilités potentielles résultant de ces interactions. Si 300 systèmes interagissent entre eux, c’est 45 000 interactions. 1 000 systèmes : 12,5 millions d’interactions. La plupart seront bénignes ou sans intérêt, mais certaines seront très préjudiciables.

connectedHuman
Image par Omran Jamal lic. CC BY 2.0

Autonomie. Nos systèmes informatiques sont des plus en plus autonomes. Ils achètent et vendent des actions, allument et éteignent la chaudière, régulent les flux d’électricité à travers le réseau et, dans le cas des voitures autonomes, conduisent des véhicules de plusieurs tonnes jusqu’à destination. L’autonomie est une bonne chose pour toutes sortes de raisons, mais du point de vue de la sécurité, cela signifie qu’une attaque peut prendre effet immédiatement et partout à la fois. Plus nous retirons l’humain de la boucle, plus les attaques produiront des effets rapidement et plus nous perdrons notre capacité à compter sur une vraie intelligence pour remarquer que quelque chose ne va pas avant qu’il ne soit trop tard.

« Les risques et les solutions sont trop techniques pour être compris de la plupart des gens. »

Nous construisons des systèmes de plus en plus puissants et utiles. Le revers de la médaille est qu’ils sont de plus en plus dangereux. Une seule vulnérabilité a forcé Chrysler à rappeler 1,4 million de véhicules en 2015. Nous sommes habitués aux attaques à grande échelle contre les ordinateurs, rappelez-vous les infections massives de virus de ces dernières décennies, mais nous ne sommes pas préparés à ce que cela arrive à tout le reste de notre monde.

Les gouvernements en prennent conscience. L’année dernière, les directeurs du renseignement national James Clapper et de la NSA Mike Rogers ont témoigné devant le Congrès, mettant l’accent sur ces menaces. Tous deux pensent que nous sommes vulnérables.

Voici comment cela a été formulé dans le rapport sur les menaces mondiales du DNI :

La plupart des discussions sur les menaces numériques traitent de la disponibilité et de la confidentialité des informations ; l’espionnage en ligne s’attaque à la confidentialité, là où les attaques par déni de service ou les effacements de données menacent la disponibilité. À l’avenir, en revanche, nous verrons certainement apparaître des opérations modifiant les informations électroniques dont l’objectif sera de toucher à leur intégrité (c’est à dire leur précision et leur fiabilité) plutôt que de les effacer ou d’empêcher leur accès. Le processus de prise de décision des responsables gouvernementaux (civils ou militaires), des chefs d’entreprises, des investisseurs et d’autres sera handicapé s’ils ne peuvent faire confiance à l’information qu’ils reçoivent.

Le rapport sur l’évaluation de la menace pour 2016 mentionnait quelque chose de similaire :

Les futures opérations cybernétiques attacheront presque à coup sûr une plus grande importance à la modification et à la manipulation des données destinées à compromettre leur intégrité (c’est-à-dire la précision et la fiabilité) pour influencer la prise de décision, réduire la confiance dans les systèmes ou provoquer des effets physiques indésirables. Une plus large adoption des appareils connectés et de l’intelligence artificielle — dans des environnements tels que les services publics et la santé — ne fera qu’exacerber ces effets potentiels.

Les ingénieurs en sécurité travaillent sur des technologies qui peuvent atténuer une grande partie de ce risque, mais de nombreuses solutions ne seront pas déployées sans intervention du gouvernement. Ce n’est pas un problème que peut résoudre le marché. Comme dans le cas de la confidentialité des données, les risques et les solutions sont trop techniques pour être compris de la plupart des gens et des organisations ; les entreprises sont très désireuses de dissimuler le manque de sécurité de leurs propres systèmes à leurs clients, aux utilisateurs et au grand public ; les interconnexions peuvent rendre impossible d’établir le lien entre un piratage et les dégâts qu’il occasionne ; et les intérêts des entreprises coïncident rarement avec ceux du reste de la population.

Il faut que les gouvernements jouent un rôle plus important : fixer des normes, en surveiller le respect et proposer des solutions aux entreprises et aux réseaux. Et bien que le plan national d’action pour la cybersécurité de la Maison Blanche aille parfois dans la bonne direction, il ne va sûrement pas assez loin, parce que beaucoup d’entre nous avons la phobie de toute solution imposée par un gouvernement quelconque.

Le prochain président sera probablement contraint de gérer un désastre à grande échelle sur Internet, qui pourrait faire de nombreuses victimes. J’espère qu’il ou elle y fera face à la fois avec la conscience de ce que peut faire un gouvernement et qui est impossible aux entreprises, et avec la volonté politique nécessaire.

 

Bruce Schneier est un spécialiste reconnu en matière de sécurité informatique, sur laquelle il a publié plusieurs livres et de nombreux articles sur son blog schneier.com.

SchneierQuote
Citation recueillie par le site AZ Quotes « Si vous croyez que la technologie peut résoudre vos problèmes de sécurité, c’est que vous ne comprenez pas les problèmes et que vous ne comprenez pas la technologie. »




Les bénéfices d’un combat, témoignage

Il n’est pas toujours facile de militer activement, ça demande du temps, de l’énergie et le courage de surmonter les difficultés.

Mais c’est aussi l’occasion de se confronter à la réalité du monde, de se découvrir aussi, et de tirer une fierté légitime de victoires auxquelles on a contribué. C’est dans cet esprit que nous publions aujourd’hui le témoignage de Bram.

Membre de Framasoft, il fut militant à la Quadrature du net et à la Nurpa, il se concentre aujourd’hui sur des actions plus locales comme la Brique Internet ou encore Neutrinet, une association bruxelloise fournisseur d’accès à Internet et membre de la fédération FDN.

Il nous propose ici un retour d’expérience en définitive plutôt positif et nous explique fort bien quels bénéfices il a tirés de cet épisode militant.
Alors bien sûr, face aux lobbies, les formes et stratégies du combat ont évolué depuis la victoire contre ACTA qu’il évoque dans ce témoignage, donc la lutte aux côtés de la Quadrature s’est donné de nouveaux outils et des campagnes moins difficiles à vivre.

Mais l’essentiel demeure : l’action collaborative résolue est déterminante et il est possible de faire une différence.

 Le jour où j’ai compris que je pouvais faire une différence en politique

par Bram

C’est une histoire que je raconte parfois, au coin d’une table, mais que je n’ai jamais eu le courage de mettre par écrit, je profite d’un instant de motivation parce que je pense qu’en ce moment difficile pour nos actions politiques il est important de partager nos histoires et les récits de réussites. Nous manquons d’ailleurs cruellement d’histoires de nos luttes dans nos communautés.

bramCela remonte à l’année 2010, le gouvernement français venait de faire passer la loi Hadopi malgré tous ses déboires et j’avais regardé l’ensemble des débats à l’Assemblée nationale, j’étais particulièrement remonté avec l’envie de faire quelque chose et je venais à la fois de rejoindre la Quadrature du Net depuis 6 mois et de co-fonder la Nurpa dans la même période.

À ce moment-là, 4 eurodéputé·e·s venaient de lancer la déclaration écrite numéro 12 qui disait grosso merdo « si la Commission européenne ne rend pas public le texte d’ACTA, le Parlement européen votera contre ». Une déclaration écrite est un texte, qui, s’il est signé par la moitié des eurodéputé·e·s en moins de 6 mois, devient une prise de position officielle du Parlement européen (sans pour autant être contraignante).

Le problème c’est que signer ce texte ne peut se faire que de 2 manières : soit dans une salle obscure que personne ne connait au fin fond du Parlement européen, soit avant d’entrer en séance plénière, au moment où les Eurodéputé·e·s ont franchement beaucoup d’autres choses en tête que d’aller signer un papier — et bien entendu les plénières ne durent que quelques jours une seule fois par mois.

Mais le sujet était important, nous venions de découvrir ACTA, c’était une horreur et il fallait absolument se battre contre ce désastre annoncé

Pour précision, une déclaration écrite est également quelque chose de fort facile à proposer et par son côté non contraignant elle ne représente pas beaucoup d’enjeux. On a donc le droit à toute une série de déclarations écrites farfelues et sans grand intérêt généralement proposées par des Eurodéputé·e·s cherchant un moyen de montrer à leur électorat qu’elles ont foutu quelque chose sur un sujet quelconque. À l’époque nous avions trouvé, entre autres, une déclaration écrite proposant une journée internationale de la glace à Italienne artisanale et une autre demandant la déclassification de documents sur les OVNIs. Mais le sujet était important, nous venions de découvrir ACTA, c’était une horreur et il fallait absolument se battre contre ce désastre annoncé, la Quadrature du Net décida donc de soutenir cette déclaration écrite.

Février 2010, branle-bas de combat, un certain moustachu m’informe via IRC (eh oui) de la situation et me dit en gros : « ça serait bien si tu pouvais trouver quelques personnes et qu’on se rejoigne au Parlement, on a un truc important à faire signer aux Eurodéputé·e·s contre ACTA ». Pas tout à fait sûr de vraiment comprendre de quoi il s’agissait, mais ayant pressenti l’importance de l’événement, je me ramenai avec 4-5 personnes — à l’agréable surprise dudit moustachu. Ce fut alors le début de la bataille.

wd12-last-days

Une bataille épuisante qui dura plus de 6 mois à raison de une à deux visites au Parlement par mois. Notre action était simple : aller frapper à la porte des bureaux de tous les députés pour les convaincre de signer la déclaration écrite en leur expliquant à quel point c’était important et espérer qu’ils aillent signer, coller des affiches et distribuer mollement des tracts avant la plénière. Bien souvent nous n’avions affaire qu’aux assistants, les députés étant occupés à d’autres choses, quand ce n’était pas un bureau vide.

Ce fut l’occasion pour notre petit groupe (à l’exception du moustachu) de découvrir les rouages de l’advocatie de terrain, les lobbyistes ayant leur propre catégorie de badge au Parlement européen (que nous refusions, nous étions des citoyens, pas des lobbyistes) et les désillusions face aux arguments les plus efficaces… (« ton chef a signé et a dit de signer alors signe » « tous tes potes ont signé sauf toi » « ton adversaire a signé, si tu le fais pas tu vas passer pour un loser » « roh mais dites les Verts, l’ALDE a plus signé que vous ! » mais dit dans leur langue, bref, la cour de récré).

un travail pénible, ingrat et peu visible…

Je n’irai au Parlement que deux ou trois fois, cette activité étant bien trop stressante pour moi (merci les anxiétés sociales), je me suis retrouvé bien vite à m’occuper de quelque chose de fort important mais plus discret : maintenir la liste des signataires (en plus de trouver des bénévoles et de faire de la coordination). Une tâche bien moins simple que prévu à cause de l’incompétence technique du Parlement européen : il a plus de 700 Eurodéputé·e·s, certain·e·s partaient, certain·e·s venaient, les documents de ceux qui avaient signé changeaient tout le temps de forme et les députés parfois de nom (en fait c’était l’époque où le Parlement avait mal inscrit certains noms peu communs en Belgique notamment au niveau des accents) et le terme « opendata » commençait juste à apparaitre. Bref, un travail pénible, ingrat et peu visible, mais au moins on a pu faire des jolis graphiques (mmmh… en matplotlib) qui plaisaient beaucoup aux journalistes et qui étaient utilisés comme argumentaires auprès de certain·e·s Eurodéputé·e·s.

graph_signatures13032010

La route fut difficile, nous n’obtenions que peu de signatures au début, car nous préférions viser la droite en premier lieu dans l’espoir que ça ne finisse pas comme « un texte de gauche » que la droite refuserait de signer. Les progrès étaient lents et démotivants et le public était d’une totale indifférence pour cette procédure peu connue, sur un sujet pas encore très en vogue (pas grand-monde avait entendu parler d’ACTA ou saisi son importance). Ainsi, nos appels répétés à contacter les Eurodéputé·e·s restèrent sans grand résultat, pire encore à la plénière d’avril nous n’obtiendrons que 27 signatures. Combinées aux 62 et 57 signatures précédentes, cela nous amenait à 146 signatures : très très loin des 369 dont nous avions besoin alors qu’il ne nous restait que 4 plénières. Le moral était au plus bas et les drames présents.

des listes sur papier des Eurodéputé·e·s

Ce fut également une période intéressante au niveau de l’invention d’outils d’activisme : à partir des données des signataires (que j’avais extraites de memopol, qui à l’époque était une collection de 28 scripts Perl écrivant des pages mediawiki et pas le projet qui existe aujourd’hui) nous nous mîmes à concevoir des listes sur papier des Eurodéputé·e·s que nous prenions avec nous au Parlement européen avec des cases à remplir pour ensuite nous les échanger. Dans le désespoir de l’action « j’inventais » les pads avec la liste de toutes les informations des député·e·s à appeler et des champs à remplir en dessous avec les réponses obtenues (à l’époque le piphone n’existait même pas au stade d’idée, mais en est en partie inspiré) et j’invitais absolument tout le monde à aller dessus, ce fut très ironiquement aussi le moment où nous réalisions que les pads étaient limités par défaut à 14 connexions simultanées. Ce fut aussi l’époque où j’ouvris le compte twitter @UnGarage avec le moustachu.

l’instant magique plein de synergie

Les plénières suivantes ne furent gère meilleures : 39, 34 et 34 signatures soit 253 signatures au total, il nous en manquait 116 pour la dernière plénière, cela nous semblait totalement impossible. Coïncidence heureuse : cette dernière plénière de juillet eut lieu pile pendant les RMLLs 2010 de Bordeaux. La pression était à son comble, nous étions épuisé·e·s et déjà fort occupé·e·s, l’idée était de lancer une séance d’appels au Parlement avec des téléphones SIP mais rien ne marchait. Après 2-3 jours d’engueulades et de tensions intenses (je me rappelle avoir vu Benjamin consoler une permanente en larmes), nous finîmes par occuper un local et mettre en commun tous les téléphones des gens voulant bien nous les prêter (avec la promesse de remboursement des factures) et à faire un atelier d’appels au Eurodéputé·e·s.

Ce fut alors l’instant magique de synergie où plein de participant·e·s des RMLLs se sont mis·es à appeler les Eurodéputé·e·s à la chaîne. Je me rappelle d’un présentateur radio qui avait particulièrement marqué la salle : après avoir appelé impeccablement bien tou·te·s les Français·es et les Belges, nous découvrîmes qu’il était bilingue lorsqu’il se mit à faire pareil avec tou·te·s Bulgares dans leur langue ! De son côté, le moustachu qui était lui au Parlement européen n’était pas en reste et les 4 Eurodéputé·e·s à l’origine de la déclaration non plus. Le résultat fut au rendez-vous : nous obtînmes 100 signatures, ce n’était pas les 116 qu’il nous fallait, mais c’était assez pour pouvoir demander une rallonge à la plénière suivante, qui fut obtenue, et nous savions que les 16 signatures manquantes étaient une formalité (et nous les obtînmes par la suite).

Nous avions gagné.

Les conséquences de cet événement furent également intéressantes : cette victoire nous avait coûté cher matériellement (tout le budget « actions européennes » de la Quadrature y était passé et nous étions à la moitié de l’année) et humainement pour un résultat moyennement intéressant : une déclaration écrite, soit une prise de position officielle mais non contraignante du Parlement européen. Les effets de bord l’ont été bien plus cependant : les personnes que j’avais embarquées dans l’histoire se sont forcément beaucoup politisées (Bouska par exemple se présentera quelques années plus tard en tant que député pour les Français à l’étranger du Benelux et a foutu le bordel sur la question des votes sur Internet), ce fut également une des premières actions politiques de la toute jeune Nurpa qui a beaucoup grandi et on retrouve également l’influence de cette période dans une partie de la boîte à outils de la Quadrature (memopol, piphone) comme dans une partie des méthodes d’action qui furent et sont encore parfois utilisées.

wd12-votes

 

Un travail de groupe avant tout

J’étais personnellement épuisé et ce fut l’un des plus grand soulagements de ma vie mais aussi un accomplissement : je n’avais absolument pas tout fait tout seul, c’était un travail de groupe avant tout mais j’y avais eu un des rôles centraux et je ne sais pas si ça se serait fait sans moi tant la victoire avait été difficile à obtenir. J’avais 22 ans et j’avais eu un rôle central dans un groupe qui avait obtenu une prise de position publique du Parlement européen.

C’était donc possible.

actaStop
Le militantisme est un sport de combat




Les anciens Léviathans II — Internet. Pour un contre-ordre social

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?

Cet article est une re-publication sur le framablog, car ce texte s’inscrit dans une série de réflexions.

Vous avez raté les épisodes précédents ?

De la légitimité

Michel Foucault, disparu il y a trente ans, proposait d’approcher les grandes questions du monde à travers le rapport entre savoir et pouvoir. Cette méthode a l’avantage de contextualiser le discours que l’on est en train d’analyser : quels discours permettent d’exercer quels pouvoirs ? Et quels pouvoirs sont censés induire quelles contraintes et en vertu de quels discours ? Dans un de ses plus célèbres ouvrages, Surveiller et punir[1], Foucault démontre les mécanismes qui permettent de passer de la démonstration publique du pouvoir d’un seul, le monarque qui commande l’exécution publique des peines, à la normativité morale et physique imposée par le contrôle, jusqu’à l’auto-censure. Ce n’est plus le pouvoir qui est isolé dans la forteresse de l’autorité absolue, mais c’est l’individu qui exerce lui-même sa propre coercition. Ainsi, Surveiller et punir n’est pas un livre sur la prison mais sur la conformation de nos rapports sociaux à la fin du XXe siècle.

 

 

Deux autres auteurs et œuvres pas du tout importants. Du tout, du tout.
Deux autres auteurs et œuvres pas du tout importants. Du tout, du tout.

 

Les modèles économiques ont suivi cet ordre des choses : puisque la société est individualiste, c’est à l’individu que les discours doivent s’adresser. La plupart des modèles économiques qui préexistent à l’apparition de services sur Internet furent considérés, au début du XXIe siècle, comme les seuls capables de générer des bénéfices, de l’innovation et du bien-être social. L’exercice de la contrainte consistait à susciter le consentement des individus-utilisateurs dans un rapport qui, du moins le croyait-on, proposait une hiérarchie entre d’un côté les producteurs de contenus et services et, de l’autre côté, les utilisateurs. Il n’en était rien : les utilisateurs eux-mêmes étaient supposés produire des contenus œuvrant ainsi à la normalisation des rapports numériques où les créateurs exerçaient leur propre contrainte, c’est-à-dire accepter le dévoilement de leur vie privée (leur identité) en guise de tribut à l’expression de leurs idées, de leurs envies, de leurs besoins, de leurs rêves. Que n’avait-on pensé plus tôt au spectaculaire déploiement de la surveillance de masse focalisant non plus sur les actes, mais sur les éléments qui peuvent les déclencher ? Le commerce autant que l’État cherche à renseigner tout comportement prédictible dans la mesure où, pour l’un il permet de spéculer et pour l’autre il permet de planifier l’exercice du pouvoir. La société prédictible est ainsi devenue la force normalisatrice en fonction de laquelle tout discours et tout pouvoir s’exerce désormais (mais pas exclusivement) à travers l’organe de communication le plus puissant qui soit : Internet. L’affaire Snowden n’a fait que focaliser sur l’un de ses aspects relatif aux questions des défenses nationales. Mais l’aspect le plus important est que, comme le dit si bien Eben Moglen dans une conférence donnée à Berlin en 2012[2], « nous n’avons pas créé l’anonymat lorsque nous avons inventé Internet. »

Depuis le milieu des années 1980, les méthodes de collaboration dans la création de logiciels libres montraient que l’innovation devait être collective pour être assimilée et partagée par le plus grand nombre. La philosophie du Libre s’opposait à la nucléarisation sociale et proposait un modèle où, par la mise en réseau, le bien-être social pouvait émerger de la contribution volontaire de tous adhérant à des objectifs communs d’améliorations logicielles, techniques, sociales. Les créations non-logicielles de tout type ont fini par suivre le même chemin à travers l’extension des licences à des œuvres non logicielles. Les campagnes de financement collaboratif, en particulier lorsqu’elles visent à financer des projets sous licence libre, démontrent que dans un seul et même mouvement, il est possible à la fois de valider l’impact social du projet (par l’adhésion du nombre de donateurs) et assurer son développement. Pour reprendre Eben Moglen, ce n’est pas l’anonymat qui manque à Internet, c’est la possibilité de structurer une société de la collaboration qui échappe aux modèles anciens et à la coercition de droit privé qu’ils impliquent. C’est un changement de pouvoir qui est à l’œuvre et contre lequel toute réaction sera nécessairement celle de la punition : on comprend mieux l’arrivée plus ou moins subtile d’organes gouvernementaux et inter-gouvernementaux visant à sanctionner toute incartade qui soit effectivement condamnable en vertu du droit mais aussi à rigidifier les conditions d’arrivée des nouveaux modèles économiques et structurels qui contrecarrent les intérêts (individuels eux aussi, par définition) de quelques-uns. Nous ne sommes pas non plus à l’abri des resquilleurs et du libre-washing cherchant, sous couvert de sympathie, à rétablir une hiérarchie de contrôle.

Dans sa Lettre aux barbus[3], le 5 juin 2014, Laurent Chemla vise juste : le principe selon lequel « la sécurité globale (serait) la somme des sécurités individuelles » implique que la surveillance de masse (rendue possible, par exemple, grâce à notre consentement envers les services gratuits dont nous disposons sur Internet) provoque un déséquilibre entre d’une part ceux qui exercent le pouvoir et en ont les moyens et les connaissances, et d’autre part ceux sur qui s’exerce le pouvoir et qui demeurent les utilisateurs de l’organe même de l’exercice de ce pouvoir. Cette double contrainte n’est soluble qu’à la condition de cesser d’utiliser des outils centralisés et surtout s’en donner les moyens en « (imaginant) des outils qui créent le besoin plutôt que des outils qui répondent à des usages existants ». C’est-à-dire qu’il relève de la responsabilité de ceux qui détiennent des portions de savoir (les barbus, caricature des libristes) de proposer au plus grand nombre de nouveaux outils capables de rétablir l’équilibre et donc de contrecarrer l’exercice illégitime du pouvoir.

Une affaire de compétences

Par bien des aspects, le logiciel libre a transformé la vie politique. En premier lieu parce que les licences libres ont bouleversé les modèles[4] économiques et culturels hérités d’un régime de monopole. En second lieu, parce que les développements de logiciels libres n’impliquent pas de hiérarchie entre l’utilisateur et le concepteur et, dans ce contexte, et puisque le logiciel libre est aussi le support de la production de créations et d’informations, il implique des pratiques démocratiques de décision et de liberté d’expression. C’est en ce sens que la culture libre a souvent été qualifiée de « culture alternative » ou « contre-culture » parce qu’elle s’oppose assez frontalement avec les contraintes et les usages qui imposent à l’utilisateur une fenêtre minuscule pour échanger sa liberté contre des droits d’utilisation.

Contrairement à ce que l’on pouvait croire il y a seulement une dizaine d’années, tout le monde est en mesure de comprendre le paradoxe qu’il y a lorsque, pour pouvoir avoir le droit de communiquer avec la terre entière et 2 amis, vous devez auparavant céder vos droits et votre image à une entreprise comme Facebook. Il en est de même avec les formats de fichiers dont les limites ont vite été admises par le grand public qui ne comprenait et ne comprend toujours pas en vertu de quelle loi universelle le document écrit il y a 20 ans n’est aujourd’hui plus lisible avec le logiciel qui porte le même nom depuis cette époque. Les organisations libristes telles la Free Software Foundation[5], L’Electronic Frontier Foundation[6], l’April[7], l’Aful[8], Framasoft[9] et bien d’autres à travers le monde ont œuvré pour la promotion des formats ouverts et de l’interopérabilité à tel point que la décision publique a dû agir en devenant, la plupart du temps assez mollement, un organe de promotion de ces formats. Bien sûr, l’enjeu pour le secteur public est celui de la manipulation de données sensibles dont il faut assurer une certaine pérennité, mais il est aussi politique puisque le rapport entre les administrés et les organes de l’État doit se faire sans donner à une entreprise privée l’exclusivité des conditions de diffusion de l’information.

Extrait de l'expolibre de l'APRIL
Extrait de l’expolibre de l’APRIL

 

Les acteurs associatifs du Libre, sans se positionner en lobbies (alors même que les lobbies privés sont financièrement bien plus équipés) et en œuvrant auprès du public en donnant la possibilité à celui-ci d’agir concrètement, ont montré que la société civile est capable d’expertise dans ce domaine. Néanmoins, un obstacle de taille est encore à franchir : celui de donner les moyens techniques de rendre utilisables les solutions alternatives permettant une émancipation durable de la société. Peine perdue ? On pourrait le croire, alors que des instances comme le CNNum (Conseil National du Numérique) ont tendance à se résigner[10] et penser que les GAFA (Google, Apple, Facebook et Amazon) seraient des autorités incontournables, tout comme la soumission des internautes à cette nouvelle forme de féodalité serait irrémédiable.

Pour ce qui concerne la visibilité, on ne peut pas nier les efforts souvent exceptionnels engagés par les associations et fondations de tout poil visant à promouvoir le Libre et ses usages auprès du large public. Tout récemment, la Free Software Foundation a publié un site web multilingue exclusivement consacré à la question de la sécurité des données dans l’usage des courriels. Intitulé Email Self Defense[11], ce guide explique, étape par étape, la méthode pour chiffrer efficacement ses courriels avec des logiciels libres. Ce type de démarche est en réalité un symptôme, mais il n’est pas seulement celui d’une réaction face aux récentes affaires d’espionnage planétaire via Internet.

Pour reprendre l’idée de Foucault énoncée ci-dessus, le contexte de l’espionnage de masse est aujourd’hui tel qu’il laisse la place à un autre discours : celui de la nécessité de déployer de manière autonome des infrastructures propres à l’apprentissage et à l’usage des logiciels libres en fonction des besoins des populations. Auparavant, il était en effet aisé de susciter l’adhésion aux principes du logiciel libre sans pour autant déployer de nouveaux usages et sans un appui politique concret et courageux (comme les logiciels libres à l’école, dans les administrations, etc.). Aujourd’hui, non seulement les principes sont socialement intégrés mais de nouveaux usages ont fait leur apparition tout en restant prisonniers des systèmes en place. C’est ce que soulève très justement un article récent de Cory Doctorow[12] en citant une étude à propos de l’usage d’Internet chez les jeunes gens. Par exemple, une part non négligeable d’entre eux suppriment puis réactivent au besoin leurs comptes Facebook de manière à protéger leurs données et leur identité. Pour Doctorow, être « natifs du numérique » ne signifie nullement avoir un sens inné des bons usages sur Internet, en revanche leur sens de la confidentialité (et la créativité dont il est fait preuve pour la sauvegarder) est contrecarré par le fait que « Facebook rend extrêmement difficile toute tentative de protection de notre vie privée » et que, de manière plus générale, « les outils propices à la vie privée tendent à être peu pratiques ». Le sous-entendu est évident : même si l’installation logicielle est de plus en plus aisée, tout le monde n’est capable d’installer chez soi des solutions appropriées comme un serveur de courriel chiffré.

Que faire ?

Le diagnostic posé, que pouvons-nous faire ? Le domaine associatif a besoin d’argent. C’est un fait, d’ailleurs remarqué par le gouvernement français, qui avait fait de l’engagement associatif la grande « cause nationale de l’année 2014 ». Cette action[13] a au moins le mérite de valoriser l’économie sociale et solidaire, ainsi que le bénévolat. Les associations libristes sont déjà dans une dynamique similaire depuis un long moment, et parfois s’essoufflent… En revanche, il faut des investissements de taille pour avoir la possibilité de soutenir des infrastructures libres dédiées au public et répondant à ses usages numériques. Ces investissements sont difficiles pour au moins deux raisons :

  • la première réside dans le fait que les associations ont pour cela besoin de dons en argent. Les bonnes volontés ne suffisent pas et la monnaie disponible dans les seules communautés libristes est à ce jour en quantité insuffisante compte tenu des nombreuses sollicitations ;
  • la seconde découle de la première : il faut lancer un mouvement de financements participatifs ou des campagnes de dons ciblées de manière à susciter l’adhésion du grand public et proposer des solutions adaptées aux usages.

Pour cela, la première difficulté sera de lutter contre la gratuité. Aussi paradoxal que cela puisse paraître, la gratuité (relative) des services privateurs possède une dimension attractive si puissante qu’elle élude presque totalement l’existence des solutions libres ou non libres qui, elles, sont payantes. Pour rester dans le domaine de la correspondance, il est très difficile aujourd’hui de faire comprendre à Monsieur Dupont qu’il peut choisir un hébergeur de courriel payant, même au prix « participatif » d’1 euro par mois. En effet, Monsieur Dupont peut aujourd’hui utiliser, au choix : le serveur de courriel de son employeur, le serveur de courriel de son fournisseur d’accès à Internet, les serveurs de chez Google, Yahoo et autres fournisseurs disponibles très rapidement sur Internet. Dans l’ensemble, ces solutions sont relativement efficaces, simples d’utilisation, et ne nécessitent pas de dépenses supplémentaires. Autant d’arguments qui permettent d’ignorer la question de la confidentialité des courriels qui peuvent être lus et/ou analysés par son employeur, son fournisseur d’accès, des sociétés tierces…

Pourtant des solutions libres, payantes et respectueuses des libertés, existent depuis longtemps. C’est le cas de Sud-Ouest.org[14], une plate-forme d’hébergement mail à prix libre. Ou encore l’association Lautre.net[15], qui propose une solution d’hébergement de site web, mais aussi une adresse courriel, la possibilité de partager ses documents via FTP, la création de listes de discussion, etc. Pour vivre, elle propose une participation financière à la gestion de son infrastructure, quoi de plus normal ?

Aujourd’hui, il est de la responsabilité des associations libristes de multiplier ce genre de solutions. Cependant, pour dégager l’obstacle de la contrepartie financière systématique, il est possible d’ouvrir gratuitement des services au plus grand nombre en comptant exclusivement sur la participation de quelques-uns (mais les plus nombreux possible). En d’autres termes, il s’agit de mutualiser à la fois les plates-formes et les moyens financiers. Cela ne rend pas pour autant les offres gratuites, simplement le coût total est réparti socialement tant en unités de monnaie qu’en contributions de compétences. Pour cela, il faut savoir convaincre un public déjà largement refroidi par les pratiques des géants du web et qui perd confiance.

Framasoft propose des solutions

Parmi les nombreux projets de Framasoft, il en est un, plus généraliste, qui porte exclusivement sur les moyens techniques (logiciels et matériels) de l’émancipation du web. Il vise à renouer avec les principes qui ont guidé (en des temps désormais très anciens) la création d’Internet, à savoir : un Internet libre, décentralisé (ou démocratique), éthique et solidaire (l.d.e.s.).

Framasoft n’a cependant pas le monopole de ces principes l.d.e.s., loin s’en faut, en particulier parce que les acteurs du Libre œuvrent tous à l’adoption de ces principes. Mais Framasoft compte désormais jouer un rôle d’interface. À l’instar d’un Google qui rachète des start-up pour installer leurs solutions à son compte et constituer son nuage, Framasoft se propose depuis 2010, d’héberger des solutions libres pour les ouvrir gratuitement à tout public. C’est ainsi que par exemple, des particuliers, des syndicats, des associations et des entreprises utilisent les instances Framapad et Framadate. Il s’agit du logiciel Etherpad, un système de traitement de texte collaboratif, et d’un système de sondage issu de l’Université de Strasbourg (Studs) permettant de convenir d’une date de réunion ou créer un questionnaire. Des milliers d’utilisateurs ont déjà bénéficié de ces applications en ligne ainsi que d’autres, qui sont listées sur Framalab.org[16].

Depuis le début de l’année 2014, Framasoft a entamé une stratégie qui, jusqu’à présent est apparue comme un iceberg aux yeux du public. Pour la partie émergée, nous avons tout d’abord commencé par rompre radicalement les ponts avec les outils que nous avions tendance à utiliser par pure facilité. Comme nous l’avions annoncé lors de la campagne de don 2013, nous avons quitté les services de Google pour nos listes de discussion et nos analyses statistiques. Nous avons choisi d’installer une instance Bluemind, ouvert un serveur Sympa, mis en place Piwik ; quant à la publicité et les contenus embarqués, nous pouvons désormais nous enorgueillir d’assurer à tous nos visiteurs que nous ne nourrissons plus la base de données de Google. À l’échelle du réseau Framasoft, ces efforts ont été très importants et ont nécessité des compétences et une organisation technique dont jusque là nous ne disposions pas.

L'état de la Dégooglisation en octobre 2015...
L’état de la Dégooglisation en octobre 2015…

 

Nous ne souhaitons pas nous arrêter là. La face immergée de l’iceberg est en réalité le déploiement sans précédent de plusieurs services ouverts. Ces services ne sont pas seulement proposés, ils sont accompagnés d’une pédagogie visant à montrer comment[17] installer des instances similaires pour soi-même ou pour son organisation. Nous y attachons d’autant plus d’importance que l’objectif n’est pas de commettre l’erreur de proposer des alternatives centralisées mais d’essaimer au maximum les solutions proposées.

Au mois de juin, nous avons lancé une campagne de financement participatif afin d’améliorer Etherpad (sur lequel est basé notre service Framapad) en travaillant sur un plugin baptisé Mypads : il s’agit d’ouvrir des instances privées, collaboratives ou non, et les regrouper à l’envi, ce qui permettra in fine de proposer une alternative sérieuse à Google Docs. À l’heure où j’écris ces lignes, la campagne est une pleine réussite et le déploiement de Mypads (ainsi que sa mise à disposition pour toute instance Etherpad) est prévue pour le dernier trimestre 2014. Nous avons de même comblé les utilisateurs de Framindmap, notre créateur en ligne de carte heuristiques, en leur donnant une dimension collaborative avec Wisemapping, une solution plus complète.

Au mois de juillet, nous avons lancé Framasphère[18], une instance Diaspora* dont l’objectif est de proposer (avec Diaspora-fr[19]) une alternative à Facebook en l’ouvrant cette fois au maximum en direction des personnes extérieures au monde libriste. Nous espérons pouvoir attirer ainsi l’attention sur le fait qu’aujourd’hui, les réseaux sociaux doivent afficher clairement une éthique respectueuse des libertés et des droits, ce que nous pouvons garantir de notre côté.

Enfin, après l’été 2014, nous comptons de même offrir aux utilisateurs un moteur de recherche (Framasearx) et d’ici 2015, si tout va bien, un diaporama en ligne, un service de visioconférence, des services de partage de fichiers anonymes et chiffrés, et puis… et puis…

Aurons-nous les moyens techniques et financiers de supporter la charge ? J’aimerais me contenter de dire que nous avons la prétention de faire ainsi œuvre publique et que nous devons réussir parce qu’Internet a aujourd’hui besoin de davantage de zones libres et partagées. Mais cela ne suffit pas. D’après les derniers calculs, si l’on compare en termes de serveurs, de chiffre d’affaires et d’employés, Framasoft est environ 38.000 fois plus petit que Google[20]. Or, nous n’avons pas peur, nous ne sommes pas résignés, et nous avons nous aussi une vision au long terme pour changer le monde[21]. Nous savons qu’une population de plus en plus importante (presque majoritaire, en fait) adhère aux mêmes principes que ceux du modèle économique, technique et éthique que nous proposons. C’est à la société civile de se mobiliser et nous allons développer un espace d’expression de ces besoins avec les moyens financiers de 200 mètres d’autoroute en équivalent fonds publics. Dans les mois et les années qui viennent, nous exposerons ensemble des méthodes et des exemples concrets pour améliorer Internet. Nous aider et vous investir, c’est rendre possible le passage de la résistance à la réalisation.

Ce document est placé sous Licence Art Libre 1.3 (Document version 1.0)
Paru initialement dans Linux Pratique n°85 Septembre/Octobre 2014, avec leur aimable autorisation.

Notes

[1] Michel Foucault, Surveiller et punir. Naissance de la prison, Paris : Gallimard, 1975; http://fr.wikipedia.org/wiki/Surveiller_et_punir

[2] Eben Moglen, « Why Freedom of Thought Requires Free Media and Why Free Media Require Free Technology », Re:Publica Conference, 02 mai 2012, Berlin; http://12.re-publica.de/panel/why-freedom-of-thought-requires-free-media-and-why-free-media-require-free-technology/

[3] Laurent Chemla, « Lettre aux barbus », Mediapart, 05/06/2014; http://blogs.mediapart.fr/blog/laurent-chemla/050614/lettre-aux-barbus

[4] Benjamin Jean, Option libre. Du bon usage des licences libres, Paris : Framasoft/Framabook, 2011; http://framabook.org/option-libre-du-bon-usage-des-licences-libres

[5] La FSF se donne pour mission mondiale la promotion du logiciel libre et la défense des utilisateurs; http://www.fsf.org/

[6] L’objectif de l’EFF est de défendre la liberté d’expression sur Internet, ce qui implique l’utilisation des logiciels libres; http://www.eff.org

[7] April. Promouvoir et défendre le logiciel libre; http://www.april.org

[8] Association Francophone des Utilisateurs de Logiciels Libres; https://aful.org

[9] Framasoft, La route est longue mais la voie est libre; http://framasoft.org

[10] Voir à ce sujet l’analyse du dernier rapport du CNNum sur « la neutralité des plateformes », par Stéphane Bortzmeyer; http://www.bortzmeyer.org/neutralite-plateformes.html

[11] Autodéfense courriel; https://emailselfdefense.fsf.org/fr/.

[12] Cory Doctorow, « Vous êtes “natif du numérique” ? – Ce n’est pas si grave, mais… », trad. fr. sur Framablog, le 6 juin 2014; https://framablog.org/index.php/post/2014/06/05/vous-etes-natifs-num%C3%A9riques-pas-grave-mais

[13] Sera-t-elle efficace ? c’est une autre question

[14] Plateforme libre d’hébergement mail à prix libre; https://www.sud-ouest.org

[15] L’Autre Net, hébergeur associatif autogéré; http://www.lautre.net

[16] Le laboratoire des projets Framasoft; https://framalab.org

[17] On peut voir ce tutoriel d’installation de Wisemapping comme exemple de promotion de la décentralisation; http://framacloud.org/cultiver-son-jardin/installation-de-wisemapping/

[18] Un réseau social libre, respectueux et décentralisé; https://framasphere.org

[19] Noeud du réseau Diaspora*, hébergé en France chez OVH; https://diaspora-fr.org/

[20] Voir au sujet de la dégooglisation d’Internet la conférence de Pierre-Yves Gosset lors des Rencontres Mondiales du Logiciel Libre, juillet 2014, Montpellier; http://video.rmll.info/videos/quelles-alternatives-a-google-retours-sur-lexperience-framacloud

[21] Cette vision du monde vaut bien celle de Google, qui faisait l’objet de la Une de Courrier International du mois de mai 2014. http://www.courrierinternational.com/article/2014/05/27/google-maitre-du-futur.




Les nouveaux Léviathans II — Surveillance et confiance (b)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

(suite de la section précédente)

Trouver les bonnes clés

Cette logique du marché, doit être analysée avec d’autres outils que ceux de l’économie classique. L’impact de l’informationnalisation et la concentration des acteurs de l’économie numérique ont sans doute été largement sous-estimés, non pas pour les risques qu’ils font courir aux économies post-industrielles, mais pour les bouleversements sociaux qu’ils impliquent. Le besoin de défendre les droits et libertés sur Internet et ailleurs n’est qu’un effet collatéral d’une situation contre laquelle il est difficile d’opposer seulement des postures et des principes.

Il faut entendre les mots de Marc Rotenberg, président de l’Electronic Privacy Information Center (EPIC), pour qui le débat dépasse désormais la seule question de la neutralité du réseau ou de la liberté d’expression1. Pour lui, nous avons besoin d’analyser ce qui structure la concentration du marché. Mais le phénomène de concentration dans tous les services de communication que nous utilisons implique des échelles tellement grandes, que nous avons besoin d’instruments de mesure au moins aussi grands. Nous avons besoin d’une nouvelle science pour comprendre Internet, le numérique et tout ce qui découle des formes d’automatisation.

Diapositive extraite de la conférence "Dégooglisons Internet"
Diapositive extraite de la conférence « Dégooglisons Internet »

On s’arrête bien souvent sur l’aspect le plus spectaculaire de la fuite d’environ 1,7 millions de documents grâce à Edward Snowden en 2013, qui montrent que les États, à commencer par les États-Unis, ont créé des systèmes de surveillance de leurs populations au détriment du respect de la vie privée. Pour beaucoup de personnes, cette atteinte doit être ramenée à la dimension individuelle : dois-je avoir quelque chose à cacher ? comment échapper à cette surveillance ? implique-t-elle un contrôle des populations ? un contrôle de l’expression ? en quoi ma liberté est-elle en danger ? etc. Mais peu de personnes se sont réellement interrogées sur le fait que si la NSA s’est fait livrer ces quantités gigantesques d’informations par des fournisseurs de services (comme par exemple, la totalité des données téléphoniques de Verizon ou les données d’échanges de courriels du service Hotmail de Microsoft) c’est parce que ces entreprises avaient effectivement les moyens de les fournir et que par conséquent de telles quantités d’informations sur les populations sont tout à fait exploitables et interprétables en premier lieu par ces mêmes fournisseurs.

Face à cela, plusieurs attitudes sont possibles. En les caricaturant, elles peuvent être :

  • Positivistes. On peut toujours s’extasier devant les innovations de Google surtout parce que la culture de l’innovation à la Google est une composante du story telling organisé pour capter l’attention des consommateurs. La communication est non seulement exemplaire mais elle constitue un modèle d’après Google qui en donne même les recettes (cf. les deux liens précédents). Que Google, Apple, Microsoft, Facebook ou Amazon possèdent des données me concernant, cela ne serait qu’un détail car nous avons tous l’opportunité de participer à cette grande aventure du numérique (hum !).
  • Défaitistes. On n’y peut rien, il faut donc se contenter de protéger sa vie privée par des moyens plus ou moins dérisoires, comme par exemple faire du bruit pour brouiller les pistes et faire des concessions car c’est le prix à payer pour profiter des applications bien utiles. Cette attitude consiste à échanger l’utilité contre l’information, ce que nous faisons à chaque fois que nous validons les clauses d’utilisation des services GAFAM.
  • Complotistes. Les procédés de captation des données servent ceux qui veulent nous espionner. Les utilisations commerciales seraient finalement secondaires car c’est contre l’emploi des données par les États qu’il faut lutter. C’est la logique du moins d’État contre la liberté du nouveau monde numérique, comme si le choix consistait à donner notre confiance soit aux États soit aux GAFAM, liberté par contrat social ou liberté par consommation.

Les objectifs de cette accumulation de données sont effectivement différents que ceux poursuivis par la NSA et ses institutions homologues. La concentration des entreprises crée le besoin crucial d’organiser les monopoles pour conserver un marché stable. Les ententes entre entreprises, repoussant toujours davantage les limites juridiques des autorités de régulations, créent une logique qui ne consiste plus à s’adapter à un marché aléatoire, mais adapter le marché à l’offre en l’analysant en temps réel, en utilisant les données quotidiennes des utilisateurs de services. Il faut donc analyser ce capitalisme de surveillance, ainsi que le nomme Shoshana Zuboff, car comme nous l’avons vu :

  • les États ont de moins en moins les capacités de réguler ces activités,
  • nous sommes devenus des produits de variables qui configurent nos comportements et nos besoins.

L’ancienne conception libérale du marché, l’acception économique du contrat social, reposait sur l’idée que la démocratie se consolide par l’égalitarisme des acteurs et l’équilibre du marché. Que l’on adhère ou pas à ce point de vue, il reste qu’aujourd’hui le marché ne s’équilibre plus par des mécanismes libéraux mais par la seule volonté de quelques entreprises. Cela pose inévitablement une question démocratique.

Dans son rapport, Antoinette Rouvroy en vient à adresser une série de questions sur les répercutions de cette morphologie du marché. Sans y apporter franchement de réponse, elle en souligne les enjeux :

Ces dispositifs d’« anticipation performative » des intentions d’achat (qui est aussi un court-circuitage du processus de transformation de la pulsion en désir ou en intention énonçable), d’optimisation de la force de travail fondée sur la détection anticipative des performances futures sur base d’indicateurs produits automatiquement au départ d’analyses de type Big Data (qui signifie aussi une chute vertigineuse du « cours de l’expérience » et des mérites individuels sur le marché de l’emploi), posent des questions innombrables. L’anticipation performative des intentions –et les nouvelles possibilités d’actions préemptives fondées sur la détection des intentions – est-elle compatible avec la poursuite de l’autodétermination des personnes ? Ne faut-il pas concevoir que la possibilité d’énoncer par soi-même et pour soi-même ses intentions et motivations constitue un élément essentiel de l’autodétermination des personnes, contre cette utopie, ou cette dystopie, d’une société dispensée de l’épreuve d’un monde hors calcul, d’un monde où les décisions soient autre chose que l’application scrupuleuse de recommandations automatiques, d’un monde où les décisions portent encore la marque d’un engagement subjectif ? Comment déterminer la loyauté de ces pratiques ? L’optimisation de la force de travail fondée sur le profilage numérique est-il compatible avec le principe d’égalité et de non-discrimination ?2

Ce qui est questionné par A. Rouvroy, c’est ce que Zuboff nomme le capitalisme de surveillance, du moins une partie des pratiques qui lui sont inhérentes. Dès lors, au lieu de continuer à se poser des questions, il est important d’intégrer l’idée que si le paradigme a changé, les clés de lecture sont forcément nouvelles.

Déconstruire le capitalisme de surveillance

Shoshana Zuboff a su identifier les pratiques qui déconstruisent l’équilibre originel et créent ce nouveau capitalisme. Elle pose ainsi les jalons de cette nouvelle « science » qu’appelle de ses vœux Marc Rotenberg, et donne des clés de lecture pertinentes. L’essentiel des concepts qu’elle propose se trouve dans son article « Big other: surveillance capitalism and the prospects of an information civilization », paru en 20153. Dans cet article S. Zuboff décortique deux discours de Hal Varian, chef économiste de Google et s’en sert de trame pour identifier et analyser les processus du capitalisme de surveillance. Dans ce qui suit, je vais essayer d’expliquer quelques clés issues du travail de S. Zuboff.

Sur quelle stratégie repose le capitalisme de surveillance ?

Il s’agit de la stratégie de commercialisation de la quotidienneté en modélisant cette dernière en autant de données analysées, inférences et prédictions. La logique d’accumulation, l’automatisation et la dérégulation de l’extraction et du traitement de ces données rendent floues les frontières entre vie privée et consommation, entre les firmes et le public, entre l’intention et l’information.

Qu’est-ce que la quotidienneté ?

Il s’agit de ce qui concerne la sphère individuelle mais appréhendée en réseau. L’informationnalisation de nos profils individuels provient de plusieurs sources. Il peut s’agir des informations conventionnelles (au sens propre) telles que nos données d’identité, nos données bancaires, etc. Elles peuvent résulter de croisements de flux de données et donner lieu à des inférences. Elles peuvent aussi provenir des objets connectés, agissant comme des sensors ou encore résulter des activités de surveillance plus ou moins connues. Si toutes ces données permettent le profilage c’est aussi par elles que nous déterminons notre présence numérique. Avoir une connexion Internet est aujourd’hui reconnu comme un droit : nous ne distinguons plus nos activités d’expression sur Internet des autres activités d’expression. Les activités numériques n’ont plus à être considérées comme des activités virtuelles, distinctes de la réalité. Nos pages Facebook ne sont pas plus virtuelles que notre compte Amazon ou notre dernière déclaration d’impôt en ligne. Si bien que cette activité en réseau est devenue si quotidienne qu’elle génère elle-même de nouveaux comportements et besoins, produisant de nouvelles données analysées, agrégées, commercialisées.

Extraction des données

S. Zuboff dresse un inventaire des types de données, des pratiques d’extraction, et les enjeux de l’analyse. Il faut cependant comprendre qu’il y a de multiples manières de « traiter » les données. La Directive 95/46/CE (Commission Européenne) en dressait un inventaire, déjà en 19954 :

« traitement de données à caractère personnel » (traitement) : toute opération ou ensemble d’opérations effectuées ou non à l’aide de procédés automatisés et appliquées à des données à caractère personnel, telles que la collecte, l’enregistrement, l’organisation, la conservation, l’adaptation ou la modification, l’extraction, la consultation, l’utilisation, la communication par transmission, diffusion ou toute autre forme de mise à disposition, le rapprochement ou l’interconnexion, ainsi que le verrouillage, l’effacement ou la destruction.

Le processus d’extraction de données n’est pas un processus autonome, il ne relève pas de l’initiative isolée d’une ou quelques firmes sur un marché de niche. Il constitue désormais la norme commune à une multitude de firmes, y compris celles qui n’œuvrent pas dans le secteur numérique. Il s’agit d’un modèle de développement qui remplace l’accumulation de capital. Autant cette dernière était, dans un modèle économique révolu, un facteur de production (par les investissements, par exemple), autant l’accumulation de données est désormais la clé de production de capital, lui-même réinvesti en partie dans des solutions d’extraction et d’analyse de données, et non dans des moyens de production, et pour une autre partie dans la valorisation boursière, par exemple pour le rachat d’autres sociétés, à l’image des multiples rachats de Google.

Neutralité et indifférence

Les données qu’exploite Google sont très diverses. On s’interroge généralement sur celles qui concernent les catégories auxquelles nous accordons de l’importance, comme par exemple lorsque nous effectuons une recherche au sujet d’une mauvaise grippe et que Google Now nous propose une consultation médicale à distance. Mais il y a une multitude de données dont nous soupçonnons à peine l’existence, ou apparemment insignifiantes pour soi, mais qui, ramenées à des millions, prennent un sens tout à fait probant pour qui veut les exploiter. On peut citer par exemple le temps de consultation d’un site. Si Google est prêt à signaler des contenus à l’administration des États-Unis, comme l’a dénoncé Julian Assange ou si les relations publiques de la firme montrent une certaine proximité avec les autorités de différents pays et l’impliquent dans des programmes d’espionnage, il reste que cette attitude coopérante relève essentiellement d’une stratégie économique. En réalité, l’accumulation et l’exploitation des données suppose une indifférence formelle par rapport à leur signification pour l’utilisateur. Quelle que soit l’importance que l’on accorde à l’information, le postulat de départ du capitalisme de surveillance, c’est l’accumulation de quantités de données, non leur qualité. Quant au sens, c’est le marché publicitaire qui le produit.

L’extraction et la confiance

S. Zuboff dresse aussi un court inventaire des pratiques d’extraction de Google. L’exemple emblématique est Google Street View, qui rencontra de multiples obstacles à travers le monde : la technique consiste à s’immiscer sur des territoires et capturer autant de données possible jusqu’à rencontrer de la résistance qu’elle soit juridique, politique ou médiatique. Il en fut de même pour l’analyse du courrier électronique sur Gmail, la capture des communications vocales, les paramètres de confidentialité, l’agrégation des données des comptes sur des services comme Google+, la conservation des données de recherche, la géolocalisation des smartphones, la reconnaissance faciale, etc.

En somme, le processus d’extraction est un processus à sens unique, qui ne tient aucun compte (ou le moins possible) de l’avis de l’utilisateur. C’est l’absence de réciprocité.

On peut ajouter à cela la puissance des Big Data dans l’automatisation des relations entre le consommateur et le fournisseur de service. Google Now propose de se substituer à une grande partie de la confidentialité entre médecin et patient en décelant au moins les causes subjectives de la consultation (en interprétant les recherches). Hal Varian lui-même vante les mérites de l’automatisation de la relation entre assureurs et assurés dans un monde où l’on peut couper à distance le démarrage de la voiture si le client n’a pas payé ses traites. Des assurances santé et même des mutuelles (!) proposent aujourd’hui des applications d’auto-mesure (quantified self)de l’activité physique, dont on sait pertinemment que cela résultera sur autant d’ajustements des prix voire des refus d’assurance pour les moins chanceux.

La relation contractuelle est ainsi automatisée, ce qui élimine d’autant le risque lié aux obligations des parties. En d’autres termes, pour éviter qu’une partie ne respecte pas ses obligations, on se passe de la confiance que le contrat est censé formaliser, au profit de l’automatisation de la sanction. Le contrat se résume alors à l’acceptation de cette automatisation. Si l’arbitrage est automatique, plus besoin de recours juridique. Plus besoin de la confiance dont la justice est censée être la mesure.

Entre l’absence de réciprocité et la remise en cause de la relation de confiance dans le contrat passé avec l’utilisateur, ce sont les bases démocratiques de nos rapports sociaux qui sont remises en question puisque le fondement de la loi et de la justice, c’est le contrat et la formalisation de la confiance.

Warning : Don’t feed the Google
Warning : Don’t feed the Google

Qu’implique cette nouvelle forme du marché ?

Plus Google a d’utilisateurs, plus il rassemble des données. Plus il y a de données plus leur valeur predictive augmente et optimise le potentiel lucratif. Pour des firmes comme Google, le marché n’est pas composé d’agents rationnels qui choisissent entre plusieurs offres et configurent la concurrence. La société « à la Google » n’est plus fondée sur des relations de réciprocité, même s’il s’agit de luttes sociales ou de revendications.

L’« uberisation » de la société (voir le début de cet article) qui nous transforme tous en employés ou la transformation des citoyens en purs consommateurs, c’est exactement le cauchemar d’Hannah Arendt que S. Zuboff cite longuement :

Le dernier stade de la société de travail, la société d’employés, exige de ses membres un pur fonctionnement automatique, comme si la vie individuelle était réellement submergée par le processus global de la vie de l’espèce, comme si la seule décision encore requise de l’individu était de lâcher, pour ainsi dire, d’abandonner son individualité, sa peine et son inquiétude de vivre encore individuellement senties, et d’acquiescer à un type de comportement, hébété, « tranquillisé » et fonctionnel. Ce qu’il y a de fâcheux dans les théories modernes du comportement, ce n’est pas qu’elles sont fausses, c’est qu’elles peuvent devenir vraies, c’est qu’elles sont, en fait, la meilleure mise en concept possible de certaines tendances évidentes de la société moderne. On peut parfaitement concevoir que l’époque moderne (…) s’achève dans la passivité la plus inerte, la plus stérile que l’Histoire ait jamais connue.5

Devant cette anticipation catastrophiste, l’option choisie ne peut être l’impuissance et le laisser-faire. Il faut d’abord nommer ce à quoi nous avons affaire, c’est-à-dire un système (total) face auquel nous devons nous positionner.

Qu’est-ce que Big Other et que peut-on faire ?

Il s’agit des mécanismes d’extraction, marchandisation et contrôle. Ils instaurent une dichotomie entre les individus (utilisateurs) et leur propre comportement (pour les transformer en données) et simultanément ils produisent de nouveaux marchés basés justement sur la prédictibilité de ces comportements.

(Big Other) est un régime institutionnel, omniprésent, qui enregistre, modifie, commercialise l’expérience quotidienne, du grille-pain au corps biologique, de la communication à la pensée, de manière à établir de nouveaux chemins vers les bénéfices et les profits. Big other est la puissance souveraine d’un futur proche qui annihile la liberté que l’on gagne avec les règles et les lois.6

Avoir pu mettre un nom sur ce nouveau régime dont Google constitue un peu plus qu’une illustration (presque initiateur) est la grande force de Shoshana Zuboff. Sans compter plusieurs articles récents de cette dernière dans la Frankfurter Allgemeine Zeitung, il est étonnant que le rapport d’Antoinette Rouvroy, postérieur d’un an, n’y fasse aucune mention. Est-ce étonnant ? Pas vraiment, en réalité, car dans un rapport officiellement remis aux autorités européennes, il est important de préciser que la lutte contre Big Other (ou de n’importe quelle manière dont on peut l’exprimer) ne peut que passer par la légitimité sans faille des institutions. Ainsi, A. Rouvroy oppose les deux seules voies envisageables dans un tel contexte officiel :

À l’approche « law and economics », qui est aussi celle des partisans d’un « marché » des données personnelles, qui tendrait donc à considérer les données personnelles comme des « biens » commercialisables (…) s’oppose l’approche qui consiste à aborder les données personnelles plutôt en fonction du pouvoir qu’elles confèrent à ceux qui les contrôlent, et à tenter de prévenir de trop grandes disparités informationnelles et de pouvoir entre les responsables de traitement et les individus. C’est, à l’évidence, cette seconde approche qui prévaut en Europe.

Or, devant Google (ou devant ce Big Other) nous avons vu l’impuissance des États à faire valoir un arsenal juridique, à commencer par les lois anti-trust. D’une part, l’arsenal ne saurait être exhaustif : il concernerait quelques aspects seulement de l’exploitation des données, la transparence ou une série d’obligations comme l’expression des finalités ou des consentements. Il ne saurait y avoir de procès d’intention. D’autre part, nous pouvons toujours faire valoir que des compagnies telles Microsoft ont été condamnées par le passé, au moins par les instances européennes, pour abus de position dominante, et que quelques millions d’euros de menace pourraient suffire à tempérer les ardeurs. C’est faire peu de cas d’au moins trois éléments :

  1. l’essentiel des compagnies dont il est question sont nord-américaines, possèdent des antennes dans des paradis fiscaux et sont capables, elles, de menacer financièrement des pays entiers par simples effets de leviers boursiers.
  2. L’arsenal juridique qu’il faudrait déployer avant même de penser à saisir une cour de justice, devrait être rédigé, voté et décrété en admettant que les jeux de lobbies et autres obstacles formels soient entièrement levés. Cela prendrait un minimum de dix ans, si l’on compte les recours envisageables après une première condamnation.
  3. Il faut encore caractériser les Big Data dans un contexte où leur nature est non seulement extrêmement diverse mais aussi soumise à des process d’automatisation et calculatoires qui permettent d’en inférer d’autres quantités au moins similaires. Par ailleurs, les sources des données sont sans cesse renouvelées, et leur stockage et analyse connaissent une progression technique exponentielle.

Dès lors, quels sont les moyens de s’échapper de ce Big Other ? Puisque nous avons changé de paradigme économique, nous devons changer de paradigme de consommation et de production. Grâce à des dispositifs comme la neutralité du réseau, garantie fragile et obtenue de longue lutte, il est possible de produire nous même l’écosystème dans lequel nos données sont maîtrisées et les maillons de la chaîne de confiance sont identifiés.

Facebook is watching you
Facebook is watching you

Confiance et espaces de confiance

Comment évoluer dans le monde du capitalisme de surveillance ? telle est la question que nous pouvons nous poser dans la mesure où visiblement nous ne pouvons plus nous extraire d’une situation de soumission à Big Other. Quelles que soient nos compétences en matière de camouflage et de chiffrement, les sources de données sur nos individualités sont tellement diverses que le résultat de la distanciation avec les technologies du marché serait une dé-socialisation. Puisque les technologies sur le marché sont celles qui permettent la production, l’analyse et l’extraction automatisées de données, l’objectif n’est pas tant de s’en passer que de créer un système où leur pertinence est tellement limitée qu’elle laisse place à un autre principe que l’accumulation de données : l’accumulation de confiance.

Voyons un peu : quelles sont les actuelles échappatoires de ce capitalisme de surveillance ? Il se trouve qu’elles impliquent à chaque fois de ne pas céder aux facilités des services proposés pour utiliser des solutions plus complexes mais dont la simplification implique toujours une nouvelle relation de confiance. Illustrons ceci par des exemples relatifs à la messagerie par courrier électronique :

  • Si j’utilise Gmail, c’est parce que j’ai confiance en Google pour respecter la confidentialité de ma correspondance privée (no comment !). Ce jugement n’implique pas que moi, puisque mes correspondants auront aussi leurs messages scannés, qu’ils soient utilisateurs ou non de Gmail. La confiance repose exclusivement sur Google et les conditions d’utilisation de ses services.
  • L’utilisation de clés de chiffrement pour correspondre avec mes amis demande un apprentissage de ma part comme de mes correspondants. Certains services, comme ProtonMail, proposent de leur faire confiance pour transmettre des données chiffrées tout en simplifiant les procédures avec un webmail facile à prendre en main. Les briques open source de Protonmail permettent un niveau de transparence acceptable sans que j’en aie toutefois l’expertise (si je ne suis pas moi-même un informaticien sérieux).
  • Si je monte un serveur chez moi, avec un système libre et/ou open source comme une instance Cozycloud sur un Raspeberry PI, je dois avoir confiance dans tous les domaines concernés et sur lesquels je n’ai pas forcément l’expertise ou l’accès physique (la fabrication de l’ordinateur, les contraintes de mon fournisseur d’accès, la sécurité de mon serveur, etc.), c’est-à-dire tous les aspects qui habituellement font l’objet d’une division du travail dans les entreprises qui proposent de tels services, et que j’ai la prétention de rassembler à moi tout seul.

Les espaces de relative autonomie existent donc mais il faut structurer la confiance. Cela peut se faire en deux étapes.

La première étape consiste à définir ce qu’est un tiers de confiance et quels moyens de s’en assurer. Le blog de la FSFE a récemment publié un article qui résume très bien pourquoi la protection des données privées ne peut se contenter de l’utilisation plus ou moins maîtrisée des technologies de chiffrement7. La FSFE rappelle que tous les usages des services sur Internet nécessitent un niveau de confiance accordé à un tiers. Quelle que soit son identité…

…vous devez prendre en compte :

  • la bienveillance : le tiers ne veut pas compromettre votre vie privée et/ou il est lui-même concerné ;
  • la compétence : le tiers est techniquement capable de protéger votre vie privée et d’identifier et de corriger les problèmes ;
  • l’intégrité : le tiers ne peut pas être acheté, corrompu ou infiltré par des services secrets ou d’autres tiers malveillants ;

Comment s’assurer de ces trois qualités ? Pour les défenseurs et promoteurs du logiciel libre, seules les communautés libristes sont capables de proposer des alternatives en vertu de l’ouverture du code. Sur les quatre libertés qui définissent une licence libre, deux impliquent que le code puisse être accessible, audité, vérifié.

Est-ce suffisant ? non : ouvrir le code ne conditionne pas ces qualités, cela ne fait qu’endosser la responsabilité et l’usage du code (via la licence libre choisie) dont seule l’expertise peut attester de la fiabilité et de la probité.

En complément, la seconde étape consiste donc à définir une chaîne de confiance. Elle pourra déterminer à quel niveau je peux m’en remettre à l’expertise d’un tiers, à ses compétences, à sa bienveillance…. Certaines entreprises semblent l’avoir compris et tentent d’anticiper ce besoin de confiance. Pour reprendre les réflexions du Boston Consulting Group, l’un des plus prestigieux cabinets de conseil en stratégie au monde :

(…) dans un domaine aussi sensible que le Big Data, la confiance sera l’élément déterminant pour permettre à l’entreprise d’avoir le plus large accès possible aux données de ses clients, à condition qu’ils soient convaincus que ces données seront utilisées de façon loyale et contrôlée. Certaines entreprises parviendront à créer ce lien de confiance, d’autres non. Or, les enjeux économiques de ce lien de confiance sont très importants. Les entreprises qui réussiront à le créer pourraient multiplier par cinq ou dix le volume d’informations auxquelles elles sont susceptibles d’avoir accès. Sans la confiance du consommateur, l’essentiel des milliards d’euros de valeur économique et sociale que le Big Data pourrait représenter dans les années à venir risquerait d’être perdu.8

En d’autres termes, il existe un marché de la confiance. En tant que tel, soit il est lui aussi soumis aux effets de Big Other, soit il reste encore dépendant de la rationalité des consommateurs. Dans les deux cas, le logiciel libre devra obligatoirement trouver le créneau de persuasion pour faire adhérer le plus grand nombre à ses principes.

Une solution serait de déplacer le curseur de la chaîne de confiance non plus sur les principaux acteurs de services, plus ou moins dotés de bonnes intentions, mais dans la sphère publique. Je ne fais plus confiance à tel service ou telle entreprise parce qu’ils indiquent dans leurs CGU qu’ils s’engagent à ne pas utiliser mes données personnelles, mais parce que cet engagement est non seulement vérifiable mais aussi accessible : en cas de litige, le droit du pays dans lequel j’habite peut s’appliquer, des instances peuvent se porter parties civiles, une surveillance collective ou policière est possible, etc. La question n’est plus tellement de savoir ce que me garantit le fournisseur mais comment il propose un audit public et expose sa responsabilité vis-à-vis des données des utilisateurs.

S’en remettre à l’État pour des services fiables ? Les États ayant démontré leurs impuissances face à des multinationales surfinancées, les tentatives de cloud souverain ont elles aussi été des échecs cuisants. Créer des entreprises de toutes pièces sur fonds publics pour proposer une concurrence directe à des monopoles géants, était inévitablement un suicide : il aurait mieux valu proposer des ressources numériques et en faciliter l’accès pour des petits acteurs capables de proposer de multiples solutions différentes et alternatives adaptées aux besoins de confiance des utilisateurs, éventuellement avec la caution de l’État, la réputation d’associations nationales (association de défense des droits de l’homme, associations de consommateurs, etc.), bref, des assurances concrètes qui impliquent les utilisateurs, c’est-à-dire comme le modèle du logiciel libre qui ne sépare pas utilisation et conception.

Ce que propose le logiciel libre, c’est davantage que du code, c’est un modèle de coopération et de cooptation. C’est la possibilité pour les dynamiques collectives de réinvestir des espaces de confiance. Quel que soit le service utilisé, il dépend d’une communauté, d’une association, ou d’une entreprise qui toutes s’engagent par contrat (les licences libres sont des contrats) à respecter les données des utilisateurs. Le tiers de confiance devient collectif, il n’est plus un, il est multiple. Il ne s’agit pas pour autant de diluer les responsabilités (chaque offre est indépendante et s’engage individuellement) mais de forcer l’engagement public et la transparence des recours.

Chatons solidaires

Si s’échapper seul du marché de Big Other ne peut se faire qu’au prix de l’exclusion, il faut opposer une logique différente capable, devant l’exploitation des données et notre aliénation de consommateurs, de susciter l’action et non la passivité, le collectif et non l’individu. Si je produis des données, il faut qu’elles puissent profiter à tous ou à personne. C’est la logique de l’open data qui garanti le libre accès à des données placées dans le bien commun. Ce commun a ceci d’intéressant que tout ce qui y figure est alors identifiable. Ce qui n’y figure pas relève alors du privé et diffuser une donnée privée ne devrait relever que du seul choix délibéré de l’individu.

Le modèle proposé par le projet CHATONS (Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires) de Framasoft repose en partie sur ce principe. En adhérant à la charte, un hébergeur s’engage publiquement à remplir certaines obligations et, parmi celles-ci, l’interdiction d’utiliser les données des utilisateurs pour autre chose que l’évaluation et l’amélioration des services.

Comme écrit dans son manifeste (en version 0.9), l’objectif du collectif CHATONS est simple :

L’objectif de ce collectif est de mailler les initiatives de services basés sur des solutions de logiciels libres et proposés aux utilisateurs de manière à diffuser toutes les informations utiles permettant au public de pouvoir choisir leurs services en fonction de leurs besoins, avec un maximum de confiance vis-à-vis du respect de leur vie privée, sans publicité ni clause abusive ou obscure.

En lançant l’initiative de ce collectif, sans toutefois se placer dans une posture verticale fédérative, Framasoft ouvre une porte d’échappatoire. L’essentiel n’est pas tant de maximiser la venue de consommateurs sur quelques services identifiés mais de maximiser les chances pour les consommateurs d’utiliser des services de confiance qui, eux, pourront essaimer et se multiplier. Le postulat est que l’utilisateur est plus enclin à faire confiance à un hébergeur qu’il connaît et qui s’engage devant d’autres hébergeurs semblables, ses pairs, à respecter ses engagements éthiques. Outre l’utilisation de logiciels libres, cela se concrétise par trois principes

  1. Mutualiser l’expertise : les membres du collectif s’engagent à partager les informations pour augmenter la qualité des services et pour faciliter l’essaimage des solutions de logiciels libres utilisées. C’est un principe de solidarité qui permettra, à terme, de consolider sérieusement le tissu des hébergeurs concernés.
  2. Publier et adhérer à une charte commune. Cette charte donne les principaux critères techniques et éthiques de l’activité de membre. L’engagement suppose une réciprocité des échanges tant avec les autres membres du collectif qu’avec les utilisateurs.
  3. Un ensemble de contraintes dans la charte publique implique non seulement de ne s’arroger aucun droit sur les données privées des utilisateurs, mais aussi de rester transparent y compris jusque dans la publication de ses comptes et rapports d’activité. En tant qu’utilisateur je connais les engagements de mon hébergeur, je peux agir pour le contraindre à les respecter tout comme les autres hébergeurs peuvent révoquer de leur collectif un membre mal intentionné.

Le modèle CHATONS n’est absolument pas exclusif. Il constitue même une caricature, en quelque sorte l’alternative contraire mais pertinente à GAFAM. Des entreprises tout à fait bien intentionnées, respectant la majeure partie de la charte, pourraient ne pas pouvoir entrer dans ce collectif à cause des contraintes liées à leur modèle économique. Rien n’empêche ces entreprises de monter leur propre collectif, avec un niveau de confiance différent mais néanmoins potentiellement acceptable. Si le collectif CHATONS décide de restreindre au domaine associatif des acteurs du mouvement, c’est parce que l’idée est d’essaimer au maximum le modèle : que l’association philatélique de Trifouille-le-bas puisse avoir son serveur de courriel, que le club de football de Trifouille-le-haut puisse monter un serveur owncloud et que les deux puissent mutualiser en devenant des CHATONS pour en faire profiter, pourquoi pas, les deux communes (et donc la communauté).

Un chaton, deux chatons... des chatons !
Un chaton, deux chatons… des chatons !

Conclusion

La souveraineté numérique est souvent invoquée par les autorités publiques bien conscientes des limitations du pouvoir qu’implique Big Other. Par cette expression, on pense généralement se situer à armes égales contre les géants du web. Pouvoir économique contre pouvoir républicain. Cet affrontement est perdu d’avance par tout ce qui ressemble de près ou de loin à une procédure institutionnalisée. Tant que les citoyens ne sont pas eux-mêmes porteurs d’alternatives au marché imposé par les GAFAM, l’État ne peut rien faire d’autre que de lutter pour sauvegarder son propre pouvoir, c’est-à-dire celui des partis comme celui des lobbies. Le serpent se mord la queue.

Face au capitalisme de surveillance, qui a depuis longtemps dépassé le stade de l’ultra-libéralisme (car malgré tout il y subsistait encore un marché et une autonomie des agents), c’est à l’État non pas de proposer un cloud souverain mais de se positionner comme le garant des principes démocratiques appliqués à nos données numériques et à Internet : neutralité sans faille du réseau, garantie de l’équité, surveillance des accords commerciaux, politique anti-trust affirmée, etc. L’éducation populaire, la solidarité, l’intelligence collective, l’expertise des citoyens, feront le reste, quitte à ré-inventer d’autres modèles de gouvernance (et de gouvernement).

Nous ne sommes pas des êtres a-technologiques. Aujourd’hui, nos vies sont pleines de données numériques. Avec Internet, nous en usons pour nous rapprocher, pour nous comprendre et mutualiser nos efforts, tout comme nous avons utilisé en leurs temps le téléphone, les voies romaines, le papyrus, et les tablettes d’argile. Nous avons des choix à faire. Nous pouvons nous diriger vers des modèles exclusifs, avec ou sans GAFAM, comme la généralisation de block chains pour toutes nos transactions. En automatisant les contrats, même avec un système ouvert et neutre, nous ferions alors reposer la confiance sur la technologie (et ses failles), en révoquant toute relation de confiance entre les individus, comme si toute relation interpersonnelle était vouée à l’échec. L’autre voie repose sur l’éthique et le partage des connaissances. Le projet CHATONS n’est qu’un exemple de système alternatif parmi des milliers d’autres dans de multiples domaines, de l’agriculture à l’industrie, en passant par la protection de l’environnement. Saurons-nous choisir la bonne voie ? Saurons-nous comprendre que les relations d’interdépendances qui nous unissent sur terre passent aussi bien par l’écologie que par le partage du code ?


  1. Discours prononcé lors d’une conférence intitulée Surveillance capitalism: A new societal condition rising lors du sommet CPDP (Computers Privacy and Data protection), Bruxelles, 27-29 janvier 2016 (video).
  2. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, janvier 2016.
  3. Shoshana Zuboff, « Big other: surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, pp.&nbspp;75-89.
  4. Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données.
  5. Hannah Arendt, La condition de l’homme moderne, Paris: Calmann-Lévy, Agora, 1958, pp. 400-401.
  6. Shoshana Zuboff, « Big other: surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, p.&nbspp;81.
  7. h2, « Why Privacy is more than Crypto », blog Emergency Exit, FSFE, 31 mai 2016.
  8. Carol Umhoefer et al., Le Big Data face au défi de la confiance, The Boston Consulting Group, juin 2014.



Les nouveaux Léviathans II — Surveillance et confiance (a)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

Note de l’auteur :Cette seconde partie (Léviathans II) vise à approfondir les concepts survolés précédemment (Léviathans I). Nous avons vu que les monopoles de l’économie numérique ont changé le paradigme libéral jusqu’à instaurer un capitalisme de surveillance. Pour en rendre compte et comprendre ce nouveau système, il faut brosser plusieurs aspects de nos rapports avec la technologie en général, et les services numériques en particulier, puis voir comment des modèles s’imposent par l’usage des big data et la conformisation du marché (Léviathans IIa). J’expliquerai, à partir de la lecture de S. Zuboff, quelles sont les principales caractéristiques du capitalisme de surveillance. En identifiant ainsi ces nouvelles conditions de l’aliénation des individus, il devient évident que le rétablissement de la confiance aux sources de nos relations contractuelles et démocratiques, passe immanquablement par l’autonomie, le partage et la coopération, sur le modèle du logiciel libre (Léviathans IIb).

Techniques d’anticipation

On pense habituellement les objets techniques et les phénomènes sociaux comme deux choses différentes, voire parfois opposées. En plus de la nature, il y aurait deux autres réalités : d’un côté un monde constitué de nos individualités, nos rapports sociaux, nos idées politiques, la manière dont nous structurons ensemble la société ; et de l’autre côté le monde des techniques qui, pour être appréhendé, réclamerait obligatoirement des compétences particulières (artisanat, ingénierie). Nous refusons même parfois de comprendre nos interactions avec les techniques autrement que par automatisme, comme si notre accomplissement social passait uniquement par le statut d’utilisateur et jamais comme producteurs. Comme si une mise à distance devait obligatoirement s’établir entre ce que nous sommes (des êtres sociaux) et ce que nous produisons. Cette posture est au plus haut point paradoxale puisque non seulement la technologie est une activité sociale mais nos sociétés sont à bien des égards elles-mêmes configurées, transformées, et même régulées par les objets techniques. Certes, la compréhension des techniques n’est pas toujours obligatoire pour comprendre les faits sociaux, mais il faut avouer que bien peu de faits sociaux se comprennent sans la technique.

L’avènement des sociétés industrielles a marqué un pas supplémentaire dans l’interdépendance entre le social et les objets techniques : le travail, comme activité productrice, est en soi un rapport réflexif sur les pratiques et les savoirs qui forment des systèmes techniques. Nous baignons dans une culture technologique, nous sommes des êtres technologiques. Nous ne sommes pas que cela. La technologie n’a pas le monopole du signifiant : nous trouvons dans l’art, dans nos codes sociaux, dans nos intentions, tout un ensemble d’éléments culturels dont la technologie est censée être absente. Nous en usons parfois même pour effectuer une mise à distance des techniques omniprésentes. Mais ces dernières ne se réduisent pas à des objets produits. Elles sont à la fois des pratiques, des savoir-faire et des objets. La raison pour laquelle nous tenons tant à instaurer une mise à distance par rapport aux technologies que nous utilisons, c’est parce qu’elles s’intègrent tellement dans notre système économique qu’elles agissent aussi comme une forme d’aliénation au travail comme au quotidien.

Attention, Amazon très méchant
Attention, Amazon très méchant

Ces dernières années, nous avons vu émerger des technologies qui prétendent prédire nos comportements. Amazon teste à grande échelle des dépôts locaux de produits en prévision des commandes passées par les internautes sur un territoire donné. Les stocks de ces dépôts seront gérés au plus juste par l’exploitation des données inférées à partir de l’analyse de l’attention des utilisateurs (mesurée au clic), les tendances des recherches effectuées sur le site, l’impact des promotions et propositions d’Amazon, etc. De son côté, Google ne cesse d’analyser nos recherches dans son moteur d’indexation, dont les suggestions anticipent nos besoins souvent de manière troublante. En somme, si nous éprouvons parfois cette nécessité d’une mise à distance entre notre être et la technologie, c’est en réponse à cette situation où, intuitivement, nous sentons bien que la technologie n’a pas à s’immiscer aussi profondément dans l’intimité de nos pensées. Mais est-ce vraiment le cas ? Ne conformons-nous pas aussi, dans une certaine mesure, nos envies et nos besoins en fonction de ce qui nous est présenté comme nos envies et nos besoins ? La lutte permanente entre notre volonté d’indépendance et notre adaptation à la société de consommation, c’est-à-dire au marché, est quelque chose qui a parfaitement été compris par les grandes firmes du secteur numérique. Parce que nous laissons tellement de traces transformées en autant d’informations extraites, analysées, quantifiées, ces firmes sont désormais capables d’anticiper et de conformer le marché à leurs besoins de rentabilité comme jamais une firme n’a pu le faire dans l’histoire des sociétés capitalistes modernes.

Productivisme et information

Si vous venez de perdre deux minutes à lire ma prose ci-dessus hautement dopée à l’EPO (Enfonçage de Portes Ouvertes), c’est parce qu’il m’a tout de même paru assez important de faire quelques rappels de base avant d’entamer des considérations qui nous mènerons petit à petit vers une compréhension en détail de ce système. J’ai toujours l’image de cette enseignante de faculté, refusant de lire un mode d’emploi pour appuyer deux touches sur son clavier afin de basculer l’affichage écran vers l’affichage du diaporama, et qui s’exclamait : « il faut appeler un informaticien, ils sont là pour ça, non ? ». Ben non, ma grande, un informaticien a autre chose à faire. C’est une illustration très courante de ce que la transmission des savoirs (activité sociale) dépend éminemment des techniques (un vidéo-projecteur couplé un ordinateur contenant lui-même des supports de cours sous forme de fichiers) et que toute tentative volontaire ou non de mise à distance (ne pas vouloir acquérir un savoir-faire technique) cause un bouleversement a-social (ne plus être en mesure d’assurer une transmission de connaissance, ou plus prosaïquement passer pour quelqu’un de stupide). La place que nous occupons dans la société n’est pas uniquement une affaire de codes ou relations interpersonnelles, elle dépend pour beaucoup de l’ordre économique et technique auquel nous devons plus ou moins nous ajuster au risque de l’exclusion (et la forme la plus radicale d’exclusion est l’absence de travail et/ou l’incapacité de consommer).

Des études déjà anciennes sur les organisations du travail, notamment à propos de l’industrialisation de masse, ont montré comment la technologie, au même titre que l’organisation, détermine les comportements des salariés, en particulier lorsqu’elle conditionne l’automatisation des tâches1. Souvent, cette automatisation a été étudiée sous l’angle des répercussions socio-psychologiques, accroissant les sentiments de perte de sens ou d’aliénation sociale2. D’un point de vue plus populaire, c’est le remplacement de l’homme par la machine qui fut tantôt vécu comme une tragédie (l’apparition du chômage de masse) tantôt comme un bienfait (diminuer la pénibilité du travail). Aujourd’hui, les enjeux sont très différents. On s’interroge moins sur la place de la machine dans l’industrie que sur les taux de productivité et la gestion des flux. C’est qu’un changement de paradigme s’est accompli à partir des années 1970-1980, qui ont vu apparaître l’informatisation quasi totale des systèmes de production et la multiplication des ordinateurs mainframe dans les entreprises pour traiter des quantités sans cesse croissantes de données.

Très peu de sociologues ou d’économistes ont travaillé sur ce qu’une illustre chercheuse de la Harvard Business School, Shoshana Zuboff a identifié dans la transformation des systèmes de production : l’informationnalisation (informating). En effet, dans un livre très visionnaire, In the Age Of The Smart Machine en 19883, S. Zuboff montre que les mécanismes du capitalisme productiviste du XXe siècle ont connu plusieurs mouvements, plus ou moins concomitants selon les secteurs : la mécanisation, la rationalisation des tâches, l’automatisation des processus et l’informationnalisation. Ce dernier mouvement découle des précédents : dès l’instant qu’on mesure la production et qu’on identifie des processus, on les documente et on les programme pour les automatiser. L’informationnalisation est un processus qui transforme la mesure et la description des activités en information, c’est-à-dire en données extractibles et quantifiables, calculatoires et analytiques.

Là où S. Zuboff s’est montrée visionnaire dans les années 1980, c’est qu’elle a montré aussi comment l’informationnalisation modèle en retour les apprentissages et déplace les enjeux de pouvoir. On ne cherche plus à savoir qui a les connaissances suffisantes pour mettre en œuvre telle procédure, mais qui a accès aux données dont l’analyse déterminera la stratégie de développement des activités. Alors que le « vieux » capitalisme organisait une concurrence entre moyens de production et maîtrise de l’offre, ce qui, dans une économie mondialisée n’a plus vraiment de sens, un nouveau capitalisme (dont nous verrons plus loin qu’il se nomme le capitalisme de surveillance) est né, et repose sur la production d’informations, la maîtrise des données et donc des processus.

Pour illustrer, il suffit de penser à nos smartphones. Quelle que soit la marque, ils sont produits de manière plus ou moins redondante, parfois dans les mêmes chaînes de production (au moins en ce qui concerne les composants), avec des méthodes d’automatisation très similaires. Dès lors, la concurrence se place à un tout autre niveau : l’optimisation des procédures et l’identification des usages, tous deux producteurs de données. Si bien que la plus-value ajoutée par la firme à son smartphone pour séduire le plus d’utilisateurs possible va de pair avec une optimisation des coûts de production et des procédures. Cette optimisation relègue l’innovation organisationnelle au moins au même niveau, si ce n’est plus, que l’innovation du produit lui-même qui ne fait que répondre à des besoins d’usage de manière marginale. En matière de smartphone, ce sont les utilisateurs les plus experts qui sauront déceler la pertinence de telle ou telle nouvelle fonctionnalité alors que l’utilisateur moyen n’y voit que des produits similaires.

L’enjeu dépasse la seule optimisation des chaînes de production et l’innovation. S. Zuboff a aussi montré que l’analyse des données plus fines sur les processus de production révèle aussi les comportements des travailleurs : l’attention, les pratiques quotidiennes, les risques d’erreur, la gestion du temps de travail, etc. Dès lors l’informationnalisation est aussi un moyen de rassembler des données sur les aspects sociaux de la production4, et par conséquent les conformer aux impératifs de rentabilité. L’exemple le plus frappant aujourd’hui de cet ajustement comportemental à la rentabilité par les moyens de l’analyse de données est le phénomène d’« Ubérisation » de l’économie5.

Ramené aux utilisateurs finaux des produits, dans la mesure où il est possible de rassembler des données sur l’utilisation elle-même, il devrait donc être possible de conformer les usages et les comportements de consommation (et non plus seulement de production) aux mêmes impératifs de rentabilité. Cela passe par exemple par la communication et l’apprentissage de nouvelles fonctionnalités des objets. Par exemple, si vous aviez l’habitude de stocker vos fichiers MP3 dans votre smartphone pour les écouter comme avec un baladeur, votre fournisseur vous permet aujourd’hui avec une connexion 4G d’écouter de la musique en streaming illimité, ce qui permet d’analyser vos goûts, vous proposer des playlists, et faire des bénéfices. Mais dans ce cas, si vous vous situez dans un endroit où la connexion haut débit est défaillante, voire absente, vous devez vous passer de musique ou vous habituer à prévoir à l’avance cette éventualité en activant un mode hors-connexion. Cette adaptation de votre comportement devient prévisible : l’important n’est pas de savoir ce que vous écoutez mais comment vous le faites, et ce paramètre entre lui aussi en ligne de compte dans la proposition musicale disponible.

Le nouveau paradigme économique du XXIe siècle, c’est le rassemblement des données, leur traitement et leurs valeurs prédictives, qu’il s’agisse des données de production comme des données d’utilisation par les consommateurs.

GAFAM : We <3 your Data
GAFAM : We <3 your Data

Big Data

Ces dernières décennies, l’informatique est devenu un média pour l’essentiel de nos activités sociales. Vous souhaitez joindre un ami pour aller boire une bière dans la semaine ? c’est avec un ordinateur que vous l’appelez. Voici quelques étapes grossières de cet épisode :

  1. votre mobile a signalé vers des antennes relais pour s’assurer de la couverture réseau,
  2. vous entrez un mot de passe pour déverrouiller l’écran,
  3. vous effectuez une recherche dans votre carnet d’adresse (éventuellement synchronisé sur un serveur distant),
  4. vous lancez le programme de composition du numéro, puis l’appel téléphonique (numérique) proprement dit,
  5. vous entrez en relation avec votre correspondant, convenez d’une date,
  6. vous envoyez ensuite une notification de rendez-vous avec votre agenda vers la messagerie de votre ami…
  7. qui vous renvoie une notification d’acceptation en retour,
  8. l’une de vos applications a géolocalisé votre emplacement et vous indique le trajet et le temps de déplacement nécessaire pour vous rendre au point de rendez-vous, etc.

Durant cet épisode, quel que soit l’opérateur du réseau que vous utilisez et quel que soit le système d’exploitation de votre mobile (à une ou deux exceptions près), vous avez produit des données exploitables. Par exemple (liste non exhaustive) :

  • le bornage de votre mobile indique votre position à l’opérateur, qui peut croiser votre activité d’émission-réception avec la nature de votre abonnement,
  • la géolocalisation donne des indications sur votre vitesse de déplacement ou votre propension à utiliser des transports en commun,
  • votre messagerie permet de connaître la fréquence de vos contacts, et éventuellement l’éloignement géographique.

Ramené à des millions d’utilisateurs, l’ensemble des données ainsi rassemblées entre dans la catégorie des Big Data. Ces dernières ne concernent pas seulement les systèmes d’informations ou les services numériques proposés sur Internet. La massification des données est un processus qui a commencé il y a longtemps, notamment par l’analyse de productivité dans le cadre de la division du travail, les analyses statistiques des achats de biens de consommation, l’analyse des fréquences de transaction boursières, etc. Tout comme ce fut le cas pour les processus de production qui furent automatisés, ce qui caractérise les Big Data c’est l’obligation d’automatiser leur traitement pour en faire l’analyse.

Prospection, gestion des risques, prédictibilité, etc., les Big Data dépassent le seul degré de l’analyse statistique dite descriptive, car si une de ces données renferme en général très peu d’information, des milliers, des millions, des milliards permettent d’inférer des informations dont la pertinence dépend à la fois de leur traitement et de leur gestion. Le tout dépasse la somme des parties : c’est parce qu’elles sont rassemblées et analysées en masse que des données d’une même nature produisent des valeurs qui dépassent la somme des valeurs unitaires.

Antoinette Rouvroy, dans un rapport récent6 auprès du Conseil de l’Europe, précise que les capacités techniques de stockage et de traitement connaissent une progression exponentielle7. Elle définit plusieurs catégories de data en fonction de leurs sources, et qui quantifient l’essentiel des actions humaines :

  • les hard data, produites par les institutions et administrations publiques ;
  • les soft data, produites par les individus, volontairement (via les réseaux sociaux, par exemple) ou involontairement (analyse des flux, géolocalisation, etc.) ;
  • les métadonnées, qui concernent notamment la provenance des données, leur trafic, les durées, etc. ;
  • l’Internet des objets, qui une fois mis en réseau, produisent des données de performance, d’activité, etc.

Les Big Data n’ont cependant pas encore de définition claire8. Il y a des chances pour que le terme ne dure pas et donne lieu à des divisions qui décriront plus précisément des applications et des méthodes dès lors que des communautés de pratiques seront identifiées avec leurs procédures et leurs réseaux. Aujourd’hui, l’acception générique désigne avant tout un secteur d’activité qui regroupe un ensemble de savoir-faire et d’applications très variés. Ainsi, le potentiel scientifique des Big Data est encore largement sous-évalué, notamment en génétique, physique, mathématiques et même en sociologie. Il en est de même dans l’industrie. En revanche, si on place sur un même plan la politique, le marketing et les activités marchandes (à bien des égards assez proches) on conçoit aisément que l’analyse des données optimise efficacement les résultats et permet aussi, par leur dimension prédictible, de conformer les biens et services.

Google fait peur ?

Eric Schmidt, actuellement directeur exécutif d’Alphabet Inc., savait exprimer en peu de mots les objectifs de Google lorsqu’il en était le président. Depuis 1998, les activités de Google n’ont cessé d’évoluer, jusqu’à reléguer le service qui en fit la célébrité, la recherche sur la Toile, au rang d’activité has been pour les internautes. En 2010, il dévoilait le secret de Polichinelle :

Le jour viendra où la barre de recherche de Google – et l’activité qu’on nomme Googliser – ne sera plus au centre de nos vies en ligne. Alors quoi ? Nous essayons d’imaginer ce que sera l’avenir de la recherche (…). Nous sommes toujours contents d’être dans le secteur de la recherche, croyez-moi. Mais une idée est que de plus en plus de recherches sont faites en votre nom sans que vous ayez à taper sur votre clavier.

En fait, je pense que la plupart des gens ne veulent pas que Google réponde à leurs questions. Ils veulent que Google dise ce qu’ils doivent faire ensuite. (…) La puissance du ciblage individuel – la technologie sera tellement au point qu’il sera très difficile pour les gens de regarder ou consommer quelque chose qui n’a pas été adapté pour eux.9

Google n’a pas été la première firme à exploiter des données en masse. Le principe est déjà ancien avec les premiers data centers du milieu des années 1960. Google n’est pas non plus la première firme à proposer une indexation générale des contenus sur Internet, par contre Google a su se faire une place de choix parmi la concurrence farouche de la fin des années 1990 et sa croissance n’a cessé d’augmenter depuis lors, permettant des investissements conséquents dans le développement de technologies d’analyse et dans le rachat de brevets et de plus petites firmes spécialisées. Ce que Google a su faire, et qui explique son succès, c’est proposer une expérience utilisateur captivante de manière à rassembler assez de données pour proposer en retour des informations adaptées aux profils des utilisateurs. C’est la radicalisation de cette stratégie qui est énoncée ici par Eric Schmidt. Elle trouve pour l’essentiel son accomplissement en utilisant les données produites par les utilisateurs du cloud computing. Les Big Data en sont les principaux outils.

D’autres firmes ont emboîté le pas. En résultat, la concentration des dix premières firmes de services numériques génère des bénéfices spectaculaires et limite la concurrence. Cependant, l’exploitation des données personnelles des utilisateurs et la manière dont elles sont utilisées sont souvent mal comprises dans leurs aspects techniques autant que par les enjeux économiques et politiques qu’elles soulèvent. La plupart du temps, la quantité et la pertinence des informations produites par l’utilisateur semblent négligeables à ses yeux, et leur exploitation d’une importance stratégique mineure. Au mieux, si elles peuvent encourager la firme à mettre d’autres services gratuits à disposition du public, le prix est souvent considéré comme largement acceptable. Tout au plus, il semble a priori moins risqué d’utiliser Gmail et Facebook, que d’utiliser son smartphone en pleine manifestation syndicale en France, puisque le gouvernement français a voté publiquement des lois liberticides et que les GAFAM ne livrent aux autorités que les données manifestement suspectes (disent-elles) ou sur demande rogatoire officielle (disent-elles).

Gigantismus

En 2015, Google Analytics couvrait plus de 70% des parts de marché des outils de mesure d’audience. Google Analytics est un outil d’une puissance pour l’instant incomparable dans le domaine de l’analyse du comportement des visiteurs. Cette puissance n’est pas exclusivement due à une supériorité technologique (les firmes concurrentes utilisent des techniques d’analyse elles aussi très performantes), elle est surtout due à l’exhaustivité monopolistique des utilisations de Google Analytics, disponible en version gratuite et premium, avec un haut degré de configuration des variables qui permettent la collecte, le traitement et la production très rapide de rapports (pratiquement en temps réel). La stratégie commerciale, afin d’assurer sa rentabilité, consiste essentiellement à coupler le profilage avec la régie publicitaire (Google AdWords). Ce modèle économique est devenu omniprésent sur Internet. Qui veut être lu ou regardé doit passer l’épreuve de l’analyse « à la Google », mais pas uniquement pour mesurer l’audience : le monopole de Google sur ces outils impose un web rédactionnel, c’est-à-dire une méthode d’écriture des contenus qui se prête à l’extraction de données.

Google n’est pas la seule entreprise qui réussi le tour de force d’adapter les contenus, quelle que soit leur nature et leurs propos, à sa stratégie commerciale. C’est le cas des GAFAM qui reprennent en chœur le même modèle économique qui conforme l’information à ses propres besoins d’information. Que vous écriviez ou non un pamphlet contre Google, l’extraction et l’analyse des données que ce contenu va générer indirectement en produisant de l’activité (visites, commentaires, échanges, temps de connexion, provenance, etc.) permettra de générer une activité commerciale. Money is money, direz-vous. Pourtant, la concentration des activités commerciales liées à l’exploitation des Big Data par ces entreprises qui forment les premières capitalisations boursières du monde, pose un certain nombre répercutions sociales : l’omniprésence mondialisée des firmes, la réduction du marché et des choix, l’impuissance des États, la sur-financiarisation.

Omniprésence

En produisant des services gratuits (ou très accessibles), performants et à haute valeur ajoutée pour les données qu’ils produisent, ces entreprises captent une gigantesque part des activités numériques des utilisateurs. Elles deviennent dès lors les principaux fournisseurs de services avec lesquels les gouvernements doivent composer s’ils veulent appliquer le droit, en particulier dans le cadre de la surveillance des populations et des opérations de sécurité. Ainsi, dans une démarche très pragmatique, des ministères français parmi les plus importants réunirent le 3 décembre 2015 les « les grands acteurs de l’internet et des réseaux sociaux » dans le cadre de la stratégie anti-terroriste10. Plus anciennement, le programme américain de surveillance électronique PRISM, dont bien des aspects furent révélés par Edward Snowden en 2013, a permit de passer durant des années des accords entre la NSA et l’ensemble des GAFAM. Outre les questions liées à la sauvegarde du droit à la vie privée et à la liberté d’expression, on constate aisément que la surveillance des populations par les gouvernements trouve nulle part ailleurs l’opportunité de récupérer des données aussi exhaustives, faisant des GAFAM les principaux prestataires de Big Data des gouvernements, quels que soient les pays11.

Réduction du marché

Le monopole de Google sur l’indexation du web montre qu’en vertu du gigantesque chiffre d’affaires que cette activité génère, celle-ci devient la première et principale interface du public avec les contenus numériques. En 2000, le journaliste Laurent Mauriac signait dans Libération un article élogieux sur Google12. À propos de la méthode d’indexation qui en fit la célébrité, L. Mauriac écrit :

Autre avantage : ce système empêche les sites de tricher. Inutile de farcir la partie du code de la page invisible pour l’utilisateur avec quantité de mots-clés…

Or, en 2016, il devient assez évident de décortiquer les stratégies de manipulation de contenus que les compagnies qui en ont les moyens financiers mettent en œuvre pour dominer l’index de Google en diminuant ainsi la diversité de l’offre13. Que la concentration des entreprises limite mécaniquement l’offre, cela n’est pas révolutionnaire. Ce qui est particulièrement alarmant, en revanche, c’est que la concentration des GAFAM implique par effets de bord la concentration d’autres entreprises de secteurs entièrement différents mais qui dépendent d’elles en matière d’information et de visibilité. Cette concentration de second niveau, lorsqu’elle concerne la presse en ligne, les éditeurs scientifiques ou encore les libraires, pose à l’évidence de graves questions en matière de liberté d’information.

Impuissances

La concentration des services, qu’il s’agisse de ceux de Google comme des autres géants du web, sur des secteurs biens découpés qui assurent les monopoles de chaque acteur, cause bien des soucis aux États qui voient leurs économies impactées selon les revenus fiscaux et l’implantation géographique de ces compagnies. Les lois anti-trust semblent ne plus suffire lorsqu’on voit, par exemple, la Commission Européenne avoir toutes les peines du monde à freiner l’abus de position dominante de Google sur le système Android, sur Google Shopping, sur l’indexation, et de manière générale depuis 2010.

Illustration cynique devant l’impuissance des États à réguler cette concentration, Google a davantage à craindre de ses concurrents directs qui ont des moyens financiers largement supérieurs aux États pour bloquer sa progression sur les marchés. Ainsi, cet accord entre Microsoft et Google, qui conviennent de régler désormais leurs différends uniquement en privé, selon leurs propres règles, pour ne se concentrer que sur leur concurrence de marché et non plus sur la législation. Le message est double : en plus d’instaurer leur propre régulation de marché, Google et Microsoft en organiseront eux-mêmes les conditions juridiques, reléguant le rôle de l’État au second plan, voire en l’éliminant purement et simplement de l’équation. C’est l’avènement des Léviathans dont j’avais déjà parlé dans un article antérieur.

Alphabet. CC-by-sa, Framatophe
Alphabet. CC-by-sa, Framatophe

Capitaux financiers

La capitalisation boursière des GAFAM a atteint un niveau jamais envisagé jusqu’à présent dans l’histoire, et ces entreprises figurent toutes dans le top 40 de l’année 201514. La valeur cumulée de GAFAM en termes de capital boursier en 2015 s’élève à 1 838 milliards de dollars. À titre de comparaison, le PIB de la France en 2014 était de 2 935 milliards de dollars et celui des Pays Bas 892 milliards de dollars.

La liste des acquisitions de Google explique en partie la cumulation de valeurs boursières. Pour une autre partie, la plus importante, l’explication concerne l’activité principale de Google : la valorisation des big data et l’automatisation des tâches d’analyse de données qui réduisent les coûts de production (à commencer par les frais d’infrastructure : Google a besoin de gigantesque data centers pour le stockage, mais l’analyse, elle, nécessite plus de virtualisation que de nouveaux matériels ou d’employés). Bien que les cheminements ne soient pas les mêmes, les entreprises GAFAM ont abouti au même modèle économique qui débouche sur le status quo de monopoles sectorisés. Un élément de comparaison est donné par le Financial Times en août 2014, à propos de l’industrie automobile vs l’économie numérique :

Comparons Detroit en 1990 et la Silicon Valley en 2014. Les 3 plus importantes compagnies de Detroit produisaient des bénéfices à hauteur de 250 milliards de dollars avec 1,2 million d’employés et la cumulation de leurs capitalisations boursières totalisait 36 milliards de dollars. Le 3 premières compagnies de la Silicon Valley en 2014 totalisaient 247 milliards de dollars de bénéfices, avec seulement 137 000 employés, mais un capital boursier de 1,09 mille milliard de dollars.15

La captation d’autant de valeurs par un petit nombre d’entreprises et d’employés, aurait été analysée, par exemple, par Schumpeter comme une chute inévitable vers la stagnation en raison des ententes entre les plus puissants acteurs, la baisse des marges des opérateurs et le manque d’innovation. Pourtant cette approche est dépassée : l’innovation à d’autres buts (produire des services, même à perte, pour capter des données), il est très difficile d’identifier le secteur d’activité concerné (Alphabet regroupe des entreprises ultra-diversifiées) et donc le marché est ultra-malléable autant qu’il ne représente que des données à forte valeur prédictive et possède donc une logique de plus en plus maîtrisée par les grands acteurs.


  1. Michel Liu, « Technologie, organisation du travail et comportement des salariés », Revue française de sociologie, 22/2 1981, pp. 205-221.
  2. Voir sur ce point Robert Blauner, Alienation and Freedom. The Factory Worker and His Industry, Chicago: Univ. Chicago Press, 1965.
  3. Shoshana Zuboff, In The Age Of The Smart Machine: The Future Of Work And Power, New York: Basic Books, 1988.
  4. En guise d’illustration de tests (proof of concepts) discrets menés dans les entreprises aujourd’hui, on peut se reporter à cet article de Rue 89 Strasbourg sur cette société alsacienne qui propose, sous couvert de challenge collectif, de monitorer l’activité physique de ses employés. Rémi Boulle, « Chez Constellium, la collecte des données personnelles de santé des employés fait débat », Rue 89 Strasbourg, juin 2016.
  5. Par exemple, dans le cas des livreurs à vélo de plats préparés utilisés par des sociétés comme Foodora ou Take Eat Easy, on constate que ces sociétés ne sont qu’une interface entre les restaurants et les livreurs. Ces derniers sont auto-entrepreneurs, payés à la course et censés assumer toutes les cotisations sociales et leurs salaires uniquement sur la base des courses que l’entreprise principale pourra leur confier. Ce rôle est automatisé par une application de calcul qui rassemble les données géographiques et les performances (moyennes, vitesse, assiduité, etc.) des livreurs et distribue automatiquement les tâches de livraisons. Charge aux livreurs de se trouver au bon endroit au bon moment. Ce modèle économique permet de détacher l’entreprise de toutes les externalités ou tâches habituellement intégrées qui pourraient influer sur son chiffre d’affaires : le matériel du livreur, l’assurance, les cotisations, l’accidentologie, la gestion du temps de travail, etc., seule demeure l’activité elle-même automatisée et le livreur devient un exécutant dont on analyse les performances. L’« Ubérisation » est un processus qui automatise le travail humain, élimine les contraintes sociales et utilise l’information que l’activité produit pour ajuster la production à la demande (quels que soient les risques pris par les livreurs, par exemple pour remonter les meilleures informations concernant les vitesses de livraison et se voir confier les prochaines missions). Sur ce sujet, on peut écouter l’émission Comme un bruit qui court de France Inter qui diffusa le reportage de Giv Anquetil le 11 juin 2016, intitulé « En roue libre ».
  6. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, Conseil de l’Europe, janvier 2016.
  7. En même temps qu’une réduction de leur coût de production (leur coût d’exploitation ou d’analyse, en revanche, explose).
  8. On peut s’intéresser à l’origine de l’expression en lisant cet article de Francis X. Diebold, « On the Origin(s) and Development of the Term ‘Big Data’ », Penn Institute For Economic Research, Working Paper 12-037, 2012.
  9. Holman W. Jenkins, « Google and the Search for the Future The Web icon’s CEO on the mobile computing revolution, the future of newspapers, and privacy in the digital age », The Wall Street Journal, 14/08/2010.
  10. Communiqué du Premier ministre, Réunion de travail avec les grands acteurs de l’Internet et des réseaux sociaux, Paris : Hôtel Matignon, 3/12/2015.
  11. Même si Apple a déclaré ne pas entrer dans le secteur des Big Data, il n’en demeure pas moins qu’il en soit un consommateur comme un producteur d’envergure mondiale.
  12. Laurent Mauriac, « Google, moteur en explosion », Libération, 29 juin 2000.
  13. Vincent Abry, « Au revoir la diversité. Quand 16 compagnies dominent complètement l’index Google », article de Blog personnel, voir la version archivée.
  14. PwC, Global Top 100 Companies by market capitalisation, (31/03/2015). Ces données sont à revoir en raison de l’éclatement de Google dans une sorte de holding nommée Alphabet début 2016.
  15. James Manyika et Michael Chui, « Digital era brings hyperscale challenges » (image), The Financial Times, 13/08/2014. Cité par S. Zuboff, « Big Other… », op. cit..