1

À l’ère de la surveillance numérique – Interview d’Antoine Tricot

Sur les ondes de France Culture, Antoine Tricot a récemment cosigné une série de quatre épisodes sur La Série Documentaire intitulée « À l’ère de la surveillance numérique ». Quatre épisodes pour parler du capitalisme de surveillance, de pouvoirs étatiques sur les outils numériques… et de comment s’y soustraire. Quatre épisodes que nous vous invitons à écouter, au contenu bourré d’informations, d’ambiances sonores, de témoignages de différents milieux professionnels, et dont nous avons souhaité interroger l’un des auteurs.

Capture écran de la page de l'émission
Capture écran de la page de la série – Cliquez pour accédez aux émissions

Bonjour Antoine, peux-tu te présenter ?

Je suis journaliste et je travaille principalement pour les émissions documentaires de la radio publique France culture. Je m’intéresse à des sujets très divers comme les quartiers populaires et les ruralités mais j’ai un petit tropisme sur les questions que posent à la société les technologies numériques et leurs usages. J’ai d’ailleurs commencé à France Culture en 2013 comme stagiaire dans l’émission Place de la Toile de Xavier De La Porte. J’ai ensuite pu organiser quelques émissions autour de ces sujets lorsque je travaillais pour l’émission Du Grain à Moudre, notamment celle intitulée « Que reste-t-il du logiciel libre ? » en 2016 où l’on a fait dialoguer Pierre-Yves Gosset de Framasoft et Bernard Ourghanlian de Microsoft ainsi qu’Amaëlle Guiton de Libération. Dernièrement, j’ai produit pour l’émission LSD – La Série Documentaire une série de 4 documentaires radio sur la surveillance numérique.

Le fonctionnement de LSD n’étant pas forcément connu de toutes et tous, peux-tu nous dire qui a travaillé sur ce documentaire audio ?

L’équipe d’un LSD est assez simple. Outre Perrine Kervran et Maryvonne Abolivier qui coordonnent l’émission, nous sommes une vingtaine de travailleuses et travailleurs indépendant.es qui proposons nos sujets régulièrement. Nous sommes ce que l’on appelle dans le jargon de la radio des « producteurs et productrices délégué⋅es ». Nous concevons les projets, proposons un découpage en quatre épisodes, nous choisissons les intervenant.es, préparons et dirigeons les interviews, écrivons et interprétons les voix-off (on appelle ça les « micros »)… Pour moi c’est un métier entre celui d’auteur et celui de journaliste. Nous travaillons avec un réalisateur ou une réalisatrice de France Culture pour monter les émissions, les mettre en son et en musique. Ici j’ai travaillé avec Rafik Zénine avec qui j’avais déjà travaillé avec plaisir sur une série autour des jeux vidéo. Et ce sont des technicien⋅nes du son qui s’occupent de la prise de son et du mixage final. Pour tous les citer, on a travaillé cette fois avec Laurent Macchietti, Martin Troadec, Valérie Lavallart et Eric Boisset.

Donc, concernant la série « À l’ère de la surveillance numérique » : comment t’es venue l’idée de ce sujet ? Et as-tu su comment la traiter dès le départ ?

L’idée de cette série est née durant le confinement. C’est un sujet que je suis depuis longtemps mais c’est à l’occasion d’un projet collectif réalisé pour LSD pendant le premier confinement et intitulé « Un printemps au temps du confinement » que j’ai commencé à en parler avec Perrine Kervran. Il me semblait que durant cette période si particulière, le débat notamment autour de l’application Stop Covid, des visioconférences et du télétravail, avait pris une amplitude rarement atteinte pour des sujets numériques qui ne mobilisent habituellement qu’une faible part de la population.

Au départ, je voulais donc surtout parler de ce que le numérique fait à nos vies et à notre société. Mais en rédigeant le projet, je me suis rendu compte que la question de la surveillance numérique revenait sans cesse. Elle était transversale à tous les autres sujets auxquels je pouvais penser. Y consacrer seulement un épisode sur quatre ne me semblait donc pas suffisant. D’autant plus que les ramifications de la question sont vraiment très complexes. J’ai donc proposé à France Culture d’angler toute la série autour de cette question et c’est ce qui a finalement été accepté à la fin de l’été 2020.

Par où as-tu commencé ?

Je commence toujours ma préparation de la même manière : par une boulimie de lectures. Que ce soit des articles scientifiques, des articles journalistiques, des livres mais aussi de la fiction en tout genre qui aborde d’une manière ou d’une autre le sujet. Sur des sujets internationaux comme celui-ci, j’essaie de varier les points de vue en lisant en français, en anglais et en allemand. Très vite, je me suis rendu compte que la surveillance numérique est extrêmement documentée et il a été difficile de faire un tri entre tout ce que je trouvais. J’ai rarement eu aussi souvent peur de passer à côté de quelque chose d’essentiel, de gommer la complexité, de tomber dans la caricature… Et à la fois, pour rendre intelligible le sujet pour toutes et tous, il était nécessaire de ne pas vouloir trop en dire de peur d’embrouiller les enjeux.

Sur la forme, toujours, comment s’est fait le choix des intervenant⋅es ?

C’est pour moi le plus difficile et une très grande partie du travail. Je ne cherche pas quelqu’un parce qu’il est connu et s’exprime beaucoup sur la question. Au contraire, le documentaire, en sortant de la maison de la radio, me semble permettre de donner la parole à d’autres que l’on entend moins. Je cherche des personnes qui ont une perspective particulière qui va éclairer la question de manière différente à chaque interview et permettre ainsi de faire avancer la narration.

Je cherche aussi des situations sonores. C’est-à-dire des situations qui vont faire entendre une ambiance, faire voyager l’auditeur quelque part où il n’irait pas forcément tout seul, lui faire comprendre des choses au-delà des mots par une ambiance. Ça peut-être par exemple la visite d’un Data Center (très sonore) ou bien le check-up des pisteurs présent sur mon smartphone avec une militante de Exodus Privacy. Cela permet des dialogues plus concrets, plus imagés, plus vivant aussi.

 

Un des enjeux est aussi de veiller à la parité (ou en tout cas essayer de s’en approcher) de voix féminines et masculines. Cela n’a pas été évident pour ce sujet même si les choses changent peu à peu et que certaines femmes deviennent un peu plus visibles. Il faut toujours un peu plus de temps pour trouver des interlocutrices plutôt que des interlocuteurs.

Trouver le bon équilibre entre tous ces critères est vraiment précaire et ça me terrorise jusqu’au dernier moment de ne pas avoir le bon casting. Tout se monte, mais la qualité des paroles récoltées fait beaucoup à la qualité d’un documentaire et au temps que l’on va passer sur le montage. Comme je ne veux pas faire perdre du temps aux gens en les interviewant pour ensuite m’apercevoir au montage que leur propos passe un peu à côté du sujet ou bien qu’on n’a pas la place de le mettre, je me mets énormément de pression. Malheureusement, ça arrive parfois que l’on soit obliger de passer à la trappe une interview pour de multiples raisons. On ne peut pas tout prévoir.

Et combien de temps l’ensemble du travail vous a-t-il pris ?

J’aurai du mal à dire exactement combien de temps j’y ai passé à temps plein. Environ 4 mois très chargés. En tout cas c’est très intense à chaque fois et je finis épuisé.

J’ai travaillé sur la préparation entre juillet et septembre 2020 en faisant d’autres projets à côté. Puis à temps (plus que) plein de mi-novembre à début janvier. Ensuite il y a eu 2 semaines de tournages, 5 semaines de montages, 2 semaines d’écriture de la voix off, puis 1 semaine de mixage ce qui nous a amené jusqu’à mi-mars 2021. Donc oui, 4 gros mois sans compter la rédaction du projet au départ.

Rentrons un peu dans le détail des épisodes.

L’épisode 1, « Capitalisme de surveillance » est évidemment un sujet qui nous touche particulièrement à Framasoft. Cela fait quelques années que nous participons à sensibiliser à cette problématique. Un de nos administrateurs bénévoles que tu as interviewé, Christophe Masutti, a même écrit un ouvrage dessus. Peux-tu nous en dire plus sur cet épisode, notamment sur ce qui t’a marqué, et ce que tu y as toi-même appris ?

Épisode 1 : Le capitalisme de surveillance – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Ce qui me semblait important c’était de partir de ce que l’on voit le plus au quotidien : la publicité ciblée puis de montrer petit à petit l’ampleur des enjeux que peut poser la collecte massive des données numériques par des entreprises privées.

Mais je voulais aussi montrer que l’on n’est pas arrivé par hasard à cette idée de faire des profits en vendant, louant, échangeant de l’information sur les clients en puissance que sont les usagers d’internet. C’est le résultat d’une longue évolution de l’économie, du marketing et de l’industrie, en particulier américaine. Christophe Masutti l’explique très bien dans son livre Affaires privées et dans ses articles. Mais c’est rarement rappelé dans les travaux journalistiques sur la question. Heureusement, les travaux de la chercheuse américaine Shoshana Zuboff ont enfin obtenu récemment un écho que toutes les autres personnes travaillant sur ces questions depuis longtemps espéraient avoir un jour.

Ce qui m’a le plus marqué c’est bien sûr les conséquences sur la vie politique que peuvent avoir ces pratiques de traitement et d’exploitation des données à grande échelle. Ce qu’a révélé le scandale Cambridge Analytica est pour moi décisif pour comprendre comment se fabrique la politique actuellement. Les politiques ne parlent plus à un peuple de citoyens mais à des segments de consommateurs. C’est ce qui explique des discours politiques qui paraissent parfois contradictoires pour ceux qui, comme les journalistes, se situent au-delà des bulles d’informations et les reçoivent tous en même temps. Mais il faut comprendre que très peu de personnes ont une vue globale de l’information à un instant T. Ce qui compte pour un politique n’est plus de persuader une majorité d’électeurs sur un sujet donné, mais de convaincre des groupes très restreints sur des sujets de niches en adoptant une posture qui les séduit. Ce n’est pas infaillible et c’est plus limité en Europe qu’aux États-Unis du fait d’une réglementation plus protectrice des données. Mais je pense qu’il faut aujourd’hui en être conscient et en informer les citoyens si l’on veut se positionner, comme le fait Framasoft, contre ce modèle de surveillance numérique et y apporter les bonnes réponses.

Le second épisode : « Géopolitique de la surveillance numérique » est un sujet assez peu traité par les médias. Là encore, quel sentiment gardes-tu de cet épisode ?

Épisode 2 : Géopolitique de la surveillance numérique - Cliquez l'image pour accéder à la page.
Épisode 2 : Géopolitique de la surveillance numérique – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Je suis parti d’une question assez simple : est-ce que la NSA ou bien les services Chinois lisent mes SMS ? C’est un peu ce que tout le monde se demande depuis Snowden. Mais la réponse est en fait très difficile à donner pour une seule et bonne raison : on a très peu d’informations fiables sur le sujet. De manière pas tout à fait étonnante : les espions ne parlent pas beaucoup. Certes les révélations de Snowden et les quelques leaks qui ont touché les entreprises de sécurité ces dernières années nous donnent tout de même des pistes. Mais on parle de documents qui ont maintenant parfois plus de dix ou quinze ans et entre ce qu’affichent les entreprises ou les États en interne et la réalité des pratiques, il y a parfois de grandes différences. De plus, je me suis aperçu que pour comprendre les documents de l’Affaire Snowden, il fallait souvent interpréter d’obscurs schémas, notices, slides, etc. Alors un peu comme les exégèses religieuses, des visions différentes s’opposent. Certaines plus alarmistes, d’autre plus mesurées. Attention, tout le monde est d’accord pour dire que les agences de renseignements de la plupart des États scrutent ce qu’il se passe sur internet à grande échelle. Mais le débat porte sur les capacités des services secrets des différents pays à collecter de manière massive les données, ce qu’ils peuvent faire et qui ils surveillent exactement. On ne peut pas dire que ce soient des sujets qui sont peu abordés dans les médias depuis l’affaire Snowden. Au contraire même. Mais ils le sont souvent de manière schématique.

Je parle de géopolitique car c’est ce qui s’est imposé assez vite dans ma tête : cette question de la surveillance numérique a des conséquences concrètes pour les citoyens de nombreux pays, mais elle a un impact aussi très important sur les relations internationales. C’est aujourd’hui un véritable espace de compétition internationale et d’affrontement. Et ça ne va pas aller en s’arrangeant.

On se doute que tu n’as pas de boule de cristal, mais suite à ce que tu as lu/vu/entendu : comment imagines-tu la suite des événements concernant, justement, la géopolitique de la surveillance ? Dit autrement, si tu avais la possibilité d’aller enquêter plus avant, quels seraient les sujets que tu aimerais traiter ?

J’aimerais beaucoup être un petit lutin pouvant me glisser dans les centres de renseignements de la Chine et dans les bureaux de la NSA pour pouvoir répondre à cette question.

Ce qui me paraît probable c’est que la concurrence entre les pays pour récolter le plus d’informations possible ne va pas diminuer. Cela va ouvrir encore plus d’opportunités pour toute une industrie privée fabriquant des « armes » numériques. Il y a fort à parier que ces « armes » soient un jour réutilisées par des groupes criminels pour leurs propres usages. Donc, comme le dit la juriste Aude Géry dans le documentaire cette militarisation d’Internet va avoir et a déjà des conséquences rudes pour les usagers d’Internet. Par ailleurs, l’augmentation d’acteurs privés collaborant avec les services de renseignements étatiques soulèvent aussi des questions de contrôle de ces pratiques par les gouvernements et par les parlements.

La troisième séquence de la série s’intéresse à la « Safe city ». Honnêtement, c’est un sujet que nous maîtrisons moins. En plus des militant⋅es de La Quadrature (coucou !) qui coordonnent notamment la campagne « technopolice », tu t’es rendu à Roubaix au Centre de Supervision Urbaine qui organise entre autres la gestion des caméras de surveillance de la ville. C’est à la fois un petit choc cognitif d’entendre les deux parties (citoyenne/militante, et « forces de l’ordre », comme on les appelle maintenant), et pourtant, on sent chez l’officier directeur de ce centre à la fois un grand professionnalisme, mais aussi poindre la critique des limites d’un tel système, dépendant de technologies extérieures. La police dépendant des industriels pour faire leur travail, ce n’est pas forcément nouveau, mais avec ton regard de journaliste, comment perçois-tu cette transition vers le numérique (« digitalisation », dirait-on dans certain milieux) ? Notamment en ce qui concerne la question de l’intelligence artificielle ?

(HS: on en profite pour signaler à celleux que ça intéresse une autre émission de France Culture, « Pass sanitaire et identité numérique : quels dangers pour nos libertés ? » avec l’incontournable Olivier Tesquet, mais aussi William Eldin, CEO de l’entreprise XXII dont les technos nous font plus flipper que rêver, et que tu interviewais aussi dans cet épisode 3)

Épisode 3 : Dans les allées de la safe city - Cliquez l'image pour accéder à la page.
Épisode 3 : Dans les allées de la safe city – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Pour moi la vidéosurveillance, d’autant plus si elle est automatique, est un parfait exemple de solutionnisme technologique et c’est là où une partie de l’approche de La Quadrature du net me parle. Toute une série de facteurs d’ordre économiques, sociaux, politiques créent des situations d’insécurité et de la violence dans la société. Mais plutôt que de se confronter aux causes réelles du phénomène, on présente une solution technique comme à même d’éliminer tous les symptômes. Alors certains mettent en place des dispositifs avec professionnalisme et déontologie comme c’est le cas de Christian Belpaire à Roubaix avec qui il est vraiment intéressant d’échanger sur ces questions. Certains entrepreneurs réfléchissent sincèrement comme William Eldin qui dirige l’entreprise XXII sur ce qu’ils produisent et sur les moyens d’utiliser à bon escient la vidéosurveillance automatique. Dans des situations particulières cela peut certainement être très utile. Mais à aucun moment on pose la question du rapport coût/efficacité/conséquences pour les Droits humains. La Cour des Comptes elle-même a mis en garde les collectivités locales contre les dépenses liées à la vidéosurveillance dans la mesure où aucune enquête ne prouve jusqu’à présent son efficacité pour lutter contre la délinquance par rapport aux dispositifs préexistant. Mais cela n’empêche pas les politiques d’en installer toujours plus. Je le vois concrètement à Saint-Denis où j’habite depuis les dernières élections municipales de 2020. Les entreprises ne s’y trompent pas non plus. La pression sur les collectivités locales est très importante car les sommes en jeu sont colossales. Et l’argent qui est utilisé là, n’est pas utilisé ailleurs.

Les investissements dans ce domaine participent d’une logique politique actuelle qui préfère mettre beaucoup de sous sur un temps réduit dans des équipements plutôt que de financer sur le long terme des salaires. Pourtant, j’ai passé beaucoup de temps dans les quartiers populaires à Dunkerque et j’ai pu observer l’impact positif que pouvait avoir la présence des éducateurs de rue sur la délinquance et bien d’autres situations de détresse. Et pourtant, je ne connais aucun politique qui actuellement se vante d’augmenter les ressources de ces dispositifs de prévention spécialisée.

Enfin, la quatrième et dernière partie s’intéresse aux solutions. Là encore, on y croise des gens proches de Framasoft ou qu’on aime beaucoup (coucou Geoffrey), et même des personnes de Framasoft (l’une de nos co-présidentes, Maiwann). Toujours sans redire ce qui s’est dit dans le documentaire, quels étaient tes sentiments en interrogeant ces chercheurs, journalistes, militant⋅es ? T’es-tu dit que c’était foutu ou qu’il restait de l’espoir ?

Épisode 4 : Échapper à la surveillance - Cliquez l'image pour accéder à la page et écouter l'épisode sur le site de France Culture.
Épisode 4 : Échapper à la surveillance – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Je suis de nature optimiste. Des peuples ont renversé des autocrates tout puissants tout au long de l’histoire. Rien n’est définitif. On parle aujourd’hui plus que jamais de ces dispositifs de surveillance numérique. On commence à comprendre le danger qu’ils représentent pour la démocratie. Des structures comme Framasoft obtiennent une audience auprès du grand public qu’aucun bidouilleur du logiciel libre n’a eu jusqu’à présent. De plus en plus de personnes comprennent les nécessités d’étendre le chiffrement à toutes les communications numériques. L’application Signal s’impose comme une référence dans le domaine de la messagerie… Alors certes, la puissance des multinationales peu vertueuses et des autocraties sans scrupule n’en sort pas diminuée. Mais il y a de l’espoir. Et ce que j’aborde dans le documentaire n’est qu’une toute petite partie des initiatives et résistances qui existent et se développent aujourd’hui.

Au final, maintenant ce travail publié et diffusé, il y a forcément pour nous une frustration à ce que ce travail de vulgarisation et de sensibilisation, qu’on considère comme important et largement financé par de l’argent public, ne soit pas sous licence libre (si les hautes sphères de Radio France nous lisent et veulent en discuter, on est disponibles pour en parler !). Cependant, te concernant, quelles suites souhaiterais-tu voir donner à cette série ?

La licence n’est pas libre car actuellement Radio France tente de reprendre la main sur la diffusion de ses podcasts face aux plateformes qui réalisent des profits grâce aux productions du service public. Le paradoxe est donc qu’il faut restreindre la diffusion pour qu’elle soit plus pérenne et ne soit pas soumise au bon vouloir des Google, Apple et autres Spotify. Cependant toutes les productions de France Culture sont disponibles sur le site internet tant que Radio France restera un service public. On ne peut donc qu’espérer qu’un maximum de personnes écoute, partage, commente, critique et se réapproprie les pistes que j’ai déployées dans cette série documentaire. Ce n’est qu’une brique de plus dans les efforts fait pour documenter et réfléchir la place de la technologie dans la société et il reste beaucoup à dire et à faire.

Dernière question, traditionnelle : y a-t-il une question que l’on ne t’a pas posée ou un élément que tu souhaiterais ajouter ?

Demandez à Google et à la NSA… ils doivent bien savoir ce que l’on a oublié.

Merci Antoine !




Les bibliothèques sous le règne du capitalisme

Les bibliothèques ont toujours joué un rôle de gardiens de nos biens littéraires. Mais face à la tendance croissante à l’appropriation de la culture par le marché, elles sont peu à peu devenues de véritables ovnis dans le paysage culturel nord-américain.

Gus Bagakis est professeur de philosophie à la retraite de l’Université d’État de San Francisco. Il revient ici sur ce mouvement destructeur qui vise à transformer les bibliothèques publiques en simples institutions privées à but lucratif.

Traduction Framalang : paul, Edgar Lori, Mannik, Aiseant, claire, jums, Goofy

Source : revue en ligne Truth-out : Libraries Under Capitalism: The Enclosure of the Literary Commons

bibliothèque et nombreux lecteurs
Photo Steven Ramirez (Domaine public)

 

L’une des institutions les plus subversives des États-Unis,

c’est la bibliothèque publique.

– Bell Hooks

Nos biens communs littéraires des bibliothèques publiques sont peu à peu mis sous cloche et deviennent inaccessibles au public à cause d’une série de lois de nos gouvernements – à la fois locaux, nationaux et fédéraux – qui s’inclinent devant les diktats et les priorités des entreprises. La bibliothèque publique est l’un des rares endroits où les gens peuvent entrer gratuitement, accéder gratuitement aux documents et y séjourner sans devoir acheter quoi que ce soit. La valeur des bibliothèques publiques ne réside pas seulement dans les documents qu’elles prêtent ou dans le modèle non commercial qu’elles incarnent, mais aussi dans le bien commun qu’elles représentent : un endroit public qui offre aux citoyens des espaces intellectuels libérés, propices aux dialogues et à l’organisation de la communauté.

Les bibliothèques sont en train de passer d’un modèle de service public à celui d’entreprises à but lucratif, ce qui conduit à la destruction d’un espace public.

En riposte à cet emprisonnement, le New York Times plaide pour des moyens supplémentaires en faveur des bibliothèques. Le quotidien de la Grosse Pomme présente les bibliothèques comme des lieux où les enfants pauvres viennent « apprendre à lire et à aimer la littérature, où les immigrés apprennent l’anglais, où les chômeurs perfectionnent leurs CV et lettres de motivation, et où ceux qui n’ont pas accès à Internet peuvent franchir le fossé numérique… Ce sont des refuges pour penser, rêver, étudier, lutter et – c’est le cas de nombreux enfants et personnes âgées – pour être simplement en lieu sûr, à l’abri de la chaleur. »

Un article de la revue Public Library Quarterly intitulé « Les bibliothèques et le déclin de l’utilité publique » ajoute : « [les bibliothèques] contribuent à rendre possible la sphère démocratique publique ». L’auteur alerte également sur le fait que les bibliothèques sont en train de passer d’un modèle de service public à celui d’entreprises à but lucratif qui entraînent la destruction d’un véritable espace public.
Nous avons besoin de moyens supplémentaires pour permettre aux bibliothèques publiques de survivre. Nous devons empêcher la transformation de nos bibliothèques, institutions culturelles, éducatives et communes, en entreprises privées. Afin de comprendre plus clairement d’où viennent ces problèmes, nous devons d’abord comprendre comment les bibliothèques ont historiquement été influencées par le capitalisme.

Les bibliothèques comme système de contrôle social

Lorsqu’on étudie le développement et le déclin des bibliothèques publiques, on constate que les changements sont souvent imputables à l’objectif premier du capitalisme : le profit. Si quelque chose évolue défavorablement – autrement dit, si une chose menace la possibilité de profit – celle-ci devient un bouc émissaire opportun pour réduire les moyens dans les budgets des administrations locales, nationales ou fédérales. Les bibliothèques publiques, l’éducation publique et l’espace public représentent trois victimes actuelles de l’influence du capitalisme car elles sont devenues des « dépenses inutiles » qui entravent l’accroissement des profits.

Afin de contextualiser notre étude, rappelons que le capitalisme est un système économique fondé sur une main-d’œuvre salariée (travail contre salaire), la propriété privée ou le contrôle des moyens de production (usines, machines, exploitations agricoles, bureaux) et la production de marchandises en vue d’un profit. Dans ce système, un petit nombre de personnes qui travaillent pour de très grandes entreprises utilise sa puissance financière et politique pour orienter les priorités, les financements et les mesures gouvernementales en fonction de leurs propres intérêts. Même si le capitalisme a connu des évolutions, l’une de ses composantes demeure inchangée : la lutte pour la richesse et le pouvoir qui oppose les entrepreneurs et les travailleurs. Dans la mesure où les entreprises capitalistes possèdent l’argent et le pouvoir, on peut soutenir qu’elles contrôlent la société en général.

Mais en période de dépression, la classe ouvrière, bien plus nombreuse, souffre et réagit ; elle s’organise et se bat pour de meilleures rémunérations, davantage de bénéfices et de puissance. Ainsi, la réaction des travailleurs face à la Grande Dépression qui a conduit au New Deal de Franklin D. Roosevelt dans les années 1930, a permis de réguler le capitalisme, pour mieux le préserver. La rébellion des travailleurs était due en partie à une répartition excessivement inégale des richesses durant cet Âge d’Or, période où la classe capitaliste accumulait une richesse considérable aux dépens des travailleurs. Un contexte d’inégalité d’ailleurs semblable à celui que nous vivons aujourd’hui, à l’ère de notre Nouvel Age d’Or.

Ce conflit entre les patrons et les travailleurs transparaît aussi dans l’histoire des bibliothèques publiques. Les bibliothèques font partie d’un système de contrôle social : elles fournissent des ressources et une éducation aux immigrants. Quand les patrons encouragent la création de bibliothèques, c’est qu’ils les voient comme terrain d’essai pour immigrés au service de leur industrie. Par exemple, à Butte Montana, en 1893, la nouvelle bibliothèque Carnegie a été présentée par les propriétaires de mines comme « un antidote au penchant des mineurs pour la boisson, les prostituées et le jeu » et comme un moyen de favoriser la création d’une communauté d’immigrés afin de limiter la rotation du personnel.

Andrew Carnegie, capitaliste philanthrope en son temps, offre un bel exemple de la volonté de la classe capitaliste de maintenir le système de profits et d’empêcher une révolte ouvrière. Dans son article « Le Gospel de la Richesse », publié en 1889, il défend l’idée que les riches peuvent diminuer la contestation sociale par le biais de la philanthropie. Il est préférable selon lui de ponctionner les salaires ouvriers, collecter les sommes puis les redistribuer à la communauté. S’adressant aux ouvriers avec condescendance, Carnegie expliquait : « Si j’augmente vos salaires, vous allez dépenser votre argent pour acheter une meilleure pièce de viande ou plus de boissons. Mais ce dont vous avez besoin, même si vous l’ignorez, ce sont mes bibliothèques et mes salles de concert ».

La générosité de Carnegie était bien comprise : diminuer les possibilités de révolte ouvrière et maintenir ou augmenter ses propres profits. Certes c’était un homme généreux, mais il n’était pas vraiment impliqué dans un changement de société, comme il l’a démontré par ses multiples actions autour de la ségrégation. À l’époque de la ségrégation raciale, les Noirs n’avaient généralement pas accès aux bibliothèques publiques dans le Sud des États-Unis. Plutôt que de favoriser l’intégration raciale dans ses bibliothèques, Carnegie a fondé des bibliothèques distinctes pour les Afro-Américains. Par exemple, à Houston, Carnegie a ouvert la Bibliothèque Carnegie pour Personnes de Couleur en 1909. Même si l’on doit reconnaître néanmoins sa générosité dans la construction de plus de la moitié des bibliothèques sur le territoire des États-Unis avant 1930. En outre, les bibliothèques se sont multipliées en réponse au besoin d’éducation publique, notamment pour les quelque 20 millions d’immigrés arrivés dans le pays entre 1880 et 1920,dans le but de fournir de la main-d’œuvre bon marché et de soutenir le système capitaliste.

Dans notre monde régi par le capitalisme, les guerres sont presque toujours le fait de deux classes dirigeantes (ou davantage) qui se disputent l’accès à des profits, des ressources ou des territoires. Dans ces luttes, la propagande est un outil précieux. Ainsi, durant la Première Guerre Mondiale, la vocation des bibliothèques a basculé vers une américanisation progressive des immigrés, y compris par l’élimination d’ouvrages « antipatriotiques car pro-Allemands ». Durant la Seconde Guerre Mondiale, par opposition aux autodafés nazis, les bibliothécaires américains ont considéré les livres comme des armes de guerre. Pendant la Guerre Froide (1947-1991), certaines bibliothèques publiques ont également servi d’instruments de propagande pour la politique étrangère du gouvernement fédéral : comme la loi sur l’enregistrement des agents étrangers (Foreign Agents Registration Act, FARA) qui a conduit les bibliothèques à filtrer des documents soviétiques.

À la même époque, l’association ultraconservatrice John Birch Society dépêchait ses membres dans toutes les bibliothèques publiques du pays pour vérifier si le Livre bleu de l’association était bien disponible dans leurs rayonnages. Ce Livre bleu mettait en garde contre l’ennemi qui s’apprêtait à transformer les États-Unis en état policier communiste et laissait entendre que le Président Eisenhower était un agent communiste. En 1953, au plus fort de la chasse aux sorcières, un membre de la Commission des recueils de textes de l’Indiana a dénoncé l’œuvre Robin des bois comme une œuvre de propagande communiste, et demandé son retrait des écoles et des bibliothèques au prétexte que le héros prenait aux riches pour donner aux pauvres. Fort heureusement, quelques étudiants courageux de l’Université d’Indiana ont résisté et organisé le mouvement de la plume verte (Green Feather Movement) en référence à la plume sur le chapeau de Robin des bois.

L’offensive économique contre les bibliothèques

À la fin des années 1970, la formation des travailleurs immigrés n’est plus la préoccupation des entreprises capitalistes car la main-d’œuvre ne manque plus. À partir de ce moment également, le financement des bibliothèques publiques commence à reculer. Après le 11 septembre 2001, la peur s’intensifie dans la population, tout comme s’intensifie la surveillance d’État. L’une des mesures prises par le gouvernement, conformément à la section 215 du Patriot Act, consiste à forcer les bibliothèques à divulguer des informations sur leurs usagers.

Quelques bibliothécaires courageux protestent, comprenant qu’une telle exigence représente un danger pour les libertés individuelles. Ainsi, l’association des bibliothécaires du Vermont adresse une lettre au Congrès pour s’opposer aux dispositions du Patriot Act concernant les bibliothèques. La propagande des États-Unis face à la montée des tensions au Moyen-Orient pose problème à un certain nombre de bibliothécaires qui s’alarment des symboles hyper-patriotiques affichés dans les bibliothèques juste après les attaques du 11 septembre (affiches, posters, pamphlets). Dans une lettre cosignée faisant état de leurs inquiétudes, ils écrivent : « ce type de communications inhabituelles risque de créer une atmosphère intimidante pour certains usagers des bibliothèques. »

Dès la fin du XXe siècle et au début du XXIe, la plupart des bibliothèques publiques offrent un espace commun et accueillant, qui encourage l’exploration, la création et la collaboration entre étudiants, enseignants et citoyens. Innovantes, elles combinent des supports physiques et numériques pour proposer des environnements d’apprentissage. En 1982, l’American Library Association (ALA) organise la semaine des livres censurés (Banned Books Week) pour attirer l’attention sur les livres qui expriment des opinions non orthodoxes ou impopulaires et mettent ces ouvrages à disposition de tous les lecteurs intéressés.

Mais à l’époque, la classe capitaliste est mal à l’aise et craint des « effets de démocratisation » liés à l’activisme des années 1960 : droits civiques, droits LGBTQ, sensibilisation écologique, mouvements étudiants et actions de dénonciation de la guerre du Vietnam. Les milieux d’affaires conservateurs contestent alors le capitalisme régulé hérité du New Deal et introduisent le néolibéralisme, une variante du capitalisme favorisant le libre échange, la privatisation, l’intervention minimum de l’État dans les affaires, la baisse des dépenses publiques allouées aux services sociaux (dont les bibliothèques) et l’affaiblissement du pouvoir de la classe ouvrière. Certains d’entre eux se réfèrent au Mémorandum Powell (1971), une feuille de route destinée aux milieux d’affaires conservateurs pour les encourager à s’élever et se défendre contre une prétendue attaque de la libre entreprise par des activistes comme Ralph Nader, Herbert Marcuse et d’autres qui étaient censés avoir pris le contrôle des universités, des médias et du gouvernement. À l’autre bout du spectre, les internationalistes progressistes de la Commission trilatérale publient un document intitulé La crise de la démocratie (1975), qui suggère que l’activisme des années 1960 a transformé des citoyens auparavant passifs et indifférents en activistes capables d’ébranler les équilibres en place.

Le ralentissement de l’immigration des travailleurs dans les années 1970 et le stress de l’austérité due à la montée du néo-libéralisme ont provoqué le déclin des services sociaux, dont le système des bibliothèques publiques. Certaines d’entre elles dérivent vers un modèle d’entreprise lucrative qui considère les utilisateurs comme des clients et suivent un modèle entrepreneurial. Elles utilisent les relations publiques, la marchandisation de l’information, l’efficacité, l’image de marque et le mécénat pour augmenter leurs capacités de financements. L’argent qui provenait de taxes locales, nationales et fédérales, indispensable au maintien des services publics, a été transféré dans les poches des sociétés privées, dans l’entretien du complexe militaro-industriel, ou entassé dans des paradis fiscaux. La classe moyenne s’est fait berner par les promesses de réductions d’impôt, parce qu’on lui a dit que la baisse des taxes allait augmenter les dépenses, et donc dynamiser l’économie américaine. Elle a donc suivi, à tort, les grandes entreprises, alors que la perte des institutions publiques nuit à tous sauf aux riches.

Et pourtant toutes ces attaques contre les bibliothèques publiques ont eu lieu en dépit du fait qu’elles sont un excellent investissement pour les contribuables. Par exemple, une étude de 2007 à propos de la bibliothèque de San Francisco a montré que pour chaque dollar dépensé par la bibliothèque, les citoyens avaient reçu 3 dollars en biens et services.

Bien qu’utilisées par un nombre croissant de personnes, les bibliothèques ont encore vu leurs moyens diminuer sous l’effet de la récession de 2008. En Californie, les aides d’État pour les bibliothèques ont été complètement supprimées en 2011. La Louisiane a suivi l’exemple de la Californie en 2012. Des coupes budgétaires sévères ont frappé simultanément les bibliothèques publiques de la ville de New York, la bibliothèque de Dallas, celles de l’État du Massachusetts et bien d’autres. Le budget fédéral actuel contient un plan qui élimine l’agence de support des musées et bibliothèques (Institute of Museum and Library Services) dont les ressources ont été progressivement réduites par les administrations précédentes, qu’elles soient démocrates ou républicaines.

Le renforcement des coupes budgétaires cause l’extinction de nos biens communs littéraires. Alors, comment les défenseurs des bibliothèques publiques peuvent-ils aider celles-ci à survivre et à promouvoir des valeurs démocratiques réelles et une pensée critique ? Tout d’abord, nous devons bien cerner le sort des bibliothèques publiques à la lumière de l’histoire du capitalisme. Ensuite, nous devons nous organiser et mener une lutte pour protéger les bibliothèques publiques comme espaces de lien communautaire et d’action potentielle, contre ce fléau qu’est l’asservissement au capitalisme oligopolistique.




Les nouveaux Léviathans IV. La surveillance qui vient

Dans ce quatrième numéro de la série Nouveaux Léviathans, nous allons voir dans quelle mesure le modèle économique a développé son besoin vital de la captation des données relatives à la vie privée. De fait, nous vivons dans le même scénario dystopique depuis une cinquantaine d’années. Nous verrons comment les critiques de l’économie de la surveillance sont redondantes depuis tout ce temps et que, au-delà des craintes, le temps est à l’action d’urgence.

Note : voici le quatrième volet de la série des Nouveaux (et anciens) Léviathans, initiée en 2016, par Christophe Masutti, alias Framatophe. Pour retrouver les articles précédents, une liste vous est présentée à la fin de celui-ci.

Aujourd’hui

Avons-nous vraiment besoin des utopies et des dystopies pour anticiper les rêves et les cauchemars des technologies appliquées aux comportements humains ? Sempiternellement rabâchés, le Meilleur de mondes et 1984 sont sans doute les romans les plus vendus parmi les best-sellers des dernières années. Il existe un effet pervers des utopies et des dystopies, lorsqu’on les emploie pour justifier des arguments sur ce que devrait être ou non la société : tout argument qui les emploie afin de prescrire ce qui devrait être se trouve à un moment ou à un autre face au mur du réel sans possibilité de justifier un mécanisme crédible qui causerait le basculement social vers la fiction libératrice ou la fiction contraignante. C’est la raison pour laquelle l’île de Thomas More se trouve partout et nulle part, elle est utopique, en aucun lieu. Utopie et dystopie sont des propositions d’expérience et n’ont en soi aucune vocation à prouver ou prédire quoi que ce soit bien qu’elles partent presque toujours de l’expérience commune et dont tout l’intérêt, en particulier en littérature, figure dans le troublant cheminement des faits, plus ou moins perceptible, du réel vers l’imaginaire.

Pourtant, lorsqu’on se penche sur le phénomène de l’exploitation des données personnelles à grande échelle par des firmes à la puissance financière inégalable, c’est la dystopie qui vient à l’esprit. Bien souvent, au gré des articles journalistiques pointant du doigt les dernières frasques des GAFAM dans le domaine de la protection des données personnelles, les discussions vont bon train : « ils savent tout de nous », « nous ne sommes plus libres », « c’est Georges Orwell », « on nous prépare le meilleur des mondes ». En somme, c’est l’angoisse  pendant quelques minutes, juste le temps de vérifier une nouvelle fois si l’application Google de notre smartphone a bien enregistré l’adresse du rendez-vous noté la veille dans l’agenda.

Un petit coup d’angoisse ? allez… que diriez-vous si vos activités sur les réseaux sociaux, les sites d’information et les sites commerciaux étaient surveillées et quantifiées de telle manière qu’un système de notation et de récompense pouvait vous permettre d’accéder à certains droits, à des prêts bancaires, à des autorisations officielles, au logement, à des libertés de circulation, etc. Pas besoin de science-fiction. Ainsi que le rapportait Wired en octobre 20171, la Chine a déjà tout prévu d’ici 2020, c’est-à-dire demain. Il s’agit, dans le contexte d’un Internet déjà ultra-surveillé et non-neutre, d’établir un système de crédit social en utilisant les big data sur des millions de citoyens et effectuer un traitement qui permettra de catégoriser les individus, quels que soient les risques : risques d’erreurs, risques de piratage, crédibilité des indicateurs, atteinte à la liberté d’expression, etc.

Évidemment les géants chinois du numérique comme Alibaba et sa filiale de crédit sont déjà sur le coup. Mais il y a deux choses troublantes dans cette histoire. La première c’est que le crédit social existe déjà et partout : depuis des années on évalue en ligne les restaurants et les hôtels sans se priver de critiquer les tenanciers et il existe toute une économie de la notation dans l’hôtellerie et la restauration, des applications terrifiantes comme Peeple2 existent depuis 2015, les banques tiennent depuis longtemps des listes de créanciers, les fournisseurs d’énergie tiennent à jour les historiques des mauvais payeurs, etc.  Ce que va faire la Chine, c’est le rêve des firmes, c’est la possibilité à une gigantesque échelle et dans un cadre maîtrisé (un Internet non-neutre) de centraliser des millions de gigabits de données personnelles et la possibilité de recouper ces informations auparavant éparses pour en tirer des profils sur lesquels baser des décisions.

Le second élément troublant, c’est que le gouvernement chinois n’aurait jamais eu cette idée si la technologie n’était pas déjà à l’œuvre et éprouvée par des grandes firmes. Le fait est que pour traiter autant d’informations par des algorithmes complexes, il faut : de grandes banques de données, beaucoup d’argent pour investir dans des serveurs et dans des compétences, et espérer un retour sur investissement de telle sorte que plus vos secteurs d’activités sont variés plus vous pouvez inférer des profils et plus votre marketing est efficace. Il est important aujourd’hui pour des monopoles mondialisés de savoir combien vous avez de chance d’acheter à trois jours d’intervalle une tondeuse à gazon et un canard en mousse. Le profilage de la clientèle (et des utilisateurs en général) est devenu l’élément central du marché à tel point que notre économie est devenue une économie de la surveillance, repoussant toujours plus loin les limites de l’analyse de nos vies privées.

La dystopie est en marche, et si nous pensons bien souvent au cauchemar orwellien lorsque nous apprenons l’existence de projets comme celui du gouvernement chinois, c’est parce que nous n’avons pas tous les éléments en main pour en comprendre le cheminement. Nous anticipons la dystopie mais trop souvent, nous n’avons pas les moyens de déconstruire ses mécanismes. Pourtant, il devient de plus en plus facile de montrer ces mécanismes sans faire appel à l’imaginaire : toutes les conditions sont remplies pour n’avoir besoin de tracer que quelques scénarios alternatifs et peu différents les uns des autres. Le traitement et l’analyse de nos vies privées provient d’un besoin, celui de maximiser les profits dans une économie qui favorise l’émergence des monopoles et la centralisation de l’information. Cela se retrouve à tous les niveaux de l’économie, à commencer par l’activité principale des géants du Net : le démarchage publicitaire. Comprendre ces modèles économiques revient aussi à comprendre les enjeux de l’économie de la surveillance.

Données personnelles : le commerce en a besoin

Dans le petit monde des études en commerce et marketing, Frederick Reichheld fait figure de référence. Son nom et ses publications dont au moins deux best sellers, ne sont pas vraiment connus du grand public, en revanche la plupart des stratégies marketing des vingt dernières années sont fondées, inspirées et même modélisées à partir de son approche théorique de la relation entre la firme et le client. Sa principale clé de lecture est une notion, celle de la fidélité du client. D’un point de vue opérationnel cette notion est déclinée en un concept, celui de la valeur vie client (customer lifetime value) qui se mesure à l’aune de profits réalisés durant le temps de cette relation entre le client et la firme. Pour Reichheld, la principale activité du marketing consiste à optimiser cette valeur vie client. Cette optimisation s’oppose à une conception rétrograde (et qui n’a jamais vraiment existé, en fait3) de la « simple » relation marchande.

En effet, pour bien mener les affaires, la relation avec le client ne doit pas seulement être une série de transactions marchandes, avec plus ou moins de satisfaction à la clé. Cette manière de concevoir les modèles économiques, qui repose uniquement sur l’idée qu’un client satisfait est un client fidèle, a son propre biais : on se contente de donner de la satisfaction. Dès lors, on se place d’un point de vue concurrentiel sur une conception du capitalisme marchand déjà ancienne. Le modèle de la concurrence « non faussée » est une conception nostalgique (fantasmée) d’une relation entre firme et client qui repose sur la rationalité de ce dernier et la capacité des firmes à produire des biens en réponse à des besoins plus ou moins satisfaits. Dès lors la décision du client, son libre arbitre, serait la variable juste d’une économie auto-régulée (la main invisible) et la croissance économique reposerait sur une dynamique de concurrence et d’innovation, en somme, la promesse du « progrès ».

Évidemment, cela ne fonctionne pas ainsi. Il est bien plus rentable pour une entreprise de fidéliser ses clients que d’en chercher de nouveaux. Prospecter coûte cher alors qu’il est possible de jouer sur des variables à partir de l’existant, tout particulièrement lorsqu’on exerce un monopole (et on comprend ainsi pourquoi les monopoles s’accommodent très bien entre eux en se partageant des secteurs) :

  1. on peut résumer la conception de Reichheld à partir de son premier best seller, The Loyalty Effect (1996) : avoir des clients fidèles, des employés fidèles et des propriétaires loyaux. Il n’y a pas de main invisible : tout repose sur a) le rapport entre hausse de la rétention des clients / hausse des dépenses, b) l’insensibilité aux prix rendue possible par la fidélisation (un client fidèle, ayant dépassé le stade du risque de défection, est capable de dépenser davantage pour des raisons qui n’ont rien à voir avec la valeur marchande), c) la diminution des coûts de maintenance (fidélisation des employés et adhésion au story telling), d) la hausse des rendements et des bénéfices. En la matière la firme Apple rassemble tous ces éléments à la limite de la caricature.
  2. Reichheld est aussi le créateur d’un instrument d’évaluation de la fidélisation : le NPS (Net Promoter Score). Il consiste essentiellement à catégoriser les clients, entre promoteurs, détracteurs ou passifs. Son autre best-seller The Ultimate Question 2.0: How Net Promoter Companies Thrive in a Customer-Driven World déploie les applications possibles du contrôle de la qualité des relations client qui devient dès lors la principale stratégie de la firme d’où découlent toutes les autres stratégies (en particulier les choix d’innovation). Ainsi il cite dans son ouvrage les plus gros scores NPS détenus par des firmes comme Apple, Amazon et Costco.

Il ne faut pas sous-estimer la valeur opérationnelle du NPS. Notamment parce qu’il permet de justifier les choix stratégiques. Dans The Ultimate Question 2.0 Reichheld fait référence à une étude de Bain & Co. qui montre que pour une banque, la valeur vie client d’un promoteur (au sens NPS) est estimée en moyenne à 9 500 dollars. Ce modèle aujourd’hui est une illustration de l’importance de la surveillance et du rôle prépondérant de l’analyse de données. En effet, plus la catégorisation des clients est fine, plus il est possible de déterminer les leviers de fidélisation. Cela passe évidemment par un système de surveillance à de multiples niveaux, à la fois internes et externes :

  • surveiller des opérations de l’organisation pour les rendre plus agiles et surveiller des employés pour augmenter la qualité des relations client,
  • rassembler le plus de données possibles sur les comportements des clients et les possibilités de déterminer leurs choix à l’avance.

Savoir si cette approche du marketing est née d’un nouveau contexte économique ou si au contraire ce sont les approches de la valeur vie client qui ont configuré l’économie d’aujourd’hui, c’est se heurter à l’éternel problème de l’œuf et de la poule. Toujours est-il que les stratégies de croissance et de rentabilité de l’économie reposent sur l’acquisition et l’exploitation des données personnelles de manière à manipuler les processus de décision des individus (ou plutôt des groupes d’individus) de manière à orienter les comportements et fixer des prix non en rapport avec la valeur des biens mais en rapport avec ce que les consommateurs (ou même les acheteurs en général car tout ne se réduit pas à la question des seuls biens de consommation et des services) sont à même de pouvoir supporter selon la catégorie à laquelle ils appartiennent.

Le fait de catégoriser ainsi les comportements et les influencer, comme nous l’avons vu dans les épisodes précédents de la série Léviathans, est une marque stratégique de ce que Shoshana Zuboff a appelé le capitalisme de surveillance4. Les entreprises ont aujourd’hui un besoin vital de rassembler les données personnelles dans des silos de données toujours plus immenses et d’exploiter ces big data de manière à optimiser leurs modèles économiques. Ainsi, du point de vue des individus, c’est le quotidien qui est scruté et analysé de telle manière que, il y a à peine une dizaine d’années, nous étions à mille lieues de penser l’extrême granularité des données qui cartographient et catégorisent nos comportements. Tel est l’objet du récent rapport publié par Cracked Lab Corporate surveillance in everyday life5 qui montre à quel point tous les aspect du quotidien font l’objet d’une surveillance à une échelle quasi-industrielle (on peut citer les activités de l’entreprise Acxiom), faisant des données personnelles un marché dont la matière première est traitée sans aucun consentement des individus. En effet, tout le savoir-faire repose essentiellement sur le recoupement statistique et la possibilité de catégoriser des milliards d’utilisateurs de manière à produire des représentations sociales dont les caractéristiques ne reflètent pas la réalité mais les comportements futurs. Ainsi par exemple les secteurs bancaires et des assurances sont particulièrement friands des possibilités offertes par le pistage numérique et l’analyse de solvabilité.

Cette surveillance a été caractérisée déjà en 1988 par le chercheur en systèmes d’information Roger Clarke6 :

  • dans la mesure où il s’agit d’automatiser, par des algorithmes, le traitement des informations personnelles dans un réseau regroupant plusieurs sources, et d’en inférer du sens, on peut la qualifier de « dataveillance », c’est à dire « l’utilisation systématique de systèmes de traitement de données à caractère personnel dans l’enquête ou le suivi des actions ou des communications d’une ou de plusieurs personnes » ;
  • l’un des attributs fondamentaux de cette dataveillance est que les intentions et les mécanismes sont cachés aux sujets qui font l’objet de la surveillance.

En effet, l’accès des sujets à leurs données personnelles et leurs traitements doit rester quasiment impossible car après un temps très court de captation et de rétention, l’effet de recoupement fait croître de manière exponentielle la somme d’information sur les sujets et les résultats, qu’ils soient erronés ou non, sont imbriqués dans le profilage et la catégorisation de groupes d’individus. Plus le monopole a des secteurs d’activité différents, plus les comportements des mêmes sujets vont pouvoir être quantifiés et analysés à des fins prédictives. C’est pourquoi la dépendance des firmes à ces informations est capitale ; pour citer Clarke en 20177 :

« L’économie de la surveillance numérique est cette combinaison d’institutions, de relations institutionnelles et de processus qui permet aux entreprises d’exploiter les données issues de la surveillance du comportement électronique des personnes et dont les sociétés de marketing deviennent rapidement dépendantes. »

Le principal biais que produit cette économie de la surveillance (pour S. Zuboff, c’est de capitalisme de surveillance qu’il s’agit puisqu’elle intègre une relation d’interdépendance entre centralisation des données et centralisation des capitaux) est qu’elle n’a plus rien d’une démarche descriptive mais devient prédictive par effet de prescription.

Elle n’est plus descriptive (mais l’a-t-elle jamais été ?) parce qu’elle ne cherche pas à comprendre les comportements économiques en fonction d’un contexte, mais elle cherche à anticiper les comportements en maximisant les indices comportementaux. On ne part plus d’un environnement économique pour comprendre comment le consommateur évolue dedans, on part de l’individu pour l’assigner à un environnement économique sur mesure dans l’intérêt de la firme. Ainsi, comme l’a montré une étude de Propublica en 20168, Facebook dispose d’un panel de pas moins de 52 000 indicateurs de profilage individuels pour en établir une classification générale. Cette quantification ne permet plus seulement, comme dans une approche statistique classique, de déterminer par exemple si telle catégorie d’individus est susceptible d’acheter une voiture. Elle permet de déterminer, de la manière la plus intime possible, quelle valeur économique une firme peut accorder à un panel d’individus au détriment des autres, leur valeur vie client.

Tout l’enjeu consiste à savoir comment influencer ces facteurs et c’est en cela que l’exploitation des données passe d’une dimension prédictive à une dimension prescriptive. Pour prendre encore l’exemple de Facebook, cette firme a breveté un système capable de déterminer la solvabilité bancaire des individus en fonction de la solvabilité moyenne de leur réseau de contacts9. L’important ici, n’est pas vraiment d’aider les banques à diminuer les risques d’insolvabilité de leurs clients, car elles savent très bien le faire toutes seules et avec les mêmes procédés d’analyse en big data. En fait, il s’agit d’influencer les stratégies personnelles des individus par le seul effet panoptique10 : si les individus savent qu’ils sont surveillés, toute la stratégie individuelle consistera à choisir ses amis Facebook en fonction de leur capacité à maximiser les chances d’accéder à un prêt bancaire (et cela peut fonctionner pour bien d’autres objectifs). L’intérêt de Facebook n’est pas d’aider les banques, ni de vendre une expertise en statistique (ce n’est pas le métier de Facebook) mais de normaliser les comportements dans l’intérêt économique et augmenter la valeur vie client potentielle de ses utilisateurs : si vous avez des problèmes d’argent, Facebook n’est pas fait pour vous. Dès lors il suffit ensuite de revendre des profils sur-mesure à des banques. On se retrouve typiquement dans un épisode d’anticipation de la série Black Mirror (Chute libre)11.

 

La fiction, l’anticipation, la dystopie… finalement, c’est-ce pas un biais que de toujours analyser sous cet angle l’économie de la surveillance et le rôle des algorithmes dans notre quotidien ? Tout se passe en quelque sorte comme si nous découvrions un nouveau modèle économique, celui dont nous venons de montrer que les préceptes sont déjà anciens, et comme si nous appréhendions seulement aujourd’hui les enjeux de la captation et l’exploitation des données personnelles. Au risque de décevoir tous ceux qui pensent que questionner la confiance envers les GAFAM est une activité d’avant-garde, la démarche a été initiée dès les prémices de la révolution informatique.

La vie privée à l’époque des pattes d’eph.

Face au constat selon lequel nous vivons dans un environnement où la surveillance fait loi, de nombreux ouvrages, articles de presse et autres témoignages ont sonné l’alarme. En décembre 2017, ce fut le soi-disant repentir de Chamath Palihapitya, ancien vice-président de Facebook, qui affirmait avoir contribué à créer « des outils qui déchirent le tissu social »12. Il ressort de cette lecture qu’après plusieurs décennies de centralisation et d’exploitation des données personnelles par des acteurs économiques ou institutionnels, nous n’avons pas fini d’être surpris par les transformations sociales qu’impliquent les big data. Là où, effectivement, nous pouvons accorder un tant soit peu de de crédit à C. Palihapitya, c’est dans le fait que l’extraction et l’exploitation des données personnelles implique une économie de la surveillance qui modèle la société sur son modèle économique. Et dans ce modèle, l’exercice de certains droits (comme le droit à la vie privée) passe d’un état absolu (un droit de l’homme) à un état relatif (au contexte économique).

Comme cela devient une habitude dans cette série des Léviathans, nous pouvons effectuer un rapide retour dans le temps et dans l’espace. Situons-nous à la veille des années 1970, aux États-Unis, plus exactement dans la période charnière qui vit la production en masse des ordinateurs mainframe (du type IBM 360), à destination non plus des grands laboratoires de recherche et de l’aéronautique, mais vers les entreprises des secteurs de la banque, des assurances et aussi vers les institutions gouvernementales. L’objectif premier de tels investissements (encore bien coûteux à cette époque) était le traitement des données personnelles des citoyens ou des clients.

Comme bien des fois en histoire, il existe des périodes assez courtes où l’on peut comprendre les événements non pas parce qu’ils se produisent suivant un enchaînement logique et linéaire, mais parce qu’ils surviennent de manière quasi-simultanée comme des fruits de l’esprit du temps. Ainsi nous avons d’un côté l’émergence d’une industrie de la donnée personnelle, et, de l’autre l’apparition de nombreuses publications portant sur les enjeux de la vie privée. D’aucuns pourraient penser que, après la publication en 1949 du grand roman de G. Orwell, 1984, la dystopie orwellienne pouvait devenir la clé de lecture privilégiée de l’informationnalisation (pour reprendre le terme de S. Zuboff) de la société américaine dans les années 1960-1970. Ce fut effectivement le cas… plus exactement, si les références à Orwell sont assez courantes dans la littérature de l’époque13, il y avait deux lectures possibles de la vie privée dans une société aussi bouleversée que celle de l’Amérique des années 1960. La première questionnait la hiérarchie entre vie privée et vie publique. La seconde focalisait sur le traitement des données informatiques. Pour mieux comprendre l’état d’esprit de cette période, il faut parcourir quelques références.

Vie privée vs vie publique

Deux best-sellers parus en été 1964 effectuent un travail introspectif sur la société américaine et son rapport à la vie privée. Le premier, écrit par Myron Brenton, s’intitule The privacy invaders14. Brenton est un ancien détective privé qui dresse un inventaire des techniques de surveillance à l’encontre des citoyens et du droit. Le second livre, écrit par Vance Packard, connut un succès international. Il s’intitule The naked Society15, traduit en français un an plus tard sous le titre Une société sans défense. V. Packard est alors universitaire, chercheur en sociologie et économie. Il est connu pour avoir surtout travaillé sur la société de consommation et le marketing et dénoncé, dans un autre ouvrage (La persuasion clandestine16), les abus des publicitaires en matière de manipulation mentale. Dans The naked Society comme dans The privacy invaders les mêmes thèmes sont déployés à propos des dispositifs de surveillance, entre les techniques d’enquêtes des banques sur leurs clients débiteurs, les écoutes téléphoniques, la surveillance audio et vidéo des employés sur les chaînes de montage, en somme toutes les stratégies privées ou publiques d’espionnage des individus et d’abus en tout genre qui sont autant d’atteintes à la vie privée. Il faut dire que la société américaine des années 1960 a vu aussi bien arriver sur le marché des biens de consommation le téléphone et la voiture à crédit mais aussi l’électronique et la miniaturisation croissante des dispositifs utiles dans ce genre d’activité. Or, les questions que soulignent Brenton et Packard, à travers de nombreux exemples, ne sont pas tant celles, plus ou moins spectaculaires, de la mise en œuvre, mais celles liées au droit des individus face à des puissances en recherche de données sur la vie privée extorquées aux sujets mêmes. En somme, ce que découvrent les lecteurs de ces ouvrages, c’est que la vie privée est une notion malléable, dans la réalité comme en droit, et qu’une bonne part de cette malléabilité est relative aux technologies et au médias. Packard ira légèrement plus loin sur l’aspect tragique de la société américaine en focalisant plus explicitement sur le respect de la vie privée dans le contexte des médias et de la presse à sensation et dans les contradictions apparente entre le droit à l’information, le droit à la vie privée et le Sixième Amendement. De là, il tire une sonnette d’alarme en se référant à Georges Orwell, et dénonçant l’effet panoptique obtenu par l’accessibilité des instruments de surveillance, la généralisation de leur emploi dans le quotidien, y compris pour les besoins du marketing, et leur impact culturel.

En réalité, si ces ouvrages connurent un grand succès, c’est parce que leur approche de la vie privée reposait sur un questionnement des pratiques à partir de la morale et du droit, c’est-à-dire sur ce que, dans une société, on est prêt à admettre ou non au sujet de l’intimité vue comme une part structurelle des relations sociales. Qu’est-ce qui relève de ma vie privée et qu’est-ce qui relève de la vie publique ? Que puis-je exposer sans crainte selon mes convictions, ma position sociale, la classe à laquelle j’appartiens, etc. Quelle est la légitimité de la surveillance des employés dans une usine, d’un couple dans une chambre d’hôtel, d’une star du show-biz dans sa villa ?

Il reste que cette approche manqua la grande révolution informatique naissante et son rapport à la vie privée non plus conçue comme l’image et l’estime de soi, mais comme un ensemble d’informations quantifiables à grande échelle et dont l’analyse peut devenir le mobile de décisions qui impactent la société en entier17. La révolution informatique relègue finalement la légitimité de la surveillance au second plan car la surveillance est alors conçue de manière non plus intentionnelle mais comme une série de faits : les données fournies par les sujets, auparavant dans un contexte fermé comme celui de la banque locale, finirent par se retrouver centralisées et croisées au gré des consortiums utilisant l’informatique pour traiter les données des clients. Le même schéma se retrouva pour ce qui concerne les institutions publiques dans le contexte fédéral américain.

Vie privée vs ordinateurs

Une autre approche commença alors à faire son apparition dans la sphère universitaire. Elle intervient dans la seconde moitié des années 1960. Il s’agissait de se pencher sur la gouvernance des rapports entre la vie privée et l’administration des données personnelles. Suivant au plus près les nouvelles pratiques des grands acteurs économiques et gouvernementaux, les universitaires étudièrent les enjeux de la numérisation des données personnelles avec en arrière-plan les préoccupations juridiques, comme celle de V. Packard, qui faisaient l’objet des réflexions de la décennie qui se terminait. Si, avec la société de consommation venait tout un lot de dangers sur la vie privée, cette dernière devrait être protégée, mais il fallait encore savoir sur quels plans agir. Le début des années 1970, en guise de résultat de ce brainstorming général, marquèrent alors une nouvelle ère de la privacy à l’Américaine à l’âge de l’informatisation et du réseautage des données personnelles. Il s’agissait de comprendre qu’un changement majeur était en train de s’effectuer avec les grands ordinateurs en réseau et qu’il fallait formaliser dans le droit les garde-fou les plus pertinents : on passait d’un monde où la vie privée pouvait faire l’objet d’une intrusion par des acteurs séparés, recueillant des informations pour leur propre compte en fonction d’objectifs différents, à un monde où les données éparses étaient désormais centralisées, avec des machines capables de traiter les informations de manière rapide et automatisée, capables d’inférer des informations sans le consentement des sujets à partir d’informations que ces derniers avaient données volontairement dans des contextes très différents.

La liste des publications de ce domaine serait bien longue. Par exemple, la Rand Corporation publia une longue liste bibliographique annotée au sujet des données personnelles informatisées. Cette liste regroupe près de 300 publications entre 1965 et 1967 sur le sujet18.

Des auteurs universitaires firent école. On peut citer :

  • Alan F. Westin : Privacy and freedom (1967), Civil Liberties and Computerized Data Systems (1971), Databanks in a Free Society: Computers, Record Keeping and Privacy (1972)19 ;
  • James B. Rule : Private lives and public surveillance: social control in the computer age (1974)20 ;
  • Arthur R. Miller : The assault on privacy. Computers, Data Banks and Dossier (1971)21 ;
  • Malcolm Warner et Mike Stone, The Data Bank Society : Organizations, Computers and Social Freedom (1970)22.

Toutes ces publications ont ceci en commun qu’elles procédèrent en deux étapes. La première consistait à dresser un tableau synthétique de la société américaine face à la captation des informations personnelles. Quatre termes peuvent résumer les enjeux du traitement des informations : 1) la légitimité de la captation des informations, 2) la permanence des données et leurs modes de rétention, 3) la transférabilité (entre différentes organisations), 4) la combinaison ou le recoupement de ces données et les informations ainsi inférées23.

La seconde étape consistait à choisir ce qui, dans cette « société du dossier (dossier society) » comme l’appelait Arthur R. Miller, devait faire l’objet de réformes. Deux fronts venaient en effet de s’ouvrir : l’État et les firmes.

Le premier, évident, était celui que la dystopie orwellienne pointait avec empressement : l’État de surveillance. Pour beaucoup de ces analystes, en effet, le fédéralisme américain et la multiplicité des agences gouvernementales pompaient allègrement la privacy des honnêtes citoyens et s’équipaient d’ordinateurs à temps partagé justement pour rendre interopérables les systèmes de traitement d’information à (trop) grande échelle. Un rapide coup d’œil sur les références citées, montre que, effectivement, la plupart des conclusions focalisaient sur le besoin d’adapter le droit aux impératifs constitutionnels américains. Tels sont par exemple les arguments de A. F. Westin pour lequel l’informatisation des données privées dans les différentes autorités administratives devait faire l’objet non d’un recul, mais de nouvelles règles portant sur la sécurité, l’accès des citoyens à leurs propres données et la pertinence des recoupements (comme par exemple l’utilisation restreinte du numéro de sécurité sociale). En guise de synthèse, le rapport de l’U.S. Department of health, Education and Welfare livré en 197324 (et où l’on retrouve Arthur R. Miller parmi les auteurs) repris ces éléments au titre de ses recommandations. Il prépara ainsi le Privacy Act de 1974, qui vise notamment à prévenir l’utilisation abusive de documents fédéraux et garantir l’accès des individus aux données enregistrées les concernant.

Le second front, tout aussi évident mais moins accessible car protégé par le droit de propriété, était celui de la récolte de données par les firmes, et en particulier les banques. L’un des auteurs les plus connus, Arthur R. Miller dans The assault on privacy, fit la synthèse des deux fronts en focalisant sur le fait que l’informatisation des données personnelles, par les agences gouvernementales comme par les firmes, est une forme de surveillance et donc un exercice du pouvoir. Se poser la question de leur légitimité renvoie effectivement à des secteurs différents du droit, mais c’est pour lui le traitement informatique (il utilise le terme « cybernétique ») qui est un instrument de surveillance par essence. Et cet instrument est orwellien :

« Il y a à peine dix ans, on aurait pu considérer avec suffisance Le meilleur des mondes de Huxley ou 1984 de Orwell comme des ouvrages de science-fiction excessifs qui ne nous concerneraient pas et encore moins ce pays. Mais les révélations publiques répandues au cours des dernières années au sujet des nouvelles formes de pratiques d’information ont fait s’envoler ce manteau réconfortant mais illusoire. »

Pourtant, un an avant la publication de Miller fut voté le Fair Credit Reporting Act, portant sur les obligations déclaratives des banques. Elle fut aussi l’une des premières lois sur la protection des données personnelles, permettant de protéger les individus, en particulier dans le secteur bancaire, contre la tenue de bases de données secrètes, la possibilité pour les individus d’accéder aux données et de les contester, et la limitation dans le temps de la rétention des informations.

Cependant, pour Miller, le Fair Credit Reporting Act est bien la preuve que la bureaucratie informatisée et le réseautage des données personnelles impliquent deux pertes de contrôle de la part de l’individu et pour lesquelles la régulation par le droit n’est qu’un pis-aller (pp. 25-38). On peut de même, en s’autorisant quelque anachronisme, s’apercevoir à quel point les deux types de perte de contrôles qu’il pointe nous sont éminemment contemporains.

  • The individual loss of control over personal information  : dans un contexte où les données sont mises en réseau et recoupées, dès lors qu’une information est traitée par informatique, le sujet et l’opérateur n’ont plus le contrôle sur les usages qui pourront en être faits. Sont en jeu la sécurité et l’intégrité des données (que faire en cas d’espionnage ? que faire en cas de fuite non maîtrisée des données vers d’autres opérateurs : doit-on exiger que les opérateurs en informent les individus ?).
  • The individual loss of control over the accuracy of his informational profil : la centralisation des données permet de regrouper de multiples aspects de la vie administrative et sociale de la personne, et de recouper toutes ces données pour en inférer des profils. Dans la mesure où nous assistons à une concentration des firmes par rachats successifs et l’émergence de monopoles (Miller prend toujours l’exemple des banques), qu’arrive-t-il si certaines données sont erronées ou si certains recoupements mettent en danger le droit à la vie privée : par exemple le rapport entre les données de santé, l’identité des individus et les crédits bancaires.

Et Miller de conclure (p. 79) :

« Ainsi, l’informatisation, le réseautage et la réduction de la concurrence ne manqueront pas de pousser l’industrie de l’information sur le crédit encore plus profondément dans le marasme du problème de la protection de la vie privée. »

Les échos du passé

La lutte pour la préservation de la vie privée dans une société numérisée passe par une identification des stratégies intentionnelles de la surveillance et par l’analyse des procédés d’extraction, rétention et traitement des données. La loi est-elle une réponse ? Oui, mais elle est loin de suffire. La littérature nord-américaine dont nous venons de discuter montre que l’économie de la surveillance dans le contexte du traitement informatisé des données personnelles est née il y a plus de 50 ans. Et dès le début il fut démontré, dans un pays où les droits individuels sont culturellement associés à l’organisation de l’État fédéral (la Déclaration des Droits), non seulement que la privacy changeait de nature (elle s’étend au traitement informatique des informations fournies et aux données inférées) mais aussi qu’un équilibre s’établissait entre le degré de sanctuarisation de la vie privée et les impératifs régaliens et économiques qui réclament une industrialisation de la surveillance.

Puisque l’intimité numérique n’est pas absolue mais le résultat d’un juste équilibre entre le droit et les pratiques, tout les jeux post-révolution informatique après les années 1960 consistèrent en une lutte perpétuelle entre défense et atteinte à la vie privée. C’est ce que montre Daniel J. Solove dans « A Brief History of Information Privacy Law »25 en dressant un inventaire chronologique des différentes réponses de la loi américaine face aux changements technologiques et leurs répercussions sur la vie privée.

Il reste néanmoins que la dimension industrielle de l’économie de la surveillance a atteint en 2001 un point de basculement à l’échelle mondiale avec le Patriot Act26 dans le contexte de la lutte contre le terrorisme. À partir de là, les principaux acteurs de cette économie ont vu une demande croissante de la part des États pour récolter des données au-delà des limites strictes de la loi sous couvert des dispositions propres à la sûreté nationale et au secret défense. Pour rester sur l’exemple américain, Thomas Rabino écrit à ce sujet27 :

« Alors que le Privacy Act de 1974 interdit aux agences fédérales de constituer des banques de données sur les citoyens américains, ces mêmes agences fédérales en font désormais l’acquisition auprès de sociétés qui, à l’instar de ChoicePoint, se sont spécialisées dans le stockage d’informations diverses. Depuis 2001, le FBI et d’autres agences fédérales ont conclu, dans la plus totale discrétion, de fructueux contrats avec ChoicePoint pour l’achat des renseignements amassés par cette entreprise d’un nouveau genre. En 2005, le budget des États-Unis consacrait plus de 30 millions de dollars à ce type d’activité. »

Dans un contexte plus récent, on peut affirmer que même si le risque terroriste est toujours agité comme un épouvantail pour justifier des atteintes toujours plus fortes à l’encontre de la vie privée, les intérêts économiques et la pression des lobbies ne peuvent plus se cacher derrière la Raison d’État. Si bien que plusieurs pays se mettent maintenant au diapason de l’avancement technologique et des impératifs de croissance économique justifiant par eux-mêmes des pratiques iniques. Ce fut le cas par exemple du gouvernement de Donald Trump qui, en mars 2017 et à la plus grande joie du lobby des fournisseurs d’accès, abroge une loi héritée du gouvernement précédent et qui exigeait que les FAI obtiennent sous conditions la permission de partager des renseignements personnels – y compris les données de localisation28.

Encore en mars 2017, c’est la secrétaire d’État à l’Intérieur Britannique Amber Rudd qui juge publiquement « inacceptable » le chiffrement des communications de bout en bout et demande aux fournisseurs de messagerie de créer discrètement des backdoors, c’est à dire renoncer au chiffrement de bout en bout sans le dire aux utilisateurs29. Indépendamment du caractère moralement discutable de cette injonction, on peut mesurer l’impact du message sur les entreprises comme Google, Facebook et consors : il existe des décideurs politiques capables de demander à ce qu’un fournisseur de services propose à ses utilisateurs un faux chiffrement, c’est-à-dire que le droit à la vie privée soit non seulement bafoué mais, de surcroît, que le mensonge exercé par les acteurs privés soit couvert par les acteurs publics, et donc par la loi.

Comme le montre Shoshana Zuboff, le capitalisme de surveillance est aussi une idéologie, celle qui instaure une hiérarchie entre les intérêts économiques et le droit. Le droit peut donc être une arme de lutte pour la sauvegarde de la vie privée dans l’économie de la surveillance, mais il ne saurait suffire dans la mesure où il n’y pas de loyauté entre les acteurs économiques et les sujets et parfois même encore moins entre les décideurs publics et les citoyens.

Dans ce contexte où la confiance n’est pas de mise, les portes sont restées ouvertes depuis les années 1970 pour créer l’industrie des big data dont le carburant principal est notre intimité, notre quotidienneté. C’est parce qu’il est désormais possible de repousser toujours un peu plus loin les limites de la captation des données personnelles que des théories économique prônent la fidélisation des clients et la prédiction de leurs comportements comme seuls points d’appui des investissements et de l’innovation. C’est vrai dans le marketing, c’est vrai dans les services et l’innovation numériques. Et tout naturellement c’est vrai dans la vie politique, comme le montre par exemple l’affaire des dark posts durant la campagne présidentielle de D. Trump : la possibilité de contrôler l’audience et d’influencer une campagne présidentielle via les réseaux sociaux comme Facebook est désormais démontrée.

Tant que ce modèle économique existera, aucune confiance ne sera possible. La confiance est même absente des pratiques elles-mêmes, en particulier dans le domaine du traitement algorithmique des informations. En septembre 2017, la chercheuse Zeynep Tufekci, lors d’une conférence TED30, reprenait exactement les questions d’Arthur R. Miller dans The assault on privacy, soit 46 ans après. Miller prenait comme étude de cas le stockage d’information bancaire sur les clients débiteurs, et Tufekci prend les cas des réservation de vols aériens en ligne et du streaming vidéo. Dans les deux réflexions, le constat est le même : le traitement informatique de nos données personnelles implique que nous (les sujets et les opérateurs eux-mêmes) perdions le contrôle sur ces données :

« Le problème, c’est que nous ne comprenons plus vraiment comment fonctionnent ces algorithmes complexes. Nous ne comprenons pas comment ils font cette catégorisation. Ce sont d’énormes matrices, des milliers de lignes et colonnes, peut-être même des millions, et ni les programmeurs, ni quiconque les regardant, même avec toutes les données, ne comprend plus comment ça opère exactement, pas plus que vous ne sauriez ce que je pense en ce moment si l’on vous montrait une coupe transversale de mon cerveau. C’est comme si nous ne programmions plus, nous élevons une intelligence que nous ne comprenons pas vraiment. »

Z. Tufekci montre même que les algorithmes de traitement sont en mesure de fournir des conclusions (qui permettent par exemple d’inciter les utilisateurs à visualiser des vidéos sélectionnées d’après leur profil et leur historique) mais que ces conclusions ont ceci de particulier qu’elle modélisent le comportement humain de manière à l’influencer dans l’intérêt du fournisseur. D’après Z. Tufekci : «  L’algorithme a déterminé que si vous pouvez pousser les gens à penser que vous pouvez leur montrer quelque chose de plus extrême (nda : des vidéos racistes dans l’exemple cité), ils ont plus de chances de rester sur le site à regarder vidéo sur vidéo, descendant dans le terrier du lapin pendant que Google leur sert des pubs. »

Ajoutons de même que les technologies de deep learning, financées par millions par les GAFAM, se prêtent particulièrement bien au jeu du traitement automatisé en cela qu’elle permettent, grâce à l’extrême croissance du nombre de données, de procéder par apprentissage. Cela permet à Facebook de structurer la grande majorité des données des utilisateurs qui, auparavant, n’était pas complètement exploitable31. Par exemple, sur les milliers de photos de chatons partagées par les utilisateurs, on peut soit se contenter de constater une redondance et ne pas les analyser davantage, soit apprendre à y reconnaître d’autres informations, comme par exemple l’apparition, en arrière-plan, d’un texte, d’une marque de produit, etc. Il en est de même pour la reconnaissance faciale, qui a surtout pour objectif de faire concorder les identités des personnes avec toutes les informations que l’on peut inférer à partir de l’image et du texte.

Si les techniques statistiques ont le plus souvent comme objectif de contrôler les comportements à l’échelle du groupe, c’est parce que le seul fait de catégoriser automatiquement les individus consiste à considérer que leurs données personnelles en constituent l’essence. L’économie de la surveillance démontre ainsi qu’il n’y a nul besoin de connaître une personne pour en prédire le comportement, et qu’il n’y a pas besoin de connaître chaque individu d’un groupe en particulier pour le catégoriser et prédire le comportement du groupe, il suffit de laisser faire les algorithmes : le tout est d’être en mesure de classer les sujets dans les bonnes catégories et même faire en sorte qu’ils y entrent tout à fait. Cela a pour effet de coincer littéralement les utilisateurs des services « capteurs de données » dans des bulles de filtres où les informations auxquelles ils ont accès leur sont personnalisées selon des profils calculés32. Si vous partagez une photo de votre chat devant votre cafetière, et que dernièrement vous avez visité des sites marchands, vous aurez de grandes chance pour vos futures annonces vous proposent la marque que vous possédez déjà et exercent, par effet de répétition, une pression si forte que c’est cette marque que vous finirez par acheter. Ce qui fonctionne pour le marketing peut très bien fonctionner pour d’autres objectifs, même politiques.

En somme tous les déterminants d’une société soumise au capitalisme de surveillance, apparus dès les années 1970, structurent le monde numérique d’aujourd’hui sans que les lois ne puissent jouer de rôle pleinement régulateur. L’usage caché et déloyal des big data, le trafic de données entre organisations, la dégradation des droits individuels (à commencer par la liberté d’expression et le droit à la vie privée), tous ces éléments ont permis à des monopoles d’imposer un modèle d’affaire et affaiblir l’État-nation. Combien de temps continuerons-nous à l’accepter ?

Sortir du marasme

En 2016, à la fin de son article synthétique sur le capitalisme de surveillance33, Shoshana Zuboff exprime personnellement un point de vue selon lequel la réponse ne peut pas être uniquement technologique :

« (…) les faits bruts du capitalisme de surveillance suscitent nécessairement mon indignation parce qu’ils rabaissent la dignité humaine. L’avenir de cette question dépendra des savants et journalistes indignés attirés par ce projet de frontière, des élus et des décideurs indignés qui comprennent que leur autorité provient des valeurs fondamentales des communautés démocratiques, et des citoyens indignés qui agissent en sachant que l’efficacité sans l’autonomie n’est pas efficace, la conformité induite par la dépendance n’est pas un contrat social et être libéré de l’incertitude n’est pas la liberté. »

L’incertitude au sujet des dérives du capitalisme de surveillance n’existe pas. Personne ne peut affirmer aujourd’hui qu’avec l’avènement des big data dans les stratégies économiques, on pouvait ignorer que leur usage déloyal était non seulement possible mais aussi que c’est bien cette direction qui fut choisie d’emblée dans l’intérêt des monopoles et en vertu de la centralisation des informations et des capitaux. Depuis les années 1970, plusieurs concepts ont cherché à exprimer la même chose. Pour n’en citer que quelques-uns : computocracie (M. Warner et M. Stone, 1970), société du dossier (Arthur R. Miller, 1971), surveillance de masse (J. Rule, 1973), dataveillance (R. Clarke, 1988), capitalisme de surveillance (Zuboff, 2015)… tous cherchent à démontrer que la surveillance des comportements par l’usage des données personnelles implique en retour la recherche collective de points de rupture avec le modèle économique et de gouvernance qui s’impose de manière déloyale. Cette recherche peut s’exprimer par le besoin d’une régulation démocratiquement décidée et avec des outils juridiques. Elle peut s’exprimer aussi autrement, de manière violente ou pacifiste, militante et/ou contre-culturelle.

Plusieurs individus, groupes et organisation se sont déjà manifestés dans l’histoire à ce propos. Les formes d’expression et d’action ont été diverses :

  • institutionnelles : les premières formes d’action pour garantir le droit à la vie privée ont consisté à établir des rapports collectifs préparatoires à des grandes lois, comme le rapport Records, computers and the rights of citizens, de 1973, cité plus haut ;
  • individualistes, antisociales et violentes : bien que s’inscrivant dans un contexte plus large de refus technologique, l’affaire Theodore Kaczynski (alias Unabomber) de 1978 à 1995 est un bon exemple d’orientation malheureuse que pourraient prendre quelques individus isolés trouvant des justifications dans un contexte paranoïaque ;
  • collectives – activistes – légitimistes : c’est le temps des manifestes cypherpunk des années 199034, ou plus récemment le mouvement Anonymous, auxquels on peut ajouter des collectifs « événementiels », comme le Jam Echelon Day ;
  • Associatives, organisées : on peut citer le mouvement pour le logiciel libre et la Free Software Foundation, l’Electronic Frontier Foundation, La Quadrature du Net, ou bien encore certaines branches d’activité d’organisation plus générales comme la Ligue des Droits de l’Homme, Reporter Sans Frontière, etc.

Les limites de l’attente démocratique sont néanmoins déjà connues. La société ne peut réagir de manière légale, par revendication interposée, qu’à partir du moment où l’exigence de transparence est remplie. Lorsqu’elle ne l’est pas, au pire les citoyens les plus actifs sont taxés de complotistes, au mieux apparaissent de manière épisodique des alertes, à l’image des révélations d’Edward Snowden, mais dont la fréquence est si rare malgré un impact psychologique certain, que la situation a tendance à s’enraciner dans un statu quo d’où sortent généralement vainqueurs ceux dont la capacité de lobbying est la plus forte.

À cela s’ajoute une difficulté technique due à l’extrême complexité des systèmes de surveillance à l’œuvre aujourd’hui, avec des algorithmes dont nous maîtrisons de moins en moins les processus de calcul (cf. Z. Tufekci). À ce propos on peut citer Roger Clarke35 :

« Dans une large mesure, la transparence a déjà été perdue, en partie du fait de la numérisation, et en partie à cause de l’application non pas des approches procédurales et d’outils de développement des logiciels algorithmiques du XXe siècle, mais à cause de logiciels de dernière génération dont la raison d’être est obscure ou à laquelle la notion de raison d’être n’est même pas applicable. »

Une autre option pourrait consister à mettre en œuvre un modèle alternatif qui permette de sortir du marasme économique dans lequel nous sommes visiblement coincés. Sans en faire l’article, le projet Contributopia de Framasoft cherche à participer, à sa mesure, à un processus collectif de réappropriation d’Internet et, partant:

  • montrer que le code est un bien public et que la transparence, grâce aux principes du logiciel libre (l’ouverture du code), permet de proposer aux individus un choix éclairé, à l’encontre de l’obscurantisme de la dataveillance ;
  • promouvoir des apprentissages à contre-courant des pratiques de captation des vies privées et vers des usages basés sur le partage (du code, de la connaissance) entre les utilisateurs ;
  • rendre les utilisateurs autonomes et en même temps contributeurs à un réseau collectif qui les amènera naturellement, par l’attention croissante portée aux pratiques des monopoles, à refuser ces pratiques, y compris de manière active en utilisant des solutions de chiffrement, par exemple.

Mais Contributopia de Framasoft ne concerne que quelques aspects des stratégies de sortie du capitalisme de surveillance. Par exemple, pour pouvoir œuvrer dans cet esprit, une politique rigide en faveur de la neutralité du réseau Internet doit être menée. Les entreprises et les institutions publiques doivent être aussi parmi les premières concernées, car il en va de leur autonomie numérique, que cela soit pour de simples questions économiques (ne pas dépendre de la bonne volonté d’un monopole et de la logique des brevets) mais aussi pour des questions de sécurité. Enfin, le passage du risque pour la vie privée au risque de manipulation sociale étant avéré, toutes les structures militantes en faveur de la démocratie et les droits de l’homme doivent urgemment porter leur attention sur le traitement des données personnelles. Le cas de la britannique Amber Rudd est loin d’être isolé : la plupart des gouvernements collaborent aujourd’hui avec les principaux monopoles de l’économie numérique et, donc, contribuent activement à l’émergence d’une société de la surveillance. Aujourd’hui, le droit à la vie privée, au chiffrement des communications, au secret des correspondances sont des droits à protéger coûte que coûte sans avoir à choisir entre la liberté et les épouvantails (ou les sirènes) agités par les communicants.

 




Les nouveaux Léviathans II — Surveillance et confiance (b)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

(suite de la section précédente)

Trouver les bonnes clés

Cette logique du marché, doit être analysée avec d’autres outils que ceux de l’économie classique. L’impact de l’informationnalisation et la concentration des acteurs de l’économie numérique ont sans doute été largement sous-estimés, non pas pour les risques qu’ils font courir aux économies post-industrielles, mais pour les bouleversements sociaux qu’ils impliquent. Le besoin de défendre les droits et libertés sur Internet et ailleurs n’est qu’un effet collatéral d’une situation contre laquelle il est difficile d’opposer seulement des postures et des principes.

Il faut entendre les mots de Marc Rotenberg, président de l’Electronic Privacy Information Center (EPIC), pour qui le débat dépasse désormais la seule question de la neutralité du réseau ou de la liberté d’expression1. Pour lui, nous avons besoin d’analyser ce qui structure la concentration du marché. Mais le phénomène de concentration dans tous les services de communication que nous utilisons implique des échelles tellement grandes, que nous avons besoin d’instruments de mesure au moins aussi grands. Nous avons besoin d’une nouvelle science pour comprendre Internet, le numérique et tout ce qui découle des formes d’automatisation.

Diapositive extraite de la conférence "Dégooglisons Internet"
Diapositive extraite de la conférence « Dégooglisons Internet »

On s’arrête bien souvent sur l’aspect le plus spectaculaire de la fuite d’environ 1,7 millions de documents grâce à Edward Snowden en 2013, qui montrent que les États, à commencer par les États-Unis, ont créé des systèmes de surveillance de leurs populations au détriment du respect de la vie privée. Pour beaucoup de personnes, cette atteinte doit être ramenée à la dimension individuelle : dois-je avoir quelque chose à cacher ? comment échapper à cette surveillance ? implique-t-elle un contrôle des populations ? un contrôle de l’expression ? en quoi ma liberté est-elle en danger ? etc. Mais peu de personnes se sont réellement interrogées sur le fait que si la NSA s’est fait livrer ces quantités gigantesques d’informations par des fournisseurs de services (comme par exemple, la totalité des données téléphoniques de Verizon ou les données d’échanges de courriels du service Hotmail de Microsoft) c’est parce que ces entreprises avaient effectivement les moyens de les fournir et que par conséquent de telles quantités d’informations sur les populations sont tout à fait exploitables et interprétables en premier lieu par ces mêmes fournisseurs.

Face à cela, plusieurs attitudes sont possibles. En les caricaturant, elles peuvent être :

  • Positivistes. On peut toujours s’extasier devant les innovations de Google surtout parce que la culture de l’innovation à la Google est une composante du story telling organisé pour capter l’attention des consommateurs. La communication est non seulement exemplaire mais elle constitue un modèle d’après Google qui en donne même les recettes (cf. les deux liens précédents). Que Google, Apple, Microsoft, Facebook ou Amazon possèdent des données me concernant, cela ne serait qu’un détail car nous avons tous l’opportunité de participer à cette grande aventure du numérique (hum !).
  • Défaitistes. On n’y peut rien, il faut donc se contenter de protéger sa vie privée par des moyens plus ou moins dérisoires, comme par exemple faire du bruit pour brouiller les pistes et faire des concessions car c’est le prix à payer pour profiter des applications bien utiles. Cette attitude consiste à échanger l’utilité contre l’information, ce que nous faisons à chaque fois que nous validons les clauses d’utilisation des services GAFAM.
  • Complotistes. Les procédés de captation des données servent ceux qui veulent nous espionner. Les utilisations commerciales seraient finalement secondaires car c’est contre l’emploi des données par les États qu’il faut lutter. C’est la logique du moins d’État contre la liberté du nouveau monde numérique, comme si le choix consistait à donner notre confiance soit aux États soit aux GAFAM, liberté par contrat social ou liberté par consommation.

Les objectifs de cette accumulation de données sont effectivement différents que ceux poursuivis par la NSA et ses institutions homologues. La concentration des entreprises crée le besoin crucial d’organiser les monopoles pour conserver un marché stable. Les ententes entre entreprises, repoussant toujours davantage les limites juridiques des autorités de régulations, créent une logique qui ne consiste plus à s’adapter à un marché aléatoire, mais adapter le marché à l’offre en l’analysant en temps réel, en utilisant les données quotidiennes des utilisateurs de services. Il faut donc analyser ce capitalisme de surveillance, ainsi que le nomme Shoshana Zuboff, car comme nous l’avons vu :

  • les États ont de moins en moins les capacités de réguler ces activités,
  • nous sommes devenus des produits de variables qui configurent nos comportements et nos besoins.

L’ancienne conception libérale du marché, l’acception économique du contrat social, reposait sur l’idée que la démocratie se consolide par l’égalitarisme des acteurs et l’équilibre du marché. Que l’on adhère ou pas à ce point de vue, il reste qu’aujourd’hui le marché ne s’équilibre plus par des mécanismes libéraux mais par la seule volonté de quelques entreprises. Cela pose inévitablement une question démocratique.

Dans son rapport, Antoinette Rouvroy en vient à adresser une série de questions sur les répercutions de cette morphologie du marché. Sans y apporter franchement de réponse, elle en souligne les enjeux :

Ces dispositifs d’« anticipation performative » des intentions d’achat (qui est aussi un court-circuitage du processus de transformation de la pulsion en désir ou en intention énonçable), d’optimisation de la force de travail fondée sur la détection anticipative des performances futures sur base d’indicateurs produits automatiquement au départ d’analyses de type Big Data (qui signifie aussi une chute vertigineuse du « cours de l’expérience » et des mérites individuels sur le marché de l’emploi), posent des questions innombrables. L’anticipation performative des intentions –et les nouvelles possibilités d’actions préemptives fondées sur la détection des intentions – est-elle compatible avec la poursuite de l’autodétermination des personnes ? Ne faut-il pas concevoir que la possibilité d’énoncer par soi-même et pour soi-même ses intentions et motivations constitue un élément essentiel de l’autodétermination des personnes, contre cette utopie, ou cette dystopie, d’une société dispensée de l’épreuve d’un monde hors calcul, d’un monde où les décisions soient autre chose que l’application scrupuleuse de recommandations automatiques, d’un monde où les décisions portent encore la marque d’un engagement subjectif ? Comment déterminer la loyauté de ces pratiques ? L’optimisation de la force de travail fondée sur le profilage numérique est-il compatible avec le principe d’égalité et de non-discrimination ?2

Ce qui est questionné par A. Rouvroy, c’est ce que Zuboff nomme le capitalisme de surveillance, du moins une partie des pratiques qui lui sont inhérentes. Dès lors, au lieu de continuer à se poser des questions, il est important d’intégrer l’idée que si le paradigme a changé, les clés de lecture sont forcément nouvelles.

Déconstruire le capitalisme de surveillance

Shoshana Zuboff a su identifier les pratiques qui déconstruisent l’équilibre originel et créent ce nouveau capitalisme. Elle pose ainsi les jalons de cette nouvelle « science » qu’appelle de ses vœux Marc Rotenberg, et donne des clés de lecture pertinentes. L’essentiel des concepts qu’elle propose se trouve dans son article « Big other: surveillance capitalism and the prospects of an information civilization », paru en 20153. Dans cet article S. Zuboff décortique deux discours de Hal Varian, chef économiste de Google et s’en sert de trame pour identifier et analyser les processus du capitalisme de surveillance. Dans ce qui suit, je vais essayer d’expliquer quelques clés issues du travail de S. Zuboff.

Sur quelle stratégie repose le capitalisme de surveillance ?

Il s’agit de la stratégie de commercialisation de la quotidienneté en modélisant cette dernière en autant de données analysées, inférences et prédictions. La logique d’accumulation, l’automatisation et la dérégulation de l’extraction et du traitement de ces données rendent floues les frontières entre vie privée et consommation, entre les firmes et le public, entre l’intention et l’information.

Qu’est-ce que la quotidienneté ?

Il s’agit de ce qui concerne la sphère individuelle mais appréhendée en réseau. L’informationnalisation de nos profils individuels provient de plusieurs sources. Il peut s’agir des informations conventionnelles (au sens propre) telles que nos données d’identité, nos données bancaires, etc. Elles peuvent résulter de croisements de flux de données et donner lieu à des inférences. Elles peuvent aussi provenir des objets connectés, agissant comme des sensors ou encore résulter des activités de surveillance plus ou moins connues. Si toutes ces données permettent le profilage c’est aussi par elles que nous déterminons notre présence numérique. Avoir une connexion Internet est aujourd’hui reconnu comme un droit : nous ne distinguons plus nos activités d’expression sur Internet des autres activités d’expression. Les activités numériques n’ont plus à être considérées comme des activités virtuelles, distinctes de la réalité. Nos pages Facebook ne sont pas plus virtuelles que notre compte Amazon ou notre dernière déclaration d’impôt en ligne. Si bien que cette activité en réseau est devenue si quotidienne qu’elle génère elle-même de nouveaux comportements et besoins, produisant de nouvelles données analysées, agrégées, commercialisées.

Extraction des données

S. Zuboff dresse un inventaire des types de données, des pratiques d’extraction, et les enjeux de l’analyse. Il faut cependant comprendre qu’il y a de multiples manières de « traiter » les données. La Directive 95/46/CE (Commission Européenne) en dressait un inventaire, déjà en 19954 :

« traitement de données à caractère personnel » (traitement) : toute opération ou ensemble d’opérations effectuées ou non à l’aide de procédés automatisés et appliquées à des données à caractère personnel, telles que la collecte, l’enregistrement, l’organisation, la conservation, l’adaptation ou la modification, l’extraction, la consultation, l’utilisation, la communication par transmission, diffusion ou toute autre forme de mise à disposition, le rapprochement ou l’interconnexion, ainsi que le verrouillage, l’effacement ou la destruction.

Le processus d’extraction de données n’est pas un processus autonome, il ne relève pas de l’initiative isolée d’une ou quelques firmes sur un marché de niche. Il constitue désormais la norme commune à une multitude de firmes, y compris celles qui n’œuvrent pas dans le secteur numérique. Il s’agit d’un modèle de développement qui remplace l’accumulation de capital. Autant cette dernière était, dans un modèle économique révolu, un facteur de production (par les investissements, par exemple), autant l’accumulation de données est désormais la clé de production de capital, lui-même réinvesti en partie dans des solutions d’extraction et d’analyse de données, et non dans des moyens de production, et pour une autre partie dans la valorisation boursière, par exemple pour le rachat d’autres sociétés, à l’image des multiples rachats de Google.

Neutralité et indifférence

Les données qu’exploite Google sont très diverses. On s’interroge généralement sur celles qui concernent les catégories auxquelles nous accordons de l’importance, comme par exemple lorsque nous effectuons une recherche au sujet d’une mauvaise grippe et que Google Now nous propose une consultation médicale à distance. Mais il y a une multitude de données dont nous soupçonnons à peine l’existence, ou apparemment insignifiantes pour soi, mais qui, ramenées à des millions, prennent un sens tout à fait probant pour qui veut les exploiter. On peut citer par exemple le temps de consultation d’un site. Si Google est prêt à signaler des contenus à l’administration des États-Unis, comme l’a dénoncé Julian Assange ou si les relations publiques de la firme montrent une certaine proximité avec les autorités de différents pays et l’impliquent dans des programmes d’espionnage, il reste que cette attitude coopérante relève essentiellement d’une stratégie économique. En réalité, l’accumulation et l’exploitation des données suppose une indifférence formelle par rapport à leur signification pour l’utilisateur. Quelle que soit l’importance que l’on accorde à l’information, le postulat de départ du capitalisme de surveillance, c’est l’accumulation de quantités de données, non leur qualité. Quant au sens, c’est le marché publicitaire qui le produit.

L’extraction et la confiance

S. Zuboff dresse aussi un court inventaire des pratiques d’extraction de Google. L’exemple emblématique est Google Street View, qui rencontra de multiples obstacles à travers le monde : la technique consiste à s’immiscer sur des territoires et capturer autant de données possible jusqu’à rencontrer de la résistance qu’elle soit juridique, politique ou médiatique. Il en fut de même pour l’analyse du courrier électronique sur Gmail, la capture des communications vocales, les paramètres de confidentialité, l’agrégation des données des comptes sur des services comme Google+, la conservation des données de recherche, la géolocalisation des smartphones, la reconnaissance faciale, etc.

En somme, le processus d’extraction est un processus à sens unique, qui ne tient aucun compte (ou le moins possible) de l’avis de l’utilisateur. C’est l’absence de réciprocité.

On peut ajouter à cela la puissance des Big Data dans l’automatisation des relations entre le consommateur et le fournisseur de service. Google Now propose de se substituer à une grande partie de la confidentialité entre médecin et patient en décelant au moins les causes subjectives de la consultation (en interprétant les recherches). Hal Varian lui-même vante les mérites de l’automatisation de la relation entre assureurs et assurés dans un monde où l’on peut couper à distance le démarrage de la voiture si le client n’a pas payé ses traites. Des assurances santé et même des mutuelles (!) proposent aujourd’hui des applications d’auto-mesure (quantified self)de l’activité physique, dont on sait pertinemment que cela résultera sur autant d’ajustements des prix voire des refus d’assurance pour les moins chanceux.

La relation contractuelle est ainsi automatisée, ce qui élimine d’autant le risque lié aux obligations des parties. En d’autres termes, pour éviter qu’une partie ne respecte pas ses obligations, on se passe de la confiance que le contrat est censé formaliser, au profit de l’automatisation de la sanction. Le contrat se résume alors à l’acceptation de cette automatisation. Si l’arbitrage est automatique, plus besoin de recours juridique. Plus besoin de la confiance dont la justice est censée être la mesure.

Entre l’absence de réciprocité et la remise en cause de la relation de confiance dans le contrat passé avec l’utilisateur, ce sont les bases démocratiques de nos rapports sociaux qui sont remises en question puisque le fondement de la loi et de la justice, c’est le contrat et la formalisation de la confiance.

Warning : Don’t feed the Google
Warning : Don’t feed the Google

Qu’implique cette nouvelle forme du marché ?

Plus Google a d’utilisateurs, plus il rassemble des données. Plus il y a de données plus leur valeur predictive augmente et optimise le potentiel lucratif. Pour des firmes comme Google, le marché n’est pas composé d’agents rationnels qui choisissent entre plusieurs offres et configurent la concurrence. La société « à la Google » n’est plus fondée sur des relations de réciprocité, même s’il s’agit de luttes sociales ou de revendications.

L’« uberisation » de la société (voir le début de cet article) qui nous transforme tous en employés ou la transformation des citoyens en purs consommateurs, c’est exactement le cauchemar d’Hannah Arendt que S. Zuboff cite longuement :

Le dernier stade de la société de travail, la société d’employés, exige de ses membres un pur fonctionnement automatique, comme si la vie individuelle était réellement submergée par le processus global de la vie de l’espèce, comme si la seule décision encore requise de l’individu était de lâcher, pour ainsi dire, d’abandonner son individualité, sa peine et son inquiétude de vivre encore individuellement senties, et d’acquiescer à un type de comportement, hébété, « tranquillisé » et fonctionnel. Ce qu’il y a de fâcheux dans les théories modernes du comportement, ce n’est pas qu’elles sont fausses, c’est qu’elles peuvent devenir vraies, c’est qu’elles sont, en fait, la meilleure mise en concept possible de certaines tendances évidentes de la société moderne. On peut parfaitement concevoir que l’époque moderne (…) s’achève dans la passivité la plus inerte, la plus stérile que l’Histoire ait jamais connue.5

Devant cette anticipation catastrophiste, l’option choisie ne peut être l’impuissance et le laisser-faire. Il faut d’abord nommer ce à quoi nous avons affaire, c’est-à-dire un système (total) face auquel nous devons nous positionner.

Qu’est-ce que Big Other et que peut-on faire ?

Il s’agit des mécanismes d’extraction, marchandisation et contrôle. Ils instaurent une dichotomie entre les individus (utilisateurs) et leur propre comportement (pour les transformer en données) et simultanément ils produisent de nouveaux marchés basés justement sur la prédictibilité de ces comportements.

(Big Other) est un régime institutionnel, omniprésent, qui enregistre, modifie, commercialise l’expérience quotidienne, du grille-pain au corps biologique, de la communication à la pensée, de manière à établir de nouveaux chemins vers les bénéfices et les profits. Big other est la puissance souveraine d’un futur proche qui annihile la liberté que l’on gagne avec les règles et les lois.6

Avoir pu mettre un nom sur ce nouveau régime dont Google constitue un peu plus qu’une illustration (presque initiateur) est la grande force de Shoshana Zuboff. Sans compter plusieurs articles récents de cette dernière dans la Frankfurter Allgemeine Zeitung, il est étonnant que le rapport d’Antoinette Rouvroy, postérieur d’un an, n’y fasse aucune mention. Est-ce étonnant ? Pas vraiment, en réalité, car dans un rapport officiellement remis aux autorités européennes, il est important de préciser que la lutte contre Big Other (ou de n’importe quelle manière dont on peut l’exprimer) ne peut que passer par la légitimité sans faille des institutions. Ainsi, A. Rouvroy oppose les deux seules voies envisageables dans un tel contexte officiel :

À l’approche « law and economics », qui est aussi celle des partisans d’un « marché » des données personnelles, qui tendrait donc à considérer les données personnelles comme des « biens » commercialisables (…) s’oppose l’approche qui consiste à aborder les données personnelles plutôt en fonction du pouvoir qu’elles confèrent à ceux qui les contrôlent, et à tenter de prévenir de trop grandes disparités informationnelles et de pouvoir entre les responsables de traitement et les individus. C’est, à l’évidence, cette seconde approche qui prévaut en Europe.

Or, devant Google (ou devant ce Big Other) nous avons vu l’impuissance des États à faire valoir un arsenal juridique, à commencer par les lois anti-trust. D’une part, l’arsenal ne saurait être exhaustif : il concernerait quelques aspects seulement de l’exploitation des données, la transparence ou une série d’obligations comme l’expression des finalités ou des consentements. Il ne saurait y avoir de procès d’intention. D’autre part, nous pouvons toujours faire valoir que des compagnies telles Microsoft ont été condamnées par le passé, au moins par les instances européennes, pour abus de position dominante, et que quelques millions d’euros de menace pourraient suffire à tempérer les ardeurs. C’est faire peu de cas d’au moins trois éléments :

  1. l’essentiel des compagnies dont il est question sont nord-américaines, possèdent des antennes dans des paradis fiscaux et sont capables, elles, de menacer financièrement des pays entiers par simples effets de leviers boursiers.
  2. L’arsenal juridique qu’il faudrait déployer avant même de penser à saisir une cour de justice, devrait être rédigé, voté et décrété en admettant que les jeux de lobbies et autres obstacles formels soient entièrement levés. Cela prendrait un minimum de dix ans, si l’on compte les recours envisageables après une première condamnation.
  3. Il faut encore caractériser les Big Data dans un contexte où leur nature est non seulement extrêmement diverse mais aussi soumise à des process d’automatisation et calculatoires qui permettent d’en inférer d’autres quantités au moins similaires. Par ailleurs, les sources des données sont sans cesse renouvelées, et leur stockage et analyse connaissent une progression technique exponentielle.

Dès lors, quels sont les moyens de s’échapper de ce Big Other ? Puisque nous avons changé de paradigme économique, nous devons changer de paradigme de consommation et de production. Grâce à des dispositifs comme la neutralité du réseau, garantie fragile et obtenue de longue lutte, il est possible de produire nous même l’écosystème dans lequel nos données sont maîtrisées et les maillons de la chaîne de confiance sont identifiés.

Facebook is watching you
Facebook is watching you

Confiance et espaces de confiance

Comment évoluer dans le monde du capitalisme de surveillance ? telle est la question que nous pouvons nous poser dans la mesure où visiblement nous ne pouvons plus nous extraire d’une situation de soumission à Big Other. Quelles que soient nos compétences en matière de camouflage et de chiffrement, les sources de données sur nos individualités sont tellement diverses que le résultat de la distanciation avec les technologies du marché serait une dé-socialisation. Puisque les technologies sur le marché sont celles qui permettent la production, l’analyse et l’extraction automatisées de données, l’objectif n’est pas tant de s’en passer que de créer un système où leur pertinence est tellement limitée qu’elle laisse place à un autre principe que l’accumulation de données : l’accumulation de confiance.

Voyons un peu : quelles sont les actuelles échappatoires de ce capitalisme de surveillance ? Il se trouve qu’elles impliquent à chaque fois de ne pas céder aux facilités des services proposés pour utiliser des solutions plus complexes mais dont la simplification implique toujours une nouvelle relation de confiance. Illustrons ceci par des exemples relatifs à la messagerie par courrier électronique :

  • Si j’utilise Gmail, c’est parce que j’ai confiance en Google pour respecter la confidentialité de ma correspondance privée (no comment !). Ce jugement n’implique pas que moi, puisque mes correspondants auront aussi leurs messages scannés, qu’ils soient utilisateurs ou non de Gmail. La confiance repose exclusivement sur Google et les conditions d’utilisation de ses services.
  • L’utilisation de clés de chiffrement pour correspondre avec mes amis demande un apprentissage de ma part comme de mes correspondants. Certains services, comme ProtonMail, proposent de leur faire confiance pour transmettre des données chiffrées tout en simplifiant les procédures avec un webmail facile à prendre en main. Les briques open source de Protonmail permettent un niveau de transparence acceptable sans que j’en aie toutefois l’expertise (si je ne suis pas moi-même un informaticien sérieux).
  • Si je monte un serveur chez moi, avec un système libre et/ou open source comme une instance Cozycloud sur un Raspeberry PI, je dois avoir confiance dans tous les domaines concernés et sur lesquels je n’ai pas forcément l’expertise ou l’accès physique (la fabrication de l’ordinateur, les contraintes de mon fournisseur d’accès, la sécurité de mon serveur, etc.), c’est-à-dire tous les aspects qui habituellement font l’objet d’une division du travail dans les entreprises qui proposent de tels services, et que j’ai la prétention de rassembler à moi tout seul.

Les espaces de relative autonomie existent donc mais il faut structurer la confiance. Cela peut se faire en deux étapes.

La première étape consiste à définir ce qu’est un tiers de confiance et quels moyens de s’en assurer. Le blog de la FSFE a récemment publié un article qui résume très bien pourquoi la protection des données privées ne peut se contenter de l’utilisation plus ou moins maîtrisée des technologies de chiffrement7. La FSFE rappelle que tous les usages des services sur Internet nécessitent un niveau de confiance accordé à un tiers. Quelle que soit son identité…

…vous devez prendre en compte :

  • la bienveillance : le tiers ne veut pas compromettre votre vie privée et/ou il est lui-même concerné ;
  • la compétence : le tiers est techniquement capable de protéger votre vie privée et d’identifier et de corriger les problèmes ;
  • l’intégrité : le tiers ne peut pas être acheté, corrompu ou infiltré par des services secrets ou d’autres tiers malveillants ;

Comment s’assurer de ces trois qualités ? Pour les défenseurs et promoteurs du logiciel libre, seules les communautés libristes sont capables de proposer des alternatives en vertu de l’ouverture du code. Sur les quatre libertés qui définissent une licence libre, deux impliquent que le code puisse être accessible, audité, vérifié.

Est-ce suffisant ? non : ouvrir le code ne conditionne pas ces qualités, cela ne fait qu’endosser la responsabilité et l’usage du code (via la licence libre choisie) dont seule l’expertise peut attester de la fiabilité et de la probité.

En complément, la seconde étape consiste donc à définir une chaîne de confiance. Elle pourra déterminer à quel niveau je peux m’en remettre à l’expertise d’un tiers, à ses compétences, à sa bienveillance…. Certaines entreprises semblent l’avoir compris et tentent d’anticiper ce besoin de confiance. Pour reprendre les réflexions du Boston Consulting Group, l’un des plus prestigieux cabinets de conseil en stratégie au monde :

(…) dans un domaine aussi sensible que le Big Data, la confiance sera l’élément déterminant pour permettre à l’entreprise d’avoir le plus large accès possible aux données de ses clients, à condition qu’ils soient convaincus que ces données seront utilisées de façon loyale et contrôlée. Certaines entreprises parviendront à créer ce lien de confiance, d’autres non. Or, les enjeux économiques de ce lien de confiance sont très importants. Les entreprises qui réussiront à le créer pourraient multiplier par cinq ou dix le volume d’informations auxquelles elles sont susceptibles d’avoir accès. Sans la confiance du consommateur, l’essentiel des milliards d’euros de valeur économique et sociale que le Big Data pourrait représenter dans les années à venir risquerait d’être perdu.8

En d’autres termes, il existe un marché de la confiance. En tant que tel, soit il est lui aussi soumis aux effets de Big Other, soit il reste encore dépendant de la rationalité des consommateurs. Dans les deux cas, le logiciel libre devra obligatoirement trouver le créneau de persuasion pour faire adhérer le plus grand nombre à ses principes.

Une solution serait de déplacer le curseur de la chaîne de confiance non plus sur les principaux acteurs de services, plus ou moins dotés de bonnes intentions, mais dans la sphère publique. Je ne fais plus confiance à tel service ou telle entreprise parce qu’ils indiquent dans leurs CGU qu’ils s’engagent à ne pas utiliser mes données personnelles, mais parce que cet engagement est non seulement vérifiable mais aussi accessible : en cas de litige, le droit du pays dans lequel j’habite peut s’appliquer, des instances peuvent se porter parties civiles, une surveillance collective ou policière est possible, etc. La question n’est plus tellement de savoir ce que me garantit le fournisseur mais comment il propose un audit public et expose sa responsabilité vis-à-vis des données des utilisateurs.

S’en remettre à l’État pour des services fiables ? Les États ayant démontré leurs impuissances face à des multinationales surfinancées, les tentatives de cloud souverain ont elles aussi été des échecs cuisants. Créer des entreprises de toutes pièces sur fonds publics pour proposer une concurrence directe à des monopoles géants, était inévitablement un suicide : il aurait mieux valu proposer des ressources numériques et en faciliter l’accès pour des petits acteurs capables de proposer de multiples solutions différentes et alternatives adaptées aux besoins de confiance des utilisateurs, éventuellement avec la caution de l’État, la réputation d’associations nationales (association de défense des droits de l’homme, associations de consommateurs, etc.), bref, des assurances concrètes qui impliquent les utilisateurs, c’est-à-dire comme le modèle du logiciel libre qui ne sépare pas utilisation et conception.

Ce que propose le logiciel libre, c’est davantage que du code, c’est un modèle de coopération et de cooptation. C’est la possibilité pour les dynamiques collectives de réinvestir des espaces de confiance. Quel que soit le service utilisé, il dépend d’une communauté, d’une association, ou d’une entreprise qui toutes s’engagent par contrat (les licences libres sont des contrats) à respecter les données des utilisateurs. Le tiers de confiance devient collectif, il n’est plus un, il est multiple. Il ne s’agit pas pour autant de diluer les responsabilités (chaque offre est indépendante et s’engage individuellement) mais de forcer l’engagement public et la transparence des recours.

Chatons solidaires

Si s’échapper seul du marché de Big Other ne peut se faire qu’au prix de l’exclusion, il faut opposer une logique différente capable, devant l’exploitation des données et notre aliénation de consommateurs, de susciter l’action et non la passivité, le collectif et non l’individu. Si je produis des données, il faut qu’elles puissent profiter à tous ou à personne. C’est la logique de l’open data qui garanti le libre accès à des données placées dans le bien commun. Ce commun a ceci d’intéressant que tout ce qui y figure est alors identifiable. Ce qui n’y figure pas relève alors du privé et diffuser une donnée privée ne devrait relever que du seul choix délibéré de l’individu.

Le modèle proposé par le projet CHATONS (Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires) de Framasoft repose en partie sur ce principe. En adhérant à la charte, un hébergeur s’engage publiquement à remplir certaines obligations et, parmi celles-ci, l’interdiction d’utiliser les données des utilisateurs pour autre chose que l’évaluation et l’amélioration des services.

Comme écrit dans son manifeste (en version 0.9), l’objectif du collectif CHATONS est simple :

L’objectif de ce collectif est de mailler les initiatives de services basés sur des solutions de logiciels libres et proposés aux utilisateurs de manière à diffuser toutes les informations utiles permettant au public de pouvoir choisir leurs services en fonction de leurs besoins, avec un maximum de confiance vis-à-vis du respect de leur vie privée, sans publicité ni clause abusive ou obscure.

En lançant l’initiative de ce collectif, sans toutefois se placer dans une posture verticale fédérative, Framasoft ouvre une porte d’échappatoire. L’essentiel n’est pas tant de maximiser la venue de consommateurs sur quelques services identifiés mais de maximiser les chances pour les consommateurs d’utiliser des services de confiance qui, eux, pourront essaimer et se multiplier. Le postulat est que l’utilisateur est plus enclin à faire confiance à un hébergeur qu’il connaît et qui s’engage devant d’autres hébergeurs semblables, ses pairs, à respecter ses engagements éthiques. Outre l’utilisation de logiciels libres, cela se concrétise par trois principes

  1. Mutualiser l’expertise : les membres du collectif s’engagent à partager les informations pour augmenter la qualité des services et pour faciliter l’essaimage des solutions de logiciels libres utilisées. C’est un principe de solidarité qui permettra, à terme, de consolider sérieusement le tissu des hébergeurs concernés.
  2. Publier et adhérer à une charte commune. Cette charte donne les principaux critères techniques et éthiques de l’activité de membre. L’engagement suppose une réciprocité des échanges tant avec les autres membres du collectif qu’avec les utilisateurs.
  3. Un ensemble de contraintes dans la charte publique implique non seulement de ne s’arroger aucun droit sur les données privées des utilisateurs, mais aussi de rester transparent y compris jusque dans la publication de ses comptes et rapports d’activité. En tant qu’utilisateur je connais les engagements de mon hébergeur, je peux agir pour le contraindre à les respecter tout comme les autres hébergeurs peuvent révoquer de leur collectif un membre mal intentionné.

Le modèle CHATONS n’est absolument pas exclusif. Il constitue même une caricature, en quelque sorte l’alternative contraire mais pertinente à GAFAM. Des entreprises tout à fait bien intentionnées, respectant la majeure partie de la charte, pourraient ne pas pouvoir entrer dans ce collectif à cause des contraintes liées à leur modèle économique. Rien n’empêche ces entreprises de monter leur propre collectif, avec un niveau de confiance différent mais néanmoins potentiellement acceptable. Si le collectif CHATONS décide de restreindre au domaine associatif des acteurs du mouvement, c’est parce que l’idée est d’essaimer au maximum le modèle : que l’association philatélique de Trifouille-le-bas puisse avoir son serveur de courriel, que le club de football de Trifouille-le-haut puisse monter un serveur owncloud et que les deux puissent mutualiser en devenant des CHATONS pour en faire profiter, pourquoi pas, les deux communes (et donc la communauté).

Un chaton, deux chatons... des chatons !
Un chaton, deux chatons… des chatons !

Conclusion

La souveraineté numérique est souvent invoquée par les autorités publiques bien conscientes des limitations du pouvoir qu’implique Big Other. Par cette expression, on pense généralement se situer à armes égales contre les géants du web. Pouvoir économique contre pouvoir républicain. Cet affrontement est perdu d’avance par tout ce qui ressemble de près ou de loin à une procédure institutionnalisée. Tant que les citoyens ne sont pas eux-mêmes porteurs d’alternatives au marché imposé par les GAFAM, l’État ne peut rien faire d’autre que de lutter pour sauvegarder son propre pouvoir, c’est-à-dire celui des partis comme celui des lobbies. Le serpent se mord la queue.

Face au capitalisme de surveillance, qui a depuis longtemps dépassé le stade de l’ultra-libéralisme (car malgré tout il y subsistait encore un marché et une autonomie des agents), c’est à l’État non pas de proposer un cloud souverain mais de se positionner comme le garant des principes démocratiques appliqués à nos données numériques et à Internet : neutralité sans faille du réseau, garantie de l’équité, surveillance des accords commerciaux, politique anti-trust affirmée, etc. L’éducation populaire, la solidarité, l’intelligence collective, l’expertise des citoyens, feront le reste, quitte à ré-inventer d’autres modèles de gouvernance (et de gouvernement).

Nous ne sommes pas des êtres a-technologiques. Aujourd’hui, nos vies sont pleines de données numériques. Avec Internet, nous en usons pour nous rapprocher, pour nous comprendre et mutualiser nos efforts, tout comme nous avons utilisé en leurs temps le téléphone, les voies romaines, le papyrus, et les tablettes d’argile. Nous avons des choix à faire. Nous pouvons nous diriger vers des modèles exclusifs, avec ou sans GAFAM, comme la généralisation de block chains pour toutes nos transactions. En automatisant les contrats, même avec un système ouvert et neutre, nous ferions alors reposer la confiance sur la technologie (et ses failles), en révoquant toute relation de confiance entre les individus, comme si toute relation interpersonnelle était vouée à l’échec. L’autre voie repose sur l’éthique et le partage des connaissances. Le projet CHATONS n’est qu’un exemple de système alternatif parmi des milliers d’autres dans de multiples domaines, de l’agriculture à l’industrie, en passant par la protection de l’environnement. Saurons-nous choisir la bonne voie ? Saurons-nous comprendre que les relations d’interdépendances qui nous unissent sur terre passent aussi bien par l’écologie que par le partage du code ?


  1. Discours prononcé lors d’une conférence intitulée Surveillance capitalism: A new societal condition rising lors du sommet CPDP (Computers Privacy and Data protection), Bruxelles, 27-29 janvier 2016 (video).
  2. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, janvier 2016.
  3. Shoshana Zuboff, « Big other: surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, pp.&nbspp;75-89.
  4. Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données.
  5. Hannah Arendt, La condition de l’homme moderne, Paris: Calmann-Lévy, Agora, 1958, pp. 400-401.
  6. Shoshana Zuboff, « Big other: surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, p.&nbspp;81.
  7. h2, « Why Privacy is more than Crypto », blog Emergency Exit, FSFE, 31 mai 2016.
  8. Carol Umhoefer et al., Le Big Data face au défi de la confiance, The Boston Consulting Group, juin 2014.



Les nouveaux Léviathans II — Surveillance et confiance (a)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

Note de l’auteur :Cette seconde partie (Léviathans II) vise à approfondir les concepts survolés précédemment (Léviathans I). Nous avons vu que les monopoles de l’économie numérique ont changé le paradigme libéral jusqu’à instaurer un capitalisme de surveillance. Pour en rendre compte et comprendre ce nouveau système, il faut brosser plusieurs aspects de nos rapports avec la technologie en général, et les services numériques en particulier, puis voir comment des modèles s’imposent par l’usage des big data et la conformisation du marché (Léviathans IIa). J’expliquerai, à partir de la lecture de S. Zuboff, quelles sont les principales caractéristiques du capitalisme de surveillance. En identifiant ainsi ces nouvelles conditions de l’aliénation des individus, il devient évident que le rétablissement de la confiance aux sources de nos relations contractuelles et démocratiques, passe immanquablement par l’autonomie, le partage et la coopération, sur le modèle du logiciel libre (Léviathans IIb).

Techniques d’anticipation

On pense habituellement les objets techniques et les phénomènes sociaux comme deux choses différentes, voire parfois opposées. En plus de la nature, il y aurait deux autres réalités : d’un côté un monde constitué de nos individualités, nos rapports sociaux, nos idées politiques, la manière dont nous structurons ensemble la société ; et de l’autre côté le monde des techniques qui, pour être appréhendé, réclamerait obligatoirement des compétences particulières (artisanat, ingénierie). Nous refusons même parfois de comprendre nos interactions avec les techniques autrement que par automatisme, comme si notre accomplissement social passait uniquement par le statut d’utilisateur et jamais comme producteurs. Comme si une mise à distance devait obligatoirement s’établir entre ce que nous sommes (des êtres sociaux) et ce que nous produisons. Cette posture est au plus haut point paradoxale puisque non seulement la technologie est une activité sociale mais nos sociétés sont à bien des égards elles-mêmes configurées, transformées, et même régulées par les objets techniques. Certes, la compréhension des techniques n’est pas toujours obligatoire pour comprendre les faits sociaux, mais il faut avouer que bien peu de faits sociaux se comprennent sans la technique.

L’avènement des sociétés industrielles a marqué un pas supplémentaire dans l’interdépendance entre le social et les objets techniques : le travail, comme activité productrice, est en soi un rapport réflexif sur les pratiques et les savoirs qui forment des systèmes techniques. Nous baignons dans une culture technologique, nous sommes des êtres technologiques. Nous ne sommes pas que cela. La technologie n’a pas le monopole du signifiant : nous trouvons dans l’art, dans nos codes sociaux, dans nos intentions, tout un ensemble d’éléments culturels dont la technologie est censée être absente. Nous en usons parfois même pour effectuer une mise à distance des techniques omniprésentes. Mais ces dernières ne se réduisent pas à des objets produits. Elles sont à la fois des pratiques, des savoir-faire et des objets. La raison pour laquelle nous tenons tant à instaurer une mise à distance par rapport aux technologies que nous utilisons, c’est parce qu’elles s’intègrent tellement dans notre système économique qu’elles agissent aussi comme une forme d’aliénation au travail comme au quotidien.

Attention, Amazon très méchant
Attention, Amazon très méchant

Ces dernières années, nous avons vu émerger des technologies qui prétendent prédire nos comportements. Amazon teste à grande échelle des dépôts locaux de produits en prévision des commandes passées par les internautes sur un territoire donné. Les stocks de ces dépôts seront gérés au plus juste par l’exploitation des données inférées à partir de l’analyse de l’attention des utilisateurs (mesurée au clic), les tendances des recherches effectuées sur le site, l’impact des promotions et propositions d’Amazon, etc. De son côté, Google ne cesse d’analyser nos recherches dans son moteur d’indexation, dont les suggestions anticipent nos besoins souvent de manière troublante. En somme, si nous éprouvons parfois cette nécessité d’une mise à distance entre notre être et la technologie, c’est en réponse à cette situation où, intuitivement, nous sentons bien que la technologie n’a pas à s’immiscer aussi profondément dans l’intimité de nos pensées. Mais est-ce vraiment le cas ? Ne conformons-nous pas aussi, dans une certaine mesure, nos envies et nos besoins en fonction de ce qui nous est présenté comme nos envies et nos besoins ? La lutte permanente entre notre volonté d’indépendance et notre adaptation à la société de consommation, c’est-à-dire au marché, est quelque chose qui a parfaitement été compris par les grandes firmes du secteur numérique. Parce que nous laissons tellement de traces transformées en autant d’informations extraites, analysées, quantifiées, ces firmes sont désormais capables d’anticiper et de conformer le marché à leurs besoins de rentabilité comme jamais une firme n’a pu le faire dans l’histoire des sociétés capitalistes modernes.

Productivisme et information

Si vous venez de perdre deux minutes à lire ma prose ci-dessus hautement dopée à l’EPO (Enfonçage de Portes Ouvertes), c’est parce qu’il m’a tout de même paru assez important de faire quelques rappels de base avant d’entamer des considérations qui nous mènerons petit à petit vers une compréhension en détail de ce système. J’ai toujours l’image de cette enseignante de faculté, refusant de lire un mode d’emploi pour appuyer deux touches sur son clavier afin de basculer l’affichage écran vers l’affichage du diaporama, et qui s’exclamait : « il faut appeler un informaticien, ils sont là pour ça, non ? ». Ben non, ma grande, un informaticien a autre chose à faire. C’est une illustration très courante de ce que la transmission des savoirs (activité sociale) dépend éminemment des techniques (un vidéo-projecteur couplé un ordinateur contenant lui-même des supports de cours sous forme de fichiers) et que toute tentative volontaire ou non de mise à distance (ne pas vouloir acquérir un savoir-faire technique) cause un bouleversement a-social (ne plus être en mesure d’assurer une transmission de connaissance, ou plus prosaïquement passer pour quelqu’un de stupide). La place que nous occupons dans la société n’est pas uniquement une affaire de codes ou relations interpersonnelles, elle dépend pour beaucoup de l’ordre économique et technique auquel nous devons plus ou moins nous ajuster au risque de l’exclusion (et la forme la plus radicale d’exclusion est l’absence de travail et/ou l’incapacité de consommer).

Des études déjà anciennes sur les organisations du travail, notamment à propos de l’industrialisation de masse, ont montré comment la technologie, au même titre que l’organisation, détermine les comportements des salariés, en particulier lorsqu’elle conditionne l’automatisation des tâches1. Souvent, cette automatisation a été étudiée sous l’angle des répercussions socio-psychologiques, accroissant les sentiments de perte de sens ou d’aliénation sociale2. D’un point de vue plus populaire, c’est le remplacement de l’homme par la machine qui fut tantôt vécu comme une tragédie (l’apparition du chômage de masse) tantôt comme un bienfait (diminuer la pénibilité du travail). Aujourd’hui, les enjeux sont très différents. On s’interroge moins sur la place de la machine dans l’industrie que sur les taux de productivité et la gestion des flux. C’est qu’un changement de paradigme s’est accompli à partir des années 1970-1980, qui ont vu apparaître l’informatisation quasi totale des systèmes de production et la multiplication des ordinateurs mainframe dans les entreprises pour traiter des quantités sans cesse croissantes de données.

Très peu de sociologues ou d’économistes ont travaillé sur ce qu’une illustre chercheuse de la Harvard Business School, Shoshana Zuboff a identifié dans la transformation des systèmes de production : l’informationnalisation (informating). En effet, dans un livre très visionnaire, In the Age Of The Smart Machine en 19883, S. Zuboff montre que les mécanismes du capitalisme productiviste du XXe siècle ont connu plusieurs mouvements, plus ou moins concomitants selon les secteurs : la mécanisation, la rationalisation des tâches, l’automatisation des processus et l’informationnalisation. Ce dernier mouvement découle des précédents : dès l’instant qu’on mesure la production et qu’on identifie des processus, on les documente et on les programme pour les automatiser. L’informationnalisation est un processus qui transforme la mesure et la description des activités en information, c’est-à-dire en données extractibles et quantifiables, calculatoires et analytiques.

Là où S. Zuboff s’est montrée visionnaire dans les années 1980, c’est qu’elle a montré aussi comment l’informationnalisation modèle en retour les apprentissages et déplace les enjeux de pouvoir. On ne cherche plus à savoir qui a les connaissances suffisantes pour mettre en œuvre telle procédure, mais qui a accès aux données dont l’analyse déterminera la stratégie de développement des activités. Alors que le « vieux » capitalisme organisait une concurrence entre moyens de production et maîtrise de l’offre, ce qui, dans une économie mondialisée n’a plus vraiment de sens, un nouveau capitalisme (dont nous verrons plus loin qu’il se nomme le capitalisme de surveillance) est né, et repose sur la production d’informations, la maîtrise des données et donc des processus.

Pour illustrer, il suffit de penser à nos smartphones. Quelle que soit la marque, ils sont produits de manière plus ou moins redondante, parfois dans les mêmes chaînes de production (au moins en ce qui concerne les composants), avec des méthodes d’automatisation très similaires. Dès lors, la concurrence se place à un tout autre niveau : l’optimisation des procédures et l’identification des usages, tous deux producteurs de données. Si bien que la plus-value ajoutée par la firme à son smartphone pour séduire le plus d’utilisateurs possible va de pair avec une optimisation des coûts de production et des procédures. Cette optimisation relègue l’innovation organisationnelle au moins au même niveau, si ce n’est plus, que l’innovation du produit lui-même qui ne fait que répondre à des besoins d’usage de manière marginale. En matière de smartphone, ce sont les utilisateurs les plus experts qui sauront déceler la pertinence de telle ou telle nouvelle fonctionnalité alors que l’utilisateur moyen n’y voit que des produits similaires.

L’enjeu dépasse la seule optimisation des chaînes de production et l’innovation. S. Zuboff a aussi montré que l’analyse des données plus fines sur les processus de production révèle aussi les comportements des travailleurs : l’attention, les pratiques quotidiennes, les risques d’erreur, la gestion du temps de travail, etc. Dès lors l’informationnalisation est aussi un moyen de rassembler des données sur les aspects sociaux de la production4, et par conséquent les conformer aux impératifs de rentabilité. L’exemple le plus frappant aujourd’hui de cet ajustement comportemental à la rentabilité par les moyens de l’analyse de données est le phénomène d’« Ubérisation » de l’économie5.

Ramené aux utilisateurs finaux des produits, dans la mesure où il est possible de rassembler des données sur l’utilisation elle-même, il devrait donc être possible de conformer les usages et les comportements de consommation (et non plus seulement de production) aux mêmes impératifs de rentabilité. Cela passe par exemple par la communication et l’apprentissage de nouvelles fonctionnalités des objets. Par exemple, si vous aviez l’habitude de stocker vos fichiers MP3 dans votre smartphone pour les écouter comme avec un baladeur, votre fournisseur vous permet aujourd’hui avec une connexion 4G d’écouter de la musique en streaming illimité, ce qui permet d’analyser vos goûts, vous proposer des playlists, et faire des bénéfices. Mais dans ce cas, si vous vous situez dans un endroit où la connexion haut débit est défaillante, voire absente, vous devez vous passer de musique ou vous habituer à prévoir à l’avance cette éventualité en activant un mode hors-connexion. Cette adaptation de votre comportement devient prévisible : l’important n’est pas de savoir ce que vous écoutez mais comment vous le faites, et ce paramètre entre lui aussi en ligne de compte dans la proposition musicale disponible.

Le nouveau paradigme économique du XXIe siècle, c’est le rassemblement des données, leur traitement et leurs valeurs prédictives, qu’il s’agisse des données de production comme des données d’utilisation par les consommateurs.

GAFAM : We <3 your Data
GAFAM : We <3 your Data

Big Data

Ces dernières décennies, l’informatique est devenu un média pour l’essentiel de nos activités sociales. Vous souhaitez joindre un ami pour aller boire une bière dans la semaine ? c’est avec un ordinateur que vous l’appelez. Voici quelques étapes grossières de cet épisode :

  1. votre mobile a signalé vers des antennes relais pour s’assurer de la couverture réseau,
  2. vous entrez un mot de passe pour déverrouiller l’écran,
  3. vous effectuez une recherche dans votre carnet d’adresse (éventuellement synchronisé sur un serveur distant),
  4. vous lancez le programme de composition du numéro, puis l’appel téléphonique (numérique) proprement dit,
  5. vous entrez en relation avec votre correspondant, convenez d’une date,
  6. vous envoyez ensuite une notification de rendez-vous avec votre agenda vers la messagerie de votre ami…
  7. qui vous renvoie une notification d’acceptation en retour,
  8. l’une de vos applications a géolocalisé votre emplacement et vous indique le trajet et le temps de déplacement nécessaire pour vous rendre au point de rendez-vous, etc.

Durant cet épisode, quel que soit l’opérateur du réseau que vous utilisez et quel que soit le système d’exploitation de votre mobile (à une ou deux exceptions près), vous avez produit des données exploitables. Par exemple (liste non exhaustive) :

  • le bornage de votre mobile indique votre position à l’opérateur, qui peut croiser votre activité d’émission-réception avec la nature de votre abonnement,
  • la géolocalisation donne des indications sur votre vitesse de déplacement ou votre propension à utiliser des transports en commun,
  • votre messagerie permet de connaître la fréquence de vos contacts, et éventuellement l’éloignement géographique.

Ramené à des millions d’utilisateurs, l’ensemble des données ainsi rassemblées entre dans la catégorie des Big Data. Ces dernières ne concernent pas seulement les systèmes d’informations ou les services numériques proposés sur Internet. La massification des données est un processus qui a commencé il y a longtemps, notamment par l’analyse de productivité dans le cadre de la division du travail, les analyses statistiques des achats de biens de consommation, l’analyse des fréquences de transaction boursières, etc. Tout comme ce fut le cas pour les processus de production qui furent automatisés, ce qui caractérise les Big Data c’est l’obligation d’automatiser leur traitement pour en faire l’analyse.

Prospection, gestion des risques, prédictibilité, etc., les Big Data dépassent le seul degré de l’analyse statistique dite descriptive, car si une de ces données renferme en général très peu d’information, des milliers, des millions, des milliards permettent d’inférer des informations dont la pertinence dépend à la fois de leur traitement et de leur gestion. Le tout dépasse la somme des parties : c’est parce qu’elles sont rassemblées et analysées en masse que des données d’une même nature produisent des valeurs qui dépassent la somme des valeurs unitaires.

Antoinette Rouvroy, dans un rapport récent6 auprès du Conseil de l’Europe, précise que les capacités techniques de stockage et de traitement connaissent une progression exponentielle7. Elle définit plusieurs catégories de data en fonction de leurs sources, et qui quantifient l’essentiel des actions humaines :

  • les hard data, produites par les institutions et administrations publiques ;
  • les soft data, produites par les individus, volontairement (via les réseaux sociaux, par exemple) ou involontairement (analyse des flux, géolocalisation, etc.) ;
  • les métadonnées, qui concernent notamment la provenance des données, leur trafic, les durées, etc. ;
  • l’Internet des objets, qui une fois mis en réseau, produisent des données de performance, d’activité, etc.

Les Big Data n’ont cependant pas encore de définition claire8. Il y a des chances pour que le terme ne dure pas et donne lieu à des divisions qui décriront plus précisément des applications et des méthodes dès lors que des communautés de pratiques seront identifiées avec leurs procédures et leurs réseaux. Aujourd’hui, l’acception générique désigne avant tout un secteur d’activité qui regroupe un ensemble de savoir-faire et d’applications très variés. Ainsi, le potentiel scientifique des Big Data est encore largement sous-évalué, notamment en génétique, physique, mathématiques et même en sociologie. Il en est de même dans l’industrie. En revanche, si on place sur un même plan la politique, le marketing et les activités marchandes (à bien des égards assez proches) on conçoit aisément que l’analyse des données optimise efficacement les résultats et permet aussi, par leur dimension prédictible, de conformer les biens et services.

Google fait peur ?

Eric Schmidt, actuellement directeur exécutif d’Alphabet Inc., savait exprimer en peu de mots les objectifs de Google lorsqu’il en était le président. Depuis 1998, les activités de Google n’ont cessé d’évoluer, jusqu’à reléguer le service qui en fit la célébrité, la recherche sur la Toile, au rang d’activité has been pour les internautes. En 2010, il dévoilait le secret de Polichinelle :

Le jour viendra où la barre de recherche de Google – et l’activité qu’on nomme Googliser – ne sera plus au centre de nos vies en ligne. Alors quoi ? Nous essayons d’imaginer ce que sera l’avenir de la recherche (…). Nous sommes toujours contents d’être dans le secteur de la recherche, croyez-moi. Mais une idée est que de plus en plus de recherches sont faites en votre nom sans que vous ayez à taper sur votre clavier.

En fait, je pense que la plupart des gens ne veulent pas que Google réponde à leurs questions. Ils veulent que Google dise ce qu’ils doivent faire ensuite. (…) La puissance du ciblage individuel – la technologie sera tellement au point qu’il sera très difficile pour les gens de regarder ou consommer quelque chose qui n’a pas été adapté pour eux.9

Google n’a pas été la première firme à exploiter des données en masse. Le principe est déjà ancien avec les premiers data centers du milieu des années 1960. Google n’est pas non plus la première firme à proposer une indexation générale des contenus sur Internet, par contre Google a su se faire une place de choix parmi la concurrence farouche de la fin des années 1990 et sa croissance n’a cessé d’augmenter depuis lors, permettant des investissements conséquents dans le développement de technologies d’analyse et dans le rachat de brevets et de plus petites firmes spécialisées. Ce que Google a su faire, et qui explique son succès, c’est proposer une expérience utilisateur captivante de manière à rassembler assez de données pour proposer en retour des informations adaptées aux profils des utilisateurs. C’est la radicalisation de cette stratégie qui est énoncée ici par Eric Schmidt. Elle trouve pour l’essentiel son accomplissement en utilisant les données produites par les utilisateurs du cloud computing. Les Big Data en sont les principaux outils.

D’autres firmes ont emboîté le pas. En résultat, la concentration des dix premières firmes de services numériques génère des bénéfices spectaculaires et limite la concurrence. Cependant, l’exploitation des données personnelles des utilisateurs et la manière dont elles sont utilisées sont souvent mal comprises dans leurs aspects techniques autant que par les enjeux économiques et politiques qu’elles soulèvent. La plupart du temps, la quantité et la pertinence des informations produites par l’utilisateur semblent négligeables à ses yeux, et leur exploitation d’une importance stratégique mineure. Au mieux, si elles peuvent encourager la firme à mettre d’autres services gratuits à disposition du public, le prix est souvent considéré comme largement acceptable. Tout au plus, il semble a priori moins risqué d’utiliser Gmail et Facebook, que d’utiliser son smartphone en pleine manifestation syndicale en France, puisque le gouvernement français a voté publiquement des lois liberticides et que les GAFAM ne livrent aux autorités que les données manifestement suspectes (disent-elles) ou sur demande rogatoire officielle (disent-elles).

Gigantismus

En 2015, Google Analytics couvrait plus de 70% des parts de marché des outils de mesure d’audience. Google Analytics est un outil d’une puissance pour l’instant incomparable dans le domaine de l’analyse du comportement des visiteurs. Cette puissance n’est pas exclusivement due à une supériorité technologique (les firmes concurrentes utilisent des techniques d’analyse elles aussi très performantes), elle est surtout due à l’exhaustivité monopolistique des utilisations de Google Analytics, disponible en version gratuite et premium, avec un haut degré de configuration des variables qui permettent la collecte, le traitement et la production très rapide de rapports (pratiquement en temps réel). La stratégie commerciale, afin d’assurer sa rentabilité, consiste essentiellement à coupler le profilage avec la régie publicitaire (Google AdWords). Ce modèle économique est devenu omniprésent sur Internet. Qui veut être lu ou regardé doit passer l’épreuve de l’analyse « à la Google », mais pas uniquement pour mesurer l’audience : le monopole de Google sur ces outils impose un web rédactionnel, c’est-à-dire une méthode d’écriture des contenus qui se prête à l’extraction de données.

Google n’est pas la seule entreprise qui réussi le tour de force d’adapter les contenus, quelle que soit leur nature et leurs propos, à sa stratégie commerciale. C’est le cas des GAFAM qui reprennent en chœur le même modèle économique qui conforme l’information à ses propres besoins d’information. Que vous écriviez ou non un pamphlet contre Google, l’extraction et l’analyse des données que ce contenu va générer indirectement en produisant de l’activité (visites, commentaires, échanges, temps de connexion, provenance, etc.) permettra de générer une activité commerciale. Money is money, direz-vous. Pourtant, la concentration des activités commerciales liées à l’exploitation des Big Data par ces entreprises qui forment les premières capitalisations boursières du monde, pose un certain nombre répercutions sociales : l’omniprésence mondialisée des firmes, la réduction du marché et des choix, l’impuissance des États, la sur-financiarisation.

Omniprésence

En produisant des services gratuits (ou très accessibles), performants et à haute valeur ajoutée pour les données qu’ils produisent, ces entreprises captent une gigantesque part des activités numériques des utilisateurs. Elles deviennent dès lors les principaux fournisseurs de services avec lesquels les gouvernements doivent composer s’ils veulent appliquer le droit, en particulier dans le cadre de la surveillance des populations et des opérations de sécurité. Ainsi, dans une démarche très pragmatique, des ministères français parmi les plus importants réunirent le 3 décembre 2015 les « les grands acteurs de l’internet et des réseaux sociaux » dans le cadre de la stratégie anti-terroriste10. Plus anciennement, le programme américain de surveillance électronique PRISM, dont bien des aspects furent révélés par Edward Snowden en 2013, a permit de passer durant des années des accords entre la NSA et l’ensemble des GAFAM. Outre les questions liées à la sauvegarde du droit à la vie privée et à la liberté d’expression, on constate aisément que la surveillance des populations par les gouvernements trouve nulle part ailleurs l’opportunité de récupérer des données aussi exhaustives, faisant des GAFAM les principaux prestataires de Big Data des gouvernements, quels que soient les pays11.

Réduction du marché

Le monopole de Google sur l’indexation du web montre qu’en vertu du gigantesque chiffre d’affaires que cette activité génère, celle-ci devient la première et principale interface du public avec les contenus numériques. En 2000, le journaliste Laurent Mauriac signait dans Libération un article élogieux sur Google12. À propos de la méthode d’indexation qui en fit la célébrité, L. Mauriac écrit :

Autre avantage : ce système empêche les sites de tricher. Inutile de farcir la partie du code de la page invisible pour l’utilisateur avec quantité de mots-clés…

Or, en 2016, il devient assez évident de décortiquer les stratégies de manipulation de contenus que les compagnies qui en ont les moyens financiers mettent en œuvre pour dominer l’index de Google en diminuant ainsi la diversité de l’offre13. Que la concentration des entreprises limite mécaniquement l’offre, cela n’est pas révolutionnaire. Ce qui est particulièrement alarmant, en revanche, c’est que la concentration des GAFAM implique par effets de bord la concentration d’autres entreprises de secteurs entièrement différents mais qui dépendent d’elles en matière d’information et de visibilité. Cette concentration de second niveau, lorsqu’elle concerne la presse en ligne, les éditeurs scientifiques ou encore les libraires, pose à l’évidence de graves questions en matière de liberté d’information.

Impuissances

La concentration des services, qu’il s’agisse de ceux de Google comme des autres géants du web, sur des secteurs biens découpés qui assurent les monopoles de chaque acteur, cause bien des soucis aux États qui voient leurs économies impactées selon les revenus fiscaux et l’implantation géographique de ces compagnies. Les lois anti-trust semblent ne plus suffire lorsqu’on voit, par exemple, la Commission Européenne avoir toutes les peines du monde à freiner l’abus de position dominante de Google sur le système Android, sur Google Shopping, sur l’indexation, et de manière générale depuis 2010.

Illustration cynique devant l’impuissance des États à réguler cette concentration, Google a davantage à craindre de ses concurrents directs qui ont des moyens financiers largement supérieurs aux États pour bloquer sa progression sur les marchés. Ainsi, cet accord entre Microsoft et Google, qui conviennent de régler désormais leurs différends uniquement en privé, selon leurs propres règles, pour ne se concentrer que sur leur concurrence de marché et non plus sur la législation. Le message est double : en plus d’instaurer leur propre régulation de marché, Google et Microsoft en organiseront eux-mêmes les conditions juridiques, reléguant le rôle de l’État au second plan, voire en l’éliminant purement et simplement de l’équation. C’est l’avènement des Léviathans dont j’avais déjà parlé dans un article antérieur.

Alphabet. CC-by-sa, Framatophe
Alphabet. CC-by-sa, Framatophe

Capitaux financiers

La capitalisation boursière des GAFAM a atteint un niveau jamais envisagé jusqu’à présent dans l’histoire, et ces entreprises figurent toutes dans le top 40 de l’année 201514. La valeur cumulée de GAFAM en termes de capital boursier en 2015 s’élève à 1 838 milliards de dollars. À titre de comparaison, le PIB de la France en 2014 était de 2 935 milliards de dollars et celui des Pays Bas 892 milliards de dollars.

La liste des acquisitions de Google explique en partie la cumulation de valeurs boursières. Pour une autre partie, la plus importante, l’explication concerne l’activité principale de Google : la valorisation des big data et l’automatisation des tâches d’analyse de données qui réduisent les coûts de production (à commencer par les frais d’infrastructure : Google a besoin de gigantesque data centers pour le stockage, mais l’analyse, elle, nécessite plus de virtualisation que de nouveaux matériels ou d’employés). Bien que les cheminements ne soient pas les mêmes, les entreprises GAFAM ont abouti au même modèle économique qui débouche sur le status quo de monopoles sectorisés. Un élément de comparaison est donné par le Financial Times en août 2014, à propos de l’industrie automobile vs l’économie numérique :

Comparons Detroit en 1990 et la Silicon Valley en 2014. Les 3 plus importantes compagnies de Detroit produisaient des bénéfices à hauteur de 250 milliards de dollars avec 1,2 million d’employés et la cumulation de leurs capitalisations boursières totalisait 36 milliards de dollars. Le 3 premières compagnies de la Silicon Valley en 2014 totalisaient 247 milliards de dollars de bénéfices, avec seulement 137 000 employés, mais un capital boursier de 1,09 mille milliard de dollars.15

La captation d’autant de valeurs par un petit nombre d’entreprises et d’employés, aurait été analysée, par exemple, par Schumpeter comme une chute inévitable vers la stagnation en raison des ententes entre les plus puissants acteurs, la baisse des marges des opérateurs et le manque d’innovation. Pourtant cette approche est dépassée : l’innovation à d’autres buts (produire des services, même à perte, pour capter des données), il est très difficile d’identifier le secteur d’activité concerné (Alphabet regroupe des entreprises ultra-diversifiées) et donc le marché est ultra-malléable autant qu’il ne représente que des données à forte valeur prédictive et possède donc une logique de plus en plus maîtrisée par les grands acteurs.


  1. Michel Liu, « Technologie, organisation du travail et comportement des salariés », Revue française de sociologie, 22/2 1981, pp. 205-221.
  2. Voir sur ce point Robert Blauner, Alienation and Freedom. The Factory Worker and His Industry, Chicago: Univ. Chicago Press, 1965.
  3. Shoshana Zuboff, In The Age Of The Smart Machine: The Future Of Work And Power, New York: Basic Books, 1988.
  4. En guise d’illustration de tests (proof of concepts) discrets menés dans les entreprises aujourd’hui, on peut se reporter à cet article de Rue 89 Strasbourg sur cette société alsacienne qui propose, sous couvert de challenge collectif, de monitorer l’activité physique de ses employés. Rémi Boulle, « Chez Constellium, la collecte des données personnelles de santé des employés fait débat », Rue 89 Strasbourg, juin 2016.
  5. Par exemple, dans le cas des livreurs à vélo de plats préparés utilisés par des sociétés comme Foodora ou Take Eat Easy, on constate que ces sociétés ne sont qu’une interface entre les restaurants et les livreurs. Ces derniers sont auto-entrepreneurs, payés à la course et censés assumer toutes les cotisations sociales et leurs salaires uniquement sur la base des courses que l’entreprise principale pourra leur confier. Ce rôle est automatisé par une application de calcul qui rassemble les données géographiques et les performances (moyennes, vitesse, assiduité, etc.) des livreurs et distribue automatiquement les tâches de livraisons. Charge aux livreurs de se trouver au bon endroit au bon moment. Ce modèle économique permet de détacher l’entreprise de toutes les externalités ou tâches habituellement intégrées qui pourraient influer sur son chiffre d’affaires : le matériel du livreur, l’assurance, les cotisations, l’accidentologie, la gestion du temps de travail, etc., seule demeure l’activité elle-même automatisée et le livreur devient un exécutant dont on analyse les performances. L’« Ubérisation » est un processus qui automatise le travail humain, élimine les contraintes sociales et utilise l’information que l’activité produit pour ajuster la production à la demande (quels que soient les risques pris par les livreurs, par exemple pour remonter les meilleures informations concernant les vitesses de livraison et se voir confier les prochaines missions). Sur ce sujet, on peut écouter l’émission Comme un bruit qui court de France Inter qui diffusa le reportage de Giv Anquetil le 11 juin 2016, intitulé « En roue libre ».
  6. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, Conseil de l’Europe, janvier 2016.
  7. En même temps qu’une réduction de leur coût de production (leur coût d’exploitation ou d’analyse, en revanche, explose).
  8. On peut s’intéresser à l’origine de l’expression en lisant cet article de Francis X. Diebold, « On the Origin(s) and Development of the Term ‘Big Data’ », Penn Institute For Economic Research, Working Paper 12-037, 2012.
  9. Holman W. Jenkins, « Google and the Search for the Future The Web icon’s CEO on the mobile computing revolution, the future of newspapers, and privacy in the digital age », The Wall Street Journal, 14/08/2010.
  10. Communiqué du Premier ministre, Réunion de travail avec les grands acteurs de l’Internet et des réseaux sociaux, Paris : Hôtel Matignon, 3/12/2015.
  11. Même si Apple a déclaré ne pas entrer dans le secteur des Big Data, il n’en demeure pas moins qu’il en soit un consommateur comme un producteur d’envergure mondiale.
  12. Laurent Mauriac, « Google, moteur en explosion », Libération, 29 juin 2000.
  13. Vincent Abry, « Au revoir la diversité. Quand 16 compagnies dominent complètement l’index Google », article de Blog personnel, voir la version archivée.
  14. PwC, Global Top 100 Companies by market capitalisation, (31/03/2015). Ces données sont à revoir en raison de l’éclatement de Google dans une sorte de holding nommée Alphabet début 2016.
  15. James Manyika et Michael Chui, « Digital era brings hyperscale challenges » (image), The Financial Times, 13/08/2014. Cité par S. Zuboff, « Big Other… », op. cit..



La surveillance, vigile de la paix sociale au service des plus riches ?

Cory Doctorow, auteur de science-fiction canadien et américain, cofondateur du site boing-boing, est l’un de ces monstres sacrés du monde du logiciel libre, du partage de la connaissance, bref, de l’époque qu’Internet profile à l’horizon des historiens du futur. Dans le dernier numéro de LocusMag, journal de science-fiction en langue anglaise, il évoque avec son habituelle précision deux sujets qui me sont chers : la stabilité de nos sociétés et la surveillance des populations. Sur l’instabilité de nos sociétés, j’évoque souvent la complexité croissante du droit, Cory va ici beaucoup plus loin. Sur la surveillance de masse, on compare souvent à tort la NSA et la Stasi d’ex-RDA, à nouveau Doctorow enfonce le clou et nous pousse dans nos derniers retranchements, invitant à mots couverts à une révolution du partage et de l’égalité.
Espérant que vous aurez autant de plaisir à le lire que nous avons eu à le traduire, et remerciant Cory d’avoir accepté la traduction en français de cet article, nous vous invitons au débat…

Benjamin Sonntag

Co-fondateur de la Quadrature du Net

Stabilité et surveillance

doctorowAtDeskpar Cory Doctorow

article original publié initialement dans le numéro de mars 2015 du magazine Locus

Traduction collaborative : Benjamin, catalaburro, bruno, Monsieur Tino, goofy, TeSla, Jerry + anonymes

 

Dans le best-seller économique de Thomas Piketty, paru en 2014, Le capital au XXIe siècle, l’économiste documente avec soin l’augmentation des inégalités dans le monde, phénomène qui a inspiré le printemps arabe, le mouvement Occupy, le Pape François, et de nombreux militants politiques sur toute la planète. Certains critiques de Piketty ont commencé par remettre ses calculs en question, mais sur ce point Piketty semble crédible. L’ensemble de données sur lesquelles il s’est fondé représente un travail de titan, et les données brutes sont en ligne, chacun peut les télécharger, ainsi que les nombreuses notes sur les suppositions et normalisations de données disparates que Piketty a effectuées afin d’obtenir une histoire cohérente. Piketty est l’analyste des analystes, un homme aux chiffres totalement crédibles.

Ensuite vient l’autre critique adressée à Piketty : le « et alors ? ». Les riches deviennent plus riches et les pauvres plus pauvres ? Et alors ? Comme le raille Boris Johnson, le maire de Londres issu d’Eton : « Plus vous secouez le paquet, plus il sera facile à certains cornflakes de remonter à la surface. » En d’autres termes, si le capitalisme rend les riches plus riches, c’est parce qu’ils le méritent, un fait démontré par l’ampleur de leur richesse. Si vous êtes une miette au fond de la boite, vous devez sûrement être nul quelque part.

Piketty ne répond pas à cette critique de manière directe, mais par des références à « l’instabilité sociale ». Il compare fréquemment les inégalités contemporaines avec celles de la veille de la première guerre mondiale (présentée comme une sorte de guerre commerciale entre les super-riches pour savoir qui empochera les richesse des colonies, dès lors qu’il n’y avait plus de nouveau territoire à conquérir) ; il les compare également à celles qui ont précédé la Révolution Française, une comparaison qui va faire hurler les citoyens français, mais paraîtra plus lointaine au lectorat anglais de ce livre.

Voici ce qu’il dit, lorsqu’on lit entre les lignes : quand le fossé entre riches et pauvres devient trop important, les pauvres se mettent à construire des guillotines. Il revient probablement moins cher de redistribuer une partie de votre fortune, méritée ou non, que de payer tous les gardes qui pourraient s’avérer nécessaires pour éviter de vous faire couper la tête.

En d’autres mots, un grand fossé entre riches et pauvres déstabilise les sociétés, et il est compliqué d’être vraiment riche dans une société en proie au chaos. À moins que la population n’adhère au système qui vous a rendu riche, le peuple ne sera pas gêné par le spectacle du pillage de vos biens, et pourrait même y contribuer.

Historiquement ont existé deux modèles de société très stables : celles qui sont fortement redistributives, tels les pays scandinaves (où l’écart entre les plus riches et les plus pauvres est comblé par les impôts, les lois protectrices des employés et des locataires et des politiques sociales étendues) ; et d’autre part les sociétés totalitaires, comme l’Irak de Saddam Hussein ou la Lybie de Muhammar Kadhafi où, au lieu de redistribuer leurs richesses au reste de la population, les élites dirigeantes dépensent au fond moins d’argent pour s’offrir un vaste dispositif répressif composé de soldats, d’espions, d’officiers de police, de mouchards, de propagande et de surveillance. Tout cela est utilisé pour identifier les protestataires qui réclament des changements politiques, puis pour les neutraliser : emprisonnement, diffamation, mise à l’écart du marché du travail, exil, chantage, torture et enfin assassinat.

Samuel Bowles, un économiste du Santa Fe Institute, utilise le terme « travail de protection » [NDT : proposition de traduction pour guard labor, voir cet article] pour décrire toutes les activités destinées à contraindre à la paix sociale les personnes émettant des réserves sur la légitimité d’une société. Faute d’un cadre éthique proclamant que la pauvreté et les souffrances qu’elle provoque doivent être combattues, une élite éclairée devrait chercher à utiliser une combinaison de la redistribution des richesses et du travail de protection pour assurer la stabilité sociale. Si une infime minorité de la société est assez riche, et que tout le reste est assez pauvre, il sera plus coûteux pour la riche minorité d’engager des gardes pour maintenir les masses affamées à l’écart de leurs palais que de nourrir et d’éduquer une partie de la masse, ce qui crée une classe moyenne, une certaine mobilité sociale, ainsi que le sentiment que les riches sont riches parce qu’ils l’ont mérité. Et si vous jouez le jeu, vous pourriez bien en être.

Il en existe des quantités d’exemples, mais mon préféré reste Joseph Williamson, qui a payé pour le creusement de tunnels sous Liverpool après la Première Guerre Mondiale. Williamson était un magnat local qui avait compris que le retour des Tommies traumatisés par l’enfer des tranchées, dans une ville où aucun travail ne les attendait, était probablement une mauvaise nouvelle pour la stabilité de la cité. Williamson utilisa donc une part de sa colossale fortune pour engager les vétérans pour trouer le sol sous Liverpool tel un gruyère, avec des kilomètres et des kilomètres de tunnels ne débouchant sur rien. Le raisonnement — probablement sensé — de Williamson était qu’il était moins coûteux de donner à ces vétérans un salaire et la dignité de travailler plutôt que d’engager des gardes pour se défendre de ces soldats démobilisés qui se sentaient abandonnés par leur patrie.

Tous les emplois de protection ne sont pas forcément coercitifs. Certains jouent sur la persuasion. L’accroissement soudain de la disparité des richesses de l’ère post-Reagan a aussi coïncidé avec la dérégulation des médias de masse, à la fois en termes de renforcement de la propriété et pour l’étendue et la nature des obligations qui incombent aux services publics de programmes, associées à leur licence de diffusion. Il en a résulté une gigantesque révolution économique et technologique dans le monde des médias, qui s’est achevée par la création de cinq énormes empires médiatiques qui détiennent virtuellement à l’échelle du globe toutes les musiques, les films, la diffusion des nouvelles, la presse écrite, l’édition, les câbles et les satellites, et même, dans de nombreux cas, ces entreprises possèdent aussi les tuyaux – ceux du téléphone et du câble.

Cette révolution a rendu plus facile que jamais la diffusion de messages socialement apaisants. De très nombreuses études, l’une après l’autre, ont montré que la presse était favorable au mythe des riches méritants, assimilait les impôts à du vol et se montrait hostile au travail et à la règlementation. L’ascension de Fox News et de son équivalent planétaire Sky News, comme l’effondrement de l’industrie de la presse écrite tombée aux mains de quelques entreprises largement sous la coupe de fonds de pension et de milliardaires, nous a poussés dans une situation où les thèses qui remettent en question la légitimité des grandes fortunes ont une bien faible visibilité.

À la fin du XXe siècle, la révolution des télécoms et des médias a abaissé le coût du travail de protection, modifiant l’équilibre entre la redistribution et le maintien de la stabilité sociale. Quand il devient moins coûteux de protéger votre fortune, vous pouvez vous permettre d’envoyer paître davantage de gens en devenant de plus en plus riche au lieu de partager avec eux.

Le XXIe siècle a été très bienveillant pour le travail de protection. En plus d’avoir permis aux polices locales l’obtention d’armes militaires, le XXIe siècle a vu l’émergence d’Internet et, grâce au manque de régulation, l’émergence d’un petit nombre de géants d’Internet qui savent presque tout ce que fait chacune des 7 milliards de personnes sur terre.

La surveillance massive d’Internet révélée par le lanceur d’alerte Edward Snowden montre que les gouvernements — et les riches qui dominent les cercles politiques en proportion directe du volume de richesse nationale dont ils disposent — ont remarqué que la seule chose dont ils aient besoin pour mettre la terre entière sous surveillance est de corrompre ces géants de l’Internet, que ce soit ouvertement (comme quand l’agence d’espionnage britannique GCHQ paye British Telecom pour pouvoir mettre sur écoute les fibres optiques qui sont sur le territoire britannique) ou secrètement (comme quand la NSA a secrètement mis sur écoute les fibres optiques entre les centres de données informatique utilisés par Google, Yahoo et Facebook).

Il est difficile d’exagérer l’efficacité de la surveillance au XXIe siècle. Les opposants à la surveillance de masse d’Internet aiment comparer la NSA et ses alliés à la Stasi, la police secrète de l’ex-RDA, connue pour son omniprésence dans le quotidien des gens et la surveillance totale dont elle étouffait le pays. Mais la Stasi opérait dans une surveillance pré-Internet, et selon les critères d’aujourd’hui, leur travail de surveillance était extrêmement coûteux.
En 1989, qui fut la dernière année d’activité de la Stasi, il y avait 16 111 000 habitants en Allemagne de l’Est, et 264 096 opérateurs qui d’une manière ou d’une autre étaient rémunérés par la Stasi, dont 173 000 « informateurs officieux » (des mouchards). Ce qui faisait une proportion d’un espion pour 60 personnes.

Il est difficile de savoir avec précision combien de personnes travaillent pour la NSA — une majeure partie de son budget est inconnue, et de nombreuses opérations sont menées par des partenaires privés comme Booz Allen, l’ancien employeur d’Edward Snowden. Mais nous savons combien d’Américains ont une habilitation de sécurité (4,9 millions), et combien sont habilités « Top Secret » (1,4 millions), ce qui fait que nous pouvons être sûrs que moins de 1,4 millions de personnes travaillent sur ces sujets (parce que ces personnes, avec des habilitations « Top Secret », se trouvent réparties entre la CIA, le FBI, la défense fédérale, etc.). De plus, la surveillance menée par la NSA est épaulée par des espions étrangers, en particulier ceux des pays dits des «five eyes » (Canada, Royaume-Uni, Australie et Nouvelle-Zélande [NdT, en plus des États-Unis]), mais ils ne sont qu’une goutte d’eau dans l’océan comparée au dispositif de surveillance américain — les États-Unis représentent à eux seuls un tiers des dépenses mondiales dans le domaine militaire, quand seulement deux autres pays des five eyes (le Royaume-Uni et l’Australie) apparaissent dans les 15 pays aux plus fortes dépenses militaires.

En prenant une estimation large, nous pouvons dire qu’il y a 1,4 millon d’espions travaillant pour la NSA et ses associés, five eyes compris. 1,4 millions de personnes pour surveiller sept milliards d’humains.
Ceci nous donne un ratio espion/sujet d’environ 1/5000, deux ordres de grandeurs de plus qu’à l’époque de l’activité de la Stasi. Celle-ci utilisait une armée pour surveiller un pays ; la NSA utilise un bataillon pour surveiller la planète. Par rapport à la NSA, la Stasi fait figure de bricoleurs du dimanche.
Bien qu’il soit admis que l’arsenal de surveillance américain s’est beaucoup étoffé depuis la présidence Reagan — certaines agences ont vu leurs budgets multipliés par quatre depuis la chute du Mur de Berlin — il n’a certainement pas été centuplé. Même en ne disposant que de budgets obscurs et mensongers, il est évident que l’augmentation géométrique du volume d’espionnage ne s’est accompagné que d’une augmentation linéaire des coûts associés.

En d’autres termes, le coût des éléments clés du travail de protection est en chute libre depuis l’avènement d’Internet.
Nous voici revenus à Piketty et à la stabilité sociale. Les riches ont besoin de stabilité, du moins suffisamment pour que leurs banques et leur business continuent de tourner rond.

Les écarts de richesse déstabilisent la société ; pour retrouver retrouver la stabilité il faut faire un choix : ou bien on paie le prix pour faire sortir les gens de la pauvreté, ou bien on s’assure qu’on a une longueur d’avance sur eux avant qu’ils ne ressortent les guillotines (ou qu’ils abattent le Mur de Berlin). Lorsque le coût du travail de protection diminue, le fossé acceptable entre les riches et les pauvres s’élargit. Une baisse de deux ordres de grandeur du coût nécessaire pour maintenir séparés les loups et les moutons chez les pauvres est un puissant argument contre les programmes sociaux, ou les lois sur le travail, ou les droits des locataires. Bien entendu, la privation rend les populations agitées, mais il est possible, avec une fiabilité incroyable et pour seulement quelques sous, d’identifier les personnes à arrêter, discréditer, faire chanter, ou neutraliser : « Qu’ils consomment des réseaux sociaux ! »

Ce sont de mauvaises nouvelles, car la grande disparité des richesses ne déstabilise pas la société uniquement à cause de la pauvreté, cela la déstabilise aussi à cause de la corruption. Dans une société où les juristes doivent lever des dizaines de millions de dollars pour s’installer et exercer, l’influence des riches grandit. Les régimes autocratiques en sont un bon exemple : vous pouvez aller en prison en Thaïlande pour avoir critiqué le Roi, et dénoncer les conditions de travail esclavagistes au Qatar est un délit.

Mais c’est aussi vrai aux États-Unis. En avril 2014, des universitaires de Princeton et Northwerstern ont publié Test des théories des politiques américains : élites, groupes d’intérêts, et citoyens de base (1), dans la revue Perspectives and Politics. Il s’agissait d’une étude massive de plus de 20 années de combats politiques au sein du Congrès américain et de l’administration, et sa conclusion était que l’issue de ces combats politiques était immanquablement favorable aux 10% des Américains les plus riches. Les décisions politiques favorables aux classes moyennes étaient si rares qu’elle ne dépassaient même pas le niveau de bruit statistique.

L’augmentation de la surveillance implique que les mécanismes de combat contre les inégalités, déjà insuffisants, ont été détournés au profit d’une oligarchie.

Dans une société extrêmement inégalitaire, les seuls projets qui peuvent se développer doivent avoir un vrai modèle économique. Ils doivent rendre riche une personne extérieure au Parlement, pour qu’elle utilise cet argent à influencer les hommes politiques qui vont maintenir et propager ce projet politique.

Il est possible que certaines mesures prises par les États génèrent un surplus de capital pour un nombre restreint de personnes mais demeurent bénéfiques à la société, cependant il y a d’autres domaines où ce n’est sûrement pas le cas. L’éducation, par exemple : vous pouvez tout à fait diriger une école comme une entreprise, ne jurer que par sa « rentabilité », avec des tests standardisés et une surveillance des taux d’absentéisme, plutôt que par le jugement des enseignants, ou les résultats effectifs des apprentissages.

En utilisant cette méthodologie, vous pouvez assurer de confortables profits aux entreprises qui ont compris comment améliorer artificiellement les résultats des tests standardisés, et comment réduire l’absentéisme. Par exemple, en bourrant le crâne des étudiants avec des tests, au lieu de leur enseigner les arts ou le sport, et en mettant à la porte les étudiants qui ont des problèmes avec ces méthodes, ou ceux dont des problèmes personnels leur font manquer de nombreux cours. Cela augmentera encore vos résultats trimestriels d’une façon qui réchaufferait le cœur d’un analyste de Wall Street, mais bonne chance pour trouver quelqu’un avec une certaine crédibilité pédagogique qui pourra prétendre que ces enfants « apprennent ».

socialControl

Je réagis comme vous : ça me fait flipper. L’augmentation de la surveillance implique que les mécanismes de combat contre les inégalités, déjà insuffisants, ont été détournés au profit d’une oligarchie. C’est une bonne raison pour inciter vos amis à utiliser des outils de chiffrement, particulièrement ceux qui sont disponibles en logiciel libre et open source. À l’heure où j’écris ces lignes, en janvier 2015, Obama, l’Avocat général de New York et le patron du FBI ont appelé à l’interdiction de la cryptographie pour le grand public, avec le soutien du Premier Ministre britannique David Cameron. Interdire la cryptographie est un projet ambitieux qui ne risque pas de se concrétiser (il combine les aspects les plus idiots de la guerre contre certaines drogues et ceux de la guerre contre le partage de fichiers), mais cela ne veut pas dire que cette volonté de nous rendre tous vulnérables à la surveillance ne fera pas de mal.

Le temps passe. Il est bientôt minuit. Avez-vous chiffré votre disque dur ?

 

Note

(1) Lien direct vers le PDF en anglais : Testing Theories of American Politics: Elites, Interest Groups, and Average Citizens

 

Crédit photo

* Cory Doctorow par Joi Ito (CC BY 2.0)




Frama, c’est aussi de la médiation aux communs numériques

De l’édition de livres aux ateliers et conférences, des interviews aux traductions sur le blog et jusqu’au podcast… À Framasoft, nous explorons de nombreuses manières de partager ce que nous savons et d’apporter notre pierre à l’édifice des communs culturels.

« Frama, c’est pas que… »

Pour l’automne 2021, chaque semaine, nous voulons vous faire découvrir un nouveau pan des actions menées par Framasoft. Ces actions étant financées par vos dons (défiscalisables à 66 %), vous pouvez en trouver un résumé complet, sous forme de cartes à découvrir et à cliquer, sur le site Soutenir Framasoft.

➡️ Lire cette série d’articles (oct. – déc. 2021)

Nous avons la chance, à Framasoft, d’avoir du temps libéré pour observer et tenter de comprendre le monde numérique actuel, ses règles, ses mécanismes. Cette connaissance nous sert à imaginer et explorer des pistes pour faire autrement, s’extraire du capitalisme de surveillance et de l’économie de l’attention. Mais ce serait bien triste si les savoirs et expériences que nous accumulons n’étaient pas partagés !

jeu de cartes Framasoft "…de la médiation aux communs numériques"

Rencontres et conférences

Les 37 membres de l’association Framasoft vivent dans une trentaine de villes différentes. C’est une chance, cela nous permet de pouvoir régulièrement répondre à des invitations de participer à des ateliers, tables-rondes, conférences, échanges, etc. Et si les agendas ne s’alignent pas, nous savons refuser poliment aussi.

Carte "Rencontres" Habitant aux quatre coins de l’hexagone, les membres de Framasoft interviennent régulièrement dans des événements. D’ateliers en webinaires, de conférences en ciné-débats, nous partageons nos observations, craintes et espoirs sur le numérique, et le monde qu’il façonne.

Certes, la pandémie qui continue de façonner nos vies a réduit le nombre de rencontres auxquelles nous participons actuellement. Mais elle a aussi normalisé les webinaires et autres interventions à distance auprès du grand public et des personnes qui organisent ces événements (ce qui nous a par exemple permis de participer à L’Özgürkon, la convention des libristes en Turquie).

Voilà qui tombe bien, causer à distance, c’est une chose que nous savons faire !

illustration CC-By David Revoy (sources)

Réponses aux médias

Soyons clair·es : Framasoft n’a aucune stratégie médias. Nos timidités, nos syndromes de l’imposteur, notre refus de se poser en expertes, notre vigilance à éviter d’avoir des têtes d’affiche, font que nous ne sommes pas de « bons clients ». L’association est de toute façon peu représentée à Paris, où une majeure partie de la sphère médiatique cherche ses intervenant·es.

Carte "Médias" Framasoft ne va – quasiment – jamais chercher l’attention des médias, car mine de rien, c’est du boulot ! Cependant, nous répondons régulièrement à des invitations à partager nos points de vue sur la centralisation du web, les pratiques numériques émancipatrices, etc.

Cependant, nous nous efforçons de répondre aux médias qui viennent nous interroger sur les enjeux du numérique (là où nous avons une expérience et une expertise à partager). Il nous arrive donc de nous frotter à l’interview « face cam » pour un documentaire, à la courte citation pour un quotidien, à des questions de la presse spécialisée indépendante, à celles d’un podcast pas du tout porté sur la « tech »…

Répondre aux entrevues n’est pas un exercice que nous recherchons, ni que nous affectionnons particulièrement (sauf lorsqu’il s’agit de contribuer aux recherches des universitaires). Cela reste cependant une manière intéressante d’accueillir la remise en question, de sortir de notre zone de confort et de semer des graines d’émancipation numérique aux quatre vents des internets.

illustration CC-By David Revoy (sources)

Le Framablog

Le Framablog est le principal organe de communication et de publication de Framasoft : dès que nous avons une action à annoncer, une déclaration qui nous démange, c’est sur le blog que ça se passe. Cependant, nous voulons que le Framablog soit plus que cela.

Carte "Framablog" Avec plus de 10 articles par mois, c’est sur le Framablog que Framasoft s’exprime le plus. Revue de presse, annonces de l’association, interviews, pamphlets, nouvelles du monde du Libre… Nous essayons d’ouvrir le Framablog à de multiples formes d’écritures et à divers invité·es.

Chaque lundi, Khrys nous offre son Khrys’presso, sa revue de web de la semaine ; qu’elle concocte en toute autonomie et liberté.

Régulièrement, le comité communication s’applique à faire découvrir une démarche libre intéressante, amusante, bouleversante, au travers d’interviews variées.

Par ailleurs, nous nous évertuons à inviter d’autres voix sur le Framablog. Il s’agit de personnes du monde du libre et des communs qui partagent leur expertise et leur expérience, dont nous reprenons (avec leur accord) des textes publiés sur leur propre blog.

Depuis l’été 2021, nous expérimentons autre chose : « commander » (c’est-à-dire solliciter et non pas diriger) des textes auprès de plumes qui nous inspirent et dont nous aimerions qu’elles consacrent un peu de leur verve à détailler un sujet qui nous importe. C’est ainsi qu’est né le dossier publié en feuilleton sur le Militantisme Déconnant de Viciss (du blog Hacking Social).

Cette collaboration est la première d’une série que nous espérons longue et fructueuse.

illustration CC-By David Revoy (sources)

Framalang

Framalang est né de cette envie de partager des nouvelles du monde du Libre avec les non-anglophones. Ce groupe cherche des articles (voire livres, sites web, etc.) en anglais (et parfois en italien, en espagnol) que les membres ont envie de traduire pour les partager avec le monde francophone (souvent sur le Framablog).

Carte "Framalang" Le groupe de travail Framalang traduit – en toute autogestion – des articles, sites et livres… Le monde du numérique exclut parfois les non-anglophones, c’est pour cela que Framalang publie ses traductions sur le Framablog.

Le groupe Framalang est, à nos yeux, un très bel exemple de la relation qu’il peut y avoir entre une association (Framasoft) et un groupe de contributeurices auto-géré·es (Framalang). Le rôle de Framasoft se borne à donner à Framalang les moyens d’œuvrer : un espace, des outils, une audience, du temps et du soin dans l’animation du groupe…

Le collectif Framalang prend ses propres décisions, que ce soit dans le choix des textes à traduire, dans les méthodes et outils (qui ont évolué au fil des ans), ou les choix linguistiques et de mise en page. Framalang illustre une règle importante chez Framasoft : dans le respect du collectif, c’est kikifé kidécide.

illustration CC-By David Revoy (sources)

Des livres en Communs

Ah ! si vous saviez comme nous sommes impatient·es de vous montrer cette nouvelle évolution de notre maison d’édition ! Depuis plus d’un an, les membres du projet Framabook ont décidé de revoir intégralement le fonctionnement actuel qui reposait sur « le pari du livre libre ». En effet, jusqu’à présent, ce pari consistait à distribuer librement et gratuitement les ebooks tout en rémunérant honnêtement les auteurs et autrices sur les ventes papier.

Carte "Des livres en communs" La maison d’édition Framabook évolue et devient « Des Livres en Communs ». Depuis quelques mois, Framasoft prépare la renaissance de ce projet historique de l’association, avec un changement de paradigme pour mieux soutenir la création de communs culturels.

Seulement, nous n’avons jamais su intégrer Framabook aux chaînes de distribution et de diffusion du livre en France, qui sont verrouillées et dirigées par les industries culturelles. Leur fonctionnement repose sur la propriété, la vente, l’exploitation.

Des Livres en Communs (ce sera le nouveau nom de Framabook) a pour intention de changer de paradigme, en se concentrant sur la création et la production de communs culturels.

Nous comptons attribuer à des auteurices une bourse d’écriture pour reconnaître et rémunérer plus équitablement leur travail de création. Nous donnerons davantage de détails ultérieurement, notamment sur la façon dont nous choisirons les bénéficiaires de ces bourses. L’objectif est d’accompagner ces auteurices dans leur processus, pour qu’iels mènent à bien leur création qui deviendra un Commun.

En attendant, ces derniers mois, il nous a fallu faire l’inventaire des contrats et projets existants chez Framabook, et imaginer comment accompagner la transition de ce beau projet dans un nouveau paradigme.

illustration CC-By David Revoy (sources)

UPLOAD

Les projets évoluent mais les envies restent. Annoncée en 2017 comme une université populaire du libre, UPLOAD représente désormais pour nous une Université Populaire Libre, Ouverte, Autonome et Décentralisée. Ici le libre n’est plus une fin en soi (ce que l’on apprend) mais bien une manière de partager les connaissances.

Carte "UPLOAD" Cette Université Populaire Libre, Ouverte, Autonome et Décentralisée commence à germer dans nos travaux. Elle est préfigurée par un podcast et des « librecours ». UPLOAD doit encore grandir en s’inspirant des mouvements de l’éducation populaire avant de trouver sa forme.

Ces derniers mois, les membres de Framasoft ont exploré différentes manières d’envisager UPLOAD. Parce que trouver un nom qui claque, c’est bien, mettre quelque chose derrière, c’est mieux ! Est-ce que c’est une plateforme où l’on peut partager des connaissances ? Une série d’outils pour aider des groupes locaux à organiser des temps d’éducation populaire ? Une série de parcours pédagogiques où l’on accompagne les personnes qui s’y engagent…?

La question n’est pas tranchée, et la réponse dépendra beaucoup des personnes, collectifs et initiatives que nous rencontrerons dans nos explorations, des besoins que nous percevrons et de l’utilité que Framasoft pourrait avoir ici ou là (sans forcément réinventer la roue, car des personnes ont déjà montré la voie et construit des ressources).

En attendant, quelques-unes de nos expérimentations préfigurent cette université populaire : qu’il s’agisse du MOOC CHATONS, des Librecours ou du podcast UPLOAD, toutes illustrent notre envie de partager le savoir, et la capacitation qui va avec l’acquisition de connaissances.

illustration CC-By David Revoy (sources)

Découvrez tout ce qu’est Frama !

Voilà qui conclut le focus de cette semaine. Vous pourrez retrouver tous les articles de cette série en cliquant sur ce lien.

Sur la page Soutenir Framasoft, vous pourrez découvrir un magnifique jeu de cartes représentant tout ce que Framasoft a fait ces derniers mois. Vous pourrez ainsi donner des couleurs à l’ensemble des activités que vous financez lorsque vous nous faites un don. Nous espérons que ces beaux visuels (merci à David Revoy !) vous donneront envie de partager la page Soutenir Framasoft tout autour de vous !

En effet, le budget de Framasoft est financé quasi-intégralement par vos dons (pour rappel, un don à Framasoft de 100 € ne vous coûtera que 34 € après défiscalisation). Comme chaque année, si ce que nous faisons vous plaît et si vous le pouvez, merci de soutenir Framasoft.

Frama, c'est pas que Framindmap ! C'est aussi des conférences, livres, articles blog... Bref, tout un travail pour partager savoirs et expérience ! Nos actions sont financées par vos dons, alors découvrez l'ensemble du travail de Framasoft sur Soutenir Framasoft
Cliquez pour découvrir toutes les cartes et soutenir Framasoft

Pour aller plus loin :




« Va te faire foutre, Twitter ! » dit Aral Balkan

Avec un ton acerbe contre les géants du numérique, Aral Balkan nourrit depuis plusieurs années une analyse lucide et sans concession du capitalisme de surveillance. Nous avons maintes fois publié des traductions de ses diatribes.

Ce qui fait la particularité de ce nouvel article, c’est qu’au-delà de l’adieu à Twitter, il retrace les étapes de son cheminement.

Sa trajectoire est mouvementée, depuis l’époque où il croyait (« quel idiot j’étais ») qu’il suffisait d’améliorer le système. Il revient donc également sur ses années de lutte contre les plateformes prédatrices et les startups .

Il explique quelle nouvelle voie constructive il a adoptée ces derniers temps, jusqu’à la conviction qu’il faut d’urgence « construire l’infrastructure technologique alternative qui sera possédée et contrôlée par des individus, pas par des entreprises ou des gouvernements ». Dans cette perspective, le Fediverse a un rôle important à jouer selon lui.

Article original : Hell Site

Traduction Framalang : Aliénor, Fabrice, goofy, Susy, Wisi_eu

Le site de l’enfer

par Aral Balkan

Sur le Fédiverse, ils ont un terme pour Twitter.
Ils l’appellent « le site de l’enfer ».
C’est très approprié.

Lorsque je m’y suis inscrit, il y a environ 15 ans, vers fin 2006, c’était un espace très différent. Un espace modeste, pas géré par des algorithmes, où on pouvait mener des discussions de groupe avec ses amis.
Ce que je ne savais pas à l’époque, c’est que Twitter, Inc. était une start-up financée avec du capital risque.
Même si j’avais su, ça n’aurait rien changé, vu que je n’avais aucune idée sur le financement ou les modèles commerciaux. Je pensais que tout le monde dans la tech essayait simplement de fabriquer les nouvelles choses du quotidien pour améliorer la vie des gens.

Même six ans après, en 2012, j’en étais encore à me concentrer sur l’amélioration de l’expérience des utilisateurs avec le système actuel :

« Les objets ont de la valeur non par ce qu’ils sont, mais par ce qu’ils nous permettent de faire. Et, en tant que personnes qui fabriquons des objets, nous avons une lourde responsabilité. La responsabilité de ne pas tenir pour acquis le temps limité dont chacun d’entre nous dispose en ce monde. La responsabilité de rendre ce temps aussi beau, aussi confortable, aussi indolore, aussi exaltant et aussi agréable que possible à travers les expériences que nous créons.
Parce que c’est tout ce qui compte.
Et il ne tient qu’à nous de le rendre meilleur. »
– C’est tout ce qui compte.

C’est tout ce qui compte.

Quel idiot j’étais, pas vrai ?
Vous pouvez prendre autant de temps que nécessaire pour me montrer du doigt et ricaner.
Ok, c’est fait ? Continuons…

Privilège est simplement un autre mot pour dire qu’on s’en fiche

À cette époque, je tenais pour acquis que le système en général est globalement bon. Ou du moins je ne pensais pas qu’il était activement mauvais 36.
Bien sûr, j’étais dans les rues à Londres, avec des centaines de milliers de personnes manifestant contre la guerre imminente en Irak. Et bien sûr, j’avais conscience que nous vivions dans une société inégale, injuste, raciste, sexiste et classiste (j’ai étudié la théorie critique des médias pendant quatre ans, du coup j’avais du Chomsky qui me sortait de partout), mais je pensais, je ne sais comment, que la tech existait en dehors de cette sphère. Enfin, s’il m’arrivait de penser tout court.

Ce qui veut clairement dire que les choses n’allaient pas assez mal pour m’affecter personnellement à un point où je ressentais le besoin de me renseigner à ce sujet. Et ça, tu sais, c’est ce qu’on appelle privilège.
Il est vrai que ça me faisait bizarre quand l’une de ces start-ups faisait quelque chose qui n’était pas dans notre intérêt. Mais ils nous ont dit qu’ils avaient fait une erreur et se sont excusés alors nous les avons crus. Pendant un certain temps. Jusqu’à ce que ça devienne impossible.

Et, vous savez quoi, j’étais juste en train de faire des « trucs cools » qui « améliorent la vie des gens », d’abord en Flash puis pour l’IPhone et l’IPad…
Mais je vais trop vite.
Retournons au moment où j’étais complètement ignorant des modèles commerciaux et du capital risque. Hum, si ça se trouve, vous en êtes à ce point-là aujourd’hui. Il n’y a pas de honte à avoir. Alors écoutez bien, voici le problème avec le capital risque.

Ce qui se passe dans le Capital Risque reste dans le Capital Risque

Le capital risque est un jeu de roulette dont les enjeux sont importants, et la Silicon Valley en est le casino.
Un capital risqueur va investir, disons, 5 millions de dollars dans dix start-ups tout en sachant pertinemment que neuf d’entre elles vont échouer. Ce dont a besoin ce monsieur (c’est presque toujours un « monsieur »), c’est que celle qui reste soit une licorne qui vaudra des milliards. Et il (c’est presque toujours il) n’investit pas son propre argent non plus. Il investit l’argent des autres. Et ces personnes veulent récupérer 5 à 10 fois plus d’argent, parce que ce jeu de roulette est très risqué.

Alors, comment une start-up devient-elle une licorne ? Eh bien, il y a un modèle commercial testé sur le terrain qui est connu pour fonctionner : l’exploitation des personnes.

Voici comment ça fonctionne:

1. Rendez les gens accros

Offrez votre service gratuitement à vos « utilisateurs » et essayez de rendre dépendants à votre produit le plus de gens possible.
Pourquoi?
Parce qu’il vous faut croître de manière exponentielle pour obtenir l’effet de réseau, et vous avez besoin de l’effet de réseau pour enfermer les gens que vous avez attirés au début.
Bon dieu, des gens très importants ont même écrit des guides pratiques très vendus sur cette étape, comme Hooked : comment créer un produit ou un service qui ancre des habitudes.
Voilà comment la Silicon Valley pense à vous.

2. Exploitez-les

Collectez autant de données personnelles que possible sur les gens.
Pistez-les sur votre application, sur toute la toile et même dans l’espace physique, pour créer des profils détaillés de leurs comportements. Utilisez cet aperçu intime de leurs vies pour essayer de les comprendre, de les prédire et de les manipuler.
Monétisez tout ça auprès de vos clients réels, qui vous paient pour ce service.
C’est ce que certains appellent le Big Data, et que d’autres appellent le capitalisme de surveillance.

3. Quittez la scène (vendez)

Une start-up est une affaire temporaire, dont le but du jeu est de se vendre à une start-up en meilleure santé ou à une entreprise existante de la Big Tech, ou au public par le biais d’une introduction en Bourse.
Si vous êtes arrivé jusque-là, félicitations. Vous pourriez fort bien devenir le prochain crétin milliardaire et philanthrope en Bitcoin de la Silicon Valley.
De nombreuses start-ups échouent à la première étape, mais tant que le capital risque a sa précieuse licorne, ils sont contents.

Des conneries (partie 1)

Je ne savais donc pas que le fait de disposer de capital risque signifiait que Twitter devait connaître une croissance exponentielle et devenir une licorne d’un milliard de dollars. Je n’avais pas non plus saisi que ceux d’entre nous qui l’utilisaient – et contribuaient à son amélioration à ce stade précoce – étaient en fin de compte responsables de son succès. Nous avons été trompés. Du moins, je l’ai été et je suis sûr que je ne suis pas le seul à ressentir cela.

Tout cela pour dire que Twitter était bien destiné à devenir le Twitter qu’il est aujourd’hui dès son premier « investissement providentiel » au tout début.
C’est ainsi que se déroule le jeu du capital risque et des licornes dans la Silicon Valley. Voilà ce que c’est. Et c’est tout ce à quoi j’ai consacré mes huit dernières années : sensibiliser, protéger les gens et construire des alternatives à ce modèle.

Voici quelques enregistrements de mes conférences datant de cette période, vous pouvez regarder :

Dans le cadre de la partie « sensibilisation », j’essayais également d’utiliser des plateformes comme Twitter et Facebook à contre-courant.
Comme je l’ai écrit dans Spyware vs Spyware en 2014 : « Nous devons utiliser les systèmes existants pour promouvoir nos alternatives, si nos alternatives peuvent exister tout court. » Même pour l’époque, c’était plutôt optimiste, mais une différence cruciale était que Twitter, au moins, n’avait pas de timeline algorithmique.

Les timelines algorithmiques (ou l’enfumage 2.0)

Qu’est-ce qu’une timeline algorithmique ? Essayons de l’expliquer.
Ce que vous pensez qu’il se passe lorsque vous tweetez: « j’ai 44 000 personnes qui me suivent. Quand j’écris quelque chose, 44 000 personnes vont le voir ».
Ce qui se passe vraiment lorsque vous tweetez : votre tweet pourrait atteindre zéro, quinze, quelques centaines, ou quelques milliers de personnes.

Et ça dépend de quoi?
Dieu seul le sait, putain.
(Ou, plus exactement, seul Twitter, Inc. le sait.)

Donc, une timeline algorithmique est une boîte noire qui filtre la réalité et décide de qui voit quoi et quand, sur la base d’un lot de critères complètement arbitraires déterminés par l’entreprise à laquelle elle appartient.
En d’autres termes, une timeline algorithmique est simplement un euphémisme pour parler d’un enfumage de masse socialement acceptable. C’est de l’enfumage 2.0.

L’algorithme est un trouduc

La nature de l’algorithme reflète la nature de l’entreprise qui en est propriétaire et l’a créé.

Étant donné que les entreprises sont sociopathes par nature, il n’est pas surprenant que leurs algorithmes le soient aussi. En bref, les algorithmes d’exploiteurs de personnes comme Twitter et Facebook sont des connards qui remuent la merde et prennent plaisir à provoquer autant de conflits et de controverses que possible.
Hé, qu’attendiez-vous exactement d’un milliardaire qui a pour bio #Bitcoin et d’un autre qui qualifie les personnes qui utilisent sont utilisées par son service de « pauvres cons » ?
Ces salauds se délectent à vous montrer des choses dont ils savent qu’elles vont vous énerver dans l’espoir que vous riposterez. Ils se délectent des retombées qui en résultent. Pourquoi ? Parce que plus il y a d’« engagement » sur la plateforme – plus il y a de clics, plus leurs accros («utilisateurs») y passent du temps – plus leurs sociétés gagnent de l’argent.

Eh bien, ça suffit, merci bien.

Des conneries (partie 2)

Certes je considère important de sensibiliser les gens aux méfaits des grandes entreprises technologiques, et j’ai probablement dit et écrit tout ce qu’il y a à dire sur le sujet au cours des huit dernières années. Rien qu’au cours de cette période, j’ai donné plus d’une centaine de conférences, sans parler des interviews dans la presse écrite, à la radio et à la télévision.
Voici quelques liens vers une poignée d’articles que j’ai écrits sur le sujet au cours de cette période :

Est-ce que ça a servi à quelque chose ?
Je ne sais pas.
J’espère que oui.
J’ai également interpellé d’innombrables personnes chez les capitalistes de la surveillance comme Google et Facebook sur Twitter et – avant mon départ il y a quelques années – sur Facebook, et ailleurs. (Quelqu’un se souvient-il de la fois où j’ai réussi à faire en sorte que Samuel L. Jackson interpelle Eric Schmidt sur le fait que Google exploite les e-mails des gens?) C’était marrant. Mais je m’égare…
Est-ce que tout cela a servi à quelque chose ?
Je ne sais pas.
J’espère que oui.
Mais voici ce que je sais :
Est-ce que dénoncer les gens me rend malheureux ? Oui.
Est-ce que c’est bien ? Non.
Est-ce que j’aime les conflits ? Non.
Alors, trop c’est trop.
Les gens viennent parfois me voir pour me remercier de « parler franchement ». Eh bien, ce « parler franchement » a un prix très élevé. Alors peut-être que certaines de ces personnes peuvent reprendre là où je me suis arrêté. Ou pas. Dans tous les cas, j’en ai fini avec ça.

Dans ta face

Une chose qu’il faut comprendre du capitalisme de surveillance, c’est qu’il s’agit du courant dominant. C’est le modèle dominant. Toutes les grandes entreprises technologiques et les startups en font partie37. Et être exposé à leurs dernières conneries et aux messages hypocrites de personnes qui s’y affilient fièrement tout en prétendant œuvrer pour la justice sociale n’est bon pour la santé mentale de personne.

C’est comme vivre dans une ferme industrielle appartenant à des loups où les partisans les plus bruyants du système sont les poulets qui ont été embauchés comme chefs de ligne.

J’ai passé les huit dernières années, au moins, à répondre à ce genre de choses et à essayer de montrer que la Big Tech et le capitalisme de surveillance ne peuvent pas être réformés.
Et cela me rend malheureux.
J’en ai donc fini de le faire sur des plates-formes dotées d’algorithmes de connards qui s’amusent à m’infliger autant de misère que possible dans l’espoir de m’énerver parce que cela «fait monter les chiffres».

Va te faire foutre, Twitter !
J’en ai fini avec tes conneries.

"fuck twitter" par mowl.eu, licence CC BY-NC-ND 2.0
« fuck twitter » par mowl.eu, licence CC BY-NC-ND 2.0

Et après ?

À bien des égards, cette décision a été prise il y a longtemps. J’ai créé mon propre espace sur le fediverse en utilisant Mastodon il y a plusieurs années et je l’utilise depuis. Si vous n’avez jamais entendu parler du fediverse, imaginez-le de la manière suivante :
Imaginez que vous (ou votre groupe d’amis) possédez votre propre copie de twitter.com. Mais au lieu de twitter.com, le vôtre se trouve sur votre-place.org. Et à la place de Jack Dorsey, c’est vous qui fixez les règles.

Vous n’êtes pas non plus limité à parler aux gens sur votre-place.org.

Je possède également mon propre espace sur mon-espace.org (disons que je suis @moi@mon-espace.org). Je peux te suivre @toi@ton-espace.org et aussi bien @eux@leur.site et @quelquun-dautre@un-autre.espace. Ça marche parce que nous parlons tous un langage commun appelé ActivityPub.
Donc imaginez un monde où il y a des milliers de twitter.com qui peuvent tous communiquer les uns avec les autres et Jack n’a rien à foutre là-dedans.

Eh bien, c’est ça, le Fediverse.
Et si Mastodon n’est qu’un moyen parmi d’autres d’avoir son propre espace dans le Fediverse, joinmastodon.org est un bon endroit pour commencer à se renseigner sur le sujet et mettre pied à l’étrier de façon simple sans avoir besoin de connaissances techniques. Comme je l’ai déjà dit, je suis sur le Fediverse depuis les débuts de Mastodon et j’y copiais déjà manuellement les posts sur Twitter.
Maintenant j’ai automatisé le processus via moa.party et, pour aller de l’avant, je ne vais plus me connecter sur Twitter ou y répondre38.
Vu que mes posts sur Mastodon sont maintenant automatiquement transférés là-bas, vous pouvez toujours l’utiliser pour me suivre, si vous en avez envie. Mais pourquoi ne pas utiliser cette occasion de rejoindre le Fediverse et vous amuser ?

Small is beautiful

Si je pense toujours qu’avoir des bonnes critiques de la Big Tech est essentiel pour peser pour une régulation efficace, je ne sais pas si une régulation efficace est même possible étant donné le niveau de corruption institutionnelle que nous connaissons aujourd’hui (lobbies, politique des chaises musicales, partenariats public-privé, captation de réglementation, etc.)
Ce que je sais, c’est que l’antidote à la Big Tech est la Small Tech.

Nous devons construire l’infrastructure technologique alternative qui sera possédée et contrôlée par des individus, pas par des entreprises ou des gouvernements. C’est un prérequis pour un futur qui respecte la personne humaine, les droits humains, la démocratie et la justice sociale.

Dans le cas contraire, nous serons confrontés à des lendemains sombres où notre seul recours sera de supplier un roi quelconque, de la Silicon Valley ou autre, « s’il vous plaît monseigneur, soyez gentil ».

Je sais aussi que travailler à la construction de telles alternatives me rend heureux alors que désespérer sur l’état du monde ne fait que me rendre profondément malheureux. Je sais que c’est un privilège d’avoir les compétences et l’expérience que j’ai, et que cela me permet de travailler sur de tels projets. Et je compte bien les mettre à contribution du mieux possible.
Pour aller de l’avant, je prévois de concentrer autant que possible de mon temps et de mon énergie à la construction d’un Small Web.

Si vous avez envie d’en parler (ou d’autre chose), vous pouvez me trouver sur le Fediverse.
Vous pouvez aussi discuter avec moi pendant mes live streams S’update et pendant nos live streams Small is beautiful avec Laura.

Des jours meilleurs nous attendent…

Prenez soin de vous.

Portez-vous bien.

Aimez-vous les uns les autres.