Prophètes et technologistes à l’ère de la suspicion généralisée

Aujourd’hui, Framatophe développe son analyse sur l’impasse technologique des solutions de pistage d’une population, et sur l’opportunité pour les gouvernements d’implanter une acceptation de la surveillance généralisée dans notre culture.

Accéder aux articles déjà publiés dans notre dossier StopCovid

L’accès à l’ensemble de nos articles « framaconfinement » : https://framablog.org/category/framasoft/framaconfinement/

 

Ha ! Le sacro-saint « révélateur ». À écouter et lire les médias, la pandémie Covid-19 que nous traversons aujourd’hui est censée « révéler » quelque chose, un message, un état d’esprit, l’avènement d’une prophétie. Et on voit proliférer les experts toutologues, devins des temps modernes, avatars des prédicateurs de l’An Mille, les charlatans de fin du monde. Loin des révélations, notre membre de la célèbre #teamchauve de Framasoft nous partage quelques réflexions autour des discours ambiants au sujet de la surveillance.

Les prophètes

Faire une révélation, nous dit le dictionnaire, c’est porter à la connaissance quelque chose qui était auparavant caché, inconnu. Et le pas est vite franchi : pour nos prêtres médiatiques, il est très commode de parler de révélation parce que si le divin à travers eux manifeste ce qu’eux seuls peuvent dévoiler au public (eux seuls connaissent les voies divines), il leur reste le pouvoir de décider soit de ce qui était auparavant caché et doit être dévoilé, soit de ce qui était caché et n’est pas censé être dévoilé. Bref, on refait l’histoire au fil des événements présents : la sous-dotation financière des hôpitaux et les logiques de coupes budgétaires au nom de la rigueur ? voilà ce que révèle le Covid-19, enfin la vérité éclate ! Comment, tout le monde le savait ? Impossible, car nous avions tous bien affirmé que la rigueur budgétaire était nécessaire à la compétitivité du pays et maintenant il faut se tourner vers l’avenir avec ce nouveau paramètre selon lequel la rigueur doit prendre en compte le risque pandémique. Et là le prêtre devient le prophète de jours meilleurs ou de l’apocalypse qui vient.

Pourquoi je raconte tout cela ? Je travaille dans un CHU, les politiques de santé publiques me sont quotidiennes ainsi que la manière dont elles sont décidées et appliquées. Mais vous le savez, ce n’est pas le sujet de mes études. Je m’intéresse à la surveillance. Et encore, d’un point de vue historique et un peu philosophique, pour faire large. Je m’intéresse au capitalisme de surveillance et j’essaie de trouver les concepts qui permettent de le penser, si possible au regard de notre rapport à l’économie et au politique.

C. Masutti, Affaires privées. Aux sources du capitalisme de surveillance, C&F éditions, mars 2020.

J’ai appris très tôt à me méfier des discours à tendance technologiste, et cela me vient surtout de ma formation initiale en philosophie, vous savez ce genre de sujet de dissertation où l’on planche sur le rapport technologie / politique / morale. Et à propos, sans pour autant faire de la philo, je ne saurais que conseiller d’aller lire le livre de Fred Turner qui, déjà en 2006 (la traduction est tardive), grattait assez profondément le vernis de la cyberculture californienne. Mais au fil des années de mon implication dans le logiciel libre et la culture libre, j’ai développé une autre sorte de sensibilité : lorsque les libertés numériques sont brandies par trop de prophètes d’un coup, c’est qu’il faut aller chercher encore ailleurs le discours qui nous est servi.

Pour exemple de l’effet rhétorique de la révélation, on peut lire cet article du géographe Boris Beaude, paru le 07 avril 2020 dans Libération, intitulé « Avec votre consentement ». L’auteur passe un long moment à faire remarquer au lecteur à quel point nous sommes vendus corps et âmes aux GAFAM et que la pandémie ne fait que révéler notre vulnérabilité :

Lorsque nous acceptons que de telles entreprises collectent les moindres détails de nos existences pour le compte de leurs clients et que nous doutons conjointement des régimes politiques qui nous gouvernent, nous réalisons que les effets de la propagation du Sars-Cov-2 ne sont qu’un révélateur de l’ampleur de notre vulnérabilité.

Il est important de comprendre la logique de ce discours : d’un côté on pose un diagnostic que seul un sage est capable de révéler et de l’autre on élève la pandémie et ses effet délétères au rang des sept plaies d’Égypte, qui sert de porte à une nouvelle perception des choses, en l’occurrence notre vulnérabilité face aux pratiques d’invasion de la vie privée par les GAFAM, et par extension, les pratiques des États qui se dotent des moyens technologiques pour surveiller et contrôler la population. Évidemment, entre la population assujettie et l’État-GAFAM, il y a la posture du prophète, par définition enviable puisqu’il fait partie d’une poignée d’élus livrant un testament aux pauvres pêcheurs que nous sommes. Reste plus qu’à ouvrir la Mer Rouge…

Arrêtons là si vous le voulez bien la comparaison avec la religion. Je l’affirme : non la crise COVID-19 ne révèle rien à propos du capitalisme de surveillance. Elle ne révèle rien en soi et encore moins à travers les prophètes auto-proclamés. Et la première des raisons est que ces derniers arrivent bien tard dans une bataille qui les dépasse.

Pendant la crise sanitaire que nous traversons il ne faut pas se demander ce qu’elle peut révéler mais interroger les discours qui se servent de cette crise pour justifier et mettre en œuvre des pratiques de surveillance et limiter encore davantage nos libertés. Penser les choses en termes de révélation n’a pour autre effet que de limiter toujours plus notre pouvoir d’action : que peut-on à l’encontre d’une révélation ?

D’ailleurs, c’est le moment où jamais de vous intéresser, de partager et de soutenir le travail de nos ami·es de La Quadrature du Net.

Les amis de la Quadrature du Net (comme beaucoup d’autres, heureusement) préfèrent une approche bien plus structurée. Ils affirment par exemple dans un récent communiqué que, au regard de la surveillance, la crise sanitaire Covid-19 est un évènement dont l’ampleur sert d’argument pour une stratégie de surveillance de masse, au même titre que les attentats terroristes. Ceci n’est pas une révélation, ni même une mise en garde. C’est l’exposé des faits, ni plus ni moins. Tout comme dire que notre ministre de l’intérieur C. Castaner a d’abord affirmé que l’État Français n’avait pas pour intention de copier la Corée du Sud et la Chine en matière de traçage de téléphones portables, avant de revenir sur ses propos et affirmer que les services gouvernementaux planchent sur une application censée tracer les chaînes de transmission. Qui s’est offusqué de ce mensonge d’État ? C’est devenu tellement banal. Pire, une telle application permettrait d’informer les utilisateurs s’ils ont « été dans les jours précédents en contact avec quelqu’un identifié positif au SARS-CoV-2 », comme l’affirment les deux ministres Castaner et Véran dans un entretien au Monde. C’est parfait comme technique de surveillance : la Stasi pratiquait déjà ce genre de chose en organisant une surveillance de masse basée sur la suspicion au quotidien.

Le smartphone n’est qu’un support moderne pour de vieilles recettes. Le Covid-19 est devenu un prétexte, tout comme les attentats terroristes, pour adopter ou faire adopter une représentation d’un État puissant (ce qu’il n’est pas) et faire accepter un État autoritaire (ce qu’il est). Cette représentation passe par un solutionnisme technologique, celui prôné par la doctrine de la « start-up nation » chère à notre président Macron, c’est-à-dire chercher à traduire l’absence d’alternative politique, et donc l’immobilisme politique (celui de la rigueur budgétaire prôné depuis 2008 et même avant) en automatisant la décision et la sanction grâce à l’adoption de recettes technologiques dont l’efficacité réside dans le discours et non dans les faits.

Techno-flop

Le solutionnisme technologique, ainsi que le fait remarquer E. Morozov, est une idéologie qui justifie des pratiques de surveillance et d’immenses gains. Non seulement ces pratiques ne réussissent presque jamais à réaliser ce pourquoi elles sont prétendues servir, mais elles sont le support d’une économie d’État qui non seulement dévoie les technologies afin de maîtriser les alternatives sociales, voire la contestation, mais entre aussi dans le jeu financier qui limite volontairement l’appropriation sociale des technologies. Ainsi, par exemple, l’illectronisme des enfants et de leurs enseignants livrés à une Éducation Nationale numériquement sous-dotée, est le fruit d’une volonté politique. Comment pourrait-il en être autrement ? Afin d’assurer la « continuité pédagogique » imposée par leur ministre, les enseignants n’ont eu d’autres choix que de se jeter littéralement sur des services privateurs. Cette débandade est le produit mécanique d’une politique de limitation volontaire de toute initiative libriste au sein de l’Éducation Nationale et qui serait menée par des enseignants pour des enseignants. Car de telles initiatives remettraient immanquablement en question la structure hiérarchique de diffusion et de valorisation des connaissances. Un tel gouvernement ne saurait supporter quelque forme de subsidiarité que ce soit.

La centralisation de la décision et donc de l’information… et donc des procédés de surveillance est un rêve de technocrates et ce rêve est bien vieux. Déjà il fut décrié dès les années 1970 en France (voir la première partie de mon livre, Affaires Privées) où la « dérive française » en matière de « grands fichiers informatisés » fut largement critiquée pour son inefficacité coûteuse. Qu’importe, puisque l’important n’est pas de faire mais de montrer qu’on fait. Ainsi l’application pour smartphone Stop Covid (ou n’importe quel nom qu’on pourra lui donner) peut d’ores et déjà figurer au rang des grands flops informatiques pour ce qui concerne son efficacité dans les objectifs annoncés. Il suffit de lire pour cela le récent cahier blanc de l’ACLU (Union Américaine pour les libertés civiles), une institution fondée en 1920 et qu’on ne saurait taxer de repère de dangereux gauchistes.

Clique sur l’image pour soutenir le travail d’Allan Barte sur son tipeee.

Dans ce livre blanc tout est dit, ou presque sur les attentes d’une application de tracing dont l’objectif, tel qu’il est annoncé par nos ministres (et tel qu’il est mentionné par les pays qui ont déjà mis en œuvre de telles applications comme la Chine ou Israël), serait de déterminer si telle personne a été exposée au virus en fréquentant une autre personne définie comme contagieuse. C’est simple :

  1. Il faut avoir un smartphone avec soi et cette application en fonction : cela paraît basique, mais d’une part tout le monde n’a pas de smartphone, et d’autre part tout le monde n’est pas censé l’avoir sur soi en permanence, surtout si on se contente de se rendre au bureau de tabac ou chez le boulanger…
  2. aucune technologie n’est à ce jour assez fiable pour le faire. Il est impossible de déterminer précisément (c’est-à-dire à moins de deux mètres) si deux personnes sont assez proches pour se contaminer que ce soit avec les données de localisation des tours de téléphonie (triangulation), le GPS (5 à 20 mètres) ou les données Wifi (même croisées avec GPS on n’a guère que les informations sur la localisation de l’émetteur Wifi). Même avec le bluetooth (technologie plébiscitée par le gouvernement Français aux dernières nouvelles) on voit mal comment on pourrait assurer un suivi complet. Ce qui est visé c’est en fait le signalement mutuel. Cependant, insister sur le bluetooth n’est pas innocent. Améliorer le tracing dans cette voie implique un changement dans nos relations sociales : nous ne sommes plus des individus mais des machines qui s’approchent ou s’éloignent mutuellement en fonction d’un système d’alerte et d’un historique. Qui pourra avoir accès à cet historique ? Pourra-t-on être condamné plus tard pour avoir contaminé d’autres personnes ? Nos assurances santé autoriseront-elles la prise en charge des soins s’il est démontré que nous avons fréquenté un groupe à risque ? Un projet européen existe déjà (PEPP-PT), impliquant entre autres l’INRIA, et il serait important de surveiller de très près ce qui sera fait dans ce projet (idem pour ce projet de l’École Polytechnique de Lausanne).
  3. Ajoutons les contraintes environnementales : vous saluez une personne depuis le second étage de votre immeuble et les données de localisation ne prennent pas forcément en compte l’altitude, vous longez un mur, une vitrine, une plaque de plexiglas…

Bref l’UCLA montre aimablement que la tentation solutionniste fait perdre tout bon sens et rappelle un principe simple :

Des projets ambitieux d’enregistrement et d’analyse automatisés de la vie humaine existent partout de nos jours, mais de ces efforts, peu sont fiables car la vie humaine est désordonnée, complexe et pleine d’anomalies.

Les auteurs du rapport écrivent aussi :

Un système de suivi de localisation dans le temps peut être suffisamment précis pour placer une personne à proximité d’une banque, d’un bar, d’une mosquée, d’une clinique ou de tout autre lieu sensible à la protection de la vie privée. Mais le fait est que les bases de données de localisation commerciales sont compilées à des fins publicitaires et autres et ne sont tout simplement pas assez précises pour déterminer de manière fiable qui était en contact étroit avec qui.

En somme tout cela n’est pas sans rappeler un ouvrage dont je conseille la lecture attentive, celui de Cathy O’Neil, Algorithmes: la bombe à retardement (2018). Cet ouvrage montre à quel point la croyance en la toute puissance des algorithmes et autres traitements automatisés d’informations dans le cadre de processus décisionnels et de politiques publiques est la porte ouverte à tous les biais (racisme, inégalités, tri social, etc.). Il n’en faudrait pas beaucoup plus si l’on se souvient des débuts de la crise Covid-19 et la suspicion dans nos rues où les personnes présentant des caractères asiatiques étaient stigmatisées, insultées, voire violentées…

Ajoutons à cela les effets d’annonce des GAFAM et des fournisseurs d’accès (Orange, SFR…) qui communiquaient il y a peu, les uns après les autres, au sujet de la mise à disposition de leurs données de localisation auprès des gouvernements. Une manière de justifier leur utilité sociale. Aucun d’entre eux n’a de données de localisations sur l’ensemble de leurs utilisateurs. Et heureusement. En réalité, les GAFAM tout comme les entreprises moins connues de courtage de données (comme Acxiom), paient pour cela. Elles paient des entreprises, souvent douteuses, pour créer des applications qui implémentent un pompage systématique de données. L’ensemble de ces pratiques crée des jeux de données vendues, traitées, passées à la moulinette. Et si quiconque souhaite obtenir des données fiables permettant de tracer effectivement une proportion acceptable de la population, il lui faut accéder à ces jeux… et c’est une denrée farouchement protégée par leurs détenteurs puisque c’est un gagne-pain.

De la méthode

À l’heure où les efforts devraient se concentrer essentiellement sur les moyens médicaux, les analyses biologiques, les techniques éprouvées en santé publique en épidémiologie (ce qui est fait, heureusement), nous voilà en train de gloser sur la couleur de l’abri à vélo. C’est parce que le solutionnisme est une idéologie confortable qui permet d’évacuer la complexité au profit d’une vision du monde simpliste et inefficace pour laquelle on imagine des technologies extrêmement complexes pour résoudre « les grands problèmes ». Ce n’est pas une révélation, simplement le symptôme de l’impuissance à décider correctement. Surtout cela fait oublier l’impréparation des décideurs, les stratégies budgétaires néfastes, pour livrer une mythologie technologiste à grand renfort de communication officielle.

Et l’arme ultime sera le sondage. Déjà victorieux, nos ministères brandissent une enquête d’opinion du département d’économie de l’Université d’Oxford, menée dans plusieurs pays et qui montre pour la France comme pour les autres pays, une large acceptation quant à l’installation d’une application permettant le tracing, que cette installation soit volontaire ou qu’elle soit imposée[màj. : lisez cette note]. Est-ce étonnant ? Oui, effectivement, alors même que nous traversons une évidente crise de confiance envers le gouvernement, la population est prête à jouer le jeu dangereux d’une surveillance intrusive dont tout laisse supposer que cette surveillance se perpétuera dans le temps, virus ou pas virus. Mais cela ne signifie pas pour autant que la confiance envers les dirigeants soit rétablie. En effet le même sondage signale que les retombées politiques en cas d’imposition d’un tel système sont incertaines. Pour autant, c’est aussi un signal envoyé aux politiques qui vont alors se lancer dans une quête frénétique du consentement, quitte à exagérer l’assentiment pressenti lors de cette enquête. C’est déjà en cours.

Le choix n’équivaut pas à la liberté. Les personnes qui formulent les questions influencent les réponses.

À mon avis, il faut rapprocher le résultat de cette enquête d’une autre enquête récente portant le plébiscite de l’autoritarisme en France. C’est une enquête du CEVIPOF parue en mars 2020 qui montre « l’emprise du libéralisme autoritaire en France », c’est-à-dire que le manque de confiance dans l’efficacité du gouvernement ne cherche pas son remède dans une éventuelle augmentation des initiatives démocratiques, voire alternativistes, mais dans le refuge vers des valeurs de droite et d’extrême droite sacrifiant la démocratie à l’efficacité. Et ce qui est intéressant, c’est que ceux qui se vantaient d’apporter plus de société civile à la République sont aussi ceux qui sont prêts à dévoyer la démocratie. Mais qu’on y prenne garde, ce n’est pas vraiment une affaire de classe sociale, puisque cette orientation autoritaire est aussi valable dans les tranches basses et moyennes. On rejoint un peu les propos d’Emmanuel Todd dans la première partie de son ouvrage Les Luttes de classes en France au XXIe siècle, données sérieuses à l’appui (y compris celles de l’Insee).

Alors quoi ? les Français sont-ils définitivement des veaux heureux d’aller à l’abattoir ? Honnêtement, parfois on peut le penser. Mais pas là. Non. L’enquête d’opinion d’Oxford a été menée dans un climat général extrêmement angoissant, et inédit. Pour retrouver un tel degré de panique dans la population, il faudrait par exemple se souvenir de la crise des missiles cubains et de la manière dont elle a été mise en scène dans les médias américains. Même l’épisode Tchernobyl en France n’a pas eu cet impact (ok, on a largement minimisé le problème). Et là dedans, avec un gouvernement à la fois empêtré et sidéré (avec la chargée de comm’ S. Ndiaye alignant ad nauseam sottises et âneries), on fait un sondage dont les tenants et aboutissants techniques sont loin d’être évidents et qui pose la question : êtes-vous prêt à installer une application de tracing sur votre mobile qui permettrait de lutter contre l’épidémie ? Sérieux, on attend quoi comme réponse ? Sur plusieurs pays qui ont connu les mêmes valses-hésitations politiques, le fait que les réponses soient à peu près les mêmes devrait mettre la puce à l’oreille, non ? Bien sûr, allez demandez ce qu’elles pensent de la vidéosurveillance à des personnes qui se sont fait agresser dans la rue, pensez-vous que nous aurions les mêmes réponses si le panel était plus large ? Ce que je veux dire, c’est que le panel des 1.000 personnes interrogées en pleine crise sanitaire n’est représentatif que de la population touchée par la crise sanitaire, c’est-à-dire un panel absolument homogène. Évidemment que les tendances politiques ne viennent donc qu’en second plan et ne jouent qu’un rôle négligeable dans les réponses données.

Je ne suis pas statisticien, je ne peux donner mon sentiment qu’avec mes mots à moi. Mais, n’est-ce pas, nous sommes déjà habitués au techniques d’extorsion (fabrique ?) de consentement. À celui-ci s’ajoute une certaine pauvreté dans la manière d’appréhender cette fuite en avant vers la surveillance. Avec l’expression « Big Brother », on a l’impression d’avoir tout dit. Mais c’est faux. On ne passe pas si facilement d’un libéralisme autoritaire à une dystopie orwellienne, il y a des étapes, et à chaque étape nous prenons une direction. Scander « Big Brother » (comme la récente Une de l’Obs le 02 avril 2020 « Big Brother peut-il nous sauver ? »), c’est un peu comme si on cherchait à donner une théorie sans d’abord la démontrer. « Big Brother » impose une grille de lecture des événements tout en prédisant déjà la fin. Ce n’est pas une bonne méthode.

Y-a-t’il une bonne méthode ? Étudier la surveillance, c’est d’abord faire appel à un ensemble de concepts que l’on met à l’épreuve. Il faut signaler sur ce point l’excellent édito de Martin French et Torin Monahan dans le dernier numéro de la revue canadienne Surveillance & Society, intitulé « Dis-ease Surveillance: How Might Surveillance Studies Address COVID-19? ». C’est tout un programme de recherche qui est développé ici, à titre prospectif. La première chose que s’empressent de signaler les auteurs, c’est que surveiller le Covid-19, ce n’est pas surveiller la population. Ce sont deux choses bien différentes que les politiques feraient mieux de ne pas perdre de vue. Surveiller le Covid-19 c’est faire de l’épidémiologie, et identifier des cas (suspects, déclarés, etc.). Et là où on peut s’interroger, c’est sur la complexité des situations qu’une approche scientifique réduit à des éléments plus simples et pertinents. Si, pour les besoins d’une étude, il faut faire un tri social, il importe de savoir ce que l’étude révélera finalement : y-a-t’il plus de patients Covid-19 dans les couches pauvres de la population ? Comment l’information sur la surveillance circule et est reçue par les populations ? Et plus généralement qu’est-ce que la surveillance des populations en situation de pandémie, quelles sont les contraintes éthiques, comment les respecter ?

Ensuite vient tout un ensemble de concepts et notions qu’il faut interroger au regard des comportements, des groupes de pression, des classes sociales et tous autres facteurs sociaux. Par exemple la vigilance : est-elle encouragée au risque de la délation, est-elle définie par les autorités comme une vigilance face à la maladie et donc une forme d’auto-surveillance ? Il en est de même au sujet de l’anticipation, la stigmatisation, la marginalisation, la prévention, la victimisation, l’exclusion, la confiance, autant d’idées qui permettent de définir ce qu’est la surveillance en situation de pandémie.

Puis vient la question des conséquences de la surveillance en situation de pandémie. Là on peut se référer à la littérature existante à propos d’autres pandémies. Je ne résiste pas à citer les auteurs :

L’écologie informationnelle contemporaine se caractérise par une forme de postmodernisme populiste où la confiance dans les institutions est érodée, ne laissant aucun mécanisme convenu pour statuer sur les demandes de vérité. Dans un tel espace, la peur et la xénophobie remplissent facilement le vide laissé par l’autorité institutionnelle. En attendant, si les gens ont perdu confiance dans l’autorité institutionnelle, cela ne les protégera pas de la colère des institutions si l’on pense qu’ils ont négligemment contribué à la propagation de COVID-19. Déjà, des poursuites pénales sont en cours contre la secte chrétienne qui a contribué à l’épidémie en Corée du Sud, et les autorités canadiennes affirment qu’elles n’excluent pas des sanctions pénales pour « propagation délibérée de COVID-19 ». Comme nous l’avons vu en ce qui concerne le VIH, la réponse de la justice pénale a connu un regain d’intérêt au cours de la dernière décennie, ce qui laisse entrevoir la montée d’une approche de plus en plus punitive des maladies infectieuses. Dans le cas du VIH, cette évolution s’est produite sans qu’il soit prouvé qu’une réponse de la justice pénale contribue à la prévention du VIH. À la lumière de ces développements, les chercheurs devraient s’attendre — et s’interroger sur les implications des flux de données sanitaires dans les systèmes de justice pénale.

Effectivement, dans un monde où le droit a perdu sa fonction anthropologique et où l’automatisation de la justice répond à l’automatisation de nos vies (leur gafamisation et leur réduction à des données numériques absconses) on peut se demander si l’autoritarisme libéral ne cherchera pas à passer justement par le droit, la sanction (la punition) pour affirmer son efficacité, c’est-à-dire se concentrer sur les effets au détriment de la cause. Qu’importe si l’application pour smartphone Covid-19 dit le vrai ou pas, elle ne saurait être remise en cause parce que, de manière statistique, elle donne une représentation de la réalité que l’on doit accepter comme fidèle. Ce serait sans doute l’une des plus grandes leçons de cette épidémie : la consécration du capitalisme de surveillance comme la seule voie possible. Cela, ce n’est pas une prophétie, ce n’est pas une révélation, c’est le modèle dans lequel nous vivons et contre lequel nous ne cessons de résister (même inconsciemment).


Crédit image d’en-tête : Le Triomphe de la Mort, Pieter Brueghel l’Ancien (1562) — Wikipédia.


  • Màj. 13/04/2020 — en fait on dit tracing.
  • Màj. 13/04/2020 — Un sondage réalisé à une semaine d’intervalle dément complètement les résultats de celui de l’université d’Oxford. Il a été réalisé sur la population française par l’IFOP suite à une demande de la Fondation Jean-Jaurès. Il apparaît qu’une majorité de français est en fait opposée à une application de type Stop-Covid. Voir Maxime des Gayets, « Tracking et Covid : extension du domaine de l’absurde », Fondation Jean-Jaurès, 12/04/2020 [retour]



D’autres technologies pour répondre à l’urgence de la personne ?

« Ce dont nous avons besoin, c’est le contraire de la Big Tech. Nous avons besoin de Small Tech – des outils de tous les jours conçus pour augmenter le bien-être humain, et non les profits des entreprises. »

Ce n’est pas une théorie complotiste : le profilage et la vente de données privées font, depuis des années, partie intégrante du modèle économique de la plupart des entreprises du numérique. Dans cet article traduit par Framalang, Aral Balkan (auquel nous faisons régulièrement écho) suggère qu’il est urgent de s’éloigner de ce modèle qui repose sur les résultats financiers pour gagner en indépendance et explique pourquoi c’est important pour chacun d’entre nous.

 

Article original : In 2020 and beyond, the battle to save personhood and democracy requires a radical overhaul of mainstream technology

Traduction Framalang : FranBAG, goofy, wisi_eu, gangsoleil, Khrys – Mise en forme :

En 2020 et au-delà, la bataille pour sauver l’identité individuelle et la démocratie exigera une révision radicale des technologies dominantes

par Aral Balkan

Un jeune garçon pilotant un canot sur un lac, durant les grands incendies australiens. Crédit photo: Allison Marion.

 

Alors que nous entrons dans une nouvelle décennie, l’humanité est confrontée à plusieurs urgences existentielles :

  1. L’urgence climatique1
  2. L’urgence démocratique
  3. L’urgence de la personne

Grâce à Greta Thunberg, nous parlons sans aucun doute de la première. La question de savoir si nous allons vraiment faire quelque chose à ce sujet, bien sûr, fait l’objet d’un débat.2

De même, grâce à la montée de l’extrême droite dans le monde entier sous la forme de (entre autres) Trump aux États-Unis, Johnson au Royaume-Uni, Bolsonaro au Brésil, Orban en Hongrie et Erdoğan en Turquie, nous parlons également de la seconde, y compris du rôle de la propagande (ou « infox ») et des médias sociaux dans sa propagation.

Celle sur laquelle nous sommes les plus désemparé·e·s et partagé·e·s, c’est la troisième, même si toutes les autres en découlent et en sont les symptômes. C’est l’urgence sans nom. Enfin, jusqu’à présent.

L’urgence de la personne

On ne peut pas comprendre « l’urgence de la personne » sans comprendre le rôle que la technologie de réseau et numérique grand public joue dans sa perpétuation.

Votre télé ne vous regardait pas, YouTube si.

La technologie traditionnelle – non numérique, pas en réseau – était un moyen de diffusion à sens unique. C’est la seule chose qu’un livre imprimé sur la presse Gutenberg et votre téléviseur analogique avaient en commun.

Autrefois, quand vous lisiez un journal, le journal ne vous lisait pas aussi. Lorsque vous regardiez la télévision, votre téléviseur ne vous regardait pas aussi (à moins que vous n’ayez spécifiquement permis à une société de mesure d’audience, comme Nielsen, d’attacher un audimètre à votre téléviseur).

Aujourd’hui, lorsque vous lisez le journal The Guardian en ligne, The Guardian – et plus de deux douzaines d’autres parties tierces, y compris la Nielsen susmentionnée – vous lit également. Quand vous regardez YouTube, YouTube vous regarde aussi.

Il ne s’agit pas d’une théorie de la conspiration farfelue, mais simplement du modèle d’affaires de la technologie actuelle. J’appelle ce modèle d’affaires « l’élevage d’êtres humains ». C’est une partie du système socio-économique, dont nous faisons partie, que Shoshana Zuboff appelle le capitalisme de surveillance.3

Et pis encore : Alphabet Inc, qui possède Google et YouTube, ne se contente pas de vous observer lorsque vous utilisez un de leurs services, mais vous suit également sur le Web lorsque vous allez de site en site. À lui seul, Google a les yeux sur 70 à 80 % du Web.
Mais ils ne s’arrêtent pas là non plus. Les exploitants d’êtres humains achètent également des données auprès de courtiers en données, partagent ces données avec d’autres exploitants et savent même quand vous utilisez votre carte de crédit dans les magasins ayant pignon sur rue. Et ils combinent toutes ces informations pour créer des profils de vous-même, constamment analysés, mis à jour et améliorés.

Nous pouvons considérer ces profils comme des simulations de nous-mêmes. Ils contiennent des aspects de nous-mêmes. Ils peuvent être (et sont) utilisés comme des approximations de nous-mêmes. Ils contiennent des informations extrêmement sensibles et intimes sur nous. Mais nous ne les possédons pas, ce sont les exploitants qui les possèdent.

Il n’est pas exagéré de dire qu’au sein de ce système, nous ne sommes pas en pleine possession de nous-mêmes. Dans un tel système, où même nos pensées risquent d’être lues par des entreprises, notre identité et le concept même d’autodétermination sont mis en danger.

Nous sommes sur le point de régresser du statut d’être humain à celui de propriété, piratés par une porte dérobée numérique et en réseau, dont nous continuons à nier l’existence à nos risques et périls. Les conditions préalables à une société libre sont soumises à notre compréhension de cette réalité fondamentale.
Si nous nous prolongeons en utilisant la technologie, nous devons étendre le champ d’application légal des droits de l’homme pour inclure ce « Moi » prolongé.

Si nous ne pouvons définir correctement les limites d’une personne, comment pouvons-nous espérer protéger les personnes ou l’identité d’une personne à l’ère des réseaux numériques ?

Aujourd’hui, nous sommes des êtres fragmentés. Les limites de notre être ne s’arrêtent pas à nos frontières biologiques. Certains aspects de notre être vivent sur des morceaux de silicium qui peuvent se trouver à des milliers de kilomètres de nous.

Il est impératif que nous reconnaissions que les limites du moi à l’ère des réseaux numériques ont transcendé les limites biologiques de nos corps physiques et que cette nouvelle limite – le « Moi » prolongé ; la totalité fragmentée du moi – constitue notre nouvelle peau numérique et que son intégrité doit être protégée par les droits de l’homme.

Si nous ne faisons pas cela, nous sommes condamné·e·s à nous agiter à la surface du problème, en apportant ce qui n’est rien d’autre que des changements cosmétiques à un système qui évolue rapidement vers un nouveau type d’esclavage.

C’est l’urgence de la personne.

Un remaniement radical de la technologie grand public

Si nous voulons nous attaquer à l’urgence de la personne, il ne faudra rien de moins qu’un remaniement radical des technologies grand public.

Nous devons d’abord comprendre que si réglementer les exploitants d’humains et les capitalistes de la surveillance est important pour réduire leurs préjudices, cette réglementation constitue une lutte difficile contre la corruption institutionnelle et n’entraînera pas, par elle-même, l’émergence miraculeuse d’une infrastructure technologique radicalement différente. Et cette dernière est la seule chose qui puisse s’attaquer à l’urgence de l’identité humaine.

Imaginez un monde différent.

Faites-moi le plaisir d’imaginer ceci une seconde : disons que votre nom est Jane Smith et que je veux vous parler. Je vais sur jane.smith.net.eu et je demande à vous suivre. Qui suis-je ? Je suis aral.balkan.net.eu. Vous me permettez de vous suivre et nous commençons à discuter… en privé.

Imaginez encore que nous puissions créer des groupes – peut-être pour l’école où vont nos enfants ou pour notre quartier. Dans un tel système, nous possédons et contrôlons tou·te·s notre propre espace sur Internet. Nous pouvons faire toutes les choses que vous pouvez faire sur Facebook aujourd’hui, tout aussi facilement, mais sans Facebook au milieu pour nous surveiller et nous exploiter.

Ce dont nous avons besoin, c’est d’un système en pair à pair qui établisse une passerelle avec le réseau mondial existant.

Ce dont nous avons besoin, c’est le contraire de la « Big Tech » (industrie des technologies). Nous avons besoin de « Small Tech » (technologie à petite échelle) – des outils de tous les jours pour les gens ordinaires, conçus pour augmenter le bien-être humain, et non les profits des entreprises.

Étapes concrètes

À la Small Technology Foundation, Laura et moi avons déjà commencé à construire certains des éléments fondamentaux d’un pont possible entre le capitalisme de surveillance et un avenir radicalement démocratique, entre pairs. Et nous continuerons à travailler sur les autres composantes cette année et au-delà. Mais il y a des mesures pratiques que nous pouvons tou·te·s prendre pour aider à faire avancer les choses dans cette direction.

Voici quelques suggestions pratiques pour différents groupes :

Les gens ordinaires

1. Ne vous culpabilisez pas, vous êtes les victimes. Quand 99,99999 % de tous les investissements technologiques vont aux « exploitants d’humains », ne laissez personne vous dire que vous devriez vous sentir mal d’avoir été obligé·e·s d’utiliser leurs services par manque d’alternatives.

2. Cela dit, il existe des alternatives. Cherchez-les. Utilisez-les. Soutenez les gens qui les fabriquent.

3. Prenez conscience que ce problème existe. Appelez des responsables et défendez ceux qui le font. À tout le moins, n’écartez pas les préoccupations et les efforts de ceux et celles d’entre nous qui tentent de faire quelque chose à ce sujet.

Les développeurs

1. Cessez d’intégrer les dispositifs de surveillance d’entreprises comme Google et Facebook dans vos sites Web et vos applications. Cessez d’exposer les gens qui utilisent vos services au capitalisme de surveillance.

2. Commencez à rechercher d’autres moyens de financer et de construire des technologies qui ne suivent pas le modèle toxique de la Silicon Valley.

3. Laissez tomber la « croissance » comme mesure de votre succès. Construisez des outils que les individus possèdent et contrôlent, et non votre entreprise ou organisation. Créez des applications Web pour utilisateur unique (dont chaque personne sera l’unique propriétaire). Soutenez des plateformes libres (comme dans liberté) et décentralisées (sans nager dans les eaux troubles de la blockchain).

L’Union Européenne

1. Cessez d’investir dans les start-ups et d’agir comme un Département de recherche et développement officieux de la Silicon Valley et investissez plutôt dans les « stayups » (entreprises durables, PME ou micro-entreprises matures).

2. Créez un domaine de premier niveau (DPN) non commercial ouvert à tous, où chacun peut enregistrer un nom de domaine (avec un certificat Let’s Encrypt automatique) pour un coût nul avec un seul « appel API ».

3. Appuyez-vous sur l’étape précédente pour offrir à chaque citoyen·ne de l’Union Européenne, payé par l’argent du contribuable européen, un serveur privé virtuel de base, doté de ressources de base pour héberger un nœud actif 24h/24 dans un système pair-à-pair qui le détacherait des Google et des Facebook du monde entier et créerait de nouvelles possibilités pour les gens de communiquer en privé ainsi que d’exprimer leur volonté politique de manière décentralisée.

Et, généralement, il est alors temps pour chacun·e d’entre nous de choisir un camp.

Le camp que vous choisissez décidera si nous vivons en tant que personnes ou en tant que produits. Le côté que vous choisissez décidera si nous vivons dans une démocratie ou sous le capitalisme.

Démocratie ou capitalisme ? Choisissez.

Si, comme moi, vous avez grandi dans les années 80, vous avez probablement accepté sans réfléchir la maxime néolibérale selon laquelle la démocratie et le capitalisme vont de pair. C’est l’un des plus grands mensonges jamais propagés. La démocratie et le capitalisme sont diamétralement opposés.

Vous ne pouvez pas avoir une démocratie fonctionnelle et des milliardaires et des intérêts corporatifs de billions de dollars et la machinerie de désinformation et d’exploitation des Big Tech de la Silicon Valley. Ce que nous voyons, c’est le choc du capitalisme et de la démocratie, et le capitalisme est en train de gagner.

Avons-nous déjà passé ce tournant ? Je ne sais pas. Peut-être. Mais on ne peut pas penser comme ça.

Personnellement, je vais continuer à travailler pour apporter des changements là où je pense pouvoir être efficace : en créant une infrastructure technologique alternative pour soutenir les libertés individuelles et la démocratie.

L’humanité a déjà mis en place l’infrastructure du techno-fascisme. Nous avons déjà créé (et nous sommes toujours en train de créer) des éléments panoptiques. Tout ce que les fascistes ont à faire, c’est d’emménager et de prendre les commandes. Et ils le feront démocratiquement, avant de détruire la démocratie, tout comme Hitler l’a fait.

Et si vous pensez que «les années 30 et 40 c’était quelque chose», rappelez-vous que les outils les plus avancés pour amplifier les idéologies destructrices de l’époque étaient moins puissants que les ordinateurs que vous avez dans vos poches aujourd’hui. Aujourd’hui, nous avons le « Machine Learning » (Apprentissage machine) et sommes sur le point de débloquer l’informatique quantique.

Nous devons nous assurer que les années 2030 ne reproduisent pas les années 1930. Car nos systèmes centralisés avancés de saisie, de classification et de prévision des données, plus une centaine d’années d’augmentation exponentielle de la puissance de traitement (notez que je n’utilise pas le mot « progrès »), signifient que les années 2030 seront exponentiellement pires.

Qui que vous soyez, où que vous soyez, nous avons un ennemi commun : l’Internationale nationaliste. Les problèmes de notre temps dépassent les frontières nationales. Les solutions le doivent également. Les systèmes que nous construisons doivent être à la fois locaux et mondiaux. Le réseau que nous devons construire est un réseau de solidarité.

Nous avons créé le présent. Nous allons créer le futur. Travaillons ensemble pour faire en sorte que cet avenir soit celui dans lequel nous voulons vivre nous-mêmes.


Discours d’Aral Balkan au Parlement européen, fin 2019, lors de la rencontre sur l’avenir de la réglementation de l’Internet.  Merci à la Quadrature du Net et à sa chaîne PeerTube.

 





Nous sommes déjà des cyborgs mais nous pouvons reprendre le contrôle

Avec un certain sens de la formule, Aral Balkan allie la sévérité des critiques et l’audace des propositions. Selon lui nos corps « augmentés » depuis longtemps font de nous des sujets de la surveillance généralisée maintenant que nos vies sont sous l’emprise démultipliée du numérique.

Selon lui, il nous reste cependant des perspectives et des pistes pour retrouver la maîtrise de notre « soi », mais elles impliquent, comme on le devine bien, une remise en cause politique de nos rapports aux GAFAM, une tout autre stratégie d’incitation aux entreprises du numérique de la part de la Communauté européenne, le financement d’alternatives éthiques, etc.

Ce qui suit est la version française d’un article qu’a écrit Aral pour le numéro 32 du magazine de la Kulturstiftung des Bundes (Fondation pour la culture de la République fédérale d’Allemagne). Vous pouvez également lire la version allemande.

Article original en anglais : Slavery 2.0 and how to avoid it : a practical guide for cyborgs

Traduction Framalang : goofy, jums, Fifi, MO, FranBAG, Radical Mass

L’esclavage 2.0 et comment y échapper : guide pratique pour les cyborgs.

par Aral Balkan

Il est très probable que vous soyez un cyborg et que vous ne le sachiez même pas.

Vous avez un smartphone ?
Vous êtes un cyborg.
Vous utilisez un ordinateur ? Ou le Web ?
Cyborg !

En règle générale, si vous utilisez une technologie numérique et connectée aujourd’hui, vous êtes un cyborg. Pas besoin de vous faire greffer des microprocesseurs, ni de ressembler à Robocop. Vous êtes un cyborg parce qu’en utilisant des technologies vous augmentez vos capacités biologiques.

À la lecture de cette définition, vous pourriez marquer un temps d’arrêt : « Mais attendez, les êtres humains font ça depuis bien avant l’arrivée des technologies numériques ». Et vous auriez raison.

Nous étions des cyborgs bien avant que le premier bug ne vienne se glisser dans le premier tube électronique à vide du premier ordinateur central.

Galilée et sa lunette, tableau de Justus Sustermans, image via Wikimedia Commons (Public Domain]

L’homme des cavernes qui brandissait une lance et allumait un feu était le cyborg originel. Galilée contemplant les cieux avec son télescope était à la fois un homme de la Renaissance et un cyborg. Lorsque vous mettez vos lentilles de contact le matin, vous êtes un cyborg.

Tout au long de notre histoire en tant qu’espèce, la technologie a amélioré nos sens. Elle nous a permis une meilleure maîtrise et un meilleur contrôle sur nos propres vies et sur le monde qui nous entoure. Mais la technologie a tout autant été utilisée pour nous opprimer et nous exploiter, comme peut en témoigner quiconque a vu un jour de près le canon du fusil de l’oppresseur.

« La technologie », d’après la première loi de la technologie de Melvin Kranzberg, « n’est ni bonne ni mauvaise, mais elle n’est pas neutre non plus. »

Qu’est-ce qui détermine alors si la technologie améliore notre bien-être, les droits humains et la démocratie ou bien les dégrade ? Qu’est-ce qui distingue les bonnes technologies des mauvaises ? Et, tant qu’on y est, qu’est-ce qui différencie la lunette de Galilée et vos lentilles de contact Google et Facebook ? Et en quoi est-ce important de se considérer ou non comme des cyborgs ?

Nous devons tous essayer de bien appréhender les réponses à ces questions. Sinon, le prix à payer pourrait être très élevé. Il ne s’agit pas de simples questions technologiques. Il s’agit de questions cruciales sur ce que signifie être une personne à l’ère du numérique et des réseaux. La façon dont nous choisirons d’y répondre aura un impact fondamental sur notre bien-être, tant individuellement que collectivement. Les réponses que nous choisirons détermineront la nature de nos sociétés, et à long terme pourraient influencer la survie de notre espèce.

Propriété et maîtrise du « soi » à l’ère numérique et connectée

Imaginez : vous êtes dans un monde où on vous attribue dès la naissance un appareil qui vous observe, vous écoute et vous suit dès cet instant. Et qui peut aussi lire vos pensées.

Au fil des ans, cet appareil enregistre la moindre de vos réflexions, chaque mot, chaque mouvement et chaque échange. Il envoie toutes ces informations vous concernant à un puissant ordinateur central appartenant à une multinationale. À partir de là, les multiples facettes de votre personnalité sont collectionnées par des algorithmes pour créer un avatar numérique de votre personne. La multinationale utilise votre avatar comme substitut numérique pour manipuler votre comportement.

Votre avatar numérique a une valeur inestimable. C’est tout ce qui fait de vous qui vous êtes (à l’exception de votre corps de chair et d’os). La multinationale se rend compte qu’elle n’a pas besoin de disposer de votre corps pour vous posséder. Les esprits critiques appellent ce système l’Esclavage 2.0.

À longueur de journée, la multinationale fait subir des tests à votre avatar. Qu’est-ce que vous aimez ? Qu’est-ce qui vous rend heureux ? Ou triste ? Qu’est-ce qui vous fait peur ? Qui aimez-vous ? Qu’allez-vous faire cet après-midi ? Elle utilise les déductions de ces tests pour vous amener à faire ce qu’elle veut. Par exemple, acheter cette nouvelle robe ou alors voter pour telle personnalité politique.

La multinationale a une politique. Elle doit continuer à survivre, croître et prospérer. Elle ne peut pas être gênée par des lois. Elle doit influencer le débat politique. Heureusement, chacun des politiciens actuels a reçu le même appareil que vous à la naissance. Ainsi, la multinationale dispose aussi de leur avatar numérique, ce qui l’aide beaucoup à parvenir à ses fins.

Ceci étant dit, la multinationale n’est pas infaillible. Elle peut toujours faire des erreurs. Elle pourrait de façon erronée déduire, d’après vos pensées, paroles et actions, que vous êtes un terroriste alors que ce n’est pas le cas. Quand la multinationale tombe juste, votre avatar numérique est un outil d’une valeur incalculable pour influencer votre comportement. Et quand elle se plante, ça peut vous valoir la prison.
Dans les deux cas, c’est vous qui perdez !

Ça ressemble à de la science-fiction cyberpunk dystopique, non ?

Remplacez « multinationale » par « Silicon Valley ». Remplacez « puissant ordinateur central » par « cloud ». Remplacez « appareil » par « votre smartphone, l’assistant de votre smart home, votre smart city et votre smart ceci-cela, etc. ».

Bienvenue sur Terre, de nos jours ou à peu près.

Le capitalisme de surveillance

Nous vivons dans un monde où une poignée de multinationales ont un accès illimité et continu aux détails les plus intimes de nos vies. Leurs appareils, qui nous observent, nous écoutent et nous pistent, que nous portons sur nous, dans nos maisons, sur le Web et (de plus en plus) sur nos trottoirs et dans nos rues. Ce ne sont pas des outils dont nous sommes maîtres. Ce sont les yeux et les oreilles d’un système socio-techno-économique que Shoshana Zuboff appelle « le capitalisme de surveillance ».

Tout comme dans notre fiction cyberpunk dystopique, les barons voleurs de la Silicon Valley ne se contentent pas de regarder et d’écouter. Par exemple, Facebook a annoncé à sa conférence de développeurs en 2017 qu’ils avaient attelé 60 ingénieurs à littéralement lire dans votre esprit4.

J’ai demandé plus haut ce qui sépare la lunette de Galilée de vos lentilles de contact produites par Facebook, Google ou d’autres capitalistes de surveillance. Comprendre la réponse à cette question est crucial pour saisir à quel point le concept même de personnalité est menacé par le capitalisme de surveillance.

Lorsque Galilée utilisait son télescope, lui seul voyait ce qu’il voyait et lui seul savait ce qu’il regardait. Il en va de même lorsque vous portez vos lentilles de contact. Si Galilée avait acheté son télescope chez Facebook, Facebook Inc. aurait enregistré tout ce qu’il voyait. De manière analogue, si vous allez achetez vos lentilles de contact chez Google, des caméras y seront intégrées et Alphabet Inc. verra tout ce que vous voyez. (Google ne fabrique pas encore de telles lentilles, mais a déposé un brevet5 pour les protéger. En attendant, si vous êtes impatient, Snapchat fait des lunettes à caméras intégrées.)

Lorsque vous rédigez votre journal intime au crayon, ni le crayon ni votre journal ne savent ce que vous avez écrit. Lorsque vous écrivez vos réflexions dans des Google Docs, Google en connaît chaque mot.

Quand vous envoyez une lettre à un ami par courrier postal, la Poste ne sait pas ce que vous avez écrit. C’est un délit pour un tiers d’ouvrir votre enveloppe. Quand vous postez un message instantané sur Facebook Messenger, Facebook en connaît chaque mot.

Si vous vous identifiez sur Google Play avec votre smartphone Android, chacun de vos mouvements et de vos échanges sera méticuleusement répertorié, envoyé à Google, enregistré pour toujours, analysé et utilisé contre vous au tribunal du capitalisme de surveillance.

On avait l’habitude de lire les journaux. Aujourd’hui, ce sont eux qui nous lisent. Quand vous regardez YouTube, YouTube vous regarde aussi.

Vous voyez l’idée.

À moins que nous (en tant qu’individus) n’ayons notre technologie sous contrôle, alors « smart » n’est qu’un euphémisme pour « surveillance ». Un smartphone est un mouchard, une maison intelligente est une salle d’interrogatoire et une ville intelligente est un dispositif panoptique.

Google, Facebook et les autres capitalistes de surveillance sont des fermes industrielles pour êtres humains. Ils gagnent des milliards en vous mettant en batterie pour vous faire pondre des données et exploitent cette connaissance de votre intimité pour vous manipuler votre comportement.

Ce sont des scanners d’être humains. Ils ont pour vocation de vous numériser, de conserver cette copie numérique et de l’utiliser comme avatar pour gagner encore plus en taille et en puissance.

Nous devons comprendre que ces multinationales ne sont pas des anomalies. Elles sont la norme. Elles sont le courant dominant. Le courant dominant de la technologie aujourd’hui est un débordement toxique du capitalisme américain de connivence qui menace d’engloutir toute la planète. Nous ne sommes pas vraiment à l’abri de ses retombées ici en Europe.

Nos politiciens se laissent facilement envoûter par les millions dépensés par ces multinationales pour abreuver les lobbies de Bruxelles. Ils sont charmés par la sagesse de la Singularity University (qui n’est pas une université). Et pendant ce temps-là, nos écoles entassent des Chromebooks pour nos enfants. On baisse nos taxes, pour ne pas handicaper indûment les capitalistes de surveillance, au cas où ils voudraient se commander une autre Guinness. Et les penseurs de nos politiques, institutionnellement corrompus, sont trop occupés à organiser des conférences sur la protection des données – dont les allocutions sont rédigées par Google et Facebook – pour protéger nos intérêts. Je le sais car j’ai participé à l’une d’elles l’an passé. L’orateur de Facebook quittait tout juste son boulot à la CNIL, la commission française chargée de la protection des données, réputée pour la beauté et l’efficacité de ses chaises musicales.

Il faut que ça change.

Je suis de plus en plus convaincu que si un changement doit venir, il viendra de l’Europe.

La Silicon Valley ne va pas résoudre le problème qu’elle a créé. Principalement parce que des entreprises comme Google ou Facebook ne voient pas leurs milliards de bénéfices comme un problème. Le capitalisme de surveillance n’est pas déstabilisé par ses propres critères de succès. Ça va comme sur des roulettes pour les entreprises comme Google et Facebook. Elles se marrent bien en allant à la banque, riant au visage des législateurs, dont les amendes cocasses excèdent à peine un jour ou deux de leur revenu. D’aucuns diraient que « passible d’amende » signifie « légal pour les riches ». C’est peu de le dire lorsqu’il s’agit de réglementer des multinationales qui brassent des milliers de milliards de dollars.

De manière analogue, le capital-risque ne va pas investir dans des solutions qui mettraient à mal le business immensément lucratif qu’il a contribué à financer.

Alors quand vous voyez passer des projets comme le soi-disant Center for Humane Technology, avec des investisseurs-risques et des ex-employés de Google aux commandes, posez-vous quelques questions. Et gardez-en quelques-unes pour les organisations qui prétendent créer des alternatives éthiques alors qu’elles sont financées par les acteurs du capitalisme de surveillance. Mozilla, par exemple, accepte chaque année des centaines de millions de dollars de Google6. Au total, elle les a délestés de plus d’un milliard de dollars. Vous êtes content de lui confier la réalisation d’alternatives éthiques ?

Si nous voulons tracer une autre voie en Europe, il faut financer et bâtir notre technologie autrement. Ayons le courage de nous éloigner de nos amis d’outre-Atlantique. Ayons l’aplomb de dire à la Silicon Valley et à ses lobbyistes que nous n’achetons pas ce qu’ils vendent.

Et nous devons asseoir tout ceci sur de solides fondations légales en matière de droits de l’homme. J’ai dit « droits de l’homme » ? Je voulais dire droits des cyborgs.

Les droits des cyborgs sont des droits de l’homme

La crise juridique des droits de l’homme que nous rencontrons nous ramène au fond à ce que nous appelons « humain ».

Traditionnellement, on trace les limites de la personne humaine à nos frontières biologiques. En outre, notre système légal et judiciaire tend à protéger l’intégrité de ces frontières et, par là, la dignité de la personne. Nous appelons ce système le droit international des droits de l’Homme.

Malheureusement, la définition de la personne n’est plus adaptée pour nous protéger complètement à l’ère du numérique et des réseaux.

Dans cette nouvelle ère, nous étendons nos capacités biologiques par des technologies numériques et en réseau. Nous prolongeons nos intellects et nos personnes par la technologie moderne. C’est pour ça que nous devons étendre notre concept des limites de la personne jusqu’à inclure les technologies qui nous prolongent. En étendant la définition de la personne, on s’assure que les droits de l’homme couvrent et donc protègent la personne dans son ensemble à l’ère du numérique et des réseaux.

« Cyborg-gal-avi » par Pandora Popstar/Lainy Voom, licence CC BY-NC-SA 2.0

En tant que cyborgs, nous sommes des êtres fragmentaires. Des parties de nous vivent dans nos téléphones, d’autres quelque part sur un serveur, d’autres dans un PC portable. C’est la somme totale de tous ces fragments qui compose l’intégralité de la personne à l’ère du numérique et des réseaux.

Les droits des cyborgs sont donc les droits de l’homme tels qu’appliqués à la personne cybernétique. Ce dont nous n’avons pas besoin, c’est d’un ensemble de « droits numériques » – probablement revus à la baisse. C’est pourquoi, la Déclaration universelle des droits cybernétiques n’est pas un document autonome, mais un addendum à la Déclaration universelle des droits de l’Homme.

La protection constitutionnelle des droits cybernétiques étant un but à long terme, il ne faut pas attendre un changement constitutionnel pour agir. Nous pouvons et devons commencer à nous protéger en créant des alternatives éthiques aux technologies grand public.

Pour des technologies éthiques

Une technologie éthique est un outil que vous possédez et que vous contrôlez. C’est un outil conçu pour vous rendre la vie plus facile et plus clémente. C’est un outil qui renforce vos capacités et améliore votre vie. C’est un outil qui agit dans votre intérêt – et jamais à votre détriment.

Une technologie non éthique est au contraire un outil aux mains de multinationales et de gouvernements. Elle sert leurs intérêts aux dépens des vôtres. C’est un miroir aux alouettes conçu pour capter votre attention, vous rendre dépendant, pister chacun de vos mouvements et vous profiler. C’est une ferme industrielle déguisée en parc récréatif.

La technologie non éthique est nuisible pour les êtres humains, le bien-être et la démocratie.

Semer de meilleures graines

La technologie éthique ne pousse pas sur des arbres, il faut la financer. La façon de la financer a de l’importance.
La technologie non éthique est financée par le capital risque. Le capital risque n’investit pas dans une entreprise, il investit dans la vente de l’entreprise. Il investit aussi dans des affaires très risquées. Un investisseur risque de la Silicon Valley va investir, disons, 5 millions de dollars dans 10 start-ups différentes, en sachant que 9 d’entre elles vont capoter. Alors il (c’est habituellement un « lui/il ») a besoin que la 10e soit une licorne à un milliard de dollars pour que ça lui rapporte 5 à 10 fois l’argent investi (Ce n’est même pas son argent, mais celui de ses clients.). Le seul modèle d’affaires que nous connaissions dans les nouvelles technologies qui atteigne une croissance pareille est la mise en batterie des gens. L’esclavage a bien payé.
L’esclavage 2.0 paie bien aussi.

Pas étonnant qu’un système qui attache autant de valeur à un mode de croissance de type prolifération cancéreuse ait engendré des tumeurs telles que Google et Facebook. Ce qui est stupéfiant, c’est que nous semblions célébrer ces tumeurs au lieu de soigner le patient. Et plus déconcertant encore, nous nous montrons obstinément déterminés à nous inoculer la même maladie ici en Europe.

Changeons de direction.

Finançons des alternatives éthiques

À partir des biens communs

Pour le bien commun.

Oui, cela signifie avec nos impôts. C’est en quelque sorte ce pour quoi ils existent (pour mettre en place des infrastructures partagées et destinées au bien commun qui font progresser le bien-être de nos populations et nos sociétés). Si le mot « impôt » vous effraie ou sonne trop vieux jeu, remplacez-le simplement par « financement participatif obligatoire » ou « philanthropie démocratisée ».

Financer une technologie éthique à partir des biens communs ne signifie pas que nous laissions aux gouvernements le pouvoir de concevoir, posséder ou contrôler nos technologies. Pas plus que de nationaliser des entreprises comme Google et Facebook. Démantelons-les ! Bien sûr. Régulons-les ! Évidemment. Mettons en œuvre absolument tout ce qui est susceptible de limiter autant que possible leurs abus.

Ne remplaçons pas un Big Brother par un autre.

À l’inverse, investissons dans de nombreuses et petites organisations, indépendantes et sans but lucratif, et chargeons-les de concevoir les alternatives éthiques. Dans le même temps, mettons-les en compétition les unes avec les autres. Prenons ce que nous savons qui fonctionne dans la Silicon Valley (de petites organisations travaillant de manière itérative, entrant en compétition, et qui échouent rapidement) et retirons ce qui y est toxique : le capital risque, la croissance exponentielle, et les sorties de capitaux.

À la place des startups, lançons des entreprises durables, des stayups en Europe.

À la place de sociétés qui n’ont comme possibilités que d’échouer vite ou devenir des tumeurs malignes, finançons des organisations qui ne pourront qu’échouer vite ou devenir des fournisseurs durables de bien social.

Lorsque j’ai fait part de ce projet au Parlement européen, il y a plusieurs années, celui-ci a fait la sourde oreille. Il n’est pas encore trop tard pour s’y mettre. Mais à chaque fois que nous repoussons l’échéance, le capitalisme de surveillance s’enchevêtre plus profondément encore dans le tissu de nos vies.

Nous devons surmonter ce manque d’imagination et fonder notre infrastructure technologique sur les meilleurs principes que l’humanité ait établis : les droits de l’homme, la justice sociale et la démocratie.

Aujourd’hui, l’UE se comporte comme un département de recherche et développement bénévole pour la Silicon Valley. Nous finançons des startups qui, si elles sont performantes, seront vendues à des sociétés de la Silicon Valley. Si elles échouent, le contribuable européen réglera la note. C’est de la folie.

La Communauté Européenne doit mettre fin au financement des startups et au contraire investir dans les stayups. Qu’elle investisse 5 millions d’euros dans dix entreprises durables pour chaque secteur où nous voulons des alternatives éthiques. À la différence des startups, lorsque les entreprises durables sont performantes, elles ne nous échappent pas. Elles ne peuvent être achetées par Google ou Facebook. Elles restent des entités non lucratives, soutenables, européennes, œuvrant à produire de la technologie en tant que bien social.

En outre, le financement d’une entreprise durable doit être soumis à une spécification stricte sur la nature de la technologie qu’elle va concevoir. Les biens produits grâce aux financements publics doivent être des biens publics. La Free Software Foundation Europe sensibilise actuellement l’opinion sur ces problématiques à travers sa campagne « argent public, code public ». Cependant, nous devons aller au-delà de  l’open source pour stipuler que la technologie créée par des entreprises durables doit être non seulement dans le domaine public, mais également qu’elle ne peut en être retirée. Dans le cas des logiciels et du matériel, cela signifie l’utilisation de licences copyleft. Une licence copyleft implique que si vous créez à partir d’une technologie publique, vous avez l’obligation de la partager à l’identique. Les licences share-alike, de partage à l’identique, sont essentielles pour que nos efforts ne soient pas récupérés pour enjoliver la privatisation et pour éviter une tragédie des communs. Des corporations aux poches sans fond ne devraient jamais avoir la possibilité de prendre ce que nous créons avec des deniers publics, habiller tout ça de quelques millions d’investissement et ne plus partager le résultat amélioré.

En fin de compte, il faut préciser que les technologies produites par des entreprises stayups sont des technologies pair-à-pair. Vos données doivent rester sur des appareils que vous possédez et contrôlez. Et lorsque vous communiquez, vous devez le faire en direct (sans intervention d’un « homme du milieu », comme Google ou Facebook). Là où ce n’est techniquement pas possible, toute donnée privée sous le contrôle d’une tierce partie (par exemple un hébergeur web) doit être chiffrée de bout à bout et vous seul devriez en détenir la clé d’accès.

Même sans le moindre investissement significatif dans la technologie éthique, de petits groupes travaillent déjà à des alternatives. Mastodon, une alternative à Twitter fédérée et éthique, a été créée par une seule personne d’à peine vingt ans. Quelques personnes ont collaboré pour créer un projet du nom de Dat qui pourrait être la base d’un web décentralisé. Depuis plus de dix ans, des bénévoles font tourner un système de nom de domaine alternatif non commercial appelé OpenNIC7 qui pourrait permettre à chacun d’avoir sa propre place sur le Web…

Si ces graines germent sans la moindre assistance, imaginez ce qui serait à notre portée si on commençait réellement à les arroser et à en planter de nouvelles. En investissant dans des stayups, nous pouvons entamer un virage fondamental vers la technologie éthique en Europe.

Nous pouvons construire un pont de là où nous sommes vers là où nous voulons aller.

D’un monde où les multinationales nous possèdent par procuration à un monde où nous n’appartenons qu’à nous-mêmes.

D’un monde où nous finissons toujours par être la propriété d’autrui à un monde où nous demeurons des personnes en tant que telles.

Du capitalisme de surveillance à la pairocratie.




Elle veut casser les GAFAM… vraiment ?

Le rejet des GAFAM fait son chemin y compris dans leur fief, aux U.S.A, pourrait-on se réjouir en constatant par exemple que Google est mis à nu (article en anglais) par le Comité judiciaire du Sénat des États-Unis.

Il est même question à la fin de cet article de protéger par des lois et d’encadrer plus strictement les usages numériques des mineurs. Quelque chose serait-il en train de changer au pays de la libre-entreprise ?

On pourrait de même se réjouir de voir Elizabeth Warren, une candidate démocrate à la présidence et farouche opposante de Trump, publier un appel récent au titre ravageur et programmatique : « Voici comment nous pouvons briser les Big tech ».

Cependant, comme va l’exposer de façon documentée Christophe Masutti ci-dessous, il y a loin de la critique des GAFAM qu’elle articule à la remise en question du système libéral qui pourrait en être la conséquence logique…

 

Casser les GAFAM… et recommencer

par Christophe Masutti

Dans les années 1970, l’économiste américaine Susan Strange théorisait l’économie politique des États-Unis relativement aux intérêts de marché. Elle démontrait dans ses travaux comment la stabilité économique des États-Unis ne dépendait pas du seul pilier des intérêts territoriaux assurés par leur puissance militaro-financière.

Les jeux se jouaient à la fois sur les marchés intérieurs et extérieurs : conditions d’accès aux marchés, production de produits financiers, investissements et firmes multinationales. Elle identifiait plusieurs couches structurelles sur lesquelles devait reposer toute velléité impérialiste, c’est-à-dire la construction de plusieurs types d’hégémonies. La plupart d’entre elles dépendaient à la fois de grandes entreprises et de l’organisation des créneaux économiques que le pouvoir politique américain était capable de dessiner (imposer) sur le globe.

Aujourd’hui, nous connaissons bien évidemment nombre de ces structures et en particulier les structures de la connaissance, celles qui reposent pour l’essentiel sur les technologies de l’information et de la communication et qui sont maîtrisées en grande partie, voire en totalité, par des firmes américaines. Pour ce qui concerne Internet : Google-Alphabet, Amazon, AT&T, Microsoft, etc. (du côté chinois, le même jeu est en train de se dérouler et il importe de ne pas le perdre de vue).

Les processus qui ont permis l’émergence de ces firmes hégémoniques ne se résument pas uniquement aux pratiques de ces dernières. Leur manque d’éthique, l’organisation savante du vol de nos données personnelles, les implications de cette industrie de la data sur nos libertés d’expression, nos vies privées et la démocratie, ne sont pas la recette unique de leur position dominatrice.

On pourrait éternellement disserter sur ces pratiques, démontrer à quel point elles sont néfastes. Il n’en demeure pas moins que si la situation est telle, c’est parce que des stratégies structurelles sont à l’œuvre. Il s’agit de plusieurs pouvoirs : l’état de guerre permanent orchestré par les États-Unis depuis la fin de la Guerre du Vietnam, la transformation ultra-technologique de l’économie financière, les contraintes de marché imposées aux peuples (et pas seulement ceux des pays défavorisés) par des accords iniques, et enfin les technologies de l’information (depuis au moins l’histoire naissante des communications câblées, et à travers tout le XXe siècle). Ces éléments constituent ce que le sociologue et économiste John B. Foster et l’historien des médias Robert W. McChesney appellent le capitalisme de surveillance1, c’est à dire le résultat de ces stratégies hégémoniques et dont la puissance de surveillance (et donc de contrôle) est assurée par les GAFAM (mais pas seulement).

Il reste néanmoins un point crucial : la question des monopoles. Lorsqu’une économie a tendance à se retrouver sclérosée par quelques monopoles qui assurent à eux seuls de multiples secteurs d’activité (rappelons la multiplicité des activités de Google-Alphabet), et couvrent une grande part des capitaux financiers disponibles au détriment de la dynamique économique2, le problème de ces monopoles… c’est que l’économie politique à l’œuvre commence à se voir un peu trop bien.

Quels que soient les partis au pouvoir aux États-Unis, c’est cette politique qui a toujours primé. L’effet de ce conditionnement se fait sentir y compris chez les plus audacieux intellectuels. Les plus prompts à critiquer les pratiques sournoises des GAFAM le feront toujours au nom des libertés des individus, au nom de la vie privée, au nom du droit, mais très peu d’entre eux finissent par reconnaître que, finalement, c’est une critique du capitalisme qu’il faut faire. Y compris, et surtout, une critique des principes politiques qui encouragent les stratégies hégémoniques.

Lorsque le capitalisme et le libéralisme sont considérés comme les seuls systèmes capables de sauvegarder la démocratie, on en vient à des poncifs. Il me revient par exemple ce refrain stupide du milieu des années 1990, où l’on répétait à l’envi que là où McDonald s’installait, la paix s’installait. La démocratie a peu à peu été réduite à la somme des libertés que chacun peut exercer dans un marché capitaliste, c’est-à-dire un marché où les biens finissent toujours par être détenus par quelques-uns, détenteurs de fait du pouvoir politique.

Cette difficulté à penser la démocratie autrement qu’à travers le prisme libéral, est parfaitement illustrée par le récent ouvrage de Shoshana Zuboff3. Cette dernière démontre avec brio comment les stratégies des Gafam et consorts se révèlent être un hold-up sur nos vies et donc sur la démocratie. Elle décortique de manière méthodique la manière dont ces pratiques modifient nos comportements, modèlent le marché et nous privent de notre autonomie. Comprendre aussi : notre autonomie en tant qu’agents économiques, nos libertés de choix et de positionnement qui font le lit d’une certaine conception d’un marché redistributif fondé sur la concurrence et l’échange. En somme les monopoles cassent ce marché, brisent le contrat social (celui d’Adam Smith plus que celui de Rousseau) et brisent aussi l’équilibre libéral sur lequel est censé reposer un capitalisme qui dure, celui fondé sur la propriété privée, etc.

Peu importent finalement les solutions alternatives, y compris libérales, que l’on puisse opposer à ces modèles : si S. Zuboff ne parvient pas à aller au bout de sa démonstration4, c’est qu’elle ne critique que les mécanismes économiques et techniques du capitalisme de surveillance et se refuse à admettre qu’il s’agit d’une économie politique dont il faudrait analyser les principes et les remplacer.

Toutes ces considérations pourraient en rester au stade du débat d’idées. Ce n’est pas le cas. Les conceptions politiques qui ont permis justement l’émergence des monopoles américains du Web et leur hégémonie semblent avoir la peau bien plus dure qu’on ne le pensait. Cela alors même que leurs effets sur les libertés sont pointés du doigt. Tout se passe comme si la seule cause à défendre n’était qu’un credo libéral et pas n’importe lequel.

La candidate du parti démocrate , résolument opposée à D. Trump pour les prochaines élections présidentielles de 2020, publiait récemment par l’intermédiaire de son équipe sur la plateforme Medium.com un article au titre apparemment incisif : « Here’s how we can break up Big Tech« 5 (« Voici comment nous pouvons briser les Big tech »). La guerre au capitalisme de surveillance est-elle officiellement déclarée aux plus hauts niveaux des partis politiques ? Cette ancienne conseillère de B. Obama, dont les positions publiques et acerbes à l’encontre des requins de la finance mondiale lui ont valu une certaine renommée, a-t-elle trouvé le moyen de lutter contre les inégalités sociales et financières que créent les modèles économiques des Big Tech ?

En fait, non. Son texte est l’illustration des principes énoncés ci-dessus même si le constat a le mérite d’être lucide :

Les grandes entreprises technologiques d’aujourd’hui ont trop de pouvoir – trop de pouvoir sur notre économie, notre société et notre démocratie. Elles ont écrasé la concurrence, utilisé nos renseignements personnels à des fins lucratives et faussé les règles du jeu contre tout le monde. Ce faisant, elles ont nui aux petites entreprises et étouffé l’innovation.

À lire Elizabeth Warren, les outils de régulation économique se résument en fait à l’organisation d’un espace concurrentiel libre et non faussé. Son argumentation est intéressante : si les grands monopoles en sont arrivés là, c’est parce, profitant d’un manque de régulation, ils ont roulé les consommateurs. Ces derniers seraient les dindons de la farce, et se retrouvent après tant d’années les instruments involontaires du pouvoir des GAFAM.

Elizabeth Warren, qui semble trop agressive au milliardaire Warren Buffet, veut-elle vraiment en finir avec les GAFAM ? Photo Edward Kimmel (CC BY-SA 2.0)

 

La posture d’E. Warren est alors très confortable : elle réfute d’emblée l’idée que l’apparition de ces monopoles est le fruit d’une politique hégémonique (celle qui favorisait justement l’apparition de monopoles américains à l’échelle du globe) menée tant par les démocrates que par les conservateurs. Au contraire : c’est sur les individus uniquement, et à leur détriment, que se seraient bâti ces monopoles. Dès lors c’est en libérateur que le parti démocrate pourra intervenir, avec E. Warren à sa tête, pour défaire les liens des individus et leur rendre leur vie privée, leurs droits et, carrément, une vraie démocratie.

Cela dit, comme nous l’avons vu, cette démocratie ne s’exerce que dans un certain cadre, celui d’une concurrence maîtrisée et juste. Pour E. Warren, il est alors temps de « démanteler Amazon, Facebook et Google », d’une part en durcissant les règles anti-trust (en souvenir d’un âge d’or de la régulation contre les conglomérats) et, d’autre part, en distinguant l’utilitaire des plate-formes (les conditions techniques d’accès, les structures) et les services aux utilisateurs. Les entreprises qui posséderaient l’utilitaire (par exemple un fournisseur d’accès Internet) seraient alors réputées accomplir un service public (qui, au besoin, pourrait très bien être régulé à coup de subventions) et ne pourraient pas posséder les deux faces du modèle économique. Inversement, les entreprises qui assurent des services ne pourraient pas « coincer » les utilisateurs sur leur système.

Il y a deux conclusions que l’on tire de cette proposition de E. Warren. La première, c’est qu’il est désormais acté que les entreprises de la Tech sont à même d’accomplir du service d’intérêt public : loin d’être nationalisées, au contraire, de nombreuses solutions pourront toujours être externalisées par les États en toute confiance (tout comme Kaa hypnotise le jeune Mowgli) puisque, en théorie, cela ne risquera plus de créer de distorsion de concurrence. L’autre conclusion est que ces nouvelles dispositions n’interviennent évidemment que sur le territoire des États-Unis : on joue là encore sur la régulation des multinationales sur le marché intérieur et dont les effets se feront sentir sur le marché extérieur. Ici il s’agit de multiplier les acteurs, créer des « petits » Gafam qui auront alors l’avantage de se présenter auprès de l’Europe comme des acteurs économiques si différents et à chaque fois pleinement compatibles avec les lois européennes ressenties comme protectionnistes. Il restera cependant que les technologies, elles, demeureront des émanations de l’American tech. Certes l’innovation sera moins bridée par les monopoles actuels, mais ces mini-gafam continueront d’assurer l’hégémonie tout en s’inscrivant de manière moins frontale sur les marchés mondiaux face à (ou avec) d’autres géants chinois.

Oui, parfois les libertés individuelles ont bon dos. On peut construire toutes sortes d’argumentations sur cette base, y compris celle qui consiste à rebattre les cartes et recommencer… Si vous voulez vous aussi jouer ce jeu de dupes, signez la pétition de la Team Warren.


  1. John Bellamy Foster et Robert W. McChesney, « Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age », Monthly Review, 07/2014, vol. 66.
  2. Par exemple, on peut comparer aux États-Unis le nombre de salariés employés par les firmes multinationales de la Silicon Valley, pour des sommets de capitaux financiers jamais atteins jusqu’à présent et le nombre de salariés que l’industrie automobile (plutôt nationale) employait jusqu’à un passé récent. Le résultat n’est n’est pas tant de pointer que les Big tech emploient moins de monde (et il y a tout de même une multitude de sous-traitants) mais qu’en réalité l’organisation de cette économie crée des inégalités salariales radicales où les plus qualifiés dans les nœuds monopolistiques concentrent toute la richesse. Les chômeurs laissés pour compte dans cette transformation de l’économie manufacturière en économie de service constituent un déséquilibre évident pour l’économie américaine et qui s’est traduit récemment en crise financière.
  3. Shoshana Zuboff, Das Zeitalter Des ÜberwachungsKapitalismus, Frankfurt, Campus Verlag, 2018 ; Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, New York, Public Affairs, 2019.
  4. C’est un peu ce que montre Sébastien Broca dans une lecture critique du livre de S. Zuboff. S. Broca, « Surveiller et prédire », La vie des idées, 07/03/2019.
  5. Elizabeth Warren, « Here’s how we can break up Big Tech », Medium.com, 08/03/2019.



Les Léviathans V. Vie privée, informatique et marketing dans le monde d’avant Google

Dans notre ère désormais numérique il nous arrive parfois d’être pris d’un léger vertige tant le flux tourbillonnant de l’actualité porte des coups brutaux à notre représentation du monde. C’est alors qu’un pas de côté est salutaire.

Apprendre avec Meltdown et Spectre que même le matériel, en l’occurrence le processeur, comporte des failles critiques, ou plus récemment que par dizaines de millions des profils Facebook ont été exploités pour manipuler l’opinion à des fins politiques, voilà le genre d’affaires qui défraient la chronique, mais qui nous demandent un peu de recul.

Dans la continuité de sa série des Léviathans, Christophe Masutti nous propose aujourd’hui avec Léviathans V de prendre un peu de distance avec le capitalisme de surveillance pour mieux en appréhender et déconstruire le mode opératoire.

Pour commencer, il nous invite à remonter aux années 1960 aux États-Unis et découvrir que l’exploitation des données personnelles par le marketing numérique (certes moins sophistiqué qu’aujourd’hui) était une réalité dès la constitution des premières banques de données. Au point que très tôt des mouvements d’opinion sont apparus pour s’opposer aux dangers des atteintes à la vie privée. On verra donc à quel point ni la collecte de données personnelles à des fins marchandes ni les légitimes oppositions qu’elle soulève ne sont dans leur principe des phénomènes nouveaux.

Historiquement, c’est l’informatique bancaire qui s’est trouvée comme à l’avant-garde de cette collecte structurée qui va constituer les bases de données. Mais entre le climat de la Guerre froide et la méfiance des citoyens américains alors jaloux de leur liberté, les protestations sont vives. Dès le début des années 1970 certains déjà redoutent un monde où l’individu serait sous totale surveillance grâce aux technologies informatiques.

Les tentatives pour contenir par un cadre juridique l’exploitation des données privées étaient trouées d’exceptions dont les entreprises commerciales ont évidemment profité. Grâce à l’informatisation croissante du traitement de données, il leur devenait facile de déterminer des types de consommateurs et d’anticiper sur leurs désirs d’achat : dès avant 1980, le profilage était né.

Christophe Masutti retrace le chemin parcouru depuis : comment les données vont devenir une ressource monnayable, comment dès le début des années 1990 on peut proposer un modèle économique où chacun vendrait ses données (ça ne vous rappelle rien ?), comment s’est développé le business juteux du commerce des données, au point d’alimenter les méga-corporations que nous connaissons aujourd’hui, et quelles voix se sont élevées, opposant la liberté au profilage et à la segmentation sociale qu’impose cette économie de la surveillance.

En définitive, le parcours historique et analytique que vous allez lire est à la fois surprenant – puisque tout était déjà là, et éclairant – car c’est ainsi que nous en sommes arrivés là.

*   *   *

Comme le texte de l’article est un peu long (une trentaine de pages au format A4 plus une abondante bibliographie), nous vous en proposons la lecture hors-ligne en téléchargeant ci-dessous le fichier .pdf (avec liens actifs pour le parcourir)

Cliquez sur l’image pour télécharger Léviathans V de Christophe Masutti au format .pdf (210 Ko) (ou sur Hal-shs)

 

* Crédit image Robert Nix (CC BY-2.0)

 

 

 




Les bibliothèques sous le règne du capitalisme

Les bibliothèques ont toujours joué un rôle de gardiens de nos biens littéraires. Mais face à la tendance croissante à l’appropriation de la culture par le marché, elles sont peu à peu devenues de véritables ovnis dans le paysage culturel nord-américain.

Gus Bagakis est professeur de philosophie à la retraite de l’Université d’État de San Francisco. Il revient ici sur ce mouvement destructeur qui vise à transformer les bibliothèques publiques en simples institutions privées à but lucratif.

Traduction Framalang : paul, Edgar Lori, Mannik, Aiseant, claire, jums, Goofy

Source : revue en ligne Truth-out : Libraries Under Capitalism: The Enclosure of the Literary Commons

bibliothèque et nombreux lecteurs
Photo Steven Ramirez (Domaine public)

 

L’une des institutions les plus subversives des États-Unis,

c’est la bibliothèque publique.

– Bell Hooks

Nos biens communs littéraires des bibliothèques publiques sont peu à peu mis sous cloche et deviennent inaccessibles au public à cause d’une série de lois de nos gouvernements – à la fois locaux, nationaux et fédéraux – qui s’inclinent devant les diktats et les priorités des entreprises. La bibliothèque publique est l’un des rares endroits où les gens peuvent entrer gratuitement, accéder gratuitement aux documents et y séjourner sans devoir acheter quoi que ce soit. La valeur des bibliothèques publiques ne réside pas seulement dans les documents qu’elles prêtent ou dans le modèle non commercial qu’elles incarnent, mais aussi dans le bien commun qu’elles représentent : un endroit public qui offre aux citoyens des espaces intellectuels libérés, propices aux dialogues et à l’organisation de la communauté.

Les bibliothèques sont en train de passer d’un modèle de service public à celui d’entreprises à but lucratif, ce qui conduit à la destruction d’un espace public.

En riposte à cet emprisonnement, le New York Times plaide pour des moyens supplémentaires en faveur des bibliothèques. Le quotidien de la Grosse Pomme présente les bibliothèques comme des lieux où les enfants pauvres viennent « apprendre à lire et à aimer la littérature, où les immigrés apprennent l’anglais, où les chômeurs perfectionnent leurs CV et lettres de motivation, et où ceux qui n’ont pas accès à Internet peuvent franchir le fossé numérique… Ce sont des refuges pour penser, rêver, étudier, lutter et – c’est le cas de nombreux enfants et personnes âgées – pour être simplement en lieu sûr, à l’abri de la chaleur. »

Un article de la revue Public Library Quarterly intitulé « Les bibliothèques et le déclin de l’utilité publique » ajoute : « [les bibliothèques] contribuent à rendre possible la sphère démocratique publique ». L’auteur alerte également sur le fait que les bibliothèques sont en train de passer d’un modèle de service public à celui d’entreprises à but lucratif qui entraînent la destruction d’un véritable espace public.
Nous avons besoin de moyens supplémentaires pour permettre aux bibliothèques publiques de survivre. Nous devons empêcher la transformation de nos bibliothèques, institutions culturelles, éducatives et communes, en entreprises privées. Afin de comprendre plus clairement d’où viennent ces problèmes, nous devons d’abord comprendre comment les bibliothèques ont historiquement été influencées par le capitalisme.

Les bibliothèques comme système de contrôle social

Lorsqu’on étudie le développement et le déclin des bibliothèques publiques, on constate que les changements sont souvent imputables à l’objectif premier du capitalisme : le profit. Si quelque chose évolue défavorablement – autrement dit, si une chose menace la possibilité de profit – celle-ci devient un bouc émissaire opportun pour réduire les moyens dans les budgets des administrations locales, nationales ou fédérales. Les bibliothèques publiques, l’éducation publique et l’espace public représentent trois victimes actuelles de l’influence du capitalisme car elles sont devenues des « dépenses inutiles » qui entravent l’accroissement des profits.

Afin de contextualiser notre étude, rappelons que le capitalisme est un système économique fondé sur une main-d’œuvre salariée (travail contre salaire), la propriété privée ou le contrôle des moyens de production (usines, machines, exploitations agricoles, bureaux) et la production de marchandises en vue d’un profit. Dans ce système, un petit nombre de personnes qui travaillent pour de très grandes entreprises utilise sa puissance financière et politique pour orienter les priorités, les financements et les mesures gouvernementales en fonction de leurs propres intérêts. Même si le capitalisme a connu des évolutions, l’une de ses composantes demeure inchangée : la lutte pour la richesse et le pouvoir qui oppose les entrepreneurs et les travailleurs. Dans la mesure où les entreprises capitalistes possèdent l’argent et le pouvoir, on peut soutenir qu’elles contrôlent la société en général.

Mais en période de dépression, la classe ouvrière, bien plus nombreuse, souffre et réagit ; elle s’organise et se bat pour de meilleures rémunérations, davantage de bénéfices et de puissance. Ainsi, la réaction des travailleurs face à la Grande Dépression qui a conduit au New Deal de Franklin D. Roosevelt dans les années 1930, a permis de réguler le capitalisme, pour mieux le préserver. La rébellion des travailleurs était due en partie à une répartition excessivement inégale des richesses durant cet Âge d’Or, période où la classe capitaliste accumulait une richesse considérable aux dépens des travailleurs. Un contexte d’inégalité d’ailleurs semblable à celui que nous vivons aujourd’hui, à l’ère de notre Nouvel Age d’Or.

Ce conflit entre les patrons et les travailleurs transparaît aussi dans l’histoire des bibliothèques publiques. Les bibliothèques font partie d’un système de contrôle social : elles fournissent des ressources et une éducation aux immigrants. Quand les patrons encouragent la création de bibliothèques, c’est qu’ils les voient comme terrain d’essai pour immigrés au service de leur industrie. Par exemple, à Butte Montana, en 1893, la nouvelle bibliothèque Carnegie a été présentée par les propriétaires de mines comme « un antidote au penchant des mineurs pour la boisson, les prostituées et le jeu » et comme un moyen de favoriser la création d’une communauté d’immigrés afin de limiter la rotation du personnel.

Andrew Carnegie, capitaliste philanthrope en son temps, offre un bel exemple de la volonté de la classe capitaliste de maintenir le système de profits et d’empêcher une révolte ouvrière. Dans son article « Le Gospel de la Richesse », publié en 1889, il défend l’idée que les riches peuvent diminuer la contestation sociale par le biais de la philanthropie. Il est préférable selon lui de ponctionner les salaires ouvriers, collecter les sommes puis les redistribuer à la communauté. S’adressant aux ouvriers avec condescendance, Carnegie expliquait : « Si j’augmente vos salaires, vous allez dépenser votre argent pour acheter une meilleure pièce de viande ou plus de boissons. Mais ce dont vous avez besoin, même si vous l’ignorez, ce sont mes bibliothèques et mes salles de concert ».

La générosité de Carnegie était bien comprise : diminuer les possibilités de révolte ouvrière et maintenir ou augmenter ses propres profits. Certes c’était un homme généreux, mais il n’était pas vraiment impliqué dans un changement de société, comme il l’a démontré par ses multiples actions autour de la ségrégation. À l’époque de la ségrégation raciale, les Noirs n’avaient généralement pas accès aux bibliothèques publiques dans le Sud des États-Unis. Plutôt que de favoriser l’intégration raciale dans ses bibliothèques, Carnegie a fondé des bibliothèques distinctes pour les Afro-Américains. Par exemple, à Houston, Carnegie a ouvert la Bibliothèque Carnegie pour Personnes de Couleur en 1909. Même si l’on doit reconnaître néanmoins sa générosité dans la construction de plus de la moitié des bibliothèques sur le territoire des États-Unis avant 1930. En outre, les bibliothèques se sont multipliées en réponse au besoin d’éducation publique, notamment pour les quelque 20 millions d’immigrés arrivés dans le pays entre 1880 et 1920,dans le but de fournir de la main-d’œuvre bon marché et de soutenir le système capitaliste.

Dans notre monde régi par le capitalisme, les guerres sont presque toujours le fait de deux classes dirigeantes (ou davantage) qui se disputent l’accès à des profits, des ressources ou des territoires. Dans ces luttes, la propagande est un outil précieux. Ainsi, durant la Première Guerre Mondiale, la vocation des bibliothèques a basculé vers une américanisation progressive des immigrés, y compris par l’élimination d’ouvrages « antipatriotiques car pro-Allemands ». Durant la Seconde Guerre Mondiale, par opposition aux autodafés nazis, les bibliothécaires américains ont considéré les livres comme des armes de guerre. Pendant la Guerre Froide (1947-1991), certaines bibliothèques publiques ont également servi d’instruments de propagande pour la politique étrangère du gouvernement fédéral : comme la loi sur l’enregistrement des agents étrangers (Foreign Agents Registration Act, FARA) qui a conduit les bibliothèques à filtrer des documents soviétiques.

À la même époque, l’association ultraconservatrice John Birch Society dépêchait ses membres dans toutes les bibliothèques publiques du pays pour vérifier si le Livre bleu de l’association était bien disponible dans leurs rayonnages. Ce Livre bleu mettait en garde contre l’ennemi qui s’apprêtait à transformer les États-Unis en état policier communiste et laissait entendre que le Président Eisenhower était un agent communiste. En 1953, au plus fort de la chasse aux sorcières, un membre de la Commission des recueils de textes de l’Indiana a dénoncé l’œuvre Robin des bois comme une œuvre de propagande communiste, et demandé son retrait des écoles et des bibliothèques au prétexte que le héros prenait aux riches pour donner aux pauvres. Fort heureusement, quelques étudiants courageux de l’Université d’Indiana ont résisté et organisé le mouvement de la plume verte (Green Feather Movement) en référence à la plume sur le chapeau de Robin des bois.

L’offensive économique contre les bibliothèques

À la fin des années 1970, la formation des travailleurs immigrés n’est plus la préoccupation des entreprises capitalistes car la main-d’œuvre ne manque plus. À partir de ce moment également, le financement des bibliothèques publiques commence à reculer. Après le 11 septembre 2001, la peur s’intensifie dans la population, tout comme s’intensifie la surveillance d’État. L’une des mesures prises par le gouvernement, conformément à la section 215 du Patriot Act, consiste à forcer les bibliothèques à divulguer des informations sur leurs usagers.

Quelques bibliothécaires courageux protestent, comprenant qu’une telle exigence représente un danger pour les libertés individuelles. Ainsi, l’association des bibliothécaires du Vermont adresse une lettre au Congrès pour s’opposer aux dispositions du Patriot Act concernant les bibliothèques. La propagande des États-Unis face à la montée des tensions au Moyen-Orient pose problème à un certain nombre de bibliothécaires qui s’alarment des symboles hyper-patriotiques affichés dans les bibliothèques juste après les attaques du 11 septembre (affiches, posters, pamphlets). Dans une lettre cosignée faisant état de leurs inquiétudes, ils écrivent : « ce type de communications inhabituelles risque de créer une atmosphère intimidante pour certains usagers des bibliothèques. »

Dès la fin du XXe siècle et au début du XXIe, la plupart des bibliothèques publiques offrent un espace commun et accueillant, qui encourage l’exploration, la création et la collaboration entre étudiants, enseignants et citoyens. Innovantes, elles combinent des supports physiques et numériques pour proposer des environnements d’apprentissage. En 1982, l’American Library Association (ALA) organise la semaine des livres censurés (Banned Books Week) pour attirer l’attention sur les livres qui expriment des opinions non orthodoxes ou impopulaires et mettent ces ouvrages à disposition de tous les lecteurs intéressés.

Mais à l’époque, la classe capitaliste est mal à l’aise et craint des « effets de démocratisation » liés à l’activisme des années 1960 : droits civiques, droits LGBTQ, sensibilisation écologique, mouvements étudiants et actions de dénonciation de la guerre du Vietnam. Les milieux d’affaires conservateurs contestent alors le capitalisme régulé hérité du New Deal et introduisent le néolibéralisme, une variante du capitalisme favorisant le libre échange, la privatisation, l’intervention minimum de l’État dans les affaires, la baisse des dépenses publiques allouées aux services sociaux (dont les bibliothèques) et l’affaiblissement du pouvoir de la classe ouvrière. Certains d’entre eux se réfèrent au Mémorandum Powell (1971), une feuille de route destinée aux milieux d’affaires conservateurs pour les encourager à s’élever et se défendre contre une prétendue attaque de la libre entreprise par des activistes comme Ralph Nader, Herbert Marcuse et d’autres qui étaient censés avoir pris le contrôle des universités, des médias et du gouvernement. À l’autre bout du spectre, les internationalistes progressistes de la Commission trilatérale publient un document intitulé La crise de la démocratie (1975), qui suggère que l’activisme des années 1960 a transformé des citoyens auparavant passifs et indifférents en activistes capables d’ébranler les équilibres en place.

Le ralentissement de l’immigration des travailleurs dans les années 1970 et le stress de l’austérité due à la montée du néo-libéralisme ont provoqué le déclin des services sociaux, dont le système des bibliothèques publiques. Certaines d’entre elles dérivent vers un modèle d’entreprise lucrative qui considère les utilisateurs comme des clients et suivent un modèle entrepreneurial. Elles utilisent les relations publiques, la marchandisation de l’information, l’efficacité, l’image de marque et le mécénat pour augmenter leurs capacités de financements. L’argent qui provenait de taxes locales, nationales et fédérales, indispensable au maintien des services publics, a été transféré dans les poches des sociétés privées, dans l’entretien du complexe militaro-industriel, ou entassé dans des paradis fiscaux. La classe moyenne s’est fait berner par les promesses de réductions d’impôt, parce qu’on lui a dit que la baisse des taxes allait augmenter les dépenses, et donc dynamiser l’économie américaine. Elle a donc suivi, à tort, les grandes entreprises, alors que la perte des institutions publiques nuit à tous sauf aux riches.

Et pourtant toutes ces attaques contre les bibliothèques publiques ont eu lieu en dépit du fait qu’elles sont un excellent investissement pour les contribuables. Par exemple, une étude de 2007 à propos de la bibliothèque de San Francisco a montré que pour chaque dollar dépensé par la bibliothèque, les citoyens avaient reçu 3 dollars en biens et services.

Bien qu’utilisées par un nombre croissant de personnes, les bibliothèques ont encore vu leurs moyens diminuer sous l’effet de la récession de 2008. En Californie, les aides d’État pour les bibliothèques ont été complètement supprimées en 2011. La Louisiane a suivi l’exemple de la Californie en 2012. Des coupes budgétaires sévères ont frappé simultanément les bibliothèques publiques de la ville de New York, la bibliothèque de Dallas, celles de l’État du Massachusetts et bien d’autres. Le budget fédéral actuel contient un plan qui élimine l’agence de support des musées et bibliothèques (Institute of Museum and Library Services) dont les ressources ont été progressivement réduites par les administrations précédentes, qu’elles soient démocrates ou républicaines.

Le renforcement des coupes budgétaires cause l’extinction de nos biens communs littéraires. Alors, comment les défenseurs des bibliothèques publiques peuvent-ils aider celles-ci à survivre et à promouvoir des valeurs démocratiques réelles et une pensée critique ? Tout d’abord, nous devons bien cerner le sort des bibliothèques publiques à la lumière de l’histoire du capitalisme. Ensuite, nous devons nous organiser et mener une lutte pour protéger les bibliothèques publiques comme espaces de lien communautaire et d’action potentielle, contre ce fléau qu’est l’asservissement au capitalisme oligopolistique.




Les nouveaux Léviathans IV. La surveillance qui vient

Dans ce quatrième numéro de la série Nouveaux Léviathans, nous allons voir dans quelle mesure le modèle économique a développé son besoin vital de la captation des données relatives à la vie privée. De fait, nous vivons dans le même scénario dystopique depuis une cinquantaine d’années. Nous verrons comment les critiques de l’économie de la surveillance sont redondantes depuis tout ce temps et que, au-delà des craintes, le temps est à l’action d’urgence.

Note : voici le quatrième volet de la série des Nouveaux (et anciens) Léviathans, initiée en 2016, par Christophe Masutti, alias Framatophe. Pour retrouver les articles précédents, une liste vous est présentée à la fin de celui-ci.

Aujourd’hui

Avons-nous vraiment besoin des utopies et des dystopies pour anticiper les rêves et les cauchemars des technologies appliquées aux comportements humains ? Sempiternellement rabâchés, le Meilleur de mondes et 1984 sont sans doute les romans les plus vendus parmi les best-sellers des dernières années. Il existe un effet pervers des utopies et des dystopies, lorsqu’on les emploie pour justifier des arguments sur ce que devrait être ou non la société : tout argument qui les emploie afin de prescrire ce qui devrait être se trouve à un moment ou à un autre face au mur du réel sans possibilité de justifier un mécanisme crédible qui causerait le basculement social vers la fiction libératrice ou la fiction contraignante. C’est la raison pour laquelle l’île de Thomas More se trouve partout et nulle part, elle est utopique, en aucun lieu. Utopie et dystopie sont des propositions d’expérience et n’ont en soi aucune vocation à prouver ou prédire quoi que ce soit bien qu’elles partent presque toujours de l’expérience commune et dont tout l’intérêt, en particulier en littérature, figure dans le troublant cheminement des faits, plus ou moins perceptible, du réel vers l’imaginaire.

Pourtant, lorsqu’on se penche sur le phénomène de l’exploitation des données personnelles à grande échelle par des firmes à la puissance financière inégalable, c’est la dystopie qui vient à l’esprit. Bien souvent, au gré des articles journalistiques pointant du doigt les dernières frasques des GAFAM dans le domaine de la protection des données personnelles, les discussions vont bon train : « ils savent tout de nous », « nous ne sommes plus libres », « c’est Georges Orwell », « on nous prépare le meilleur des mondes ». En somme, c’est l’angoisse  pendant quelques minutes, juste le temps de vérifier une nouvelle fois si l’application Google de notre smartphone a bien enregistré l’adresse du rendez-vous noté la veille dans l’agenda.

Un petit coup d’angoisse ? allez… que diriez-vous si vos activités sur les réseaux sociaux, les sites d’information et les sites commerciaux étaient surveillées et quantifiées de telle manière qu’un système de notation et de récompense pouvait vous permettre d’accéder à certains droits, à des prêts bancaires, à des autorisations officielles, au logement, à des libertés de circulation, etc. Pas besoin de science-fiction. Ainsi que le rapportait Wired en octobre 20178, la Chine a déjà tout prévu d’ici 2020, c’est-à-dire demain. Il s’agit, dans le contexte d’un Internet déjà ultra-surveillé et non-neutre, d’établir un système de crédit social en utilisant les big data sur des millions de citoyens et effectuer un traitement qui permettra de catégoriser les individus, quels que soient les risques : risques d’erreurs, risques de piratage, crédibilité des indicateurs, atteinte à la liberté d’expression, etc.

Évidemment les géants chinois du numérique comme Alibaba et sa filiale de crédit sont déjà sur le coup. Mais il y a deux choses troublantes dans cette histoire. La première c’est que le crédit social existe déjà et partout : depuis des années on évalue en ligne les restaurants et les hôtels sans se priver de critiquer les tenanciers et il existe toute une économie de la notation dans l’hôtellerie et la restauration, des applications terrifiantes comme Peeple9 existent depuis 2015, les banques tiennent depuis longtemps des listes de créanciers, les fournisseurs d’énergie tiennent à jour les historiques des mauvais payeurs, etc.  Ce que va faire la Chine, c’est le rêve des firmes, c’est la possibilité à une gigantesque échelle et dans un cadre maîtrisé (un Internet non-neutre) de centraliser des millions de gigabits de données personnelles et la possibilité de recouper ces informations auparavant éparses pour en tirer des profils sur lesquels baser des décisions.

Le second élément troublant, c’est que le gouvernement chinois n’aurait jamais eu cette idée si la technologie n’était pas déjà à l’œuvre et éprouvée par des grandes firmes. Le fait est que pour traiter autant d’informations par des algorithmes complexes, il faut : de grandes banques de données, beaucoup d’argent pour investir dans des serveurs et dans des compétences, et espérer un retour sur investissement de telle sorte que plus vos secteurs d’activités sont variés plus vous pouvez inférer des profils et plus votre marketing est efficace. Il est important aujourd’hui pour des monopoles mondialisés de savoir combien vous avez de chance d’acheter à trois jours d’intervalle une tondeuse à gazon et un canard en mousse. Le profilage de la clientèle (et des utilisateurs en général) est devenu l’élément central du marché à tel point que notre économie est devenue une économie de la surveillance, repoussant toujours plus loin les limites de l’analyse de nos vies privées.

La dystopie est en marche, et si nous pensons bien souvent au cauchemar orwellien lorsque nous apprenons l’existence de projets comme celui du gouvernement chinois, c’est parce que nous n’avons pas tous les éléments en main pour en comprendre le cheminement. Nous anticipons la dystopie mais trop souvent, nous n’avons pas les moyens de déconstruire ses mécanismes. Pourtant, il devient de plus en plus facile de montrer ces mécanismes sans faire appel à l’imaginaire : toutes les conditions sont remplies pour n’avoir besoin de tracer que quelques scénarios alternatifs et peu différents les uns des autres. Le traitement et l’analyse de nos vies privées provient d’un besoin, celui de maximiser les profits dans une économie qui favorise l’émergence des monopoles et la centralisation de l’information. Cela se retrouve à tous les niveaux de l’économie, à commencer par l’activité principale des géants du Net : le démarchage publicitaire. Comprendre ces modèles économiques revient aussi à comprendre les enjeux de l’économie de la surveillance.

Données personnelles : le commerce en a besoin

Dans le petit monde des études en commerce et marketing, Frederick Reichheld fait figure de référence. Son nom et ses publications dont au moins deux best sellers, ne sont pas vraiment connus du grand public, en revanche la plupart des stratégies marketing des vingt dernières années sont fondées, inspirées et même modélisées à partir de son approche théorique de la relation entre la firme et le client. Sa principale clé de lecture est une notion, celle de la fidélité du client. D’un point de vue opérationnel cette notion est déclinée en un concept, celui de la valeur vie client (customer lifetime value) qui se mesure à l’aune de profits réalisés durant le temps de cette relation entre le client et la firme. Pour Reichheld, la principale activité du marketing consiste à optimiser cette valeur vie client. Cette optimisation s’oppose à une conception rétrograde (et qui n’a jamais vraiment existé, en fait10) de la « simple » relation marchande.

En effet, pour bien mener les affaires, la relation avec le client ne doit pas seulement être une série de transactions marchandes, avec plus ou moins de satisfaction à la clé. Cette manière de concevoir les modèles économiques, qui repose uniquement sur l’idée qu’un client satisfait est un client fidèle, a son propre biais : on se contente de donner de la satisfaction. Dès lors, on se place d’un point de vue concurrentiel sur une conception du capitalisme marchand déjà ancienne. Le modèle de la concurrence « non faussée » est une conception nostalgique (fantasmée) d’une relation entre firme et client qui repose sur la rationalité de ce dernier et la capacité des firmes à produire des biens en réponse à des besoins plus ou moins satisfaits. Dès lors la décision du client, son libre arbitre, serait la variable juste d’une économie auto-régulée (la main invisible) et la croissance économique reposerait sur une dynamique de concurrence et d’innovation, en somme, la promesse du « progrès ».

Évidemment, cela ne fonctionne pas ainsi. Il est bien plus rentable pour une entreprise de fidéliser ses clients que d’en chercher de nouveaux. Prospecter coûte cher alors qu’il est possible de jouer sur des variables à partir de l’existant, tout particulièrement lorsqu’on exerce un monopole (et on comprend ainsi pourquoi les monopoles s’accommodent très bien entre eux en se partageant des secteurs) :

  1. on peut résumer la conception de Reichheld à partir de son premier best seller, The Loyalty Effect (1996) : avoir des clients fidèles, des employés fidèles et des propriétaires loyaux. Il n’y a pas de main invisible : tout repose sur a) le rapport entre hausse de la rétention des clients / hausse des dépenses, b) l’insensibilité aux prix rendue possible par la fidélisation (un client fidèle, ayant dépassé le stade du risque de défection, est capable de dépenser davantage pour des raisons qui n’ont rien à voir avec la valeur marchande), c) la diminution des coûts de maintenance (fidélisation des employés et adhésion au story telling), d) la hausse des rendements et des bénéfices. En la matière la firme Apple rassemble tous ces éléments à la limite de la caricature.
  2. Reichheld est aussi le créateur d’un instrument d’évaluation de la fidélisation : le NPS (Net Promoter Score). Il consiste essentiellement à catégoriser les clients, entre promoteurs, détracteurs ou passifs. Son autre best-seller The Ultimate Question 2.0: How Net Promoter Companies Thrive in a Customer-Driven World déploie les applications possibles du contrôle de la qualité des relations client qui devient dès lors la principale stratégie de la firme d’où découlent toutes les autres stratégies (en particulier les choix d’innovation). Ainsi il cite dans son ouvrage les plus gros scores NPS détenus par des firmes comme Apple, Amazon et Costco.

Il ne faut pas sous-estimer la valeur opérationnelle du NPS. Notamment parce qu’il permet de justifier les choix stratégiques. Dans The Ultimate Question 2.0 Reichheld fait référence à une étude de Bain & Co. qui montre que pour une banque, la valeur vie client d’un promoteur (au sens NPS) est estimée en moyenne à 9 500 dollars. Ce modèle aujourd’hui est une illustration de l’importance de la surveillance et du rôle prépondérant de l’analyse de données. En effet, plus la catégorisation des clients est fine, plus il est possible de déterminer les leviers de fidélisation. Cela passe évidemment par un système de surveillance à de multiples niveaux, à la fois internes et externes :

  • surveiller des opérations de l’organisation pour les rendre plus agiles et surveiller des employés pour augmenter la qualité des relations client,
  • rassembler le plus de données possibles sur les comportements des clients et les possibilités de déterminer leurs choix à l’avance.

Savoir si cette approche du marketing est née d’un nouveau contexte économique ou si au contraire ce sont les approches de la valeur vie client qui ont configuré l’économie d’aujourd’hui, c’est se heurter à l’éternel problème de l’œuf et de la poule. Toujours est-il que les stratégies de croissance et de rentabilité de l’économie reposent sur l’acquisition et l’exploitation des données personnelles de manière à manipuler les processus de décision des individus (ou plutôt des groupes d’individus) de manière à orienter les comportements et fixer des prix non en rapport avec la valeur des biens mais en rapport avec ce que les consommateurs (ou même les acheteurs en général car tout ne se réduit pas à la question des seuls biens de consommation et des services) sont à même de pouvoir supporter selon la catégorie à laquelle ils appartiennent.

Le fait de catégoriser ainsi les comportements et les influencer, comme nous l’avons vu dans les épisodes précédents de la série Léviathans, est une marque stratégique de ce que Shoshana Zuboff a appelé le capitalisme de surveillance11. Les entreprises ont aujourd’hui un besoin vital de rassembler les données personnelles dans des silos de données toujours plus immenses et d’exploiter ces big data de manière à optimiser leurs modèles économiques. Ainsi, du point de vue des individus, c’est le quotidien qui est scruté et analysé de telle manière que, il y a à peine une dizaine d’années, nous étions à mille lieues de penser l’extrême granularité des données qui cartographient et catégorisent nos comportements. Tel est l’objet du récent rapport publié par Cracked Lab Corporate surveillance in everyday life12 qui montre à quel point tous les aspect du quotidien font l’objet d’une surveillance à une échelle quasi-industrielle (on peut citer les activités de l’entreprise Acxiom), faisant des données personnelles un marché dont la matière première est traitée sans aucun consentement des individus. En effet, tout le savoir-faire repose essentiellement sur le recoupement statistique et la possibilité de catégoriser des milliards d’utilisateurs de manière à produire des représentations sociales dont les caractéristiques ne reflètent pas la réalité mais les comportements futurs. Ainsi par exemple les secteurs bancaires et des assurances sont particulièrement friands des possibilités offertes par le pistage numérique et l’analyse de solvabilité.

Cette surveillance a été caractérisée déjà en 1988 par le chercheur en systèmes d’information Roger Clarke13 :

  • dans la mesure où il s’agit d’automatiser, par des algorithmes, le traitement des informations personnelles dans un réseau regroupant plusieurs sources, et d’en inférer du sens, on peut la qualifier de « dataveillance », c’est à dire « l’utilisation systématique de systèmes de traitement de données à caractère personnel dans l’enquête ou le suivi des actions ou des communications d’une ou de plusieurs personnes » ;
  • l’un des attributs fondamentaux de cette dataveillance est que les intentions et les mécanismes sont cachés aux sujets qui font l’objet de la surveillance.

En effet, l’accès des sujets à leurs données personnelles et leurs traitements doit rester quasiment impossible car après un temps très court de captation et de rétention, l’effet de recoupement fait croître de manière exponentielle la somme d’information sur les sujets et les résultats, qu’ils soient erronés ou non, sont imbriqués dans le profilage et la catégorisation de groupes d’individus. Plus le monopole a des secteurs d’activité différents, plus les comportements des mêmes sujets vont pouvoir être quantifiés et analysés à des fins prédictives. C’est pourquoi la dépendance des firmes à ces informations est capitale ; pour citer Clarke en 201714 :

« L’économie de la surveillance numérique est cette combinaison d’institutions, de relations institutionnelles et de processus qui permet aux entreprises d’exploiter les données issues de la surveillance du comportement électronique des personnes et dont les sociétés de marketing deviennent rapidement dépendantes. »

Le principal biais que produit cette économie de la surveillance (pour S. Zuboff, c’est de capitalisme de surveillance qu’il s’agit puisqu’elle intègre une relation d’interdépendance entre centralisation des données et centralisation des capitaux) est qu’elle n’a plus rien d’une démarche descriptive mais devient prédictive par effet de prescription.

Elle n’est plus descriptive (mais l’a-t-elle jamais été ?) parce qu’elle ne cherche pas à comprendre les comportements économiques en fonction d’un contexte, mais elle cherche à anticiper les comportements en maximisant les indices comportementaux. On ne part plus d’un environnement économique pour comprendre comment le consommateur évolue dedans, on part de l’individu pour l’assigner à un environnement économique sur mesure dans l’intérêt de la firme. Ainsi, comme l’a montré une étude de Propublica en 201615, Facebook dispose d’un panel de pas moins de 52 000 indicateurs de profilage individuels pour en établir une classification générale. Cette quantification ne permet plus seulement, comme dans une approche statistique classique, de déterminer par exemple si telle catégorie d’individus est susceptible d’acheter une voiture. Elle permet de déterminer, de la manière la plus intime possible, quelle valeur économique une firme peut accorder à un panel d’individus au détriment des autres, leur valeur vie client.

Tout l’enjeu consiste à savoir comment influencer ces facteurs et c’est en cela que l’exploitation des données passe d’une dimension prédictive à une dimension prescriptive. Pour prendre encore l’exemple de Facebook, cette firme a breveté un système capable de déterminer la solvabilité bancaire des individus en fonction de la solvabilité moyenne de leur réseau de contacts16. L’important ici, n’est pas vraiment d’aider les banques à diminuer les risques d’insolvabilité de leurs clients, car elles savent très bien le faire toutes seules et avec les mêmes procédés d’analyse en big data. En fait, il s’agit d’influencer les stratégies personnelles des individus par le seul effet panoptique17 : si les individus savent qu’ils sont surveillés, toute la stratégie individuelle consistera à choisir ses amis Facebook en fonction de leur capacité à maximiser les chances d’accéder à un prêt bancaire (et cela peut fonctionner pour bien d’autres objectifs). L’intérêt de Facebook n’est pas d’aider les banques, ni de vendre une expertise en statistique (ce n’est pas le métier de Facebook) mais de normaliser les comportements dans l’intérêt économique et augmenter la valeur vie client potentielle de ses utilisateurs : si vous avez des problèmes d’argent, Facebook n’est pas fait pour vous. Dès lors il suffit ensuite de revendre des profils sur-mesure à des banques. On se retrouve typiquement dans un épisode d’anticipation de la série Black Mirror (Chute libre)18.

 

La fiction, l’anticipation, la dystopie… finalement, c’est-ce pas un biais que de toujours analyser sous cet angle l’économie de la surveillance et le rôle des algorithmes dans notre quotidien ? Tout se passe en quelque sorte comme si nous découvrions un nouveau modèle économique, celui dont nous venons de montrer que les préceptes sont déjà anciens, et comme si nous appréhendions seulement aujourd’hui les enjeux de la captation et l’exploitation des données personnelles. Au risque de décevoir tous ceux qui pensent que questionner la confiance envers les GAFAM est une activité d’avant-garde, la démarche a été initiée dès les prémices de la révolution informatique.

La vie privée à l’époque des pattes d’eph.

Face au constat selon lequel nous vivons dans un environnement où la surveillance fait loi, de nombreux ouvrages, articles de presse et autres témoignages ont sonné l’alarme. En décembre 2017, ce fut le soi-disant repentir de Chamath Palihapitya, ancien vice-président de Facebook, qui affirmait avoir contribué à créer « des outils qui déchirent le tissu social »19. Il ressort de cette lecture qu’après plusieurs décennies de centralisation et d’exploitation des données personnelles par des acteurs économiques ou institutionnels, nous n’avons pas fini d’être surpris par les transformations sociales qu’impliquent les big data. Là où, effectivement, nous pouvons accorder un tant soit peu de de crédit à C. Palihapitya, c’est dans le fait que l’extraction et l’exploitation des données personnelles implique une économie de la surveillance qui modèle la société sur son modèle économique. Et dans ce modèle, l’exercice de certains droits (comme le droit à la vie privée) passe d’un état absolu (un droit de l’homme) à un état relatif (au contexte économique).

Comme cela devient une habitude dans cette série des Léviathans, nous pouvons effectuer un rapide retour dans le temps et dans l’espace. Situons-nous à la veille des années 1970, aux États-Unis, plus exactement dans la période charnière qui vit la production en masse des ordinateurs mainframe (du type IBM 360), à destination non plus des grands laboratoires de recherche et de l’aéronautique, mais vers les entreprises des secteurs de la banque, des assurances et aussi vers les institutions gouvernementales. L’objectif premier de tels investissements (encore bien coûteux à cette époque) était le traitement des données personnelles des citoyens ou des clients.

Comme bien des fois en histoire, il existe des périodes assez courtes où l’on peut comprendre les événements non pas parce qu’ils se produisent suivant un enchaînement logique et linéaire, mais parce qu’ils surviennent de manière quasi-simultanée comme des fruits de l’esprit du temps. Ainsi nous avons d’un côté l’émergence d’une industrie de la donnée personnelle, et, de l’autre l’apparition de nombreuses publications portant sur les enjeux de la vie privée. D’aucuns pourraient penser que, après la publication en 1949 du grand roman de G. Orwell, 1984, la dystopie orwellienne pouvait devenir la clé de lecture privilégiée de l’informationnalisation (pour reprendre le terme de S. Zuboff) de la société américaine dans les années 1960-1970. Ce fut effectivement le cas… plus exactement, si les références à Orwell sont assez courantes dans la littérature de l’époque20, il y avait deux lectures possibles de la vie privée dans une société aussi bouleversée que celle de l’Amérique des années 1960. La première questionnait la hiérarchie entre vie privée et vie publique. La seconde focalisait sur le traitement des données informatiques. Pour mieux comprendre l’état d’esprit de cette période, il faut parcourir quelques références.

Vie privée vs vie publique

Deux best-sellers parus en été 1964 effectuent un travail introspectif sur la société américaine et son rapport à la vie privée. Le premier, écrit par Myron Brenton, s’intitule The privacy invaders21. Brenton est un ancien détective privé qui dresse un inventaire des techniques de surveillance à l’encontre des citoyens et du droit. Le second livre, écrit par Vance Packard, connut un succès international. Il s’intitule The naked Society22, traduit en français un an plus tard sous le titre Une société sans défense. V. Packard est alors universitaire, chercheur en sociologie et économie. Il est connu pour avoir surtout travaillé sur la société de consommation et le marketing et dénoncé, dans un autre ouvrage (La persuasion clandestine23), les abus des publicitaires en matière de manipulation mentale. Dans The naked Society comme dans The privacy invaders les mêmes thèmes sont déployés à propos des dispositifs de surveillance, entre les techniques d’enquêtes des banques sur leurs clients débiteurs, les écoutes téléphoniques, la surveillance audio et vidéo des employés sur les chaînes de montage, en somme toutes les stratégies privées ou publiques d’espionnage des individus et d’abus en tout genre qui sont autant d’atteintes à la vie privée. Il faut dire que la société américaine des années 1960 a vu aussi bien arriver sur le marché des biens de consommation le téléphone et la voiture à crédit mais aussi l’électronique et la miniaturisation croissante des dispositifs utiles dans ce genre d’activité. Or, les questions que soulignent Brenton et Packard, à travers de nombreux exemples, ne sont pas tant celles, plus ou moins spectaculaires, de la mise en œuvre, mais celles liées au droit des individus face à des puissances en recherche de données sur la vie privée extorquées aux sujets mêmes. En somme, ce que découvrent les lecteurs de ces ouvrages, c’est que la vie privée est une notion malléable, dans la réalité comme en droit, et qu’une bonne part de cette malléabilité est relative aux technologies et au médias. Packard ira légèrement plus loin sur l’aspect tragique de la société américaine en focalisant plus explicitement sur le respect de la vie privée dans le contexte des médias et de la presse à sensation et dans les contradictions apparente entre le droit à l’information, le droit à la vie privée et le Sixième Amendement. De là, il tire une sonnette d’alarme en se référant à Georges Orwell, et dénonçant l’effet panoptique obtenu par l’accessibilité des instruments de surveillance, la généralisation de leur emploi dans le quotidien, y compris pour les besoins du marketing, et leur impact culturel.

En réalité, si ces ouvrages connurent un grand succès, c’est parce que leur approche de la vie privée reposait sur un questionnement des pratiques à partir de la morale et du droit, c’est-à-dire sur ce que, dans une société, on est prêt à admettre ou non au sujet de l’intimité vue comme une part structurelle des relations sociales. Qu’est-ce qui relève de ma vie privée et qu’est-ce qui relève de la vie publique ? Que puis-je exposer sans crainte selon mes convictions, ma position sociale, la classe à laquelle j’appartiens, etc. Quelle est la légitimité de la surveillance des employés dans une usine, d’un couple dans une chambre d’hôtel, d’une star du show-biz dans sa villa ?

Il reste que cette approche manqua la grande révolution informatique naissante et son rapport à la vie privée non plus conçue comme l’image et l’estime de soi, mais comme un ensemble d’informations quantifiables à grande échelle et dont l’analyse peut devenir le mobile de décisions qui impactent la société en entier24. La révolution informatique relègue finalement la légitimité de la surveillance au second plan car la surveillance est alors conçue de manière non plus intentionnelle mais comme une série de faits : les données fournies par les sujets, auparavant dans un contexte fermé comme celui de la banque locale, finirent par se retrouver centralisées et croisées au gré des consortiums utilisant l’informatique pour traiter les données des clients. Le même schéma se retrouva pour ce qui concerne les institutions publiques dans le contexte fédéral américain.

Vie privée vs ordinateurs

Une autre approche commença alors à faire son apparition dans la sphère universitaire. Elle intervient dans la seconde moitié des années 1960. Il s’agissait de se pencher sur la gouvernance des rapports entre la vie privée et l’administration des données personnelles. Suivant au plus près les nouvelles pratiques des grands acteurs économiques et gouvernementaux, les universitaires étudièrent les enjeux de la numérisation des données personnelles avec en arrière-plan les préoccupations juridiques, comme celle de V. Packard, qui faisaient l’objet des réflexions de la décennie qui se terminait. Si, avec la société de consommation venait tout un lot de dangers sur la vie privée, cette dernière devrait être protégée, mais il fallait encore savoir sur quels plans agir. Le début des années 1970, en guise de résultat de ce brainstorming général, marquèrent alors une nouvelle ère de la privacy à l’Américaine à l’âge de l’informatisation et du réseautage des données personnelles. Il s’agissait de comprendre qu’un changement majeur était en train de s’effectuer avec les grands ordinateurs en réseau et qu’il fallait formaliser dans le droit les garde-fou les plus pertinents : on passait d’un monde où la vie privée pouvait faire l’objet d’une intrusion par des acteurs séparés, recueillant des informations pour leur propre compte en fonction d’objectifs différents, à un monde où les données éparses étaient désormais centralisées, avec des machines capables de traiter les informations de manière rapide et automatisée, capables d’inférer des informations sans le consentement des sujets à partir d’informations que ces derniers avaient données volontairement dans des contextes très différents.

La liste des publications de ce domaine serait bien longue. Par exemple, la Rand Corporation publia une longue liste bibliographique annotée au sujet des données personnelles informatisées. Cette liste regroupe près de 300 publications entre 1965 et 1967 sur le sujet25.

Des auteurs universitaires firent école. On peut citer :

  • Alan F. Westin : Privacy and freedom (1967), Civil Liberties and Computerized Data Systems (1971), Databanks in a Free Society: Computers, Record Keeping and Privacy (1972)26 ;
  • James B. Rule : Private lives and public surveillance: social control in the computer age (1974)27 ;
  • Arthur R. Miller : The assault on privacy. Computers, Data Banks and Dossier (1971)28 ;
  • Malcolm Warner et Mike Stone, The Data Bank Society : Organizations, Computers and Social Freedom (1970)29.

Toutes ces publications ont ceci en commun qu’elles procédèrent en deux étapes. La première consistait à dresser un tableau synthétique de la société américaine face à la captation des informations personnelles. Quatre termes peuvent résumer les enjeux du traitement des informations : 1) la légitimité de la captation des informations, 2) la permanence des données et leurs modes de rétention, 3) la transférabilité (entre différentes organisations), 4) la combinaison ou le recoupement de ces données et les informations ainsi inférées30.

La seconde étape consistait à choisir ce qui, dans cette « société du dossier (dossier society) » comme l’appelait Arthur R. Miller, devait faire l’objet de réformes. Deux fronts venaient en effet de s’ouvrir : l’État et les firmes.

Le premier, évident, était celui que la dystopie orwellienne pointait avec empressement : l’État de surveillance. Pour beaucoup de ces analystes, en effet, le fédéralisme américain et la multiplicité des agences gouvernementales pompaient allègrement la privacy des honnêtes citoyens et s’équipaient d’ordinateurs à temps partagé justement pour rendre interopérables les systèmes de traitement d’information à (trop) grande échelle. Un rapide coup d’œil sur les références citées, montre que, effectivement, la plupart des conclusions focalisaient sur le besoin d’adapter le droit aux impératifs constitutionnels américains. Tels sont par exemple les arguments de A. F. Westin pour lequel l’informatisation des données privées dans les différentes autorités administratives devait faire l’objet non d’un recul, mais de nouvelles règles portant sur la sécurité, l’accès des citoyens à leurs propres données et la pertinence des recoupements (comme par exemple l’utilisation restreinte du numéro de sécurité sociale). En guise de synthèse, le rapport de l’U.S. Department of health, Education and Welfare livré en 197331 (et où l’on retrouve Arthur R. Miller parmi les auteurs) repris ces éléments au titre de ses recommandations. Il prépara ainsi le Privacy Act de 1974, qui vise notamment à prévenir l’utilisation abusive de documents fédéraux et garantir l’accès des individus aux données enregistrées les concernant.

Le second front, tout aussi évident mais moins accessible car protégé par le droit de propriété, était celui de la récolte de données par les firmes, et en particulier les banques. L’un des auteurs les plus connus, Arthur R. Miller dans The assault on privacy, fit la synthèse des deux fronts en focalisant sur le fait que l’informatisation des données personnelles, par les agences gouvernementales comme par les firmes, est une forme de surveillance et donc un exercice du pouvoir. Se poser la question de leur légitimité renvoie effectivement à des secteurs différents du droit, mais c’est pour lui le traitement informatique (il utilise le terme « cybernétique ») qui est un instrument de surveillance par essence. Et cet instrument est orwellien :

« Il y a à peine dix ans, on aurait pu considérer avec suffisance Le meilleur des mondes de Huxley ou 1984 de Orwell comme des ouvrages de science-fiction excessifs qui ne nous concerneraient pas et encore moins ce pays. Mais les révélations publiques répandues au cours des dernières années au sujet des nouvelles formes de pratiques d’information ont fait s’envoler ce manteau réconfortant mais illusoire. »

Pourtant, un an avant la publication de Miller fut voté le Fair Credit Reporting Act, portant sur les obligations déclaratives des banques. Elle fut aussi l’une des premières lois sur la protection des données personnelles, permettant de protéger les individus, en particulier dans le secteur bancaire, contre la tenue de bases de données secrètes, la possibilité pour les individus d’accéder aux données et de les contester, et la limitation dans le temps de la rétention des informations.

Cependant, pour Miller, le Fair Credit Reporting Act est bien la preuve que la bureaucratie informatisée et le réseautage des données personnelles impliquent deux pertes de contrôle de la part de l’individu et pour lesquelles la régulation par le droit n’est qu’un pis-aller (pp. 25-38). On peut de même, en s’autorisant quelque anachronisme, s’apercevoir à quel point les deux types de perte de contrôles qu’il pointe nous sont éminemment contemporains.

  • The individual loss of control over personal information  : dans un contexte où les données sont mises en réseau et recoupées, dès lors qu’une information est traitée par informatique, le sujet et l’opérateur n’ont plus le contrôle sur les usages qui pourront en être faits. Sont en jeu la sécurité et l’intégrité des données (que faire en cas d’espionnage ? que faire en cas de fuite non maîtrisée des données vers d’autres opérateurs : doit-on exiger que les opérateurs en informent les individus ?).
  • The individual loss of control over the accuracy of his informational profil : la centralisation des données permet de regrouper de multiples aspects de la vie administrative et sociale de la personne, et de recouper toutes ces données pour en inférer des profils. Dans la mesure où nous assistons à une concentration des firmes par rachats successifs et l’émergence de monopoles (Miller prend toujours l’exemple des banques), qu’arrive-t-il si certaines données sont erronées ou si certains recoupements mettent en danger le droit à la vie privée : par exemple le rapport entre les données de santé, l’identité des individus et les crédits bancaires.

Et Miller de conclure (p. 79) :

« Ainsi, l’informatisation, le réseautage et la réduction de la concurrence ne manqueront pas de pousser l’industrie de l’information sur le crédit encore plus profondément dans le marasme du problème de la protection de la vie privée. »

Les échos du passé

La lutte pour la préservation de la vie privée dans une société numérisée passe par une identification des stratégies intentionnelles de la surveillance et par l’analyse des procédés d’extraction, rétention et traitement des données. La loi est-elle une réponse ? Oui, mais elle est loin de suffire. La littérature nord-américaine dont nous venons de discuter montre que l’économie de la surveillance dans le contexte du traitement informatisé des données personnelles est née il y a plus de 50 ans. Et dès le début il fut démontré, dans un pays où les droits individuels sont culturellement associés à l’organisation de l’État fédéral (la Déclaration des Droits), non seulement que la privacy changeait de nature (elle s’étend au traitement informatique des informations fournies et aux données inférées) mais aussi qu’un équilibre s’établissait entre le degré de sanctuarisation de la vie privée et les impératifs régaliens et économiques qui réclament une industrialisation de la surveillance.

Puisque l’intimité numérique n’est pas absolue mais le résultat d’un juste équilibre entre le droit et les pratiques, tout les jeux post-révolution informatique après les années 1960 consistèrent en une lutte perpétuelle entre défense et atteinte à la vie privée. C’est ce que montre Daniel J. Solove dans « A Brief History of Information Privacy Law »32 en dressant un inventaire chronologique des différentes réponses de la loi américaine face aux changements technologiques et leurs répercussions sur la vie privée.

Il reste néanmoins que la dimension industrielle de l’économie de la surveillance a atteint en 2001 un point de basculement à l’échelle mondiale avec le Patriot Act33 dans le contexte de la lutte contre le terrorisme. À partir de là, les principaux acteurs de cette économie ont vu une demande croissante de la part des États pour récolter des données au-delà des limites strictes de la loi sous couvert des dispositions propres à la sûreté nationale et au secret défense. Pour rester sur l’exemple américain, Thomas Rabino écrit à ce sujet34 :

« Alors que le Privacy Act de 1974 interdit aux agences fédérales de constituer des banques de données sur les citoyens américains, ces mêmes agences fédérales en font désormais l’acquisition auprès de sociétés qui, à l’instar de ChoicePoint, se sont spécialisées dans le stockage d’informations diverses. Depuis 2001, le FBI et d’autres agences fédérales ont conclu, dans la plus totale discrétion, de fructueux contrats avec ChoicePoint pour l’achat des renseignements amassés par cette entreprise d’un nouveau genre. En 2005, le budget des États-Unis consacrait plus de 30 millions de dollars à ce type d’activité. »

Dans un contexte plus récent, on peut affirmer que même si le risque terroriste est toujours agité comme un épouvantail pour justifier des atteintes toujours plus fortes à l’encontre de la vie privée, les intérêts économiques et la pression des lobbies ne peuvent plus se cacher derrière la Raison d’État. Si bien que plusieurs pays se mettent maintenant au diapason de l’avancement technologique et des impératifs de croissance économique justifiant par eux-mêmes des pratiques iniques. Ce fut le cas par exemple du gouvernement de Donald Trump qui, en mars 2017 et à la plus grande joie du lobby des fournisseurs d’accès, abroge une loi héritée du gouvernement précédent et qui exigeait que les FAI obtiennent sous conditions la permission de partager des renseignements personnels – y compris les données de localisation35.

Encore en mars 2017, c’est la secrétaire d’État à l’Intérieur Britannique Amber Rudd qui juge publiquement « inacceptable » le chiffrement des communications de bout en bout et demande aux fournisseurs de messagerie de créer discrètement des backdoors, c’est à dire renoncer au chiffrement de bout en bout sans le dire aux utilisateurs36. Indépendamment du caractère moralement discutable de cette injonction, on peut mesurer l’impact du message sur les entreprises comme Google, Facebook et consors : il existe des décideurs politiques capables de demander à ce qu’un fournisseur de services propose à ses utilisateurs un faux chiffrement, c’est-à-dire que le droit à la vie privée soit non seulement bafoué mais, de surcroît, que le mensonge exercé par les acteurs privés soit couvert par les acteurs publics, et donc par la loi.

Comme le montre Shoshana Zuboff, le capitalisme de surveillance est aussi une idéologie, celle qui instaure une hiérarchie entre les intérêts économiques et le droit. Le droit peut donc être une arme de lutte pour la sauvegarde de la vie privée dans l’économie de la surveillance, mais il ne saurait suffire dans la mesure où il n’y pas de loyauté entre les acteurs économiques et les sujets et parfois même encore moins entre les décideurs publics et les citoyens.

Dans ce contexte où la confiance n’est pas de mise, les portes sont restées ouvertes depuis les années 1970 pour créer l’industrie des big data dont le carburant principal est notre intimité, notre quotidienneté. C’est parce qu’il est désormais possible de repousser toujours un peu plus loin les limites de la captation des données personnelles que des théories économique prônent la fidélisation des clients et la prédiction de leurs comportements comme seuls points d’appui des investissements et de l’innovation. C’est vrai dans le marketing, c’est vrai dans les services et l’innovation numériques. Et tout naturellement c’est vrai dans la vie politique, comme le montre par exemple l’affaire des dark posts durant la campagne présidentielle de D. Trump : la possibilité de contrôler l’audience et d’influencer une campagne présidentielle via les réseaux sociaux comme Facebook est désormais démontrée.

Tant que ce modèle économique existera, aucune confiance ne sera possible. La confiance est même absente des pratiques elles-mêmes, en particulier dans le domaine du traitement algorithmique des informations. En septembre 2017, la chercheuse Zeynep Tufekci, lors d’une conférence TED37, reprenait exactement les questions d’Arthur R. Miller dans The assault on privacy, soit 46 ans après. Miller prenait comme étude de cas le stockage d’information bancaire sur les clients débiteurs, et Tufekci prend les cas des réservation de vols aériens en ligne et du streaming vidéo. Dans les deux réflexions, le constat est le même : le traitement informatique de nos données personnelles implique que nous (les sujets et les opérateurs eux-mêmes) perdions le contrôle sur ces données :

« Le problème, c’est que nous ne comprenons plus vraiment comment fonctionnent ces algorithmes complexes. Nous ne comprenons pas comment ils font cette catégorisation. Ce sont d’énormes matrices, des milliers de lignes et colonnes, peut-être même des millions, et ni les programmeurs, ni quiconque les regardant, même avec toutes les données, ne comprend plus comment ça opère exactement, pas plus que vous ne sauriez ce que je pense en ce moment si l’on vous montrait une coupe transversale de mon cerveau. C’est comme si nous ne programmions plus, nous élevons une intelligence que nous ne comprenons pas vraiment. »

Z. Tufekci montre même que les algorithmes de traitement sont en mesure de fournir des conclusions (qui permettent par exemple d’inciter les utilisateurs à visualiser des vidéos sélectionnées d’après leur profil et leur historique) mais que ces conclusions ont ceci de particulier qu’elle modélisent le comportement humain de manière à l’influencer dans l’intérêt du fournisseur. D’après Z. Tufekci : «  L’algorithme a déterminé que si vous pouvez pousser les gens à penser que vous pouvez leur montrer quelque chose de plus extrême (nda : des vidéos racistes dans l’exemple cité), ils ont plus de chances de rester sur le site à regarder vidéo sur vidéo, descendant dans le terrier du lapin pendant que Google leur sert des pubs. »

Ajoutons de même que les technologies de deep learning, financées par millions par les GAFAM, se prêtent particulièrement bien au jeu du traitement automatisé en cela qu’elle permettent, grâce à l’extrême croissance du nombre de données, de procéder par apprentissage. Cela permet à Facebook de structurer la grande majorité des données des utilisateurs qui, auparavant, n’était pas complètement exploitable38. Par exemple, sur les milliers de photos de chatons partagées par les utilisateurs, on peut soit se contenter de constater une redondance et ne pas les analyser davantage, soit apprendre à y reconnaître d’autres informations, comme par exemple l’apparition, en arrière-plan, d’un texte, d’une marque de produit, etc. Il en est de même pour la reconnaissance faciale, qui a surtout pour objectif de faire concorder les identités des personnes avec toutes les informations que l’on peut inférer à partir de l’image et du texte.

Si les techniques statistiques ont le plus souvent comme objectif de contrôler les comportements à l’échelle du groupe, c’est parce que le seul fait de catégoriser automatiquement les individus consiste à considérer que leurs données personnelles en constituent l’essence. L’économie de la surveillance démontre ainsi qu’il n’y a nul besoin de connaître une personne pour en prédire le comportement, et qu’il n’y a pas besoin de connaître chaque individu d’un groupe en particulier pour le catégoriser et prédire le comportement du groupe, il suffit de laisser faire les algorithmes : le tout est d’être en mesure de classer les sujets dans les bonnes catégories et même faire en sorte qu’ils y entrent tout à fait. Cela a pour effet de coincer littéralement les utilisateurs des services « capteurs de données » dans des bulles de filtres où les informations auxquelles ils ont accès leur sont personnalisées selon des profils calculés39. Si vous partagez une photo de votre chat devant votre cafetière, et que dernièrement vous avez visité des sites marchands, vous aurez de grandes chance pour vos futures annonces vous proposent la marque que vous possédez déjà et exercent, par effet de répétition, une pression si forte que c’est cette marque que vous finirez par acheter. Ce qui fonctionne pour le marketing peut très bien fonctionner pour d’autres objectifs, même politiques.

En somme tous les déterminants d’une société soumise au capitalisme de surveillance, apparus dès les années 1970, structurent le monde numérique d’aujourd’hui sans que les lois ne puissent jouer de rôle pleinement régulateur. L’usage caché et déloyal des big data, le trafic de données entre organisations, la dégradation des droits individuels (à commencer par la liberté d’expression et le droit à la vie privée), tous ces éléments ont permis à des monopoles d’imposer un modèle d’affaire et affaiblir l’État-nation. Combien de temps continuerons-nous à l’accepter ?

Sortir du marasme

En 2016, à la fin de son article synthétique sur le capitalisme de surveillance40, Shoshana Zuboff exprime personnellement un point de vue selon lequel la réponse ne peut pas être uniquement technologique :

« (…) les faits bruts du capitalisme de surveillance suscitent nécessairement mon indignation parce qu’ils rabaissent la dignité humaine. L’avenir de cette question dépendra des savants et journalistes indignés attirés par ce projet de frontière, des élus et des décideurs indignés qui comprennent que leur autorité provient des valeurs fondamentales des communautés démocratiques, et des citoyens indignés qui agissent en sachant que l’efficacité sans l’autonomie n’est pas efficace, la conformité induite par la dépendance n’est pas un contrat social et être libéré de l’incertitude n’est pas la liberté. »

L’incertitude au sujet des dérives du capitalisme de surveillance n’existe pas. Personne ne peut affirmer aujourd’hui qu’avec l’avènement des big data dans les stratégies économiques, on pouvait ignorer que leur usage déloyal était non seulement possible mais aussi que c’est bien cette direction qui fut choisie d’emblée dans l’intérêt des monopoles et en vertu de la centralisation des informations et des capitaux. Depuis les années 1970, plusieurs concepts ont cherché à exprimer la même chose. Pour n’en citer que quelques-uns : computocracie (M. Warner et M. Stone, 1970), société du dossier (Arthur R. Miller, 1971), surveillance de masse (J. Rule, 1973), dataveillance (R. Clarke, 1988), capitalisme de surveillance (Zuboff, 2015)… tous cherchent à démontrer que la surveillance des comportements par l’usage des données personnelles implique en retour la recherche collective de points de rupture avec le modèle économique et de gouvernance qui s’impose de manière déloyale. Cette recherche peut s’exprimer par le besoin d’une régulation démocratiquement décidée et avec des outils juridiques. Elle peut s’exprimer aussi autrement, de manière violente ou pacifiste, militante et/ou contre-culturelle.

Plusieurs individus, groupes et organisation se sont déjà manifestés dans l’histoire à ce propos. Les formes d’expression et d’action ont été diverses :

  • institutionnelles : les premières formes d’action pour garantir le droit à la vie privée ont consisté à établir des rapports collectifs préparatoires à des grandes lois, comme le rapport Records, computers and the rights of citizens, de 1973, cité plus haut ;
  • individualistes, antisociales et violentes : bien que s’inscrivant dans un contexte plus large de refus technologique, l’affaire Theodore Kaczynski (alias Unabomber) de 1978 à 1995 est un bon exemple d’orientation malheureuse que pourraient prendre quelques individus isolés trouvant des justifications dans un contexte paranoïaque ;
  • collectives – activistes – légitimistes : c’est le temps des manifestes cypherpunk des années 199041, ou plus récemment le mouvement Anonymous, auxquels on peut ajouter des collectifs « événementiels », comme le Jam Echelon Day ;
  • Associatives, organisées : on peut citer le mouvement pour le logiciel libre et la Free Software Foundation, l’Electronic Frontier Foundation, La Quadrature du Net, ou bien encore certaines branches d’activité d’organisation plus générales comme la Ligue des Droits de l’Homme, Reporter Sans Frontière, etc.

Les limites de l’attente démocratique sont néanmoins déjà connues. La société ne peut réagir de manière légale, par revendication interposée, qu’à partir du moment où l’exigence de transparence est remplie. Lorsqu’elle ne l’est pas, au pire les citoyens les plus actifs sont taxés de complotistes, au mieux apparaissent de manière épisodique des alertes, à l’image des révélations d’Edward Snowden, mais dont la fréquence est si rare malgré un impact psychologique certain, que la situation a tendance à s’enraciner dans un statu quo d’où sortent généralement vainqueurs ceux dont la capacité de lobbying est la plus forte.

À cela s’ajoute une difficulté technique due à l’extrême complexité des systèmes de surveillance à l’œuvre aujourd’hui, avec des algorithmes dont nous maîtrisons de moins en moins les processus de calcul (cf. Z. Tufekci). À ce propos on peut citer Roger Clarke42 :

« Dans une large mesure, la transparence a déjà été perdue, en partie du fait de la numérisation, et en partie à cause de l’application non pas des approches procédurales et d’outils de développement des logiciels algorithmiques du XXe siècle, mais à cause de logiciels de dernière génération dont la raison d’être est obscure ou à laquelle la notion de raison d’être n’est même pas applicable. »

Une autre option pourrait consister à mettre en œuvre un modèle alternatif qui permette de sortir du marasme économique dans lequel nous sommes visiblement coincés. Sans en faire l’article, le projet Contributopia de Framasoft cherche à participer, à sa mesure, à un processus collectif de réappropriation d’Internet et, partant:

  • montrer que le code est un bien public et que la transparence, grâce aux principes du logiciel libre (l’ouverture du code), permet de proposer aux individus un choix éclairé, à l’encontre de l’obscurantisme de la dataveillance ;
  • promouvoir des apprentissages à contre-courant des pratiques de captation des vies privées et vers des usages basés sur le partage (du code, de la connaissance) entre les utilisateurs ;
  • rendre les utilisateurs autonomes et en même temps contributeurs à un réseau collectif qui les amènera naturellement, par l’attention croissante portée aux pratiques des monopoles, à refuser ces pratiques, y compris de manière active en utilisant des solutions de chiffrement, par exemple.

Mais Contributopia de Framasoft ne concerne que quelques aspects des stratégies de sortie du capitalisme de surveillance. Par exemple, pour pouvoir œuvrer dans cet esprit, une politique rigide en faveur de la neutralité du réseau Internet doit être menée. Les entreprises et les institutions publiques doivent être aussi parmi les premières concernées, car il en va de leur autonomie numérique, que cela soit pour de simples questions économiques (ne pas dépendre de la bonne volonté d’un monopole et de la logique des brevets) mais aussi pour des questions de sécurité. Enfin, le passage du risque pour la vie privée au risque de manipulation sociale étant avéré, toutes les structures militantes en faveur de la démocratie et les droits de l’homme doivent urgemment porter leur attention sur le traitement des données personnelles. Le cas de la britannique Amber Rudd est loin d’être isolé : la plupart des gouvernements collaborent aujourd’hui avec les principaux monopoles de l’économie numérique et, donc, contribuent activement à l’émergence d’une société de la surveillance. Aujourd’hui, le droit à la vie privée, au chiffrement des communications, au secret des correspondances sont des droits à protéger coûte que coûte sans avoir à choisir entre la liberté et les épouvantails (ou les sirènes) agités par les communicants.

 




Google, nouvel avatar du capitalisme, celui de la surveillance

Nous avons la chance d’être autorisés à traduire et publier un long article qui nous tient à cœur : les idées et analyses qu’il développe justifient largement les actions que nous menons avec vous et pour le plus grand nombre.

Avant propos

Par Framatophe.

Dans ses plus récents travaux, Shoshana Zuboff procède à une analyse systématique de ce qu’elle appelle le capitalisme de surveillance. Il ne s’agit pas d’une critique du capitalisme-libéral en tant qu’idéologie, mais d’une analyse des mécanismes et des pratiques des acteurs dans la mesure où elles ont radicalement transformé notre système économique. En effet, avec la fin du XXe siècle, nous avons aussi vu la fin du (néo)libéralisme dans ce qu’il avait d’utopique, à savoir l’idée (plus ou moins vérifiée) qu’en situation d’abondance, chacun pouvait avoir la chance de produire et capitaliser. Cet égalitarisme, sur lequel s’appuient en réalité bien des ressorts démocratiques, est mis à mal par une nouvelle forme de capitalisme : un capitalisme submergé par des monopoles capables d’utiliser les technologies de l’information de manière à effacer la « libre concurrence » et modéliser les marchés à leurs convenances. La maîtrise de la production ne suffit plus : l’enjeu réside dans la connaissance des comportements. C’est de cette surveillance qu’il s’agit, y compris lorsqu’elle est instrumentalisée par d’autres acteurs, comme un effet de bord, telle la surveillance des États par des organismes peu scrupuleux.

La démarche intellectuelle de Shoshana Zuboff est très intéressante. Spécialiste au départ des questions managériales dans l’entreprise, elle a publié un ouvrage en 1988 intitulé In the Age Of The Smart Machine où elle montre comment les mécanismes productivistes, une fois dotés des moyens d’« informationnaliser » la division du travail et son contrôle (c’est-à-dire qu’à chaque fois que vous divisez un travail en plusieurs tâches vous pouvez en renseigner la procédure pour chacune et ainsi contrôler à la fois la production et les hommes), ont progressivement étendu l’usage des technologies de l’information à travers toutes les chaînes de production, puis les services, puis les processus de consommation, etc. C’est à partir de ces clés de lecture que nous pouvons alors aborder l’état de l’économie en général, et on s’aperçoit alors que l’usage (lui même générateur de profit) des Big Data consiste à maîtriser les processus de consommation et saper les mécanismes de concurrence qui étaient auparavant l’apanage revendiqué du libéralisme « classique ».

Ainsi, prenant l’exemple de Google, Shoshana Zuboff analyse les pratiques sauvages de l’extraction de données par ces grands acteurs économiques, à partir des individus, des sociétés, et surtout du quotidien, de nos intimités. Cette appropriation des données comportementales est un processus violent de marchandisation de la connaissance « sur » l’autre et de son contrôle. C’est ce que Shoshana Zuboff nomme Big Other :

« (Big Other) est un régime institutionnel, omniprésent, qui enregistre, modifie, commercialise l’expérience quotidienne, du grille-pain au corps biologique, de la communication à la pensée, de manière à établir de nouveaux chemins vers les bénéfices et les profits. Big Other est la puissance souveraine d’un futur proche qui annihile la liberté que l’on gagne avec les règles et les lois.» 1

Dans l’article ci-dessous, Shoshana Zuboff ne lève le voile que sur un avatar de ce capitalisme de surveillance, mais pas n’importe lequel : Google. En le comparant à ce qu’était General Motors, elle démontre comment l’appropriation des données comportementales par Google constitue en fait un changement de paradigme dans les mécanismes capitalistes : le capital, ce n’est plus le bien ou le stock (d’argent, de produits, de main-d’oeuvre etc.), c’est le comportement et la manière de le renseigner, c’est à dire l’information qu’une firme comme Google peut s’approprier.

Ce qui manquait à la littérature sur ces transformations de notre « société de l’information », c’étaient des clés de lecture capables de s’attaquer à des processus dont l’échelle est globale. On peut toujours en rester à Big Brother, on ne fait alors que se focaliser sur l’état de nos relations sociales dans un monde où le capitalisme de surveillance est un état de fait, comme une donnée naturelle. Au contraire, le capitalisme de surveillance dépasse les États ou toute forme de centralisation du pouvoir. Il est informel et pourtant systémique. Shoshana Zuboff nous donne les clés pour appréhender ces processus globaux, partagé par certaines firmes, où l’appropriation de l’information sur les individus est si totale qu’elle en vient à déposséder l’individu de l’information qu’il a sur lui-même, et même du sens de ses actions.

 

Shoshana Zuboff est professeur émérite à Charles Edward Wilson, Harvard Business School. Cet essai a été écrit pour une conférence en 2016 au Green Templeton College, Oxford. Son prochain livre à paraître en novembre 2017 s’intitule Maître ou Esclave : une lutte pour l’âme de notre civilisation de l’information et sera publié par Eichborn en Allemagne, et par Public Affairs aux États-Unis.

Les secrets du capitalisme de surveillance

par Shoshana Zuboff

Article original en anglais paru dans le Franfurter Allgemeine Zeitung : The Secrets of Surveillance Capitalism

Traduction originale : Dr. Virginia Alicia Hasenbalg-Corabianu, révision Framalang : mo, goofy, Mannik, Lumi, lyn

Le contrôle exercé par les gouvernements n’est rien comparé à celui que pratique Google. L’entreprise crée un genre entièrement nouveau de capitalisme, une logique d’accumulation systémique et cohérente que nous appelons le capitalisme de surveillance. Pouvons-nous y faire quelque chose ?

Nous devons faire face aux assauts menés par les appétits insatiables d’un tout nouveau genre de capitalisme : le capitalisme de surveillance. Image © ddp images

 

Google a dépassé Apple en janvier en devenant la plus grosse capitalisation boursière du monde, pour la première fois depuis 2010 (à l’époque, chacune des deux entreprises valait moins de 200 milliards de dollars; aujourd’hui, chacune est évaluée à plus de 500 milliards). Même si cette suprématie de Google n’a duré que quelques jours, le succès de cette entreprise a des implications pour tous ceux qui ont accès à Internet. Pourquoi ? Parce que Google est le point de départ pour une toute nouvelle forme de capitalisme dans laquelle les bénéfices découlent de la surveillance unilatérale ainsi que de la modification du comportement humain. Il s’agit d’une intrusion globale. Il s’agit d’un nouveau capitalisme de surveillance qui est inimaginable en dehors des insondables circuits à haute vitesse de l’univers numérique de Google, dont le vecteur est l’Internet et ses successeurs. Alors que le monde est fasciné par la confrontation entre Apple et le FBI, véritable réalité est que les capacités de surveillance d’espionnage en cours d’élaboration par les capitalistes de la surveillance sont enviées par toutes les agences de sécurité des États. Quels sont les secrets de ce nouveau capitalisme, comment les entreprises produisent-elles une richesse aussi stupéfiante, et comment pouvons-nous nous protéger de leur pouvoir envahissant ?

I. Nommer et apprivoiser

La plupart des Américains se rendent compte qu’il y a deux types de personnes qui sont régulièrement surveillées quand elles se déplacent dans le pays. Dans le premier groupe, celles qui sont surveillées contre leur volonté par un dispositif de localisation attaché à la cheville suite à une ordonnance du tribunal. Dans le second groupe, toutes les autres.

Certains estiment que cette affirmation est absolument fondée. D’autres craignent qu’elle ne puisse devenir vraie. Certains doivent penser que c’est ridicule. Ce n’est pas une citation issue d’un roman dystopique, d’un dirigeant de la Silicon Valley, ni même d’un fonctionnaire de la NSA. Ce sont les propos d’un consultant de l’industrie de l’assurance automobile, conçus comme un argument en faveur de « la télématique automobile » et des capacités de surveillance étonnamment intrusives des systèmes prétendument bénins déjà utilisés ou en développement. C’est une industrie qui a eu une attitude notoire d’exploitation de ses clients et des raisons évidentes d’être inquiète, pour son modèle économique, des implications des voitures sans conducteur. Aujourd’hui, les données sur l’endroit où nous sommes et celui où nous allons, sur ce que nous sentons, ce que nous disons, les détails de notre conduite, et les paramètres de notre véhicule se transforment en balises de revenus qui illuminent une nouvelle perspective commerciale. Selon la littérature de l’industrie, ces données peuvent être utilisées pour la modification en temps réel du comportement du conducteur, déclencher des punitions (hausses de taux en temps réel, pénalités financières, couvre-feux, verrouillages du moteur) ou des récompenses (réductions de taux, coupons à collectionner pour l’achat d’avantages futurs).

Bloomberg Business Week note que ces systèmes automobiles vont donner aux assureurs la possibilité d’augmenter leurs recettes en vendant des données sur la conduite de leur clientèle de la même manière que Google réalise des profits en recueillant et en vendant des informations sur ceux qui utilisent son moteur de recherche. Le PDG de Allstate Insurance veut être à la hauteur de Google. Il déclare : « Il y a beaucoup de gens qui font de la monétisation des données aujourd’hui. Vous allez chez Google et tout paraît gratuit. Ce n’est pas gratuit. Vous leur donnez des informations ; ils vendent vos informations. Pourrions-nous, devrions-nous vendre ces informations que nous obtenons des conducteurs à d’autres personnes, et réaliser ainsi une source de profit supplémentaire…? C’est une partie à long terme. »

Qui sont ces « autres personnes » et quelle est cette « partie à long terme » ? Il ne s’agit plus de l’envoi d’un catalogue de vente par correspondance ni le ciblage de la publicité en ligne. L’idée est de vendre l’accès en temps réel au flux de votre vie quotidienne – votre réalité – afin d’influencer et de modifier votre comportement pour en tirer profit. C’est la porte d’entrée vers un nouvel univers d’occasions de monétisation : des restaurants qui veulent être votre destination ; des fournisseurs de services qui veulent changer vos plaquettes de frein ; des boutiques qui vous attirent comme les sirènes des légendes. Les « autres personnes », c’est tout le monde, et tout le monde veut acheter un aspect  de votre comportement pour leur profit. Pas étonnant, alors, que Google ait récemment annoncé que ses cartes ne fourniront pas seulement l’itinéraire que vous recherchez, mais qu’elles suggéreront aussi une destination.

Le véritable objectif : modifier le comportement réel des gens, à grande échelle.

Ceci est juste un coup d’œil pris au vol d’une industrie, mais ces exemples se multiplient comme des cafards. Parmi les nombreux entretiens que j’ai menés au cours des trois dernières années, l’ingénieur responsable de la gestion et analyse de méga données d’une prestigieuse entreprise de la Silicon Valley qui développe des applications pour améliorer l’apprentissage des étudiants m’a dit : « Le but de tout ce que nous faisons est de modifier le comportement des gens à grand échelle. Lorsque les gens utilisent notre application, nous pouvons cerner leurs comportements, identifier les bons et les mauvais comportements, et développer des moyens de récompenser les bons et punir les mauvais. Nous pouvons tester à quel point nos indices sont fiables pour eux et rentables pour nous. »

L’idée même d’un produit efficace, abordable et fonctionnel puisse suffire aux échanges commerciaux est en train de mourir. L’entreprise de vêtements de sport Under Armour réinvente ses produits comme des technologies que l’on porte sur soi. Le PDG veut lui aussi ressembler à Google. Il dit : « Tout cela ressemble étrangement à ces annonces qui, à cause de votre historique de navigation, vous suivent quand vous êtes connecté à l’Internet (Internet ou l’internet), c’est justement là le problème – à ce détail près que Under Armour traque votre comportement réel, et que les données obtenues sont plus spécifiques… si vous incitez les gens à devenir de meilleurs athlètes ils auront encore plus besoin de notre équipement. » Les exemples de cette nouvelle logique sont infinis, des bouteilles de vodka intelligentes aux thermomètres rectaux reliés à Internet, et littéralement tout ce qu’il y a entre les deux. Un rapport de Goldman Sachs appelle une « ruée vers l’or » cette course vers « de gigantesques quantités de données ».

La bataille des données comportementales

Nous sommes entrés dans un territoire qui était jusqu’alors vierge. L’assaut sur les données de comportement progresse si rapidement qu’il ne peut plus être circonscrit par la notion de vie privée et sa revendication. Il y a un autre type de défi maintenant, celui qui menace l’idéal existentiel et politique de l’ordre libéral moderne défini par les principes de l’autodétermination constitué au cours des siècles, voire des millénaires. Je pense à des notions qui entre autres concernent dès le départ le caractère sacré de l’individu et les idéaux de l’égalité sociale ; le développement de l’identité, l’autonomie et le raisonnement moral ; l’intégrité du marché ; la liberté qui revient à la réalisation et l’accomplissement des promesses ; les normes et les règles de la collectivité ; les fonctions de la démocratie de marché ; l’intégrité politique des sociétés et l’avenir de la souveraineté démocratique. En temps et lieu, nous allons faire un bilan rétrospectif de la mise en place en Europe du « Droit à l’Oubli » et l’invalidation plus récente de l’Union européenne de la doctrine Safe Harbor2 comme les premiers jalons d’une prise en compte progressive des vraies dimensions de ce défi.

Il fut un temps où nous avons imputé la responsabilité de l’assaut sur les données comportementales à l’État et à ses agences de sécurité. Plus tard, nous avons également blâmé les pratiques rusées d’une poignée de banques, de courtiers en données et d’entreprises Internet. Certains attribuent l’attaque à un inévitable « âge des mégadonnées », comme s’il était possible de concevoir des données nées pures et irréprochables, des données en suspension dans un lieu céleste où les faits se subliment dans la vérité.

Le capitalisme a été piraté par la surveillance

Je suis arrivée à une conclusion différente : l’assaut auquel nous sommes confronté⋅e⋅s est conduit dans une large mesure par les appétits exceptionnels d’un tout nouveau genre du capitalisme, une nouvelle logique systémique et cohérente de l’accumulation que j’appelle le capitalisme de surveillance. Le capitalisme a été détourné par un projet de surveillance lucrative qui subvertit les mécanismes évolutifs « normaux » associés à son succès historique et qui corrompt le rapport entre l’offre et la demande qui, pendant des siècles, même imparfaitement, a lié le capitalisme aux véritables besoins de ses populations et des sociétés, permettant ainsi l’expansion fructueuse de la démocratie de marché.

© AFP Eric Schmidt siégeant à Google/Alphabet

Le capitalisme de surveillance est une mutation économique nouvelle, issue de l’accouplement clandestin entre l’énorme pouvoir du numérique avec l’indifférence radicale et le narcissisme intrinsèque du capitalisme financier, et la vision néolibérale qui a dominé le commerce depuis au moins trois décennies, en particulier dans les économies anglo-saxonnes. C’est une forme de marché sans précédent dont les racines se développent dans un espace de non-droit. Il a été découvert et consolidé par Google, puis adopté par Facebook et rapidement diffusé à travers l’Internet. Le cyberespace est son lieu de naissance car, comme le célèbrent Eric Schmidt, Président de Google/Alphabet, et son co-auteur Jared Cohen, à la toute première page de leur livre sur l’ère numérique, « le monde en ligne n’est vraiment pas attaché aux lois terrestres… Il est le plus grand espace ingouvernable au monde ».

Alors que le capitalisme de surveillance découvre les pouvoirs invasifs de l’Internet comme source d’accumulation de capital et de création de richesses, il est maintenant, comme je l’ai suggéré, prêt à transformer aussi les pratiques commerciales au sein du monde réel. On peut établir l’analogie avec la propagation rapide de la production de masse et de l’administration dans le monde industrialisé au début du XXe siècle, mais avec un bémol majeur. La production de masse était en interaction avec ses populations qui étaient ses consommateurs et ses salariés. En revanche, le capitalisme de surveillance se nourrit de populations dépendantes qui ne sont ni ses consommateurs, ni ses employés, mais largement ignorantes de ses pratiques.

L’accès à Internet, un droit humain fondamental

Nous nous étions jetés sur Internet pour y trouver réconfort et solutions, mais nos besoins pour une vie efficace ont été contrecarrés par les opérations lointaines et de plus en plus impitoyables du capitalisme de la fin du XXe siècle. Moins de deux décennies après l’introduction du navigateur web Mosaic auprès du public, qui permettait un accès facile au World Wide Web, un sondage BBC de 2010 a révélé que 79 % des personnes de 26 pays différents considéraient l’accès à l’Internet comme un droit humain fondamental. Tels sont les Charybde et Scylla de notre sort. Il est presque impossible d’imaginer la participation à une vie quotidienne efficace – de l’emploi à l’éducation, en passant par les soins de santé – sans pouvoir accéder à Internet et savoir s’en servir, même si ces espaces en réseau autrefois florissants s’avèrent être une forme nouvelle et plus forte d’asservissement. Il est arrivé rapidement et sans notre accord ou entente préalable. En effet, les préjudices les plus poignants du régime ont été difficiles à saisir ou à théoriser, brouillés par l’extrême vitesse et camouflés par des opérations techniques coûteuses et illisibles, des pratiques secrètes des entreprises, de fausses rhétoriques discursives, et des détournements culturels délibérés.

Apprivoiser cette nouvelle force nécessite qu’elle soit nommée correctement. Cette étroite interdépendance du nom et de l’apprivoisement est clairement illustrée dans l’histoire récente de la recherche sur le VIH que je vous propose comme analogie. Pendant trois décennies, les recherches des scientifiques visaient à créer un vaccin en suivant la logique des guérisons précédentes qui amenaient le système immunitaire à produire des anticorps neutralisants. Mais les données collectées et croisées ont révélé des comportements imprévus du virus VIH défiant les modèles obtenus auprès d’autres maladies infectieuses.

L’analogie avec la recherche contre le SIDA

La tendance a commencé à prendre une autre direction à la Conférence internationale sur le SIDA en 2012, lorsque de nouvelles stratégies ont été présentées reposant sur une compréhension plus adéquate de la biologie des quelques porteurs du VIH, dont le sang produit des anticorps naturels. La recherche a commencé à se déplacer vers des méthodes qui reproduisent cette réponse d’auto-vaccination. Un chercheur de pointe a annoncé : « Nous connaissons le visage de l’ennemi maintenant, et nous avons donc de véritables indices sur la façon d’aborder le problème. »

Ce qu’il nous faut en retenir : chaque vaccin efficace commence par une compréhension approfondie de la maladie ennemie. Nous avons tendance à compter sur des modèles intellectuels, des vocabulaires et des outils mis en place pour des catastrophes passées. Je pense aux cauchemars totalitaires du XXe siècle ou aux prédations monopolistiques du capitalisme de l’Âge d’Or. Mais les vaccins que nous avons développés pour lutter contre ces menaces précédentes ne sont pas suffisants ni même appropriés pour les nouveaux défis auxquels nous sommes confrontés. C’est comme si nous lancions des boules de neige sur un mur de marbre lisse pour ensuite les regarder glisser et ne laisser rien d’autre qu’une trace humide : une amende payée ici, un détour efficace là.

Une impasse de l’évolution

Je tiens à dire clairement que le capitalisme de surveillance n’est pas la seule modalité actuelle du capitalisme de l’information, ni le seul modèle possible pour l’avenir. Son raccourci vers l’accumulation du capital et l’institutionnalisation rapide, cependant, en a fait le modèle par défaut du capitalisme de l’information. Les questions que je pose sont les suivantes : est-ce que le capitalisme de surveillance devient la logique dominante de l’accumulation dans notre temps, ou ira-t-il vers une impasse dans son évolution – une poule avec des dents au terme de l’évolution capitaliste ? Qu’est-ce qu’un vaccin efficace impliquerait ? Quel pourrait être ce vaccin efficace ?

Le succès d’un traitement dépend de beaucoup d’adaptations individuelles, sociales et juridiques, mais je suis convaincue que la lutte contre la « maladie hostile » ne peut commencer sans une compréhension des nouveaux mécanismes qui rendent compte de la transformation réussie de l’investissement en capital par le capitalisme de surveillance. Cette problématique a été au centre de mon travail dans un nouveau livre, Maître ou Esclave : une lutte pour le cœur de notre civilisation de l’information, qui sera publié au début de l’année prochaine. Dans le court espace de cet essai, je voudrais partager certaines de mes réflexions sur ce problème.

II. L’avenir : le prédire et le vendre

Les nouvelles logiques économiques et leurs modèles commerciaux sont élaborés dans un temps et lieu donnés, puis perfectionnés par essais et erreurs. Ford a mis au point et systématisé la production de masse. General Motors a institutionnalisé la production en série comme une nouvelle phase du développement capitaliste avec la découverte et l’amélioration de l’administration à grande échelle et la gestion professionnelle. De nos jours, Google est au capitalisme de surveillance ce que Ford et General Motors étaient à la production en série et au capitalisme managérial il y a un siècle : le découvreur, l’inventeur, le pionnier, le modèle, le praticien chef, et le centre de diffusion.

Plus précisément, Google est le vaisseau amiral et le prototype d’une nouvelle logique économique basée sur la prédiction et sa vente, un métier ancien et éternellement lucratif qui a exploité la confrontation de l’être humain avec l’incertitude depuis le début de l’histoire humaine. Paradoxalement, la certitude de l’incertitude est à la fois une source durable d’anxiété et une de nos expériences les plus fructueuses. Elle a produit le besoin universel de confiance et de cohésion sociale, des systèmes d’organisation, de liaison familiale, et d’autorité légitime, du contrat comme reconnaissance formelle des droits et obligations réciproques, la théorie et la pratique de ce que nous appelons « le libre arbitre ». Quand nous éliminons l’incertitude, nous renonçons au besoin humain de lancer le défi de notre prévision face à un avenir toujours inconnu, au profit de la plate et constante conformité avec ce que d’autres veulent pour nous.

La publicité n’est qu’un facteur parmi d’autres

La plupart des gens attribuent le succès de Google à son modèle publicitaire. Mais les découvertes qui ont conduit à la croissance rapide du chiffre d’affaires de Google et à sa capitalisation boursière sont seulement incidemment liées à la publicité. Le succès de Google provient de sa capacité à prédire l’avenir, et plus particulièrement, l’avenir du comportement. Voici ce que je veux dire :

Dès ses débuts, Google a recueilli des données sur le comportement lié aux recherches des utilisateurs comme un sous-produit de son moteur de recherche. À l’époque, ces enregistrements de données ont été traités comme des déchets, même pas stockés méthodiquement ni mis en sécurité. Puis, la jeune entreprise a compris qu’ils pouvaient être utilisés pour développer et améliorer continuellement son moteur de recherche.

Le problème était le suivant : servir les utilisateurs avec des résultats de recherche incroyables « consommait » toute la valeur que les utilisateurs produisaient en fournissant par inadvertance des données comportementales. C’est un processus complet et autonome dans lequel les utilisateurs sont des « fins-en-soi ». Toute la valeur que les utilisateurs produisent était réinvestie pour simplifier l’utilisation sous forme de recherche améliorée. Dans ce cycle, il ne restait rien à  transformer en capital, pour Google. L’efficacité du moteur de recherche avait autant besoin de données comportementales des utilisateurs que les utilisateurs de la recherche. Faire payer des frais pour le service était trop risqué. Google était sympa, mais il n’était pas encore du capitalisme – seulement l’une des nombreuses startups de l’Internet qui se vantaient de voir loin, mais sans aucun revenu.

Un tournant dans l’usage des données comportementales

L’année 2001 a été celle de l’effervescence dans la bulle du dot.com avec des pressions croissantes des investisseurs sur Google. À l’époque, les annonceurs sélectionnaient les pages du terme de recherche pour les afficher. Google a décidé d’essayer d’augmenter ses revenus publicitaires en utilisant ses capacités analytiques déjà considérables dans l’objectif d’accroître la pertinence d’une publicité pour les utilisateurs – et donc sa valeur pour les annonceurs. Du point de vue opérationnel cela signifiait que Google allait enfin valoriser son trésor croissant de données comportementales. Désormais, les données allaient être aussi utilisées pour faire correspondre les publicités avec les des mots-clés, en exploitant les subtilités que seul l’accès à des données comportementales, associées à des capacités d’analyse, pouvait révéler.

Il est maintenant clair que ce changement dans l’utilisation des données comportementales a été un tournant historique. Les données comportementales qui avaient été rejetées ou ignorées ont été redécouvertes et sont devenues ce que j’appelle le surplus de comportement. Le succès spectaculaire de Google obtenu en faisant correspondre les annonces publicitaires aux pages a révélé la valeur transformationnelle de ce surplus comportemental comme moyen de générer des revenus et, finalement, de transformer l’investissement en capital. Le surplus comportemental était l’actif à coût zéro qui changeait la donne, et qui pouvait être détourné de l’amélioration du service au profit d’un véritable marché. La clé de cette formule, cependant, est que ce nouveau marché n’est pas le fruit d’un échange avec les utilisateurs, mais plutôt avec d’autres entreprises qui ont compris comment faire de l’argent en faisant des paris sur le comportement futur des utilisateurs. Dans ce nouveau contexte, les utilisateurs ne sont plus une fin en soi. Au contraire, ils sont devenus une source de profit d’un nouveau type de marché dans lequel ils ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont la source de matière première gratuite qui alimente un nouveau type de processus de fabrication.

© dapd voir le monde avec l’œil de Google : les Google Glass

Bien que ces faits soient connus, leur importance n’a pas été pleinement évaluée ni théorisée de manière adéquate. Ce qui vient de se passer a été la découverte d’une équation commerciale étonnamment rentable – une série de relations légitimes qui ont été progressivement institutionnalisées dans la logique économique sui generis du capitalisme de surveillance. Cela ressemble à une planète nouvellement repérée avec sa propre physique du temps et de l’espace, ses journées de soixante-sept heures, un ciel d’émeraude, des chaînes de montagnes inversées et de l’eau sèche.

Une forme de profit parasite

L’équation : tout d’abord, il est impératif de faire pression pour obtenir plus d’utilisateurs et plus de canaux, des services, des dispositifs, des lieux et des espaces de manière à avoir accès à une gamme toujours plus large de surplus de comportement. Les utilisateurs sont la ressource humaine naturelle qui fournit cette matière première gratuite.

En second lieu, la mise en œuvre de l’apprentissage informatique, de l’intelligence artificielle et de la science des données pour l’amélioration continue des algorithmes constitue un immense « moyen de production » du XXIe siècle coûteux, sophistiqué et exclusif.

Troisièmement, le nouveau processus de fabrication convertit le surplus de comportement en produits de prévision conçus pour prédire le comportement actuel et à venir.

Quatrièmement, ces produits de prévision sont vendus dans un nouveau type de méta-marché qui fait exclusivement commerce de comportements à venir. Plus le produit est prédictif, plus faible est le risque pour les acheteurs et plus le volume des ventes augmente. Les profits du capitalisme de surveillance proviennent principalement, sinon entièrement, de ces marchés du comportement futur.

Alors que les annonceurs ont été les acheteurs dominants au début de ce nouveau type de marché, il n’y a aucune raison de fond pour que de tels marchés soient réservés à ce groupe. La tendance déjà perceptible est que tout acteur ayant un intérêt à monétiser de l’information probabiliste sur notre comportement et/ou à influencer le comportement futur peut payer pour entrer sur un marché où sont exposées et vendues les ressources issues du comportement des individus, des groupes, des organismes, et les choses. Voici comment dans nos propres vies nous observons le capitalisme se déplacer sous nos yeux : au départ, les bénéfices provenaient de produits et services, puis de la spéculation, et maintenant de la surveillance. Cette dernière mutation peut aider à expliquer pourquoi l’explosion du numérique a échoué, jusqu’à présent, à avoir un impact décisif sur la croissance économique, étant donné que ses capacités sont détournées vers une forme de profit fondamentalement parasite.

III. Un péché non originel

L’importance du surplus de comportement a été rapidement camouflée, à la fois par Google et mais aussi par toute l’industrie de l’Internet, avec des étiquettes comme « restes numériques », « miettes numériques », et ainsi de suite. Ces euphémismes pour le surplus de comportement fonctionnent comme des filtres idéologiques, à l’instar des premières cartes géographiques du continent nord-américain qui marquaient des régions entières avec des termes comme « païens », « infidèles », « idolâtres », « primitifs », « vassaux » ou « rebelles ». En vertu de ces étiquettes, les peuples indigènes, leurs lieux et leurs revendications ont été effacés de la pensée morale et juridique des envahisseurs, légitimant leurs actes d’appropriation et de casse au nom de l’Église et la Monarchie.

Nous sommes aujourd’hui les peuples autochtones dont les exigences implicites d’autodétermination ont disparu des cartes de notre propre comportement. Elles sont effacées par un acte étonnant et audacieux de dépossession par la surveillance, qui revendique son droit d’ignorer toute limite à sa soif de connaissances et d’influence sur les nuances les plus fines de notre comportement. Pour ceux qui s’interrogent sur l’achèvement logique du processus global de marchandisation, la réponse est qu’ils achèvent eux-mêmes la spoliation de notre réalité quotidienne intime, qui apparaît maintenant comme un comportement à surveiller et à modifier, à acheter et à vendre.

Le processus qui a commencé dans le cyberespace reflète les développements capitalistes du dix-neuvième siècle qui ont précédé l’ère de l’impérialisme. À l’époque, comme Hannah Arendt le décrit dans Les Origines du totalitarisme, « les soi-disant lois du capitalisme ont été effectivement autorisées à créer des réalités » ainsi on est allé vers des régions moins développées où les lois n’ont pas suivi. « Le secret du nouvel accomplissement heureux », a-t-elle écrit, « était précisément que les lois économiques ne bloquaient plus la cupidité des classes possédantes. » Là, « l’argent pouvait finalement engendrer de l’argent », sans avoir à passer par « le long chemin de l’investissement dans la production… »

Le péché originel du simple vol

Pour Arendt, ces aventures du capital à l’étranger ont clarifié un mécanisme essentiel du capitalisme. Marx avait développé l’idée de « l’accumulation primitive » comme une théorie du Big-Bang – Arendt l’a appelé « le péché originel du simple vol » – dans lequel l’appropriation de terres et de ressources naturelles a été l’événement fondateur qui a permis l’accumulation du capital et l’émergence du système de marché. Les expansions capitalistes des années 1860 et 1870 ont démontré, écrit Arendt, que cette sorte de péché originel a dû être répété encore et encore, « de peur que le moteur de l’accumulation de capital ne s’éteigne soudainement ».

Dans son livre The New Imperialism, le géographe et théoricien social David Harvey s’appuie sur ce qu’il appelle « accumulation par dépossession ». « Ce que fait l’accumulation par dépossession » écrit-il, « c’est de libérer un ensemble d’actifs… à un très faible (et dans certains cas, zéro) coût ». Le capital sur-accumulé peut s’emparer de ces actifs et les transformer immédiatement en profit… Il peut aussi refléter les tentatives de certains entrepreneurs… de « rejoindre le système » et rechercher les avantages de l’accumulation du capital.

Brèche dans le « système »

Le processus qui permet que le « surplus de comportement » conduise à la découverte du capitalisme de surveillance illustre cette tendance. C’est l’acte fondateur de la spoliation au profit d’une nouvelle logique du capitalisme construite sur les bénéfices de la surveillance, qui a ouvert la possibilité pour Google de devenir une entreprise capitaliste. En effet, en 2002, première année rentable Google, le fondateur Sergey Brin savoura sa percée dans le « système », comme il l’a dit à Levy,

« Honnêtement, quand nous étions encore dans les jours du boom dot-com, je me sentais comme un idiot. J’avais une startup – comme tout le monde. Elle ne générait pas de profit, c’était le cas des autres aussi, était-ce si dur ? Mais quand nous sommes devenus rentables, j’ai senti que nous avions construit une véritable entreprise « .

Brin était un capitaliste, d’accord, mais c’était une mutation du capitalisme qui ne ressemblait à rien de tout ce que le monde avait vu jusqu’alors.

Une fois que nous comprenons ce raisonnement, il devient clair qu’exiger le droit à la vie privée à des capitalistes de la surveillance ou faire du lobbying pour mettre fin à la surveillance commerciale sur l’Internet c’est comme demander à Henry Ford de faire chaque modèle T à la main. C’est comme demander à une girafe de se raccourcir le cou ou à une vache de renoncer à ruminer. Ces exigences sont des menaces existentielles qui violent les mécanismes de base de la survie de l’entité. Comment pouvons-nous nous espérer que des entreprises dont l’existence économique dépend du surplus du comportement cessent volontairement la saisie des données du comportement ? C’est comme demander leur suicide.

Toujours plus de surplus comportemental avec Google

Les impératifs du capitalisme de surveillance impliquent qu’il faudra toujours plus de surplus comportemental pour que Google et d’autres les transforment en actifs de surveillance, les maîtrisent comme autant de prédictions, pour les vendre dans les marchés exclusifs du futur comportement et les transformer en capital. Chez Google et sa nouvelle société holding appelée Alphabet, par exemple, chaque opération et investissement vise à accroître la récolte de surplus du comportement des personnes, des organismes, de choses, de processus et de lieux à la fois dans le monde virtuel et dans le monde réel. Voilà comment un jour de soixante-sept heures se lève et obscurcit un ciel d’émeraude. Il faudra rien moins qu’une révolte sociale pour révoquer le consensus général à des pratiques visant à la dépossession du comportement et pour contester la prétention du capitalisme de surveillance à énoncer les données du destin.

Quel est le nouveau vaccin ? Nous devons ré-imaginer comment intervenir dans les mécanismes spécifiques qui produisent les bénéfices de la surveillance et, ce faisant, réaffirmer la primauté de l’ordre libéral dans le projet capitaliste du XXIe siècle. Dans le cadre de ce défi, nous devons être conscients du fait que contester Google, ou tout autre capitaliste de surveillance pour des raisons de monopole est une solution du XXe siècle à un problème du 20e siècle qui, tout en restant d’une importance vitale, ne perturbe pas nécessairement l’équation commerciale du capitalisme de surveillance. Nous avons besoin de nouvelles interventions qui interrompent, interdisent ou réglementent : 1) la capture initiale du surplus du comportement, 2) l’utilisation du surplus du comportement comme matière première gratuite, 3) des concentrations excessives et exclusives des nouveaux moyens de production, 4) la fabrication de produits de prévision, 5) la vente de produits de prévision, 6) l’utilisation des produits de prévision par des tiers pour des opérations de modification, d’influence et de contrôle, et 5) la monétisation des résultats de ces opérations. Tout cela est nécessaire pour la société, pour les personnes, pour l’avenir, et c’est également nécessaire pour rétablir une saine évolution du capitalisme lui-même.

IV. Un coup d’en haut

Dans la représentation classique des menaces sur la vie privée, le secret institutionnel a augmenté, et les droits à la vie privée ont été érodés. Mais ce cadrage est trompeur, car la vie privée et le secret ne sont pas opposés, mais plutôt des moments dans une séquence. Le secret est une conséquence ; la vie privée est la cause. L’exercice du droit à la vie privée a comme effet la possibilité de choisir, et l’on peut choisir de garder quelque chose en secret ou de le partager. Les droits à la vie privée confèrent donc les droits de décision, mais ces droits de décision ne sont que le couvercle sur la boîte de Pandore de l’ordre libéral. À l’intérieur de la boîte, les souverainetés politiques et économiques se rencontrent et se mélangent avec des causes encore plus profondes et plus subtiles : l’idée de l’individu, l’émergence de soi, l’expérience ressentie du libre arbitre.

Le capitalisme de surveillance ne dégrade pas ces droits à la décision – avec leurs causes et leurs conséquences – il les redistribue plutôt. Au lieu de nombreuses personnes ayant quelques « droits », ces derniers ont été concentrés à l’intérieur du régime de surveillance, créant ainsi une toute nouvelle dimension de l’inégalité sociale. Les implications de cette évolution me préoccupent depuis de nombreuses années, et mon sens du danger s’intensifie chaque jour. L’espace de cet essai ne me permet pas de poursuivre jusqu’à la conclusion, mais je vous propose d’en résumer l’essentiel.

Le capitalisme de surveillance va au-delà du terrain institutionnel classique de l’entreprise privée. Il accumule non seulement les actifs de surveillance et des capitaux, mais aussi des droits. Cette redistribution unilatérale des droits soutient un régime de conformité administré en privé fait de récompenses et des punitions en grande partie déliée de toute sanction. Il opère sans mécanismes significatifs de consentement, soit sous la forme traditionnelle d’un « exit, voice or loyalty »3 associé aux marchés, soit sous la forme d’un contrôle démocratique exprimé par des lois et des règlements.

Un pouvoir profondément antidémocratique

En conséquence, le capitalisme de surveillance évoque un pouvoir profondément anti-démocratique que l’on peut qualifier de coup d’en haut : pas un coup d’état, mais plutôt un coup contre les gens, un renversement de la souveraineté du peuple. Il défie les principes et les pratiques de l’autodétermination – dans la vie psychique et dans les relations sociales, le politique et la gouvernance – pour lesquels l’humanité a souffert longtemps et sacrifié beaucoup. Pour cette seule raison, ces principes ne doivent pas être confisqués pour la poursuite unilatérale d’un capitalisme défiguré. Pire encore serait leur forfait par notre propre ignorance, impuissance apprise, inattention, inconvenance, force de l’habitude, ou laisser aller. Tel est, je crois, le terrain sur lequel notre lutte pour l’avenir devra se dérouler.

Hannah Arendt a dit un jour que l’indignation est la réponse naturelle de l’homme à ce qui dégrade la dignité humaine. Se référant à son travail sur les origines du totalitarisme, elle a écrit : « Si je décris ces conditions sans permettre à mon indignation d’y intervenir, alors j’ai soulevé ce phénomène particulier hors de son contexte dans la société humaine et l’ai ainsi privé d’une partie de sa nature, privé de l’une de ses qualités intrinsèques importantes. »

C’est donc ainsi pour moi et peut-être pour vous : les faits bruts du capitalisme de surveillance suscitent nécessairement mon indignation parce qu’ils rabaissent la dignité humaine. L’avenir de cette question dépendra des savants et journalistes indignés attirés par ce projet de frontière, des élus et des décideurs indignés qui comprennent que leur autorité provient des valeurs fondamentales des communautés démocratiques, et des citoyens indignés qui agissent en sachant que l’efficacité sans l’autonomie n’est pas efficace, la conformité induite par la dépendance n’est pas un contrat social et être libéré de l’incertitude n’est pas la liberté.

—–

1. Shoshana Zuboff, « Big other : surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, p. 81.

2. Le 6 octobre 2015, la Cour de justice de l’Union européenne invalide l’accord Safe Harbor. La cour considère que les États-Unis n’offrent pas un niveau de protection adéquat aux données personnelles transférées et que les états membres peuvent vérifier si les transferts de données personnelles entre cet état et les États-Unis respectent les exigences de la directive européenne sur la protection des données personnelles.

3. Référence aux travaux de A. O. Hirschman sur la manière de gérer un mécontentement auprès d’une entreprise : faire défection (exit), ou prendre la parole (voice). La loyauté ayant son poids dans l’une ou l’autre décision.