Contra Chrome : une BD décapante maintenant en version française

Il y a loin de la promotion du navigateur Chrome à ses débuts, un outil cool au service des internautes, au constat de ce qu’il est devenu, une plateforme de prédation de Google, c’est ce que permet de mesurer la bande dessinée de Leah,

Contra Chrome est un véritable remix de la BD promotionnelle originale (lien vers le document sur google.com) que Leah Elliott s’est évertuée à détourner pour exposer la véritable nature de ce navigateur qui a conquis une hégémonie au point d’imposer ses règles au Web.

Nous avons trouvé malicieux et assez efficace son travail qui a consisté à conserver les images en leur donnant par de nouveaux textes un sens satirique et pédagogique pour démontrer la toxicité de Google Chrome.

La traduction qui est aujourd’hui disponible a été effectuée par les bénévoles de Framalang et par Calimero (qui a multiplié sans relâche les ultimes révisions). Voici en même temps que l’ouvrage, les réponses que Leah a aimablement accepté de faire à nos questions.

 

Bonjour, peux-tu te présenter brièvement pour nos lecteurs et lectrices…
Je m’appelle Leah et je suis autrice de bandes dessinées et artiste. J’ai une formation en art et en communication, et je n’ai jamais travaillé dans l’industrie technologique.

Est-ce que tu te considères comme une militante pour la préservation de la vie privée ?

Eh bien, le militantisme en matière de vie privée peut prendre de nombreuses formes. Parfois, c’est être lanceur d’alerte en fuitant des révélations, parfois c’est une bande dessinée, ou la simple installation d’une extension de navigateur comme Snowflake, avec laquelle vous pouvez donner aux dissidents des États totalitaires un accès anonyme à un internet non censuré.

Dans ce dernier sens, j’espère avoir été une militante avant de créer Contra Chrome, et j’espère l’être encore à l’avenir.

Comment t’es venue l’idée initiale de réaliser Contra Chrome ?

Ça s’est fait progressivement.

Lorsque la bande dessinée Chrome de Scott McCloud est sortie en 2008, je n’avais qu’une très vague idée du fonctionnement d’Internet et de la façon dont les entreprises récoltent et vendent mes données. Je me figurais essentiellement que je pouvais me cacher dans ce vaste chaos. Je pensais qu’ils récoltaient tellement de données aléatoires dans le monde entier qu’ils ne pouvaient pas espérer me trouver, moi petite aiguille dans cette botte de foin planétaire.

Et puis les révélations de Snowden ont éclaté, et il a dit : « Ne vous y trompez pas », en dévoilant tous les ignobles programmes de surveillance de masse. C’est alors que j’ai compris qu’ils ne se contenteraient pas de moissonner le foin, mais aussi des aiguilles.

Depuis, j’ai essayé de m’éduquer et d’adopter de meilleurs outils, découvrant au passage des logiciels libres et open source respectueux de la vie privée, dont certains des excellents services proposés par Framasoft.

Lorsque j’ai retrouvé la bande dessinée de McCloud quelque temps après les révélations de Snowden, j’ai soudain réalisé qu’il s’agissait d’un véritable trésor, il ne manquait que quelques pages…

Qu’est-ce qui t’a motivée, à partir de ce moment ?

L’indignation, principalement, et le besoin de faire quelque chose contre un statu quo scandaleux. Il y a un décalage tellement affreux entre la société que nous nous efforçons d’être, fondée sur des valeurs et les droits de l’homme, et les énormes structures d’entreprises barbares comme Google, qui récoltent agressivement des masses gigantesques de données personnelles sans jamais se soucier d’obtenir le consentement éclairé de l’utilisateur, sans aucune conscience de leurs responsabilités sur les retombées individuelles ou sociétales, et sans aucun égard pour les conséquences que cela a sur le processus démocratique lui-même.

En lisant Shoshana Zuboff, j’ai vu comment ce viol massif de données touche à la racine de la liberté personnelle de chacun de se forger sa propre opinion politique, et comment il renforce ainsi les régimes et les modes de pensée autoritaires.

Trop de gens n’ont aucune idée de ce qui est activé en continu 24 heures sur 24 au sein de leur propre maisons intelligente et sur les téléphones de leurs enfants, et je voulais contribuer à changer ça.

Certains aspects de la surveillance via le navigateur Chrome sont faciles à deviner, cependant ta BD va plus en profondeur et révèle la chronologie qui va des promesses rassurantes du lancement à la situation actuelle qui les trahit. Est-ce que tu as bénéficié d’aide de la part de la communauté des défenseurs de la vie privée sur certains aspects ou bien as-tu mené seule ton enquête ?

Comme on peut le voir dans les nombreuses annotations à la fin de la bande dessinée, il s’agit d’un énorme effort collectif. En fin de compte, je n’ai fait que rassembler et organiser les conclusions de tous ces militants, chercheurs et journalistes. J’ai également rencontré certains d’entre eux en personne, notamment des experts reconnus qui ont mené des recherches universitaires sur Google pendant de nombreuses années. Je leur suis très reconnaissante du temps qu’ils ont consacré à ma bande dessinée, qui n’aurait jamais existé sans cette communauté dynamique.

Pourquoi avoir choisi un « remix » ou plutôt un détournement de la BD promotionnelle, plutôt que de créer une bande dessinée personnelle avec les mêmes objectifs ?

En relisant la BD pro-Google de McCloud, j’ai constaté que, comme dans toute bonne bande dessinée, les images et le texte ne racontaient pas exactement la même histoire. Alors que le texte vantait les fonctionnalités du navigateur comme un bonimenteur sur le marché, certaines images me murmuraient à l’oreille qu’il existait un monde derrière la fenêtre du navigateur, où le contenu du cerveau des utilisateurs était transféré dans d’immenses nuages, leur comportement analysé par des rouages inquiétants tandis que des étrangers les observaient à travers un miroir sans tain.

Pour rendre ces murmures plus audibles, il me suffisait de réarranger certaines cases et bulles, un peu comme un puzzle à pièces mobiles. Lorsque les éléments se sont finalement mis en place un jour, ils se sont mis à parler d’une voix très claire et concise, et ont révélé beaucoup plus de choses sur Chrome que l’original.

Lawrence Lessig a expliqué un jour que, tout comme les essais critiques commentent les textes qu’ils citent, les œuvres de remixage commentent le matériel qu’elles utilisent. Dans mon cas, la BD originale de Chrome expliquait prétendument le fonctionnement de Chrome, et j’ai transformé ce matériel en une BD qui rend compte de son véritable fonctionnement.

Est-ce que tu as enregistré des réactions du côté de l’équipe de développement de Chrome ? Ou du côté de Scott Mc Cloud, l’auteur de la BD originale ?

Non, c’est le silence radio. Du côté de l’entreprise, il semble qu’il y ait eu quelques opérations de nettoyage à la Voldemort : Des employés de Google sur Reddit et Twitter, se sont conseillé mutuellement de ne pas créer de liens vers le site, de ne pas y réagir dans les fils de discussion publics, exigeant même parfois que les tweets contenant des images soient retirés.

Quant à Scott, rien non plus jusqu’à présent, et j’ai la même curiosité que vous.

Ton travail a suscité beaucoup d’intérêt dans diverses communautés, de sorte que les traductions plusieurs langues sont maintenant disponibles (anglais, allemand, français et d’autres à venir…). Tu t’attendais à un tel succès ?

Absolument pas. Le jour où je l’ai mis en ligne, il n’y a eu aucune réaction de qui que ce soit, et je me souviens avoir pensé : « bah, tu t’attendais à quoi d’autre, de toutes façons ? ». Je n’aurais jamais imaginé le raz-de-marée qui a suivi. Tant de personnes proposant des traductions, qui s’organisaient, tissaient des liens. Et tous ces messages de remerciement et de soutien, certaines personnes discutent de ma BD dans les écoles et les universités, d’autres l’impriment et la placent dans des espaces publics. Ça fait vraiment plaisir de voir tout ça.

Il y a une sorte de réconfort étrange dans le fait que tant d’êtres humains différents, de tous horizons et de tous les coins de la planète, partagent ma tristesse et mon horreur face au système du capitalisme de surveillance. Cette tristesse collective ne devrait pas me rendre heureuse, et pourtant elle me donne le courage de penser à un avenir très différent.

Quel navigateur utilises-tu au lieu de Chrome ? Lequel recommanderais-tu aux webnautes soucieux de préserver leur vie privée ?

Je suis peut-être allée un peu loin désormais, mais je pratique ce que je prêche dans la BD : pour 95 % de ma navigation, j’utilise simplement le navigateur Tor. Et lorsque Tor est bloqué ou lorsqu’une page ne fonctionne pas correctement, j’utilise Firefox avec quelques modifications et extensions pour améliorer la confidentialité.

Donc généralement, que je cherche des recettes de muffins, que je vérifie la météo ou que je lise les nouvelles, c’est toujours avec Tor. Parce que j’ai l’impression que le navigateur Tor ne peut prendre toute sa valeur que si suffisamment de personnes l’utilisent en même temps, pour qu’un brouillard suffisamment grand de non-sens triviaux entoure et protège les personnes vulnérables dont la sécurité dépend actuellement de son utilisation.

Pour moi, c’est donc une sorte de devoir civique en tant que citoyenne de la Terre. De plus, je peux parcourir mes recettes de muffins en ayant la certitude qu’il ne s’agit que d’un navigateur et non d’un miroir sans tain.

Merci Leah et à bientôt peut-être !


Cliquez sur l’image ci-dessous pour accéder à la version française de Contra chrome

 




Détruire le capitalisme de surveillance (3)

Voici une troisième partie de l’essai que consacre Cory Doctorow au capitalisme de surveillance (parcourir sur le blog les épisodes précédents – parcourir les trois premiers épisodes en PDF : doctorow-1-2-3). Il s’attache ici à démonter les mécanismes utilisés par les Gafam pour lutter contre nos facultés à échapper aux messages publicitaires, mais aussi pour faire croire aux publicitaires que leurs techniques sont magiquement efficaces. Il insiste également sur la quasi-impunité dont bénéficient jusqu’à présent les géants de la Tech…

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Traduction Framalang :  Claire, Fabrice, Gangsoleil, Goofy, Jums, Laure, Retrodev

Si les données sont le nouvel or noir, alors les forages du capitalisme de surveillance ont des fuites

par Cory Doctorow

La faculté d’adaptation des internautes explique l’une des caractéristiques les plus alarmantes du capitalisme de surveillance : son insatiable appétit de données et l’expansion infinie de sa capacité à collecter des données au travers de la diffusion de capteurs, de la surveillance en ligne, et de l’acquisition de flux de données de tiers.

Zuboff étudie ce phénomène et conclut que les données doivent valoir très cher si le capitalisme de surveillance en est aussi friand (selon ses termes : « Tout comme le capitalisme industriel était motivé par l’intensification continue des moyens de production, le capitalisme de surveillance et ses acteurs sont maintenant enfermés dans l’intensification continue des moyens de modification comportementale et dans la collecte des instruments de pouvoir. »). Et si cet appétit vorace venait du fait que ces données ont une demi-vie très courte, puisque les gens s’habituent très vite aux nouvelles techniques de persuasion fondées sur les données au point que les entreprises sont engagées dans un bras de fer sans fin avec notre système limbique ? Et si c’était une course de la Reine rouge d’Alice dans laquelle il faut courir de plus en plus vite collecter de plus en plus de données, pour conserver la même place ?

Bien sûr, toutes les techniques de persuasion des géants de la tech travaillent de concert les unes avec les autres, et la collecte de données est utile au-delà de la simple tromperie comportementale.

Si une personne veut vous recruter pour acheter un réfrigérateur ou participer à un pogrom, elle peut utiliser le profilage et le ciblage pour envoyer des messages à des gens avec lesquels elle estime avoir de bonnes perspectives commerciales. Ces messages eux-mêmes peuvent être mensongers et promouvoir des thèmes que vous ne connaissez pas bien (la sécurité alimentaire, l’efficacité énergétique, l’eugénisme ou des affirmations historiques sur la supériorité raciale). Elle peut recourir à l’optimisation des moteurs de recherche ou à des armées de faux critiques et commentateurs ou bien encore au placement payant pour dominer le discours afin que toute recherche d’informations complémentaires vous ramène à ses messages. Enfin, elle peut affiner les différents discours en utilisant l’apprentissage machine et d’autres techniques afin de déterminer quel type de discours convient le mieux à quelqu’un comme vous.

Chacune des phases de ce processus bénéficie de la surveillance : plus ils possèdent de données sur vous, plus leur profilage est précis et plus ils peuvent vous cibler avec des messages spécifiques. Pensez à la façon dont vous vendriez un réfrigérateur si vous saviez que la garantie de celui de votre client potentiel venait d’expirer et qu’il allait percevoir un remboursement d’impôts le mois suivant.

De plus, plus ils ont de données, mieux ils peuvent élaborer des messages trompeurs. Si je sais que vous aimez la généalogie, je n’essaierai pas de vous refourguer des thèses pseudo-scientifiques sur les différences génétiques entre les « races », et je m’en tiendrai plutôt aux conspirationnistes habituels du « grand remplacement ».

Facebook vous aide aussi à localiser les gens qui ont les mêmes opinions odieuses ou antisociales que vous. Il permet de trouver d’autres personnes avec qui porter des torches enflammées dans les rues de Charlottesville déguisé en Confédéré. Il peut vous aider à trouver d’autres personnes qui veulent rejoindre votre milice et aller à la frontière pour terroriser les migrants illégaux. Il peut vous aider à trouver d’autres personnes qui pensent aussi que les vaccins sont un poison et que la Terre est plate.

La publicité ciblée profite en réalité uniquement à ceux qui défendent des causes socialement inacceptables car elle est invisible. Le racisme est présent sur toute la planète, et il y a peu d’endroits où les racistes, et seulement eux, se réunissent. C’est une situation similaire à celle de la vente de réfrigérateurs là où les clients potentiels sont dispersés géographiquement, et où il y a peu d’endroits où vous pouvez acheter un encart publicitaire qui sera principalement vu par des acheteurs de frigo. Mais acheter un frigo est acceptable socialement, tandis qu’être un nazi ne l’est pas, donc quand vous achetez un panneau publicitaire ou quand vous faites de la pub dans la rubrique sports d’un journal pour vendre votre frigo, le seul risque c’est que votre publicité soit vue par beaucoup de gens qui ne veulent pas de frigo, et vous aurez jeté votre argent par la fenêtre.

Mais même si vous vouliez faire de la pub pour votre mouvement nazi sur un panneau publicitaire, à la télé en première partie de soirée ou dans les petites annonces de la rubrique sports, vous auriez du mal à trouver quelqu’un qui serait prêt à vous vendre de l’espace pour votre publicité, en partie parce qu’il ne serait pas d’accord avec vos idées, et aussi parce qu’il aurait peur des retombées négatives (boycott, mauvaise image, etc.) de la part de ceux qui ne partagent pas vos opinions.

Ce problème disparaît avec les publicités ciblées : sur Internet, les encarts de publicité peuvent être personnalisés, ce qui veut dire que vous pouvez acheter des publicités qui ne seront montrées qu’à ceux qui semblent être des nazis et pas à ceux qui les haïssent. Quand un slogan raciste est diffusé à quelqu’un qui hait le racisme, il en résulte certaines conséquences, et la plateforme ou la publication peut faire l’objet d’une dénonciation publique ou privée de la part de personnes outrées. Mais la nature des risques encourus par l’acheteur de publicités en ligne est bien différente des risques encourus par un éditeur ou un propriétaire de panneaux publicitaires classiques qui pourrait vouloir publier une pub nazie.

Les publicités en ligne sont placées par des algorithmes qui servent d’intermédiaires entre un écosystème diversifié de plateformes publicitaires en libre-service où chacun peut acheter une annonce. Ainsi, les slogans nazis qui s’immiscent sur votre site web préféré ne doivent pas être vus comme une atteinte à la morale mais plutôt comme le raté d’un fournisseur de publicité lointain. Lorsqu’un éditeur reçoit une plainte pour une publicité gênante diffusée sur un de ses sites, il peut engager une procédure pour bloquer la diffusion de cette publicité. Mais les nazis pourraient acheter une publicité légèrement différente auprès d’un autre intermédiaire qui diffuse aussi sur ce site. Quoi qu’il en soit, les internautes comprennent de plus en plus que quand une publicité s’affiche sur leur écran, il est probable que l’annonceur n’a pas choisi l’éditeur du site et que l’éditeur n’a pas la moindre idée de qui sont ses annonceurs.
Ces couches d’indétermination entre les annonceurs et les éditeurs tiennent lieu de tampon moral : il y a aujourd’hui un large consensus moral selon lequel les éditeurs ne devraient pas être tenus pour responsables des publicités qui apparaissent sur leurs pages car ils ne choisissent pas directement de les y placer. C’est ainsi que les nazis peuvent surmonter d’importants obstacles pour organiser leur mouvement.

Les données entretiennent une relation complexe avec la domination. La capacité à espionner vos clients peut vous alerter sur leurs préférences pour vos concurrents directs et vous permettre par la même occasion de prendre l’ascendant sur eux.

Mais surtout, si vous pouvez dominer l’espace informationnel tout en collectant des données, alors vous renforcez d’autres stratégies trompeuses, car il devient plus difficile d’échapper à la toile de tromperie que vous tissez. Ce ne sont pas les données elles-mêmes mais la domination, c’est-à-dire le fait d’atteindre, à terme, une position de monopole, qui rend ces stratégies viables, car la domination monopolistique prive votre cible de toute alternative.

Si vous êtes un nazi qui veut s’assurer que ses cibles voient en priorité des informations trompeuses, qui vont se confirmer à mesure que les recherches se poursuivent, vous pouvez améliorer vos chances en leur suggérant des mots-clefs à travers vos communications initiales. Vous n’avez pas besoin de vous positionner sur les dix premiers résultats de la recherche décourager électeurs de voter si vous pouvez convaincre vos cibles de n’utiliser que les mots clefs voter fraud (fraude électorale), qui retourneront des résultats de recherche très différents.

Les capitalistes de la surveillance sont comme des illusionnistes qui affirment que leur extraordinaire connaissance des comportements humains leur permet de deviner le mot que vous avez noté sur un bout de papier plié et placé dans votre poche, alors qu’en réalité ils s’appuient sur des complices, des caméras cachées, des tours de passe-passe et de leur mémoire développée pour vous bluffer.

Ou peut-être sont-ils des comme des artistes de la drague, cette secte misogyne qui promet d’aider les hommes maladroits à coucher avec des femmes en leur apprenant quelques rudiments de programmation neurolinguistique, des techniques de communication non verbale et des stratégies de manipulation psychologique telles que le « negging », qui consiste à faire des commentaires dévalorisant aux femmes pour réduire leur amour-propre et susciter leur intérêt.

Certains dragueurs parviennent peut-être à convaincre des femmes de les suivre, mais ce n’est pas parce que ces hommes ont découvert comment court-circuiter l’esprit critique des femmes. Le « succès » des dragueurs vient plutôt du fait qu’ils sont tombés sur des femmes qui n’étaient pas en état d’exprimer leur consentement, des femmes contraintes, des femmes en état d’ébriété, des femmes animées d’une pulsion autodestructrice et de quelques femmes qui, bien que sobres et disposant de toutes leurs facultés, n’ont pas immédiatement compris qu’elles fréquentaient des hommes horribles mais qui ont corrigé cette erreur dès qu’elles l’ont pu.

Les dragueurs se figurent qu’ils ont découvert une formule secrète qui court-circuite les facultés critiques des femmes, mais ce n’est pas le cas. La plupart des stratégies qu’ils déploient, comme le negging, sont devenues des sujets de plaisanteries (tout comme les gens plaisantent à propos des mauvaises campagnes publicitaires) et il est fort probable que ceux qui mettent en pratique ces stratégies avec les femmes ont de fortes chances d’être aussitôt démasqués, jetés et considérés comme de gros losers.

Les dragueurs sont la preuve que les gens peuvent croire qu’ils ont développé un système de contrôle de l’esprit même s’il ne marche pas. Ils s’appuient simplement sur le fait qu’une technique qui fonctionne une fois sur un million peut finir par se révéler payante si vous l’essayez un million de fois. Ils considèrent qu’ils ont juste mal appliqué la technique les autres 999 999 fois et se jurent de faire mieux la prochaine fois. Seul un groupe de personnes trouve ces histoires de dragueurs convaincantes, les aspirants dragueurs, que l’anxiété et l’insécurité rend vulnérables aux escrocs et aux cinglés qui les persuadent que, s’ils payent leur mentorat et suivent leurs instructions, ils réussiront un jour. Les dragueurs considèrent que, s’ils ne parviennent pas à séduire les femmes, c’est parce qu’ils ne sont pas de bons dragueurs, et non parce que les techniques de drague sont du grand n’importe quoi. Les dragueurs ne parviennent pas à se vendre auprès des femmes, mais ils sont bien meilleurs pour se vendre auprès des hommes qui payent pour apprendre leurs prétendues techniques de séduction.

« Je sais que la moitié des sommes que je dépense en publicité l’est en pure perte mais je ne sais pas de quelle moitié il s’agit. » déplorait John Wanamaker, pionnier des grands magasins.

Le fait que Wanamaker considérait que la moitié seulement de ses dépenses publicitaires avait été gaspillée témoigne de la capacité de persuasion des cadres commerciaux, qui sont bien meilleurs pour convaincre de potentiels clients d’acheter leurs services que pour convaincre le grand public d’acheter les produits de leurs clients.

Qu’est-ce que Facebook ?

On considère Facebook comme l’origine de tous nos fléaux actuels, et il n’est pas difficile de comprendre pourquoi. Certaines entreprises technologiques cherchent à enfermer leurs utilisateurs mais font leur beurre en gardant le monopole sur l’accès aux applications pour leurs appareils et en abusant largement sur leurs tarifs plutôt qu’en espionnant leurs clients (c’est le cas d’Apple). D’autres ne cherchent pas à enfermer leurs utilisateurs et utilisatrices parce que ces entreprises ont bien compris comment les espionner où qu’ils soient et quoi qu’elles fassent, et elles gagnent de l’argent avec cette surveillance (Google). Seul Facebook, parmi les géants de la tech, fait reposer son business à la fois sur le verrouillage de ses utilisateurs et leur espionnage constant.

Le type de surveillance qu’exerce Facebook est véritablement sans équivalent dans le monde occidental. Bien que Facebook s’efforce de se rendre le moins visible possible sur le Web public, en masquant ce qui s’y passe aux yeux des gens qui ne sont pas connectés à Facebook, l’entreprise a disposé des pièges sur la totalité du Web avec des outils de surveillance, sous forme de boutons « J’aime » que les producteurs de contenus insèrent sur leur site pour doper leur profil Facebook. L’entreprise crée également diverses bibliothèques logicielles et autres bouts de code à l’attention des développeurs qui fonctionnent comme des mouchards sur les pages où on les utilise (journaux parcourus, sites de rencontres, forums…), transmettant à Facebook des informations sur les visiteurs du site.

Les géants de la tech peuvent surveiller, non seulement parce qu’ils font de la tech mais aussi parce que ce sont des géants.

Facebook offre des outils du même genre aux développeurs d’applications, si bien que les applications que vous utilisez, que ce soit des jeux, des applis pétomanes, des services d’évaluation des entreprises ou du suivi scolaire enverront des informations sur vos activités à Facebook même si vous n’avez pas de compte Facebook, et même si vous n’utilisez ni ne téléchargez aucune application Facebook. Et par-dessus le marché, Facebook achète des données à des tiers pour connaître les habitudes d’achat, la géolocalisation, l’utilisation de cartes de fidélité, les transactions bancaires, etc., puis croise ces données avec les dossiers constitués d’après les activités sur Facebook, avec les applications et sur le Web général.

S’il est simple d’intégrer des éléments web dans Facebook – faire un lien vers un article de presse, par exemple – les produits de Facebook ne peuvent en général pas être intégrés sur le Web. Vous pouvez inclure un tweet dans une publication Facebook, mais si vous intégrez une publication Facebook dans un tweet, tout ce que vous obtiendrez est un lien vers Facebook qui vous demande de vous authentifier avant d’y accéder. Facebook a eu recours à des contre-mesures techniques et légales radicales pour que ses concurrents ne puissent pas donner la possibilité à leurs utilisateurs d’intégrer des fragments de Facebook dans des services rivaux, ou de créer des interfaces alternatives qui fusionneraient votre messagerie Facebook avec celle des autres services que vous utilisez.

Et Facebook est incroyablement populaire, avec 2,3 milliards d’utilisateurs annoncés (même si beaucoup considèrent que ce nombre est exagéré). Facebook a été utilisé pour organiser des pogroms génocidaires, des émeutes racistes, des mouvements antivaccins, des théories de la Terre plate et la carrière politique des autocrates les plus horribles et les plus autoritaires au monde. Des choses réellement alarmantes se produisent dans le monde et Facebook est impliqué dans bon nombre d’entre elles, il est donc assez facile de conclure que ces choses sont le résultat du système de contrôle mental de Facebook, mis à disposition de toute personne prête à y dépenser quelques dollars.

Pour comprendre le rôle joué par Facebook dans l’élaboration et la mobilisation des mouvements nuisibles à la société, nous devons comprendre la double nature de Facebook.

Parce qu’il a beaucoup d’utilisateurs et beaucoup de données sur ces utilisateurs, l’outil Facebook est très efficace pour identifier des personnes avec des caractéristiques difficiles à trouver, le genre de caractéristiques qui sont suffisamment bien disséminées dans la population pour que les publicitaires aient toujours eu du mal à les atteindre de manière rentable.

Revenons aux réfrigérateurs. La plupart d’entre nous ne remplaçons notre gros électro-ménager qu’un petit nombre de fois dans nos vies. Si vous êtes un fabricant ou un vendeur de réfrigérateurs, il n’y a que ces brèves fenêtres temporelles dans la vie des consommateurs au cours desquelles ils réfléchissent à un achat, et vous devez trouver un moyen pour les atteindre. Toute personne ayant déjà enregistré un changement de titre de propriété après l’achat d’une maison a pu constater que les fabricants d’électroménager s’efforcent avec l’énergie du désespoir d’atteindre quiconque pourrait la moindre chance d’être à la recherche d’un nouveau frigo.

Facebook rend la recherche d’acheteurs de réfrigérateurs beaucoup plus facile. Il permet de cibler des publicités à destination des personnes ayant enregistré l’achat d’une nouvelle maison, des personnes qui ont cherché des conseils pour l’achat de réfrigérateurs, de personnes qui se sont plaintes du dysfonctionnement de leur frigo, ou n’importe quelle combinaison de celles-ci. Il peut même cibler des personnes qui ont récemment acheté d’autres équipements de cuisine, en faisant l’hypothèse que quelqu’un venant de remplacer son four et son lave-vaisselle pourrait être d’humeur à acheter un frigo. La grande majorité des personnes qui sont ciblées par ces publicités ne seront pas à la recherche d’un nouveau frigo mais – et c’est le point crucial – le pourcentage de personnes à la recherche de frigo que ces publicités atteignent est bien plus élevé que celui du groupe atteint par les techniques traditionnelles de ciblage marketing hors-ligne.

Facebook rend également beaucoup plus simple le fait de trouver des personnes qui ont la même maladie rare que vous, ce qui aurait été peut-être impossible avant, le plus proche compagnon d’infortune pouvant se trouver à des centaines de kilomètres. Il rend plus simple de retrouver des personnes qui sont allées dans le même lycée que vous, bien que des décennies se soient écoulées et que vos anciens camarades se soient disséminés aux quatre coins de la planète.

Facebook rend également beaucoup plus simple de trouver des personnes ayant les mêmes opinions politiques minoritaires que vous. Si vous avez toujours eu une affinité secrète pour le socialisme, sans jamais oser la formuler à voix haute de peur de vous aliéner vos voisins, Facebook peut vous aider à découvrir d’autres personnes qui pensent la même chose que vous (et cela pourrait vous démontrer que votre affinité est plus commune que vous ne l’auriez imaginée). Il peut rendre plus facile de trouver des personnes qui ont la même identité sexuelle que vous. Et, à nouveau, il peut vous aider à comprendre que ce que vous considériez comme un secret honteux qui ne regarde que vous est en réalité un trait répandu, vous donnant ainsi le réconfort et le courage nécessaire pour en parler à vos proches.

Tout cela constitue un dilemme pour Facebook : le ciblage rend les publicités de la plateforme plus efficaces que les publicités traditionnelles, mais il permet également aux annonceurs de savoir précisément à quel point leurs publicités sont efficaces. Si les annonceurs sont satisfaits d’apprendre que les publicités de Facebook sont plus efficaces que celles de systèmes au ciblage moins perfectionné, les annonceurs peuvent aussi voir que, dans presque tous les cas, les personnes qui voient leurs publicités les ignorent. Ou alors, tout au mieux, que leurs publicités ne fonctionnent qu’à un niveau inconscient, créant des effets nébuleux impossibles à quantifier comme la « reconnaissance de marque ». Cela signifie que le prix par publicité est très réduit dans la quasi-totalité des cas.

Pour ne rien arranger, beaucoup de groupes Facebook n’hébergent que très peu de discussions. Votre équipe de football locale, les personnes qui ont la même maladie rare que vous et ceux dont vous partagez l’orientation politique peuvent échanger des rafales de messages dans les moments critiques forts mais, dans la vie de tous les jours, il n’y a pas grand-chose à raconter à vos anciens camarades de lycée et autres collectionneurs de vignettes de football.

S’il n’y avait que des discussions « saines », Facebook ne générerait pas assez de trafic pour vendre des publicités et amasser ainsi les sommes nécessaires pour continuellement se développer en rachetant ses concurrents, tout en reversant de coquettes sommes à ses investisseurs.

Facebook doit donc augmenter le trafic tout en détournant ses propres forums de discussion : chaque fois que l’algorithme de Facebook injecte de la matière à polémiques dans un groupe – brûlots politiques, théories du complot, faits-divers révoltants – il peut détourner l’objectif initial de ce groupe avec des discussions affligeantes et gonfler ainsi artificiellement ces échanges en les transformant en interminables disputes agressives et improductives. Facebook est optimisé pour l’engagement, pas pour le bonheur, et il se trouve que les systèmes automatisés sont plutôt performants pour trouver des choses qui vont mettre les gens en colère.

Facebook peut modifier notre comportement mais seulement en suivant quelques modalités ordinaires. Tout d’abord, il peut vous enfermer avec vos amis et votre famille pour que vous passiez votre temps à vérifier sans cesse sur Facebook ce qu’ils sont en train de faire. Ensuite, il peut vous mettre en colère ou vous angoisser. Il peut vous forcer à choisir entre être constamment interrompu par des mises à jour, un processus qui vous déconcentre et vous empêche de réfléchir, et rester indéfiniment en contact avec vos amis. Il s’agit donc d’une forme de contrôle mental très limitée, qui ne peut nous rendre que furieux, déprimés et angoissés.

C’est pourquoi les systèmes de ciblage de Facebook – autant ceux qu’il montre aux annonceurs que ceux qui permettent aux utilisateurs de trouver des personnes qui partagent les mêmes centres d’intérêt – sont si modernes, souples et faciles à utiliser, tandis que ses forums de discussion ont des fonctionnalités qui paraissent inchangées depuis le milieu des années 2000. Si Facebook offrait à ses utilisateurs un système de lecture de messages tout aussi souple et sophistiqué, ceux-ci pourraient se défendre contre les gros titres polémiques sur Donald Trump qui leur font saigner des yeux.

Plus vous passez de temps sur Facebook, plus il a de pubs à vous montrer. Comme les publicités sur Facebook ne marchent qu’une fois sur mille, leur solution est de tenter de multiplier par mille le temps que vous y passez. Au lieu de considérer Facebook comme une entreprise qui a trouvé un moyen de vous montrer la bonne publicité en obtenant de vous exactement ce que veulent les annonceurs publicitaires, considérez que c’est une entreprise qui sait parfaitement comment vous noyer dans un torrent permanent de controverses, même si elles vous rendent malheureux, de sorte que vous passiez tellement de temps sur le site que vous finissiez par voir au moins une pub qui va fonctionner pour vous.

Les monopoles et le droit au futur

Mme Zuboff et ceux qui la suivent sont particulièrement alarmés par l’influence de la surveillance des entreprises sur nos décisions. Cette influence nous prive de ce qu’elle appelle poétiquement « le droit au futur », c’est-à-dire le droit de décider par vous-même de ce que vous ferez à l’avenir.

Il est vrai que la publicité peut faire pencher la balance d’une manière ou d’une autre : lorsque vous envisagez d’acheter un frigo, une publicité pour un frigo qui vient juste à point peut mettre fin tout de suite à vos recherches. Mais Zuboff accorde un poids énorme et injustifié au pouvoir de persuasion des techniques d’influence basées sur la surveillance. La plupart d’entre elles ne fonctionnent pas très bien, et celles qui le font ne fonctionneront pas très longtemps. Les concepteurs de ces outils sont persuadés qu’ils les affineront un jour pour en faire des systèmes de contrôle total, mais on peut difficilement les considérer comme des observateurs sans parti-pris, et les risques que leurs rêves se réalisent sont très limités. En revanche, Zuboff est plutôt optimiste quant aux quarante années de pratiques antitrust laxistes qui ont permis à une poignée d’entreprises de dominer le Web, inaugurant une ère de l’information avec, comme l’a fait remarquer quelqu’un sur Twitter, cinq portails web géants remplis chacun de captures d’écran des quatre autres.

Cependant, si l’on doit s’inquiéter parce qu’on risque de perdre le droit de choisir nous-mêmes de quoi sera fait notre avenir, alors les préjudices tangibles et immédiats devraient être au cœur de nos débats sur les politiques technologiques, et non les préjudices potentiels décrit par Zuboff.

Commençons avec la « gestion des droits numériques ». En 1998, Bill Clinton promulgue le Digital Millennium Copyright Act (DMCA). Cette loi complexe comporte de nombreuses clauses controversées, mais aucune ne l’est plus que la section 1201, la règle « anti-contournement ».

Il s’agit d’une interdiction générale de modifier les systèmes qui limitent l’accès aux œuvres protégées par le copyright. L’interdiction est si stricte qu’elle interdit de retirer le verrou de copyright même si aucune violation de copyright n’a eut lieu. C’est dans la conception même du texte : les activités, que l’article 1201 du DMCA vise à interdire, ne sont pas des violations du copyright ; il s’agit plutôt d’activités légales qui contrarient les plans commerciaux des fabricants.

Par exemple, la première application majeure de la section 1201 a visé les lecteurs de DVD comme moyen de faire respecter le codage par « région » intégré dans ces appareils. Le DVD-CCA, l’organisme qui a normalisé les DVD et les lecteurs de DVD, a divisé le monde en six régions et a précisé que les lecteurs de DVD doivent vérifier chaque disque pour déterminer dans quelles régions il est autorisé à être lu. Les lecteurs de DVD devaient avoir leur propre région correspondante (un lecteur de DVD acheté aux États-Unis serait de la région 1, tandis qu’un lecteur acheté en Inde serait de la région 5). Si le lecteur et la région du disque correspondent, le lecteur lira le disque ; sinon, il le rejettera.

Pourtant, regarder un DVD acheté légalement dans un autre pays que celui dans lequel vous vous situez n’est pas une violation de copyright – bien au contraire. Les lois du copyright n’imposent qu’une seule obligation aux consommateurs de films : vous devez aller dans un magasin, trouver un DVD autorisé, et payer le prix demandé. Si vous faites cela – et rien de plus – tout ira bien.

Le fait qu’un studio de cinéma veuille faire payer les Indiens moins cher que les Américains, ou sortir un film plus tard en Australie qu’au Royaume-Uni n’a rien à voir avec les lois sur le copyright. Une fois que vous avez légalement acquis un DVD, ce n’est pas une violation du copyright que de le regarder depuis l’endroit où vous vous trouvez.

Donc les producteurs de DVD et de lecteurs de disques ne pourraient pas employer les accusations de complicité de violations du copyright pour punir les producteurs de lecteurs lisant des disques de n’importe quelle région, ou les ateliers de réparation qui ont modifié les lecteurs pour vous laisser regarder des disques achetés hors de votre région, ou encore les développeurs de logiciels qui ont créé des programmes pour vous aider à le faire.
C’est là que la section 1201 du DCMA entre en jeu : en interdisant de toucher aux contrôles d’accès, la loi a donné aux producteurs et aux ayants droit la possibilité de poursuivre en justice leurs concurrents qui produisent des produits supérieurs avec des caractéristiques très demandées par le marché (en l’occurrence, des lecteurs de disques sans restriction de région).

C’est une arnaque ignoble contre les consommateurs, mais, avec le temps, le champ de la section 1201 s’est étendu pour inclure toute une constellation grandissante d’appareils et de services, car certains producteurs malins ont compris un certain nombre de choses :

  • Tout appareil doté d’un logiciel contient une « œuvre protégée par copyright » (le logiciel en question).
  • Un appareil peut être conçu pour pouvoir reconfigurer son logiciel et contourner le « moyen de contrôle d’accès à une œuvre protégée par copyright », un délit d’après la section 1201.
  • Par conséquent, les entreprises peuvent contrôler le comportement de leurs consommateurs après qu’ils ont rapporté leurs achats à la maison. Elles peuvent en effet concevoir des produits pour que toutes les utilisations interdites demandent des modifications qui tombent sous le coup de la section 1201.

Cette section devient alors un moyen pour tout fabricant de contraindre ses clients à agir au profit de leurs actionnaires plutôt que dans l’intérêt des clients.
Cela se manifeste de nombreuses façons : une nouvelle génération d’imprimantes à jet d’encre utilisant des contre-mesures qui empêchent l’utilisation d’encre d’autres marques et qui ne peuvent être contournées sans risques juridiques, ou des systèmes similaires dans les tracteurs qui empêchent les réparateurs d’échanger les pièces du fabricant, car elles ne sont pas reconnues par le système du tracteur tant qu’un code de déverrouillage du fabricant n’est pas saisi.

Plus proches des particuliers, les iPhones d’Apple utilisent ces mesures pour empêcher à la fois les services de tierce partie et l’installation de logiciels tiers. Cela permet à Apple, et non à l’acheteur de l’iPhone, de décider quand celui-ci est irréparable et doit être réduit en pièces et jeté en déchetterie (l’entreprise Apple est connue pour sa politique écologiquement catastrophique qui consiste à détruire les vieux appareils électroniques plutôt que de permettre leur recyclage pour en récupérer les pièces). C’est un pouvoir très utile à exercer, surtout à la lumière de l’avertissement du PDG Tim Cook aux investisseurs en janvier 2019 : les profits de la société sont en danger si les clients choisissent de conserver leur téléphone plutôt que de le remplacer.
L’utilisation par Apple de verrous de copyright lui permet également d’établir un monopole sur la manière dont ses clients achètent des logiciels pour leurs téléphones. Les conditions commerciales de l’App Store garantissent à Apple une part de tous les revenus générés par les applications qui y sont vendues, ce qui signifie qu’Apple gagne de l’argent lorsque vous achetez une application dans son magasin et continue à gagner de l’argent chaque fois que vous achetez quelque chose en utilisant cette application. Cette situation retombe au final sur les développeurs de logiciels, qui doivent soit facturer plus cher, soit accepter des profits moindres sur leurs produits.

Il est important de comprendre que l’utilisation par Apple des verrous de copyright lui donne le pouvoir de prendre des décisions éditoriales sur les applications que vous pouvez ou ne pouvez pas installer sur votre propre appareil. Apple a utilisé ce pouvoir pour rejeter les dictionnaires qui contiennent des mots obscènes ; ou pour limiter certains discours politiques, en particulier les applications qui diffusent des propos politiques controversés, comme cette application qui vous avertit chaque fois qu’un drone américain tue quelqu’un quelque part dans le monde ; ou pour s’opposer à un jeu qui commente le conflit israélo-palestinien.

Apple justifie souvent son pouvoir monopolistique sur l’installation de logiciels au nom de la sécurité, en arguant que le contrôle des applications de sa boutique lui permet de protéger ses utilisateurs contre les applications qui contiennent du code qui surveille les utilisateurs. Mais ce pouvoir est à double tranchant. En Chine, le gouvernement a ordonné à Apple d’interdire la vente d’outils de protection de vie privée, comme les VPN, à l’exception de ceux dans lesquels des failles de sécurité ont délibérément été introduites pour permettre à l’État chinois d’écouter les utilisateurs. Étant donné qu’Apple utilise des contre-mesures technologiques – avec des mesures de protection légales – pour empêcher les clients d’installer des applications non autorisées, les propriétaires chinois d’iPhone ne peuvent pas facilement (ou légalement) se connecter à des VPN qui les protégeraient de l’espionnage de l’État chinois.

Zuboff décrit le capitalisme de surveillance comme un « capitalisme voyou ». Les théoriciens du capitalisme prétendent que sa vertu est d’agréger des informations relatives aux décisions des consommateurs, produisant ainsi des marchés efficaces. Le prétendu pouvoir du capitalisme de surveillance, de priver ses victimes de leur libre‑arbitre grâce à des campagnes d’influence surchargées de calculs, signifie que nos marchés n’agrègent plus les décisions des consommateurs parce que nous, les clients, ne décidons plus – nous sommes aux ordres des rayons de contrôle mental du capitalisme de surveillance.

Si notre problème c’est que les marchés cessent de fonctionner lorsque les consommateurs ne peuvent plus faire de choix, alors les verrous du copyright devraient nous préoccuper au moins autant que les campagnes d’influence. Une campagne d’influence peut vous pousser à acheter une certaine marque de téléphone, mais les verrous du copyright sur ce téléphone déterminent où vous pouvez l’utiliser, quelles applications peuvent fonctionner dessus et quand vous devez le jeter plutôt que le réparer.

Le classement des résultats de recherche et le droit au futur

Les marchés sont parfois présentés comme une sorte de formule magique : en découvrant des informations qui pourraient rester cachées mais sont transmises par le libre choix des consommateurs, les connaissances locales de ces derniers sont intégrées dans un système auto‑correcteur qui améliore les correspondances entre les résultats – de manière plus efficace que ce qu’un ordinateur pourrait calculer. Mais les monopoles sont incompatibles avec ce processus. Lorsque vous n’avez qu’un seul magasin d’applications, c’est le propriétaire du magasin, et non le consommateur, qui décide de l’éventail des choix. Comme l’a dit un jour Boss Tweed « peu importe qui gagne les élections, du moment que c’est moi qui fais les nominations ». Un marché monopolistique est une élection dont les candidats sont choisis par le monopole.

Ce trucage des votes est rendu plus toxique par l’existence de monopoles sur le classement des résultats. La part de marché de Google dans le domaine de la recherche est d’environ 90 %. Lorsque l’algorithme de classement de Google place dans son top 10 un résultat pour un terme de recherche populaire, cela détermine le comportement de millions de personnes. Si la réponse de Google à la question « Les vaccins sont-ils dangereux ? » est une page qui réfute les théories du complot anti-vax, alors une partie non négligeable du grand public apprendra que les vaccins sont sûrs. Si, en revanche, Google envoie ces personnes sur un site qui met en avant les conspirations anti-vax, une part non-négligeable de ces millions de personnes ressortira convaincue que les vaccins sont dangereux.

L’algorithme de Google est souvent détourné pour fournir de la désinformation comme principal résultat de recherche. Mais dans ces cas-là, Google ne persuade pas les gens de changer d’avis, il ne fait que présenter quelque chose de faux comme une vérité alors même que l’utilisateur n’a aucune raison d’en douter.

C’est vrai peu importe que la recherche porte sur « Les vaccins sont-ils dangereux ? » ou bien sur « meilleurs restaurants près de chez moi ». La plupart des utilisateurs ne regarderont jamais au-delà de la première page de résultats de recherche, et lorsque l’écrasante majorité des gens utilisent le même moteur de recherche, l’algorithme de classement utilisé par ce moteur de recherche aura déterminé une myriade de conséquences (adopter ou non un enfant, se faire opérer du cancer, où dîner, où déménager, où postuler pour un emploi) dans une proportion qui dépasse largement les résultats comportementaux dictés par les techniques de persuasion algorithmiques.

Beaucoup des questions que nous posons aux moteurs de recherche n’ont pas de réponses empiriquement correctes : « Où pourrais-je dîner ? » n’est pas une question objective. Même les questions qui ont des réponses objectives (« Les vaccins sont-ils dangereux ? ») n’ont pas de source empiriquement supérieure pour ces réponses. De nombreuses pages confirment l’innocuité des vaccins, alors laquelle afficher en premier ? Selon les règles de la concurrence, les consommateurs peuvent choisir parmi de nombreux moteurs de recherche et s’en tenir à celui dont le verdict algorithmique leur convient le mieux, mais en cas de monopole, nos réponses proviennent toutes du même endroit.

La domination de Google dans le domaine de la recherche n’est pas une simple question de mérite : pour atteindre sa position dominante, l’entreprise a utilisé de nombreuses tactiques qui auraient été interdites en vertu des normes antitrust classiques d’avant l’ère Reagan. Après tout, il s’agit d’une entreprise qui a développé deux produits majeurs : un très bon moteur de recherche et un assez bon clone de Hotmail. Tous ses autres grands succès, Android, YouTube, Google Maps, etc., ont été obtenus grâce à l’acquisition d’un concurrent naissant. De nombreuses branches clés de l’entreprise, comme la technologie publicitaire DoubleClick, violent le principe historique de séparation structurelle de la concurrence, qui interdisait aux entreprises de posséder des filiales en concurrence avec leurs clients. Les chemins de fer, par exemple, se sont vus interdire la possession de sociétés de fret qui auraient concurrencé les affréteurs dont ils transportent le fret.

Si nous craignons que les entreprises géantes ne détournent les marchés en privant les consommateurs de leur capacité à faire librement leurs choix, alors une application rigoureuse de la législation antitrust semble être un excellent remède. Si nous avions refusé à Google le droit d’effectuer ses nombreuses fusions, nous lui aurions probablement aussi refusé sa domination totale dans le domaine de la recherche. Sans cette domination, les théories, préjugés et erreurs (et le bon jugement aussi) des ingénieurs de recherche et des chefs de produits de Google n’auraient pas eu un effet aussi disproportionné sur le choix des consommateurs..

Cela vaut pour beaucoup d’autres entreprises. Amazon, l’entreprise type du capitalisme de surveillance, est évidemment l’outil dominant pour la recherche sur Amazon, bien que de nombreuses personnes arrivent sur Amazon après des recherches sur Google ou des messages sur Facebook. Évidemment, Amazon contrôle la recherche sur Amazon. Cela signifie que les choix éditoriaux et intéressés d’Amazon, comme la promotion de ses propres marques par rapport aux produits concurrents de ses vendeurs, ainsi que ses théories, ses préjugés et ses erreurs, déterminent une grande partie de ce que nous achetons sur Amazon. Et comme Amazon est le détaillant dominant du commerce électronique en dehors de la Chine et qu’elle a atteint cette domination en rachetant à la fois de grands rivaux et des concurrents naissants au mépris des règles antitrust historiques, nous pouvons reprocher à ce monopole de priver les consommateurs de leur droit à l’avenir et de leur capacité à façonner les marchés en faisant des choix raisonnés.

Tous les monopoles ne sont pas des capitalistes de surveillance, mais cela ne signifie pas qu’ils ne sont pas capables de façonner les choix des consommateurs de multiples façons. Zuboff fait l’éloge d’Apple pour son App Store et son iTunes Store, en insistant sur le fait qu’afficher le prix des fonctionnalités de ses plateformes était une recette secrète pour résister à la surveillance et ainsi créer de nouveaux marchés. Mais Apple est le seul détaillant autorisé à vendre sur ses plateformes, et c’est le deuxième plus grand vendeur d’appareils mobiles au monde. Les éditeurs de logiciels indépendants qui vendent sur le marché d’Apple accusent l’entreprise des mêmes vices de surveillance qu’Amazon et autres grands détaillants : espionner ses clients pour trouver de nouveaux produits lucratifs à lancer, utiliser efficacement les éditeurs de logiciels indépendants comme des prospecteurs de marché libre, puis les forcer à quitter tous les marchés qu’ils découvrent.

Avec l’utilisation des verrous de copyright, les clients qui possèdent un iPhone ne sont pas légalement autorisés à changer de distributeurs d’applications. Apple, évidemment, est la seule entité qui peut décider de la manière dont elle classe les résultats de recherche sur son store. Ces décisions garantissent que certaines applications sont souvent installées (parce qu’elles apparaissent dès la première page) et d’autres ne le sont jamais (parce qu’elles apparaissent sur la millionième page). Les décisions d’Apple en matière de classement des résultats de recherche ont un impact bien plus important sur les comportements des consommateurs que les campagnes d’influence des robots publicitaires du capitalisme de surveillance.

 

Les monopoles ont les moyens d’endormir les chiens de garde

Les idéologues du marché les plus fanatiques sont les seuls à penser que les marchés peuvent s’autoréguler sans contrôle de l’État. Pour rester honnêtes, les marchés ont besoin de chiens de garde : régulateurs, législateurs et autres représentants du contrôle démocratique. Lorsque ces chiens de garde s’endorment sur la tâche, les marchés cessent d’agréger les choix des consommateurs parce que ces choix sont limités par des activités illégitimes et trompeuses dont les entreprises peuvent se servir sans risques parce que personne ne leur demande des comptes.

Mais ce type de tutelle réglementaire a un coût élevé. Dans les secteurs concurrentiels, où la concurrence passe son temps à grappiller les marges des autres, les entreprises individuelles n’ont pas les excédents de capitaux nécessaires pour faire pression efficacement en faveur de lois et de réglementations qui serviraient leurs objectifs.

Beaucoup des préjudices causés par le capitalisme de surveillance sont le résultat d’une réglementation trop faible ou même inexistante. Ces vides réglementaires viennent du pouvoir des monopoles qui peuvent s’opposer à une réglementation plus stricte et adapter la réglementation existante pour continuer à exercer leurs activités telles quelles.

Voici un exemple : quand les entreprises collectent trop de données et les conservent trop longtemps, elles courent un risque accru de subir une fuite de données. En effet, vous ne pouvez pas divulguer des données que vous n’avez jamais collectées, et une fois que vous avez supprimé toutes les copies de ces données, vous ne pouvez plus risquer de les fuiter. Depuis plus d’une décennie, nous assistons à un festival ininterrompu de fuites de données de plus en plus graves, plus effrayantes les unes que les autres de par l’ampleur des violations et la sensibilité des données concernées.

Mais les entreprises persistent malgré tout à moissonner et conserver en trop grand nombre nos données pour trois raisons :

1. Elles sont enfermées dans cette course aux armements émotionnels (évoquée plus haut) avec notre capacité à renforcer nos systèmes de défense attentionnelle pour résister à leurs nouvelles techniques de persuasion. Elles sont également enfermées dans une course à l’armement avec leurs concurrents pour trouver de nouvelles façons de cibler les gens. Dès qu’elles découvrent un point faible dans nos défenses attentionnelles (une façon contre-intuitive et non évidente de cibler les acheteurs potentiels de réfrigérateurs), le public commence à prendre conscience de la tactique, et leurs concurrents s’y mettent également, hâtant le jour où tous les acheteurs potentiels de réfrigérateurs auront été initiés à cette tactique.

2. Elles souscrivent à cette belle croyance qu’est le capitalisme de surveillance. Les données sont peu coûteuses à agréger et à stocker, et les partisans, tout comme les opposants, du capitalisme de surveillance ont assuré aux managers et concepteurs de produits que si vous collectez suffisamment de données, vous pourrez pratiquer la sorcellerie du marketing pour contrôler les esprits ce qui fera grimper vos ventes. Même si vous ne savez pas comment tirer profit de ces données, quelqu’un d’autre finira par vous proposer de vous les acheter pour essayer. C’est la marque de toutes les bulles économiques : acquérir un bien en supposant que quelqu’un d’autre vous l’achètera à un prix plus élevé que celui que vous avez payé, souvent pour le vendre à quelqu’un d’autre à un prix encore plus élevé.

3. Les sanctions pour fuite de données sont négligeables. La plupart des pays limitent ces pénalités aux dommages réels, ce qui signifie que les consommateurs dont les données ont fuité doivent prouver qu’ils ont subi un préjudice financier réel pour obtenir réparation. En 2014, Home Depot a révélé qu’ils avaient perdu les données des cartes de crédit de 53 millions de ses clients, mais a réglé l’affaire en payant ces clients environ 0,34 $ chacun – et un tiers de ces 0,34 $ n’a même pas été payé en espèces. Cette réparation s’est matérialisée sous la forme d’un crédit pour se procurer un service de contrôle de crédit largement inefficace.

Mais les dégâts causés par les fuites sont beaucoup plus importants que ce que peuvent traiter ces règles sur les dommages réels. Les voleurs d’identité et les fraudeurs sont rusés et infiniment inventifs. Toutes les grandes fuites de données de notre époque sont continuellement recombinées, les ensembles de données sont fusionnés et exploités pour trouver de nouvelles façons de s’en prendre aux propriétaires de ces données. Toute politique raisonnable, fondée sur des preuves, de la dissuasion et de l’indemnisation des violations ne se limiterait pas aux dommages réels, mais permettrait plutôt aux utilisateurs de réclamer compensation pour ces préjudices à venir.

Quoi qu’il en soit, même les réglementations les plus ambitieuses sur la protection de la vie privée, telles que le règlement général de l’UE sur la protection des données, sont loin de prendre en compte les conséquences négatives de la collecte et de la conservation excessives et désinvoltes des données par les plateformes, et les sanctions qu’elles prévoient ne sont pas appliquées de façon assez agressive par ceux qui doivent les appliquer.

Cette tolérance, ou indifférence, à l’égard de la collecte et de la conservation excessives des données peut être attribuée en partie à la puissance de lobbying des plateformes. Ces plateformes sont si rentables qu’elles peuvent facilement se permettre de détourner des sommes gigantesques pour lutter contre tout changement réel – c’est-à-dire un changement qui les obligerait à internaliser les coûts de leurs activités de surveillance.
Et puis il y a la surveillance d’État, que l’histoire du capitalisme de surveillance rejette comme une relique d’une autre époque où la grande inquiétude était d’être emprisonné pour un discours subversif, et non de voir son libre‑arbitre dépouillé par l’apprentissage machine.

Mais la surveillance d’État et la surveillance privée sont intimement liées. Comme nous l’avons vu lorsque Apple a été enrôlé par le gouvernement chinois comme collaborateur majeur de la surveillance d’État. La seule manière abordable et efficace de mener une surveillance de masse à l’échelle pratiquée par les États modernes, qu’ils soient « libres » ou autocratiques, est de mettre sous leur coupe les services commerciaux.

Toute limitation stricte du capitalisme de surveillance paralyserait la capacité de surveillance d’État, qu’il s’agisse de l’utilisation de Google comme outil de localisation par les forces de l’ordre locales aux États-Unis ou du suivi des médias sociaux par le Département de la sécurité intérieure pour constituer des dossiers sur les participants aux manifestations contre la politique de séparation des familles des services de l’immigration et des douanes (ICE).

Sans Palantir, Amazon, Google et autres grands entrepreneurs technologiques, les flics états-uniens ne pourraient pas espionner la population noire comme ils le font, l’ICE ne pourrait pas gérer la mise en cage des enfants à la frontière américaine et les systèmes d’aides sociales des États ne pourraient pas purger leurs listes en déguisant la cruauté en empirisme et en prétendant que les personnes pauvres et vulnérables n’ont pas droit à une aide. On peut attribuer à cette relation symbiotique une partie de la réticence des États à prendre des mesures significatives pour réduire la surveillance. Il n’y a pas de surveillance d’État de masse sans surveillance commerciale de masse.

Le monopole est la clé du projet de surveillance massive d’État. Il est vrai que les petites entreprises technologiques sont susceptibles d’être moins bien défendues que les grandes, dont les experts en sécurité font partie des meilleurs dans leur domaine, elles disposent également d’énormes ressources pour sécuriser et surveiller leurs systèmes contre les intrusions. Mais les petites entreprises ont également moins à protéger : moins d’utilisateurs, des données plus fragmentées sur un plus grand nombre de systèmes et qui doivent être demandées une par une par les acteurs étatiques.

Un secteur technologique centralisé qui travaille avec les autorités est un allié beaucoup plus puissant dans le projet de surveillance massive d’État qu’un secteur fragmenté composé d’acteurs plus petits. Le secteur technologique états-unien est suffisamment petit pour que tous ses cadres supérieurs se retrouvent autour d’une seule table de conférence dans la Trump Tower en 2017, peu après l’inauguration de l’immeuble. La plupart de ses plus gros acteurs candidatent pour remporter le JEDI, le contrat à 10 milliards de dollars du Pentagone pour mettre en place une infrastructure de défense commune dans le cloud. Comme d’autres industries fortement concentrées, les géants de la tech font pantoufler leurs employés clés dans le service public. Ils les envoient servir au Ministère de la Défense et à la Maison Blanche, puis engagent des cadres et des officiers supérieurs de l’ex-Pentagone et de l’ex-DOD pour travailler dans leurs propres services de relations avec les gouvernements.

Ils ont même de bons arguments pour ça : après tout, quand il n’existe que quatre ou cinq grandes entreprises dans un secteur industriel, toute personne qualifiée pour contrôler la réglementation de ces entreprises a occupé un poste de direction dans au moins deux d’entre elles. De même, lorsqu’il n’y a que cinq entreprises dans un secteur, toute personne qualifiée pour occuper un poste de direction dans l’une d’entre elles travaille par définition dans l’une des autres.

 

(à suivre… )




Détruire le capitalisme de surveillance (2)

Voici une deuxième partie de l’essai que consacre Cory Doctorow au capitalisme de surveillance (si vous avez raté les épisodes précédents.) Il y aborde les diverses techniques de manipulation et captation de l’internaute-client utilisées sans vergogne par les grandes entreprises hégémoniques. Celles-ci se heurtent cependant à une sorte d’immunité acquise générale à ces techniques, ne faisant de victimes à long terme que parmi les plus vulnérables.

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Traduction Framalang : goofy, jums, Mannik, Pierre-Emmanuel Largeron, Sphinx

Ne vous fiez pas à ce qu’ils vous disent

par Cory Doctorow

Vous avez probablement déjà entendu dire : « si c’est gratuit, c’est vous le produit ». Comme nous le verrons plus loin, c’est vrai, mais incomplet. En revanche, ce qui est absolument vrai, c’est que les annonceurs sont les clients des géants de la tech accros à la pub et que les entreprises comme Google ou Facebook vendent leurs capacités à vous convaincre d’acheter. La came des géants de la tech, c’est la persuasion. Leurs services (réseaux sociaux, moteurs de recherche, cartographie, messagerie, et tout le reste) ne sont que des moyens de fournir cette persuasion.

La peur du capitalisme de surveillance part du principe (justifié) que tout ce que les géants de la tech racontent sur eux-mêmes est sûrement un mensonge. Mais cette critique admet une exception quand il s’agit des prétentions émises par les géants de la tech dans leurs documentations marketing, plus précisément leur matraquage continu autour de l’efficacité de leurs produits dans les présentations destinées à de potentiels annonceurs numériques en ligne, ainsi que dans les séminaires de technologies publicitaires : on considère qu’ils sont aussi doués pour nous influencer qu’ils le prétendent lorsqu’ils vendent leurs systèmes de persuasion aux clients crédules. C’est une erreur, car les documents marketing ne sont pas un indicateur fiable de l’efficacité d’un produit.

Le capitalisme de surveillance considère qu’au vu de l’important volume d’achat des annonceurs auprès des géants de la tech, ces derniers doivent sûrement vendre quelque chose pour de bon. Mais ces ventes massives peuvent tout aussi bien être le résultat d’un fantasme généralisé ou de quelque chose d’encore plus pernicieux : un contrôle monopolistique sur nos communications et nos échanges commerciaux.

Être surveillé modifie notre comportement et pas pour le meilleur. La surveillance crée des risques pour notre progrès social. Le livre de Zuboff propose des explications particulièrement lumineuses de ce phénomène. Mais elle prétend aussi que la surveillance nous dérobe littéralement notre liberté : ainsi, lorsque nos données personnelles sont mélangées avec de l’apprentissage machine, cela crée un système de persuasion tellement dévastateur que nous sommes démunis face à lui. Autrement dit, Facebook utilise un algorithme qui analyse des données de votre vie quotidienne, extraites sans consentement, afin de personnaliser votre fil d’actualité pour vous pousser à acheter des trucs. On dirait un rayon de contrôle mental sorti tout droit d’une BD des années 50, manipulé par des savants fous dont les supercalculateurs leur assurent une domination totale et perpétuelle sur le monde.

Qu’est-ce que la persuasion ?

Pour comprendre pourquoi vous ne devriez pas vous inquiéter du rayon de contrôle mental, mais bien plutôt de la surveillance et des géants de la tech, nous devons commencer par décortiquer ce que nous entendons par « persuasion ».

Google, Facebook et les autres capitalistes de la surveillance promettent à leurs clients (les annonceurs) qu’en utilisant des outils d’apprentissage machine entraînés sur des jeux de données de taille inimaginable, constitués d’informations personnelles récoltées sans consentement, ils seront capables de découvrir des moyens de contourner les capacités de rationalisation du public et de contrôler le comportement de ce dernier, provoquant ainsi des cascades d’achats, de votes ou autres effets recherchés.

L’impact de la domination excède de loin celui de la manipulation et devrait être central dans notre analyse et dans tous les remèdes que nous envisageons.

Mais il existe peu d’indices pour prouver que cela se déroule ainsi. En fait, les prédictions que le capitalisme de surveillance fournit à ses clients sont bien moins impressionnantes qu’elles ne le prétendent. Plutôt que de chercher à passer outre votre rationalité, les capitalistes de la surveillance comme Mark Zuckerberg pratiquent essentiellement une au moins des trois choses suivantes :

1. Segmentation

Si vous êtes vendeur de couches-culottes, vous aurez plus de chance d’en vendre en démarchant les personnes présentes dans les maternités. Toutes les personnes qui entrent ou sortent d’une maternité ne viennent pas d’avoir un bébé et toutes celles qui ont un bébé ne sont pas consommatrices de couches. Mais avoir un bébé est fortement corrélé avec le fait d’être un consommateur de couches et se trouver dans une maternité est hautement corrélé avec le fait d’avoir un bébé. Par conséquent, il y a des publicités pour les couches autour des maternités (et même des démarcheurs de produits pour bébés qui hantent les couloirs des maternités avec des paniers remplis de cadeaux).

Le capitalisme de surveillance, c’est de la segmentation puissance un milliard. Les vendeurs de couches peuvent aller bien au-delà des personnes présentes dans les maternités (bien qu’ils puissent aussi faire ça avec, par exemple, des publicités mobiles basées sur la géolocalisation). Ils peuvent vous cibler selon que vous lisiez des articles sur l’éducation des enfants, les couches-culottes ou une foule d’autres sujets, et l’analyse des données peut suggérer des mots-clés peu évidents à cibler. Ils peuvent vous cibler sur la base d’articles que vous avez récemment lus. Ils peuvent vous cibler sur la base de ce que vous avez récemment acheté. Ils peuvent vous cibler sur la base des e-mails ou des messages privés que vous recevez concernant ces sujets, et même si vous mentionnez ces sujets à voix haute (bien que Facebook et consorts jurent leurs grands dieux que ce n’est pas le cas, du moins pour le moment).

C’est franchement effrayant.

Mais ce n’est pas du contrôle mental.

Cela ne vous prive pas de votre libre-arbitre. Cela ne vous leurre pas.

Pensez à la manière dont le capitalisme de surveillance fonctionne en politique. Les entreprises du capitalisme de surveillance vendent aux professionnels de la politique la capacité de repérer ceux qui pourraient être réceptifs à leurs argumentaires. Les candidats qui font campagne sur la corruption du secteur financier sont à la recherche de personnes étranglées par les dettes, ceux qui utilisent la xénophobie recherchent des personnes racistes. Ces communicants ont toujours ciblé leurs messages, peu importe que leurs intentions soient honorables ou non : les syndicalistes font leurs discours aux portes des usines et les suprémacistes blancs distribuent leurs prospectus lors des réunions de l’association conservatrice John Birch Society.

Mais c’est un travail imprécis, et donc épuisant. Les syndicalistes ne peuvent pas savoir quel ouvrier approcher à la sortie de l’usine et peuvent perdre leur temps avec un membre discret de la John Birch Society ; le suprémaciste blanc ne sait pas quels membres de la Birch sont tellement délirants qu’assister à une réunion est le maximum qu’ils peuvent faire, et lesquels peuvent être convaincus de traverser le pays pour brandir une torche de jardin Tiki dans les rues de Charlottesville, en Virginie.

Comme le ciblage augmente le rendement des discours politiques, il peut bouleverser le paysage politique, en permettant à tous ceux qui espéraient secrètement le renversement d’un autocrate (ou juste d’un politicien indéboulonnable) de trouver toutes les personnes qui partagent leurs idées, et ce, à un prix dérisoire. Le ciblage est devenu essentiel à la cristallisation rapide des récents mouvements politiques tels que Black Lives Matter ou Occupy Wall Street, ainsi qu’à des acteurs moins présentables comme les mouvements des nationalistes blancs d’extrême-droite qui ont manifesté à Charlottesville.

Il est important de différencier ce type d’organisation politique des campagnes de communication. Trouver des personnes secrètement d’accord avec vous n’est en effet pas la même chose que de convaincre des gens de le devenir. L’essor de phénomènes comme les personnes non-binaires ou autres identités de genres non-conformistes est souvent décrit par les réactionnaires comme étant le résultat de campagnes en ligne de lavage de cerveaux qui ont pour but de convaincre des personnes influençables qu’elles sont secrètement queer depuis le début.

Mais les témoignages de ceux qui ont fait leur coming-out racontent une tout autre histoire, dans laquelle les personnes qui ont longtemps gardé secret leur genre étaient encouragées par celles qui en avaient déjà parlé. Une histoire dans laquelle les personnes qui savaient qu’elles étaient différentes (mais qui manquaient de vocabulaire pour parler de ces différences) apprenaient les termes exacts à utiliser grâce à cette manière bon marché de trouver des personnes et de connaître leurs idées.

2. Tromperie

Les mensonges et les tromperies sont des pratiques malsaines, et le capitalisme de surveillance ne fait que les renforcer avec le ciblage. Si vous voulez commercialiser un prêt sur salaire ou hypothécaire frauduleux, le capitalisme de surveillance peut vous aider à trouver des personnes à la fois désespérées et peu averties, qui seront donc réceptives à vos arguments. Cela explique la montée en puissance de nombreux phénomènes, tels que la vente multi-niveau, dans laquelle des déclarations mensongères sur des gains potentiels et l’efficacité des techniques de vente ciblent des personnes désespérées, avec de la publicité associée à leurs recherches qui indiquent, par exemple, qu’elles se débattent contre des prêts toxiques.

Le capitalisme de surveillance encourage également la tromperie en facilitant le repérage d’autres personnes qui ont été trompées de la même manière. Elles forment ainsi une communauté de personnes qui renforcent mutuellement leurs croyances. Pensez à ces forums où des personnes victimes de fraudes commerciales à plusieurs niveaux se réunissent pour échanger des conseils sur la manière d’améliorer leur chance de vendre le produit.

Parfois, la tromperie en ligne consiste à remplacer les convictions correctes d’une personne par des croyances infondées, comme c’est le cas pour le mouvement anti-vaccination, dont les victimes sont souvent des personnes qui font confiance aux vaccins au début mais qui sont convaincues par des preuves en apparence plausibles qui les conduisent à croire à tort que les vaccins sont nocifs.

Mais la fraude réussit beaucoup plus souvent lorsqu’elle ne doit pas se substituer à une véritable croyance. Lorsque ma fille a contracté des poux à la garderie, l’un des employés m’a dit que je pouvais m’en débarrasser en traitant ses cheveux et son cuir chevelu avec de l’huile d’olive. Je ne savais rien des poux et je pensais que l’employé de la crèche les connaissait, alors j’ai essayé (ça n’a pas marché, et ça ne marche pas). Il est facile de se retrouver avec de fausses croyances quand vous n’en savez pas suffisamment et quand ces croyances sont véhiculées par quelqu’un qui semble savoir ce qu’il fait.

C’est pernicieux et difficile (et c’est aussi contre ce genre de choses qu’Internet peut aider à se prémunir en rendant disponibles des informations véridiques, en particulier sous une forme qui expose les débats sous-jacents entre des points de vue très divergents, comme le fait Wikipédia) mais ce n’est pas un lavage de cerveau, c’est de l’escroquerie. Dans la majorité des cas, les personnes victimes de ces campagnes de ces arnaques comblent leur manque d’informations de la manière habituelle, en consultant des sources apparemment fiables. Si je vérifie la longueur du pont de Brooklyn et que j’apprends qu’il mesure 1 770 mètres de long, mais qu’en réalité, il fait 1 825 mètres de long, la tromperie sous-jacente est un problème, mais c’est un problème auquel il est possible de remédier simplement. C’est un problème très différent de celui du mouvement anti-vax, où la croyance correcte d’une personne est remplacée par une fausse, par le biais d’une persuasion sophistiquée.

3. Domination

Le capitalisme de surveillance est le résultat d’un monopole. Le monopole est la cause, tandis que le capitalisme de surveillance et ses conséquences négatives en sont les effets. Je rentrerai dans les détails plus tard, mais, pour le moment, je dirai simplement que l’industrie technologique s’est développée grâce à un principe radicalement antitrust qui a permis aux entreprises de croître en fusionnant avec leurs rivaux, en rachetant les concurrents émergents et en étendant le contrôle sur des pans entiers du marché.

Prenons un exemple de la façon dont le monopole participe à la persuasion via la domination : Google prend des décisions éditoriales quant à ses algorithmes qui déterminent l’ordre des réponses à nos requêtes. Si un groupe d’escrocs décide de faire croire à la planète entière que le pont de Brooklyn mesure 1700 mètres et si Google élève le rang des informations fournies par ce groupe pour les réponses aux questions du type « Quelle est la longueur du pont de Brooklyn ? » alors les 8 ou 10 premières pages de résultats fournies par Google pourront être fausses. Sachant que la plupart des personnes ne vont pas au-delà des premiers résultats (et se contentent de la première page de résultats), le choix opéré par Google impliquera de tromper de nombreuses personnes.

La domination de Google sur la recherche (plus de 86 % des recherches effectuées sur le Web sont faites via Google) signifie que l’ordre qu’il utilise pour classer les résultats de recherche a un impact énorme sur l’opinion publique. Paradoxalement, c’est cette raison que Google invoque pour dire qu’il ne peut pas rendre son algorithme transparent : la domination de Google sur la recherche implique que les résultats de son classement sont trop importants pour se permettre de pouvoir dire au monde comment il y parvient, car si un acteur malveillant découvrait une faille dans ce système, alors il l’exploiterait pour mettre en avant son point de vue en haut des résultats. Il existe un remède évident lorsqu’une entreprise devient trop grosse pour être auditée : la diviser en fragments plus petits.

Zuboff parle du capitalisme de surveillance comme d’un « capitalisme voyou » dont les techniques de stockage de données et d’apprentissage machine nous privent de notre libre arbitre. Mais les campagnes d’influence qui cherchent à remplacer les croyances existantes et correctes par des croyances fausses ont un effet limité et temporaire, tandis que la domination monopolistique sur les systèmes d’information a des effets massifs et durables. Contrôler les résultats des recherches du monde entier signifie contrôler l’accès aux arguments et à leurs réfutations et, par conséquent, contrôler une grande partie des croyances à travers le monde. Si notre préoccupation est de savoir comment les entreprises nous empêchent de nous faire notre propre opinion et de déterminer notre propre avenir, l’impact de la domination dépasse de loin celui de la manipulation et devrait être au centre de notre analyse et de tous les remèdes que nous recherchons.

4. Contournement de nos facultés rationnelles

Mais voici le meilleur du pire : utiliser l’apprentissage machine, les techniques du dark UX, le piratage des données et d’autres techniques pour nous amener à faire des choses qui vont à l’encontre de nos principes. Ça, c’est du contrôle de l’esprit.

Certaines de ces techniques se sont révélées d’une efficacité redoutable (ne serait-ce qu’à court terme). L’utilisation de comptes à rebours sur une page de finalisation de commande peut créer un sentiment d’urgence incitant à ignorer la petite voix interne lancinante qui vous suggère d’aller faire vos courses ou de bien réfléchir avant d’agir. L’utilisation de membres de votre réseau social dans les publicités peut fournir une « justification sociale » qu’un achat vaut la peine d’être fait. Même le système d’enchères mis au point par eBay est conçu pour jouer sur nos points faibles cognitifs, nous donnant l’impression de « posséder » quelque chose parce que nous avons enchéri dessus, ce qui nous encourage à enchérir à nouveau lorsque nous sommes surenchéris pour s’assurer que « nos » biens restent à nous.

Les jeux sont très bons dans ce domaine. Les jeux « d’accès gratuit » nous manipulent par le biais de nombreuses techniques, comme la présentation aux joueurs d’une série de défis qui s’échelonnent en douceur de difficulté croissante, qui créent un sentiment de maîtrise et d’accomplissement, mais qui se transforment brusquement en un ensemble de défis impossibles à relever sans une mise à niveau payante. Ajoutez à ce mélange une certaine pression sociale – un flux de notifications sur la façon dont vos amis se débrouillent – et avant de comprendre ce qui vous arrive, vous vous retrouvez à acheter des gadgets virtuels pour pouvoir passer au niveau suivant.

Les entreprises ont prospéré et périclité avec ces techniques, et quand elles échouent cela mérite que l’on s’y attarde. En général, les êtres vivants s’adaptent aux stimuli : une chose que vous trouvez particulièrement convaincante ou remarquable, lorsque vous la rencontrez pour la première fois, le devient de moins en moins, et vous finissez par ne plus la remarquer du tout. Pensez au bourdonnement énervant que produit le réfrigérateur quand il se met en marche, qui finit par se fondre tellement bien dans le bruit ambiant que vous ne le remarquez que lorsqu’il s’arrête à nouveau.

C’est pourquoi le conditionnement comportemental utilise des « programmes de renforcement intermittent ». Au lieu de vous donner des encouragements ou des embûches, les jeux et les services gamifiés éparpillent les récompenses selon un calendrier aléatoire – assez souvent pour que vous restiez intéressé, et de manière assez aléatoire pour que vous ne trouviez jamais le schéma toujours répété qui rendrait la chose ennuyeuse.

Le « renforcement intermittent » est un outil comportemental puissant, mais il représente aussi un problème d’action collective pour le capitalisme de surveillance. Les « techniques d’engagement » inventées par les comportementalistes des entreprises du capitalisme de surveillance sont rapidement copiées par l’ensemble du secteur, de sorte que ce qui commence par un mystérieux changement de conception d’un service – comme une demande d’actualisation ou des alertes lorsque quelqu’un aime vos messages ou des quêtes secondaires auxquelles vos personnages sont invités alors qu’ils sont au beau milieu de quêtes principales – tout cela devient vite péniblement envahissant. L’impossibilité où l’on est de maîtriser et faire taire les incessantes notifications de son smartphone finit par générer en un mur de bruit informationnel monotone, car chaque application et chaque site utilise ce qui semble fonctionner à ce moment-là.

Du point de vue du capitalisme de surveillance, notre capacité d’adaptation est une bactérie nocive qui la prive de sa source de nourriture – notre attention – et les nouvelles techniques pour capter cette attention sont comme de nouveaux antibiotiques qui peuvent être utilisés pour briser nos défenses immunitaires et détruire notre autodétermination. Et il existe bel et bien des techniques de ce genre. Qui peut oublier la grande épidémie de Zynga, lorsque tous nos amis ont été pris dans des boucles de dopamine sans fin et sans intérêt en jouant à FarmVille ? Mais chaque nouvelle technique qui attire l’attention est adoptée par l’ensemble de l’industrie et utilisée si aveuglément que la résistance aux antibiotiques s’installe. Après une certaine dose de répétitions, nous développons presque tous une immunité aux techniques les plus puissantes – en 2013, deux ans après le pic de Zynga, sa base d’utilisateurs avait diminué de moitié.

Pas tout le monde, bien sûr. Certaines personnes ne s’adaptent jamais aux stimuli, tout comme certaines personnes n’arrêtent jamais d’entendre le bourdonnement du réfrigérateur. C’est pourquoi la plupart des personnes qui sont exposées aux machines à sous y jouent pendant un certain temps, puis passent à autre chose, pendant qu’une petite mais tragique minorité liquide le pécule mis de côté pour la scolarité de ses enfants, achète des couches pour adultes et reste scotchée devant une machine jusqu’à s’écrouler de fatigue.

Mais les marges du capitalisme de surveillance sur la modification des comportements sont nulles. Tripler le taux de conversion en achats d’un truc semble un succès, sauf si le taux initial est bien inférieur à 1 % avec un pourcentage de progression… encore inférieur à 1 %. Alors que les machines à sous tirent des bénéfices en centimes de chaque jeu, le capitalisme de surveillance ratisse en fractions de centimes infinitésimales.

Les rendements élevés des machines à sous signifient qu’elles peuvent être rentables simplement en drainant les fortunes de la petite frange de personnes qui leur sont pathologiquement vulnérables et incapables de s’adapter à leurs astuces. Mais le capitalisme de surveillance ne peut pas survivre avec les quelques centimes qu’il tire de cette tranche vulnérable – c’est pourquoi, lorsque la Grande épidémie de Zynga s’est enfin terminée, le petit nombre de joueurs encore dépendants qui restaient n’ont pas suffi à en faire encore un phénomène mondial. Et de nouvelles armes d’attention puissantes ne sont pas faciles à trouver, comme en témoignent les longues années qui se sont écoulées depuis le dernier succès de Zynga. Malgré les centaines de millions de dollars que Zynga doit dépenser pour développer de nouveaux outils pour déjouer nos capacités d’adaptation, l’entreprise n’a jamais réussi à reproduire l’heureux accident qui lui a permis de retenir toute notre attention pendant un bref instant en 2009. Les centrales comme Supercell se sont un peu mieux comportées, mais elles sont rares et connaissent beaucoup d’échecs pour un seul succès.

La vulnérabilité de petits segments de la population à une manipulation sensible et efficace des entreprises est une préoccupation réelle qui mérite notre attention et notre énergie. Mais ce n’est pas une menace existentielle pour la société.




Détruire le capitalisme de surveillance (1)

Le capitalisme de surveillance tel qu’analysé ici par Cory Doctorow est une cible agile, mouvante et surtout omnipotente et omniprésente. Comment maîtriser le monstre, à défaut de le détruire ?

La longue analyse de Doctorow, publiée sur OneZero, comprend plusieurs chapitres que Framalang vous traduira par étapes. Voici dans un premier temps un examen des luttes des militants du numérique et les limites de leurs actions.

Un point important : C. Doctorow nous a autorisés à traduire et publier dans les termes de la même licence : CC-NC-ND (pas d’utilisation commerciale et pas de travaux dérivés). Par principe nous sommes opposés à ces restrictions de libertés, pour les éditions Framabook où nous publions seulement du copyleft (voir les explications détaillées dans cette page qui précise la politique éditoriale de Framabook). Nous faisons ici une exception en limitant la publication à ce blog, avec l’accord explicite de l’auteur naturellement.

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Traduction Framalang : Alain (Mille), Barbidule, draenog, Fabrice, Goofy, Juliette, Lumibd, Laure, LaureR, Mannik,

Comment détruire le capitalisme de surveillance (1)

Cory Doctorow CC-BY-SA Jonathan Worth

PAR CORY DOCTOROW

Note de l’éditeur
Le capitalisme de surveillance est partout. Mais ce n’est pas le résultat d’une malencontreuse dérive ou d’un abus de pouvoir des entreprises, c’est le système qui fonctionne comme prévu. Tel est le propos du nouvel essai de Cory Doctorow, que nous sommes ravis de publier intégralement ici sur OneZero. Voici comment détruire le capitalisme de surveillance.

La Toile aux mille mensonges

Le plus surprenant dans la renaissance au 21e siècle des partisans de la Terre plate c’est l’étendue des preuves contre leur croyance. On peut comprendre comment, il y a des siècles, des gens qui n’avaient jamais pu observer la Terre d’un point suffisamment élevé pour voir la courbure de la Terre aient pu en arriver à la croyance « pleine de bon sens » que la Terre, qui semblait plate, était effectivement plate.

Mais aujourd’hui, alors que les écoles primaires suspendent régulièrement des caméras GoPro à des ballons-sondes et les envoient assez haut pour photographier la courbure de la Terre – sans parler de la même courbure devenue banale à voir depuis le hublot d’un avion – il faut avoir une volonté de fer pour maintenir la croyance que le monde est plat.

Il en va de même pour le nationalisme blanc et l’eugénisme : à une époque où l’on peut devenir une simple donnée de la génomique computationnelle en prélevant un échantillon d’ADN dans sa joue et en l’envoyant à une entreprise de séquençage génétique avec une modeste somme d’argent, la « science des races » n’a jamais été aussi facile à réfuter.

Nous vivons un âge d’or où les faits sont à la fois aisément disponibles et faciles à nier. Des conceptions affreuses qui étaient demeurées à la marge pendant des décennies, voire des siècles, se sont répandues du jour au lendemain, semble-t-il.

Lorsqu’une idée obscure gagne du terrain, il n’y a que deux choses qui puissent expliquer son ascension : soit la personne qui exprime cette idée a bien amélioré son argumentation, soit la proposition est devenue plus difficile à nier face à des preuves de plus en plus nombreuses. En d’autres termes, si nous voulons que les gens prennent le changement climatique au sérieux, nous pouvons demander à un tas de Greta Thunberg de présenter des arguments éloquents et passionnés depuis des podiums, gagnant ainsi nos cœurs et nos esprits, ou bien nous pouvons attendre que les inondations, les incendies, le soleil brûlant et les pandémies fassent valoir leurs arguments. En pratique, nous devrons probablement faire un peu des deux : plus nous bouillirons et brûlerons, plus nous serons inondés et périrons, plus il sera facile aux Greta Thunberg du monde entier de nous convaincre.

Les arguments en faveur de croyances ridicules en des conspirations odieuses, comme ceux des partisans anti-vaccination, des climato-sceptiques, des adeptes de la Terre plate ou de l’eugénisme ne sont pas meilleurs que ceux de la génération précédente. En fait, ils sont pires parce qu’ils sont présentés à des personnes qui ont au moins une connaissance basique des faits qui les réfutent.

Les anti-vaccins existent depuis les premiers vaccins, mais les premiers anti-vaccins s’adressaient à des personnes moins bien équipées pour comprendre les principes de base de la microbiologie et qui, de plus, n’avaient pas été témoins de l’éradication de maladies meurtrières comme la polio, la variole ou la rougeole. Les anti-vaccins d’aujourd’hui ne sont pas plus éloquents que leurs prédécesseurs, et ils ont un travail bien plus difficile.

Ces théoriciens conspirationnistes farfelus peuvent-ils alors vraiment réussir grâce à des arguments supérieurs ?

Certains le pensent. Aujourd’hui, il est largement admis que l’apprentissage automatique et la surveillance commerciale peuvent transformer un théoricien du complot, même le plus maladroit, en un Svengali capable de déformer vos perceptions et de gagner votre confiance, ce grâce au repérage de personnes vulnérables, à qui il présentera des arguments qu’une I.A. aura affinés afin de contourner leurs facultés rationnelles, transformant ainsi ces gens ordinaires en platistes, en anti-vaccins ou même en nazis.
Lorsque la RAND Corporation accuse Facebook de « radicalisation » et lorsque l’algorithme de Facebook est tenu pour responsable de la diffusion de fausses informations sur les coronavirus, le message implicite est que l’apprentissage automatique et la surveillance provoquent des changements dans notre conception commune de ce qui est vrai.

Après tout, dans un monde où les théories de conspiration tentaculaires et incohérentes comme le Pizzagate et son successeur, QAnon, ont de nombreux adeptes, il doit bien se passer quelque chose.

Mais y a-t-il une autre explication possible ? Et si c’étaient les circonstances matérielles, et non les arguments, qui faisaient la différence pour ces lanceurs de théories complotistes ? Et si le traumatisme de vivre au milieu de véritables complots tout autour de nous – des complots entre des gens riches, leurs lobbyistes et les législateurs pour enterrer des faits gênants et des preuves de méfaits (ces complots sont communément appelés « corruption ») – rendait les gens vulnérables aux théories du complot ?

Si c’est ce traumatisme et non la contagion – les conditions matérielles et non l’idéologie – qui fait la différence aujourd’hui et qui permet une montée d’une désinformation détestable face à des faits facilement observables, cela ne signifie pas que nos réseaux informatiques soient irréprochables. Ils continuent à faire le gros du travail : repérer les personnes vulnérables et les guider à travers une série d’idées et de communautés toujours plus extrémistes.

Le conspirationnisme qui fait rage a provoqué de réels dégâts et représente un réel danger pour notre planète et les espèces vivantes, des épidémies déclenchées par le déni de vaccin aux génocides déclenchés par des conspirations racistes en passant par l’effondrement de la planète causé par l’inaction climatique inspirée par le déni. Notre monde est en feu et nous devons donc l’éteindre, trouver comment aider les gens à voir la vérité du monde, au-delà des conspirations qui les ont trompés.

Mais lutter contre les incendies est une stratégie défensive. Nous devons prévenir les incendies. Nous devons nous attaquer aux conditions matérielles traumatisantes qui rendent les gens vulnérables à la contagion conspirationniste. Ici aussi, la technologie a un rôle à jouer.

Les propositions ne manquent pas pour y remédier. Du règlement de l’UE sur les contenus terroristes, qui exige des plateformes qu’elles contrôlent et suppriment les contenus « extrémistes », aux propositions américaines visant à forcer les entreprises technologiques à espionner leurs utilisateurs et à les tenir pour responsables des discours fallacieux de leurs utilisateurs, il existe beaucoup d’énergie pour forcer les entreprises technologiques à résoudre les problèmes qu’elles ont créés.

Il manque cependant une pièce essentielle au débat. Toutes ces solutions partent du principe que les entreprises de technologie détiennent la clé du problème, que leur domination sur l’Internet est un fait permanent. Les propositions visant à remplacer les géants de la tech par un Internet plus diversifié et pluraliste sont introuvables. Pire encore : les « solutions » proposées aujourd’hui exigent que les grandes entreprises technologiques restent grandes, car seules les très grandes peuvent se permettre de mettre en œuvre les systèmes exigés par ces lois.

Il est essentiel de savoir à quoi nous voulons que notre technologie ressemble si nous voulons nous sortir de ce pétrin. Aujourd’hui, nous sommes à un carrefour où nous essayons de déterminer si nous voulons réparer les géants de la tech qui dominent notre Internet, ou si nous voulons réparer Internet lui-même en le libérant de l’emprise de ces géants. Nous ne pouvons pas faire les deux, donc nous devons choisir.

Je veux que nous choisissions judicieusement. Dompter les géants de la tech est essentiel pour réparer Internet et, pour cela, nous avons besoin d’une action militante pour nos droits numériques.

Le militantisme des droits numériques après un quart de siècle

Le militantisme pour les droits numériques est plus que trentenaire à présent. L’Electronic Frontier Foundation a eu 30 ans cette année ; la Free Software Foundation a démarré en 1985. Pour la majeure partie de l’histoire du mouvement, la plus grande critique à son encontre était son inutilité : les vraies causes à défendre étaient celle du monde réel (repensez au scepticisme qu’a rencontré la Finlande en déclarant que l’accès au haut débit est un droit humain, en 2010) et le militantisme du monde réel ne pouvait exister qu’en usant ses semelles dans la rue (pensez au mépris de Malcolm Gladwell pour le « clictivisme »).

Mais à mesure de la présence croissante de la tech au cœur de nos vies quotidiennes, ces accusations d’inutilité ont d’abord laissé place aux accusations d’insincérité (« vous prêtez attention à la tech uniquement pour défendre les intérêts des entreprises de la tech », puis aux accusations de négligence (« pourquoi n’avez-vous pas prévu que la tech pourrait être une force aussi destructrice ? »). Mais le militantisme pour des droits numériques est là où il a toujours été : prêter attention aux êtres humains dans un monde où la tech prend inexorablement le contrôle.

La dernière version de cette critique vient sous la forme du « capitalisme de surveillance », un terme inventé par la professeure d’économie Shoshana Zuboff dans son long et influent livre de 2019, The Age of Surveillance Capitalism : The Fight for a Human Future at the New Frontier of Power (à paraître en français le 15/10/2020 sous le titre L’Âge du capitalisme de surveillance). Zuboff avance que le « capitalisme de surveillance » est une créature unique de l’industrie de la tech et qu’au contraire de toute autre pratique commerciale abusive dans l’histoire, elle est « constituée par des mécanismes d’extraction imprévisibles et souvent illisibles, de marchandisation et de contrôle qui éloignent en réalité les personnes de leur comportement propre, tout en créant de nouveaux marchés de prédiction et de modification comportementales. Le capitalisme de surveillance défie les normes démocratiques et s’écarte de manière décisive de l’évolution du capitalisme de marché au cours des siècles ». C’est une forme nouvelle et mortelle du capitalisme, un « capitalisme scélérat », et notre manque de compréhension de ses capacités et dangers sans précédents représente une menace existentielle pour l’espèce entière. Elle a raison sur la menace que représente actuellement le capitalisme pour notre espèce, et elle a raison de dire que la tech pose des défis uniques à notre espèce et notre civilisation, mais elle se trompe vraiment sur la manière dont la tech est différente et sur la façon dont elle menace notre espèce.

De plus, je pense que son diagnostic incorrect nous mènera dans une voie qui finira par renforcer les géants de la tech, au lieu de les affaiblir. Nous devons démanteler les géants et, pour cela, nous devons commencer par identifier correctement le problème.

L’exception de la tech, hier et d’aujourd’hui

Les premiers critiques du mouvement des droits numériques, dont les meilleurs représentants sont peut-être les organisations militantes comme l’Electronic Frontier Foundation, la Free Software Foundation, Public Knowledge ou d’autres, qui mettent l’accent sur la préservation et l’amélioration des droits humains dans un environnement numérique, ont diabolisé les militants en les accusant de défendre « une exception technologique ». Au tournant du nouveau millénaire, les gens sérieux ridiculisaient toute affirmation selon laquelle les réglementations sur la tech pouvaient avoir un impact sur « le monde réel ». Les craintes exprimées sur la possibilité que les réglementations de la tech aient des conséquences sur les libertés d’expression, d’association, de vie privée, sur les fouilles et saisies, les droits fondamentaux et les inégalités, tout cela était qualifié de grotesque, comme une prétention à faire passer les inquiétudes de tristes nerds se disputant à propos de Star Trek sur des forums au-dessus des luttes pour les droits civiques, des combats de Nelson Mandela et du soulèvement du Ghetto de Varsovie.

Au cours des décennies suivantes, les accusations d’« exception technologique » n’ont fait que s’affûter alors que le rôle de la tech dans la vie quotidienne s’est affirmé : maintenant que la tech s’est infiltrée dans tous les recoins de nos vies et que notre présence en ligne a été monopolisée par une poignée de géants, les défenseurs des libertés numériques sont accusés d’apporter de l’eau au moulin des géants de la tech pour couvrir les négligences (ou pire encore, leurs manœuvres malfaisantes) qui servent leurs propres intérêts.

De mon point de vue, le mouvement pour les droits numériques est resté immobile alors que le reste du monde a progressé. Depuis sa naissance, la préoccupation principale du mouvement était les utilisateurs, ainsi que les créateurs d’outils numériques qui fournissaient le code dont ils avaient besoin pour concrétiser les droits fondamentaux. Les militants pour les droits numériques ne se sentaient concernés par les entreprises que dans la mesure où elles agissaient pour faire respecter les droits des utilisateurs (ou, tout aussi souvent, quand les entreprises agissaient de manière tellement stupide qu’elles menaçaient d’adopter de nouvelles règles qui rendraient plus difficile pour les bons élèves d’aider les utilisateurs).

La critique du « capitalisme de surveillance » a remis en lumière les militants pour les droits numériques : non pas comme des alarmistes qui surestiment l’importance de leurs nouveaux joujoux, ni comme des complices des géants de la tech, mais plutôt comme des brasseurs d’air tranquilles dont le militantisme de longue date est un handicap qui les empêche de discerner de nouvelles menaces, alors qu’ils continuent de mener les combats technologiques du siècle dernier.

Mais l’exception de la tech est une lourde erreur, peu importe qui la commet.

illustration de Shira Inbar




Nous sommes déjà des cyborgs mais nous pouvons reprendre le contrôle

Avec un certain sens de la formule, Aral Balkan allie la sévérité des critiques et l’audace des propositions. Selon lui nos corps « augmentés » depuis longtemps font de nous des sujets de la surveillance généralisée maintenant que nos vies sont sous l’emprise démultipliée du numérique.

Selon lui, il nous reste cependant des perspectives et des pistes pour retrouver la maîtrise de notre « soi », mais elles impliquent, comme on le devine bien, une remise en cause politique de nos rapports aux GAFAM, une tout autre stratégie d’incitation aux entreprises du numérique de la part de la Communauté européenne, le financement d’alternatives éthiques, etc.

Ce qui suit est la version française d’un article qu’a écrit Aral pour le numéro 32 du magazine de la Kulturstiftung des Bundes (Fondation pour la culture de la République fédérale d’Allemagne). Vous pouvez également lire la version allemande.

Article original en anglais : Slavery 2.0 and how to avoid it : a practical guide for cyborgs

Traduction Framalang : goofy, jums, Fifi, MO, FranBAG, Radical Mass

L’esclavage 2.0 et comment y échapper : guide pratique pour les cyborgs.

par Aral Balkan

Il est très probable que vous soyez un cyborg et que vous ne le sachiez même pas.

Vous avez un smartphone ?
Vous êtes un cyborg.
Vous utilisez un ordinateur ? Ou le Web ?
Cyborg !

En règle générale, si vous utilisez une technologie numérique et connectée aujourd’hui, vous êtes un cyborg. Pas besoin de vous faire greffer des microprocesseurs, ni de ressembler à Robocop. Vous êtes un cyborg parce qu’en utilisant des technologies vous augmentez vos capacités biologiques.

À la lecture de cette définition, vous pourriez marquer un temps d’arrêt : « Mais attendez, les êtres humains font ça depuis bien avant l’arrivée des technologies numériques ». Et vous auriez raison.

Nous étions des cyborgs bien avant que le premier bug ne vienne se glisser dans le premier tube électronique à vide du premier ordinateur central.

Galilée et sa lunette, tableau de Justus Sustermans, image via Wikimedia Commons (Public Domain]

L’homme des cavernes qui brandissait une lance et allumait un feu était le cyborg originel. Galilée contemplant les cieux avec son télescope était à la fois un homme de la Renaissance et un cyborg. Lorsque vous mettez vos lentilles de contact le matin, vous êtes un cyborg.

Tout au long de notre histoire en tant qu’espèce, la technologie a amélioré nos sens. Elle nous a permis une meilleure maîtrise et un meilleur contrôle sur nos propres vies et sur le monde qui nous entoure. Mais la technologie a tout autant été utilisée pour nous opprimer et nous exploiter, comme peut en témoigner quiconque a vu un jour de près le canon du fusil de l’oppresseur.

« La technologie », d’après la première loi de la technologie de Melvin Kranzberg, « n’est ni bonne ni mauvaise, mais elle n’est pas neutre non plus. »

Qu’est-ce qui détermine alors si la technologie améliore notre bien-être, les droits humains et la démocratie ou bien les dégrade ? Qu’est-ce qui distingue les bonnes technologies des mauvaises ? Et, tant qu’on y est, qu’est-ce qui différencie la lunette de Galilée et vos lentilles de contact Google et Facebook ? Et en quoi est-ce important de se considérer ou non comme des cyborgs ?

Nous devons tous essayer de bien appréhender les réponses à ces questions. Sinon, le prix à payer pourrait être très élevé. Il ne s’agit pas de simples questions technologiques. Il s’agit de questions cruciales sur ce que signifie être une personne à l’ère du numérique et des réseaux. La façon dont nous choisirons d’y répondre aura un impact fondamental sur notre bien-être, tant individuellement que collectivement. Les réponses que nous choisirons détermineront la nature de nos sociétés, et à long terme pourraient influencer la survie de notre espèce.

Propriété et maîtrise du « soi » à l’ère numérique et connectée

Imaginez : vous êtes dans un monde où on vous attribue dès la naissance un appareil qui vous observe, vous écoute et vous suit dès cet instant. Et qui peut aussi lire vos pensées.

Au fil des ans, cet appareil enregistre la moindre de vos réflexions, chaque mot, chaque mouvement et chaque échange. Il envoie toutes ces informations vous concernant à un puissant ordinateur central appartenant à une multinationale. À partir de là, les multiples facettes de votre personnalité sont collectionnées par des algorithmes pour créer un avatar numérique de votre personne. La multinationale utilise votre avatar comme substitut numérique pour manipuler votre comportement.

Votre avatar numérique a une valeur inestimable. C’est tout ce qui fait de vous qui vous êtes (à l’exception de votre corps de chair et d’os). La multinationale se rend compte qu’elle n’a pas besoin de disposer de votre corps pour vous posséder. Les esprits critiques appellent ce système l’Esclavage 2.0.

À longueur de journée, la multinationale fait subir des tests à votre avatar. Qu’est-ce que vous aimez ? Qu’est-ce qui vous rend heureux ? Ou triste ? Qu’est-ce qui vous fait peur ? Qui aimez-vous ? Qu’allez-vous faire cet après-midi ? Elle utilise les déductions de ces tests pour vous amener à faire ce qu’elle veut. Par exemple, acheter cette nouvelle robe ou alors voter pour telle personnalité politique.

La multinationale a une politique. Elle doit continuer à survivre, croître et prospérer. Elle ne peut pas être gênée par des lois. Elle doit influencer le débat politique. Heureusement, chacun des politiciens actuels a reçu le même appareil que vous à la naissance. Ainsi, la multinationale dispose aussi de leur avatar numérique, ce qui l’aide beaucoup à parvenir à ses fins.

Ceci étant dit, la multinationale n’est pas infaillible. Elle peut toujours faire des erreurs. Elle pourrait de façon erronée déduire, d’après vos pensées, paroles et actions, que vous êtes un terroriste alors que ce n’est pas le cas. Quand la multinationale tombe juste, votre avatar numérique est un outil d’une valeur incalculable pour influencer votre comportement. Et quand elle se plante, ça peut vous valoir la prison.
Dans les deux cas, c’est vous qui perdez !

Ça ressemble à de la science-fiction cyberpunk dystopique, non ?

Remplacez « multinationale » par « Silicon Valley ». Remplacez « puissant ordinateur central » par « cloud ». Remplacez « appareil » par « votre smartphone, l’assistant de votre smart home, votre smart city et votre smart ceci-cela, etc. ».

Bienvenue sur Terre, de nos jours ou à peu près.

Le capitalisme de surveillance

Nous vivons dans un monde où une poignée de multinationales ont un accès illimité et continu aux détails les plus intimes de nos vies. Leurs appareils, qui nous observent, nous écoutent et nous pistent, que nous portons sur nous, dans nos maisons, sur le Web et (de plus en plus) sur nos trottoirs et dans nos rues. Ce ne sont pas des outils dont nous sommes maîtres. Ce sont les yeux et les oreilles d’un système socio-techno-économique que Shoshana Zuboff appelle « le capitalisme de surveillance ».

Tout comme dans notre fiction cyberpunk dystopique, les barons voleurs de la Silicon Valley ne se contentent pas de regarder et d’écouter. Par exemple, Facebook a annoncé à sa conférence de développeurs en 2017 qu’ils avaient attelé 60 ingénieurs à littéralement lire dans votre esprit1.

J’ai demandé plus haut ce qui sépare la lunette de Galilée de vos lentilles de contact produites par Facebook, Google ou d’autres capitalistes de surveillance. Comprendre la réponse à cette question est crucial pour saisir à quel point le concept même de personnalité est menacé par le capitalisme de surveillance.

Lorsque Galilée utilisait son télescope, lui seul voyait ce qu’il voyait et lui seul savait ce qu’il regardait. Il en va de même lorsque vous portez vos lentilles de contact. Si Galilée avait acheté son télescope chez Facebook, Facebook Inc. aurait enregistré tout ce qu’il voyait. De manière analogue, si vous allez achetez vos lentilles de contact chez Google, des caméras y seront intégrées et Alphabet Inc. verra tout ce que vous voyez. (Google ne fabrique pas encore de telles lentilles, mais a déposé un brevet2 pour les protéger. En attendant, si vous êtes impatient, Snapchat fait des lunettes à caméras intégrées.)

Lorsque vous rédigez votre journal intime au crayon, ni le crayon ni votre journal ne savent ce que vous avez écrit. Lorsque vous écrivez vos réflexions dans des Google Docs, Google en connaît chaque mot.

Quand vous envoyez une lettre à un ami par courrier postal, la Poste ne sait pas ce que vous avez écrit. C’est un délit pour un tiers d’ouvrir votre enveloppe. Quand vous postez un message instantané sur Facebook Messenger, Facebook en connaît chaque mot.

Si vous vous identifiez sur Google Play avec votre smartphone Android, chacun de vos mouvements et de vos échanges sera méticuleusement répertorié, envoyé à Google, enregistré pour toujours, analysé et utilisé contre vous au tribunal du capitalisme de surveillance.

On avait l’habitude de lire les journaux. Aujourd’hui, ce sont eux qui nous lisent. Quand vous regardez YouTube, YouTube vous regarde aussi.

Vous voyez l’idée.

À moins que nous (en tant qu’individus) n’ayons notre technologie sous contrôle, alors « smart » n’est qu’un euphémisme pour « surveillance ». Un smartphone est un mouchard, une maison intelligente est une salle d’interrogatoire et une ville intelligente est un dispositif panoptique.

Google, Facebook et les autres capitalistes de surveillance sont des fermes industrielles pour êtres humains. Ils gagnent des milliards en vous mettant en batterie pour vous faire pondre des données et exploitent cette connaissance de votre intimité pour vous manipuler votre comportement.

Ce sont des scanners d’être humains. Ils ont pour vocation de vous numériser, de conserver cette copie numérique et de l’utiliser comme avatar pour gagner encore plus en taille et en puissance.

Nous devons comprendre que ces multinationales ne sont pas des anomalies. Elles sont la norme. Elles sont le courant dominant. Le courant dominant de la technologie aujourd’hui est un débordement toxique du capitalisme américain de connivence qui menace d’engloutir toute la planète. Nous ne sommes pas vraiment à l’abri de ses retombées ici en Europe.

Nos politiciens se laissent facilement envoûter par les millions dépensés par ces multinationales pour abreuver les lobbies de Bruxelles. Ils sont charmés par la sagesse de la Singularity University (qui n’est pas une université). Et pendant ce temps-là, nos écoles entassent des Chromebooks pour nos enfants. On baisse nos taxes, pour ne pas handicaper indûment les capitalistes de surveillance, au cas où ils voudraient se commander une autre Guinness. Et les penseurs de nos politiques, institutionnellement corrompus, sont trop occupés à organiser des conférences sur la protection des données – dont les allocutions sont rédigées par Google et Facebook – pour protéger nos intérêts. Je le sais car j’ai participé à l’une d’elles l’an passé. L’orateur de Facebook quittait tout juste son boulot à la CNIL, la commission française chargée de la protection des données, réputée pour la beauté et l’efficacité de ses chaises musicales.

Il faut que ça change.

Je suis de plus en plus convaincu que si un changement doit venir, il viendra de l’Europe.

La Silicon Valley ne va pas résoudre le problème qu’elle a créé. Principalement parce que des entreprises comme Google ou Facebook ne voient pas leurs milliards de bénéfices comme un problème. Le capitalisme de surveillance n’est pas déstabilisé par ses propres critères de succès. Ça va comme sur des roulettes pour les entreprises comme Google et Facebook. Elles se marrent bien en allant à la banque, riant au visage des législateurs, dont les amendes cocasses excèdent à peine un jour ou deux de leur revenu. D’aucuns diraient que « passible d’amende » signifie « légal pour les riches ». C’est peu de le dire lorsqu’il s’agit de réglementer des multinationales qui brassent des milliers de milliards de dollars.

De manière analogue, le capital-risque ne va pas investir dans des solutions qui mettraient à mal le business immensément lucratif qu’il a contribué à financer.

Alors quand vous voyez passer des projets comme le soi-disant Center for Humane Technology, avec des investisseurs-risques et des ex-employés de Google aux commandes, posez-vous quelques questions. Et gardez-en quelques-unes pour les organisations qui prétendent créer des alternatives éthiques alors qu’elles sont financées par les acteurs du capitalisme de surveillance. Mozilla, par exemple, accepte chaque année des centaines de millions de dollars de Google3. Au total, elle les a délestés de plus d’un milliard de dollars. Vous êtes content de lui confier la réalisation d’alternatives éthiques ?

Si nous voulons tracer une autre voie en Europe, il faut financer et bâtir notre technologie autrement. Ayons le courage de nous éloigner de nos amis d’outre-Atlantique. Ayons l’aplomb de dire à la Silicon Valley et à ses lobbyistes que nous n’achetons pas ce qu’ils vendent.

Et nous devons asseoir tout ceci sur de solides fondations légales en matière de droits de l’homme. J’ai dit « droits de l’homme » ? Je voulais dire droits des cyborgs.

Les droits des cyborgs sont des droits de l’homme

La crise juridique des droits de l’homme que nous rencontrons nous ramène au fond à ce que nous appelons « humain ».

Traditionnellement, on trace les limites de la personne humaine à nos frontières biologiques. En outre, notre système légal et judiciaire tend à protéger l’intégrité de ces frontières et, par là, la dignité de la personne. Nous appelons ce système le droit international des droits de l’Homme.

Malheureusement, la définition de la personne n’est plus adaptée pour nous protéger complètement à l’ère du numérique et des réseaux.

Dans cette nouvelle ère, nous étendons nos capacités biologiques par des technologies numériques et en réseau. Nous prolongeons nos intellects et nos personnes par la technologie moderne. C’est pour ça que nous devons étendre notre concept des limites de la personne jusqu’à inclure les technologies qui nous prolongent. En étendant la définition de la personne, on s’assure que les droits de l’homme couvrent et donc protègent la personne dans son ensemble à l’ère du numérique et des réseaux.

« Cyborg-gal-avi » par Pandora Popstar/Lainy Voom, licence CC BY-NC-SA 2.0

En tant que cyborgs, nous sommes des êtres fragmentaires. Des parties de nous vivent dans nos téléphones, d’autres quelque part sur un serveur, d’autres dans un PC portable. C’est la somme totale de tous ces fragments qui compose l’intégralité de la personne à l’ère du numérique et des réseaux.

Les droits des cyborgs sont donc les droits de l’homme tels qu’appliqués à la personne cybernétique. Ce dont nous n’avons pas besoin, c’est d’un ensemble de « droits numériques » – probablement revus à la baisse. C’est pourquoi, la Déclaration universelle des droits cybernétiques n’est pas un document autonome, mais un addendum à la Déclaration universelle des droits de l’Homme.

La protection constitutionnelle des droits cybernétiques étant un but à long terme, il ne faut pas attendre un changement constitutionnel pour agir. Nous pouvons et devons commencer à nous protéger en créant des alternatives éthiques aux technologies grand public.

Pour des technologies éthiques

Une technologie éthique est un outil que vous possédez et que vous contrôlez. C’est un outil conçu pour vous rendre la vie plus facile et plus clémente. C’est un outil qui renforce vos capacités et améliore votre vie. C’est un outil qui agit dans votre intérêt – et jamais à votre détriment.

Une technologie non éthique est au contraire un outil aux mains de multinationales et de gouvernements. Elle sert leurs intérêts aux dépens des vôtres. C’est un miroir aux alouettes conçu pour capter votre attention, vous rendre dépendant, pister chacun de vos mouvements et vous profiler. C’est une ferme industrielle déguisée en parc récréatif.

La technologie non éthique est nuisible pour les êtres humains, le bien-être et la démocratie.

Semer de meilleures graines

La technologie éthique ne pousse pas sur des arbres, il faut la financer. La façon de la financer a de l’importance.
La technologie non éthique est financée par le capital risque. Le capital risque n’investit pas dans une entreprise, il investit dans la vente de l’entreprise. Il investit aussi dans des affaires très risquées. Un investisseur risque de la Silicon Valley va investir, disons, 5 millions de dollars dans 10 start-ups différentes, en sachant que 9 d’entre elles vont capoter. Alors il (c’est habituellement un « lui/il ») a besoin que la 10e soit une licorne à un milliard de dollars pour que ça lui rapporte 5 à 10 fois l’argent investi (Ce n’est même pas son argent, mais celui de ses clients.). Le seul modèle d’affaires que nous connaissions dans les nouvelles technologies qui atteigne une croissance pareille est la mise en batterie des gens. L’esclavage a bien payé.
L’esclavage 2.0 paie bien aussi.

Pas étonnant qu’un système qui attache autant de valeur à un mode de croissance de type prolifération cancéreuse ait engendré des tumeurs telles que Google et Facebook. Ce qui est stupéfiant, c’est que nous semblions célébrer ces tumeurs au lieu de soigner le patient. Et plus déconcertant encore, nous nous montrons obstinément déterminés à nous inoculer la même maladie ici en Europe.

Changeons de direction.

Finançons des alternatives éthiques

À partir des biens communs

Pour le bien commun.

Oui, cela signifie avec nos impôts. C’est en quelque sorte ce pour quoi ils existent (pour mettre en place des infrastructures partagées et destinées au bien commun qui font progresser le bien-être de nos populations et nos sociétés). Si le mot « impôt » vous effraie ou sonne trop vieux jeu, remplacez-le simplement par « financement participatif obligatoire » ou « philanthropie démocratisée ».

Financer une technologie éthique à partir des biens communs ne signifie pas que nous laissions aux gouvernements le pouvoir de concevoir, posséder ou contrôler nos technologies. Pas plus que de nationaliser des entreprises comme Google et Facebook. Démantelons-les ! Bien sûr. Régulons-les ! Évidemment. Mettons en œuvre absolument tout ce qui est susceptible de limiter autant que possible leurs abus.

Ne remplaçons pas un Big Brother par un autre.

À l’inverse, investissons dans de nombreuses et petites organisations, indépendantes et sans but lucratif, et chargeons-les de concevoir les alternatives éthiques. Dans le même temps, mettons-les en compétition les unes avec les autres. Prenons ce que nous savons qui fonctionne dans la Silicon Valley (de petites organisations travaillant de manière itérative, entrant en compétition, et qui échouent rapidement) et retirons ce qui y est toxique : le capital risque, la croissance exponentielle, et les sorties de capitaux.

À la place des startups, lançons des entreprises durables, des stayups en Europe.

À la place de sociétés qui n’ont comme possibilités que d’échouer vite ou devenir des tumeurs malignes, finançons des organisations qui ne pourront qu’échouer vite ou devenir des fournisseurs durables de bien social.

Lorsque j’ai fait part de ce projet au Parlement européen, il y a plusieurs années, celui-ci a fait la sourde oreille. Il n’est pas encore trop tard pour s’y mettre. Mais à chaque fois que nous repoussons l’échéance, le capitalisme de surveillance s’enchevêtre plus profondément encore dans le tissu de nos vies.

Nous devons surmonter ce manque d’imagination et fonder notre infrastructure technologique sur les meilleurs principes que l’humanité ait établis : les droits de l’homme, la justice sociale et la démocratie.

Aujourd’hui, l’UE se comporte comme un département de recherche et développement bénévole pour la Silicon Valley. Nous finançons des startups qui, si elles sont performantes, seront vendues à des sociétés de la Silicon Valley. Si elles échouent, le contribuable européen réglera la note. C’est de la folie.

La Communauté Européenne doit mettre fin au financement des startups et au contraire investir dans les stayups. Qu’elle investisse 5 millions d’euros dans dix entreprises durables pour chaque secteur où nous voulons des alternatives éthiques. À la différence des startups, lorsque les entreprises durables sont performantes, elles ne nous échappent pas. Elles ne peuvent être achetées par Google ou Facebook. Elles restent des entités non lucratives, soutenables, européennes, œuvrant à produire de la technologie en tant que bien social.

En outre, le financement d’une entreprise durable doit être soumis à une spécification stricte sur la nature de la technologie qu’elle va concevoir. Les biens produits grâce aux financements publics doivent être des biens publics. La Free Software Foundation Europe sensibilise actuellement l’opinion sur ces problématiques à travers sa campagne « argent public, code public ». Cependant, nous devons aller au-delà de  l’open source pour stipuler que la technologie créée par des entreprises durables doit être non seulement dans le domaine public, mais également qu’elle ne peut en être retirée. Dans le cas des logiciels et du matériel, cela signifie l’utilisation de licences copyleft. Une licence copyleft implique que si vous créez à partir d’une technologie publique, vous avez l’obligation de la partager à l’identique. Les licences share-alike, de partage à l’identique, sont essentielles pour que nos efforts ne soient pas récupérés pour enjoliver la privatisation et pour éviter une tragédie des communs. Des corporations aux poches sans fond ne devraient jamais avoir la possibilité de prendre ce que nous créons avec des deniers publics, habiller tout ça de quelques millions d’investissement et ne plus partager le résultat amélioré.

En fin de compte, il faut préciser que les technologies produites par des entreprises stayups sont des technologies pair-à-pair. Vos données doivent rester sur des appareils que vous possédez et contrôlez. Et lorsque vous communiquez, vous devez le faire en direct (sans intervention d’un « homme du milieu », comme Google ou Facebook). Là où ce n’est techniquement pas possible, toute donnée privée sous le contrôle d’une tierce partie (par exemple un hébergeur web) doit être chiffrée de bout à bout et vous seul devriez en détenir la clé d’accès.

Même sans le moindre investissement significatif dans la technologie éthique, de petits groupes travaillent déjà à des alternatives. Mastodon, une alternative à Twitter fédérée et éthique, a été créée par une seule personne d’à peine vingt ans. Quelques personnes ont collaboré pour créer un projet du nom de Dat qui pourrait être la base d’un web décentralisé. Depuis plus de dix ans, des bénévoles font tourner un système de nom de domaine alternatif non commercial appelé OpenNIC4 qui pourrait permettre à chacun d’avoir sa propre place sur le Web…

Si ces graines germent sans la moindre assistance, imaginez ce qui serait à notre portée si on commençait réellement à les arroser et à en planter de nouvelles. En investissant dans des stayups, nous pouvons entamer un virage fondamental vers la technologie éthique en Europe.

Nous pouvons construire un pont de là où nous sommes vers là où nous voulons aller.

D’un monde où les multinationales nous possèdent par procuration à un monde où nous n’appartenons qu’à nous-mêmes.

D’un monde où nous finissons toujours par être la propriété d’autrui à un monde où nous demeurons des personnes en tant que telles.

Du capitalisme de surveillance à la pairocratie.




Elle veut casser les GAFAM… vraiment ?

Le rejet des GAFAM fait son chemin y compris dans leur fief, aux U.S.A, pourrait-on se réjouir en constatant par exemple que Google est mis à nu (article en anglais) par le Comité judiciaire du Sénat des États-Unis.

Il est même question à la fin de cet article de protéger par des lois et d’encadrer plus strictement les usages numériques des mineurs. Quelque chose serait-il en train de changer au pays de la libre-entreprise ?

On pourrait de même se réjouir de voir Elizabeth Warren, une candidate démocrate à la présidence et farouche opposante de Trump, publier un appel récent au titre ravageur et programmatique : « Voici comment nous pouvons briser les Big tech ».

Cependant, comme va l’exposer de façon documentée Christophe Masutti ci-dessous, il y a loin de la critique des GAFAM qu’elle articule à la remise en question du système libéral qui pourrait en être la conséquence logique…

 

Casser les GAFAM… et recommencer

par Christophe Masutti

Dans les années 1970, l’économiste américaine Susan Strange théorisait l’économie politique des États-Unis relativement aux intérêts de marché. Elle démontrait dans ses travaux comment la stabilité économique des États-Unis ne dépendait pas du seul pilier des intérêts territoriaux assurés par leur puissance militaro-financière.

Les jeux se jouaient à la fois sur les marchés intérieurs et extérieurs : conditions d’accès aux marchés, production de produits financiers, investissements et firmes multinationales. Elle identifiait plusieurs couches structurelles sur lesquelles devait reposer toute velléité impérialiste, c’est-à-dire la construction de plusieurs types d’hégémonies. La plupart d’entre elles dépendaient à la fois de grandes entreprises et de l’organisation des créneaux économiques que le pouvoir politique américain était capable de dessiner (imposer) sur le globe.

Aujourd’hui, nous connaissons bien évidemment nombre de ces structures et en particulier les structures de la connaissance, celles qui reposent pour l’essentiel sur les technologies de l’information et de la communication et qui sont maîtrisées en grande partie, voire en totalité, par des firmes américaines. Pour ce qui concerne Internet : Google-Alphabet, Amazon, AT&T, Microsoft, etc. (du côté chinois, le même jeu est en train de se dérouler et il importe de ne pas le perdre de vue).

Les processus qui ont permis l’émergence de ces firmes hégémoniques ne se résument pas uniquement aux pratiques de ces dernières. Leur manque d’éthique, l’organisation savante du vol de nos données personnelles, les implications de cette industrie de la data sur nos libertés d’expression, nos vies privées et la démocratie, ne sont pas la recette unique de leur position dominatrice.

On pourrait éternellement disserter sur ces pratiques, démontrer à quel point elles sont néfastes. Il n’en demeure pas moins que si la situation est telle, c’est parce que des stratégies structurelles sont à l’œuvre. Il s’agit de plusieurs pouvoirs : l’état de guerre permanent orchestré par les États-Unis depuis la fin de la Guerre du Vietnam, la transformation ultra-technologique de l’économie financière, les contraintes de marché imposées aux peuples (et pas seulement ceux des pays défavorisés) par des accords iniques, et enfin les technologies de l’information (depuis au moins l’histoire naissante des communications câblées, et à travers tout le XXe siècle). Ces éléments constituent ce que le sociologue et économiste John B. Foster et l’historien des médias Robert W. McChesney appellent le capitalisme de surveillance1, c’est à dire le résultat de ces stratégies hégémoniques et dont la puissance de surveillance (et donc de contrôle) est assurée par les GAFAM (mais pas seulement).

Il reste néanmoins un point crucial : la question des monopoles. Lorsqu’une économie a tendance à se retrouver sclérosée par quelques monopoles qui assurent à eux seuls de multiples secteurs d’activité (rappelons la multiplicité des activités de Google-Alphabet), et couvrent une grande part des capitaux financiers disponibles au détriment de la dynamique économique2, le problème de ces monopoles… c’est que l’économie politique à l’œuvre commence à se voir un peu trop bien.

Quels que soient les partis au pouvoir aux États-Unis, c’est cette politique qui a toujours primé. L’effet de ce conditionnement se fait sentir y compris chez les plus audacieux intellectuels. Les plus prompts à critiquer les pratiques sournoises des GAFAM le feront toujours au nom des libertés des individus, au nom de la vie privée, au nom du droit, mais très peu d’entre eux finissent par reconnaître que, finalement, c’est une critique du capitalisme qu’il faut faire. Y compris, et surtout, une critique des principes politiques qui encouragent les stratégies hégémoniques.

Lorsque le capitalisme et le libéralisme sont considérés comme les seuls systèmes capables de sauvegarder la démocratie, on en vient à des poncifs. Il me revient par exemple ce refrain stupide du milieu des années 1990, où l’on répétait à l’envi que là où McDonald s’installait, la paix s’installait. La démocratie a peu à peu été réduite à la somme des libertés que chacun peut exercer dans un marché capitaliste, c’est-à-dire un marché où les biens finissent toujours par être détenus par quelques-uns, détenteurs de fait du pouvoir politique.

Cette difficulté à penser la démocratie autrement qu’à travers le prisme libéral, est parfaitement illustrée par le récent ouvrage de Shoshana Zuboff3. Cette dernière démontre avec brio comment les stratégies des Gafam et consorts se révèlent être un hold-up sur nos vies et donc sur la démocratie. Elle décortique de manière méthodique la manière dont ces pratiques modifient nos comportements, modèlent le marché et nous privent de notre autonomie. Comprendre aussi : notre autonomie en tant qu’agents économiques, nos libertés de choix et de positionnement qui font le lit d’une certaine conception d’un marché redistributif fondé sur la concurrence et l’échange. En somme les monopoles cassent ce marché, brisent le contrat social (celui d’Adam Smith plus que celui de Rousseau) et brisent aussi l’équilibre libéral sur lequel est censé reposer un capitalisme qui dure, celui fondé sur la propriété privée, etc.

Peu importent finalement les solutions alternatives, y compris libérales, que l’on puisse opposer à ces modèles : si S. Zuboff ne parvient pas à aller au bout de sa démonstration4, c’est qu’elle ne critique que les mécanismes économiques et techniques du capitalisme de surveillance et se refuse à admettre qu’il s’agit d’une économie politique dont il faudrait analyser les principes et les remplacer.

Toutes ces considérations pourraient en rester au stade du débat d’idées. Ce n’est pas le cas. Les conceptions politiques qui ont permis justement l’émergence des monopoles américains du Web et leur hégémonie semblent avoir la peau bien plus dure qu’on ne le pensait. Cela alors même que leurs effets sur les libertés sont pointés du doigt. Tout se passe comme si la seule cause à défendre n’était qu’un credo libéral et pas n’importe lequel.

La candidate du parti démocrate , résolument opposée à D. Trump pour les prochaines élections présidentielles de 2020, publiait récemment par l’intermédiaire de son équipe sur la plateforme Medium.com un article au titre apparemment incisif : « Here’s how we can break up Big Tech« 5 (« Voici comment nous pouvons briser les Big tech »). La guerre au capitalisme de surveillance est-elle officiellement déclarée aux plus hauts niveaux des partis politiques ? Cette ancienne conseillère de B. Obama, dont les positions publiques et acerbes à l’encontre des requins de la finance mondiale lui ont valu une certaine renommée, a-t-elle trouvé le moyen de lutter contre les inégalités sociales et financières que créent les modèles économiques des Big Tech ?

En fait, non. Son texte est l’illustration des principes énoncés ci-dessus même si le constat a le mérite d’être lucide :

Les grandes entreprises technologiques d’aujourd’hui ont trop de pouvoir – trop de pouvoir sur notre économie, notre société et notre démocratie. Elles ont écrasé la concurrence, utilisé nos renseignements personnels à des fins lucratives et faussé les règles du jeu contre tout le monde. Ce faisant, elles ont nui aux petites entreprises et étouffé l’innovation.

À lire Elizabeth Warren, les outils de régulation économique se résument en fait à l’organisation d’un espace concurrentiel libre et non faussé. Son argumentation est intéressante : si les grands monopoles en sont arrivés là, c’est parce, profitant d’un manque de régulation, ils ont roulé les consommateurs. Ces derniers seraient les dindons de la farce, et se retrouvent après tant d’années les instruments involontaires du pouvoir des GAFAM.

Elizabeth Warren, qui semble trop agressive au milliardaire Warren Buffet, veut-elle vraiment en finir avec les GAFAM ? Photo Edward Kimmel (CC BY-SA 2.0)

 

La posture d’E. Warren est alors très confortable : elle réfute d’emblée l’idée que l’apparition de ces monopoles est le fruit d’une politique hégémonique (celle qui favorisait justement l’apparition de monopoles américains à l’échelle du globe) menée tant par les démocrates que par les conservateurs. Au contraire : c’est sur les individus uniquement, et à leur détriment, que se seraient bâti ces monopoles. Dès lors c’est en libérateur que le parti démocrate pourra intervenir, avec E. Warren à sa tête, pour défaire les liens des individus et leur rendre leur vie privée, leurs droits et, carrément, une vraie démocratie.

Cela dit, comme nous l’avons vu, cette démocratie ne s’exerce que dans un certain cadre, celui d’une concurrence maîtrisée et juste. Pour E. Warren, il est alors temps de « démanteler Amazon, Facebook et Google », d’une part en durcissant les règles anti-trust (en souvenir d’un âge d’or de la régulation contre les conglomérats) et, d’autre part, en distinguant l’utilitaire des plate-formes (les conditions techniques d’accès, les structures) et les services aux utilisateurs. Les entreprises qui posséderaient l’utilitaire (par exemple un fournisseur d’accès Internet) seraient alors réputées accomplir un service public (qui, au besoin, pourrait très bien être régulé à coup de subventions) et ne pourraient pas posséder les deux faces du modèle économique. Inversement, les entreprises qui assurent des services ne pourraient pas « coincer » les utilisateurs sur leur système.

Il y a deux conclusions que l’on tire de cette proposition de E. Warren. La première, c’est qu’il est désormais acté que les entreprises de la Tech sont à même d’accomplir du service d’intérêt public : loin d’être nationalisées, au contraire, de nombreuses solutions pourront toujours être externalisées par les États en toute confiance (tout comme Kaa hypnotise le jeune Mowgli) puisque, en théorie, cela ne risquera plus de créer de distorsion de concurrence. L’autre conclusion est que ces nouvelles dispositions n’interviennent évidemment que sur le territoire des États-Unis : on joue là encore sur la régulation des multinationales sur le marché intérieur et dont les effets se feront sentir sur le marché extérieur. Ici il s’agit de multiplier les acteurs, créer des « petits » Gafam qui auront alors l’avantage de se présenter auprès de l’Europe comme des acteurs économiques si différents et à chaque fois pleinement compatibles avec les lois européennes ressenties comme protectionnistes. Il restera cependant que les technologies, elles, demeureront des émanations de l’American tech. Certes l’innovation sera moins bridée par les monopoles actuels, mais ces mini-gafam continueront d’assurer l’hégémonie tout en s’inscrivant de manière moins frontale sur les marchés mondiaux face à (ou avec) d’autres géants chinois.

Oui, parfois les libertés individuelles ont bon dos. On peut construire toutes sortes d’argumentations sur cette base, y compris celle qui consiste à rebattre les cartes et recommencer… Si vous voulez vous aussi jouer ce jeu de dupes, signez la pétition de la Team Warren.


  1. John Bellamy Foster et Robert W. McChesney, « Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age », Monthly Review, 07/2014, vol. 66.
  2. Par exemple, on peut comparer aux États-Unis le nombre de salariés employés par les firmes multinationales de la Silicon Valley, pour des sommets de capitaux financiers jamais atteins jusqu’à présent et le nombre de salariés que l’industrie automobile (plutôt nationale) employait jusqu’à un passé récent. Le résultat n’est n’est pas tant de pointer que les Big tech emploient moins de monde (et il y a tout de même une multitude de sous-traitants) mais qu’en réalité l’organisation de cette économie crée des inégalités salariales radicales où les plus qualifiés dans les nœuds monopolistiques concentrent toute la richesse. Les chômeurs laissés pour compte dans cette transformation de l’économie manufacturière en économie de service constituent un déséquilibre évident pour l’économie américaine et qui s’est traduit récemment en crise financière.
  3. Shoshana Zuboff, Das Zeitalter Des ÜberwachungsKapitalismus, Frankfurt, Campus Verlag, 2018 ; Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, New York, Public Affairs, 2019.
  4. C’est un peu ce que montre Sébastien Broca dans une lecture critique du livre de S. Zuboff. S. Broca, « Surveiller et prédire », La vie des idées, 07/03/2019.
  5. Elizabeth Warren, « Here’s how we can break up Big Tech », Medium.com, 08/03/2019.



Les nouveaux Léviathans IV. La surveillance qui vient

Dans ce quatrième numéro de la série Nouveaux Léviathans, nous allons voir dans quelle mesure le modèle économique a développé son besoin vital de la captation des données relatives à la vie privée. De fait, nous vivons dans le même scénario dystopique depuis une cinquantaine d’années. Nous verrons comment les critiques de l’économie de la surveillance sont redondantes depuis tout ce temps et que, au-delà des craintes, le temps est à l’action d’urgence.

Note : voici le quatrième volet de la série des Nouveaux (et anciens) Léviathans, initiée en 2016, par Christophe Masutti, alias Framatophe. Pour retrouver les articles précédents, une liste vous est présentée à la fin de celui-ci.

Aujourd’hui

Avons-nous vraiment besoin des utopies et des dystopies pour anticiper les rêves et les cauchemars des technologies appliquées aux comportements humains ? Sempiternellement rabâchés, le Meilleur de mondes et 1984 sont sans doute les romans les plus vendus parmi les best-sellers des dernières années. Il existe un effet pervers des utopies et des dystopies, lorsqu’on les emploie pour justifier des arguments sur ce que devrait être ou non la société : tout argument qui les emploie afin de prescrire ce qui devrait être se trouve à un moment ou à un autre face au mur du réel sans possibilité de justifier un mécanisme crédible qui causerait le basculement social vers la fiction libératrice ou la fiction contraignante. C’est la raison pour laquelle l’île de Thomas More se trouve partout et nulle part, elle est utopique, en aucun lieu. Utopie et dystopie sont des propositions d’expérience et n’ont en soi aucune vocation à prouver ou prédire quoi que ce soit bien qu’elles partent presque toujours de l’expérience commune et dont tout l’intérêt, en particulier en littérature, figure dans le troublant cheminement des faits, plus ou moins perceptible, du réel vers l’imaginaire.

Pourtant, lorsqu’on se penche sur le phénomène de l’exploitation des données personnelles à grande échelle par des firmes à la puissance financière inégalable, c’est la dystopie qui vient à l’esprit. Bien souvent, au gré des articles journalistiques pointant du doigt les dernières frasques des GAFAM dans le domaine de la protection des données personnelles, les discussions vont bon train : « ils savent tout de nous », « nous ne sommes plus libres », « c’est Georges Orwell », « on nous prépare le meilleur des mondes ». En somme, c’est l’angoisse  pendant quelques minutes, juste le temps de vérifier une nouvelle fois si l’application Google de notre smartphone a bien enregistré l’adresse du rendez-vous noté la veille dans l’agenda.

Un petit coup d’angoisse ? allez… que diriez-vous si vos activités sur les réseaux sociaux, les sites d’information et les sites commerciaux étaient surveillées et quantifiées de telle manière qu’un système de notation et de récompense pouvait vous permettre d’accéder à certains droits, à des prêts bancaires, à des autorisations officielles, au logement, à des libertés de circulation, etc. Pas besoin de science-fiction. Ainsi que le rapportait Wired en octobre 20175, la Chine a déjà tout prévu d’ici 2020, c’est-à-dire demain. Il s’agit, dans le contexte d’un Internet déjà ultra-surveillé et non-neutre, d’établir un système de crédit social en utilisant les big data sur des millions de citoyens et effectuer un traitement qui permettra de catégoriser les individus, quels que soient les risques : risques d’erreurs, risques de piratage, crédibilité des indicateurs, atteinte à la liberté d’expression, etc.

Évidemment les géants chinois du numérique comme Alibaba et sa filiale de crédit sont déjà sur le coup. Mais il y a deux choses troublantes dans cette histoire. La première c’est que le crédit social existe déjà et partout : depuis des années on évalue en ligne les restaurants et les hôtels sans se priver de critiquer les tenanciers et il existe toute une économie de la notation dans l’hôtellerie et la restauration, des applications terrifiantes comme Peeple6 existent depuis 2015, les banques tiennent depuis longtemps des listes de créanciers, les fournisseurs d’énergie tiennent à jour les historiques des mauvais payeurs, etc.  Ce que va faire la Chine, c’est le rêve des firmes, c’est la possibilité à une gigantesque échelle et dans un cadre maîtrisé (un Internet non-neutre) de centraliser des millions de gigabits de données personnelles et la possibilité de recouper ces informations auparavant éparses pour en tirer des profils sur lesquels baser des décisions.

Le second élément troublant, c’est que le gouvernement chinois n’aurait jamais eu cette idée si la technologie n’était pas déjà à l’œuvre et éprouvée par des grandes firmes. Le fait est que pour traiter autant d’informations par des algorithmes complexes, il faut : de grandes banques de données, beaucoup d’argent pour investir dans des serveurs et dans des compétences, et espérer un retour sur investissement de telle sorte que plus vos secteurs d’activités sont variés plus vous pouvez inférer des profils et plus votre marketing est efficace. Il est important aujourd’hui pour des monopoles mondialisés de savoir combien vous avez de chance d’acheter à trois jours d’intervalle une tondeuse à gazon et un canard en mousse. Le profilage de la clientèle (et des utilisateurs en général) est devenu l’élément central du marché à tel point que notre économie est devenue une économie de la surveillance, repoussant toujours plus loin les limites de l’analyse de nos vies privées.

La dystopie est en marche, et si nous pensons bien souvent au cauchemar orwellien lorsque nous apprenons l’existence de projets comme celui du gouvernement chinois, c’est parce que nous n’avons pas tous les éléments en main pour en comprendre le cheminement. Nous anticipons la dystopie mais trop souvent, nous n’avons pas les moyens de déconstruire ses mécanismes. Pourtant, il devient de plus en plus facile de montrer ces mécanismes sans faire appel à l’imaginaire : toutes les conditions sont remplies pour n’avoir besoin de tracer que quelques scénarios alternatifs et peu différents les uns des autres. Le traitement et l’analyse de nos vies privées provient d’un besoin, celui de maximiser les profits dans une économie qui favorise l’émergence des monopoles et la centralisation de l’information. Cela se retrouve à tous les niveaux de l’économie, à commencer par l’activité principale des géants du Net : le démarchage publicitaire. Comprendre ces modèles économiques revient aussi à comprendre les enjeux de l’économie de la surveillance.

Données personnelles : le commerce en a besoin

Dans le petit monde des études en commerce et marketing, Frederick Reichheld fait figure de référence. Son nom et ses publications dont au moins deux best sellers, ne sont pas vraiment connus du grand public, en revanche la plupart des stratégies marketing des vingt dernières années sont fondées, inspirées et même modélisées à partir de son approche théorique de la relation entre la firme et le client. Sa principale clé de lecture est une notion, celle de la fidélité du client. D’un point de vue opérationnel cette notion est déclinée en un concept, celui de la valeur vie client (customer lifetime value) qui se mesure à l’aune de profits réalisés durant le temps de cette relation entre le client et la firme. Pour Reichheld, la principale activité du marketing consiste à optimiser cette valeur vie client. Cette optimisation s’oppose à une conception rétrograde (et qui n’a jamais vraiment existé, en fait7) de la « simple » relation marchande.

En effet, pour bien mener les affaires, la relation avec le client ne doit pas seulement être une série de transactions marchandes, avec plus ou moins de satisfaction à la clé. Cette manière de concevoir les modèles économiques, qui repose uniquement sur l’idée qu’un client satisfait est un client fidèle, a son propre biais : on se contente de donner de la satisfaction. Dès lors, on se place d’un point de vue concurrentiel sur une conception du capitalisme marchand déjà ancienne. Le modèle de la concurrence « non faussée » est une conception nostalgique (fantasmée) d’une relation entre firme et client qui repose sur la rationalité de ce dernier et la capacité des firmes à produire des biens en réponse à des besoins plus ou moins satisfaits. Dès lors la décision du client, son libre arbitre, serait la variable juste d’une économie auto-régulée (la main invisible) et la croissance économique reposerait sur une dynamique de concurrence et d’innovation, en somme, la promesse du « progrès ».

Évidemment, cela ne fonctionne pas ainsi. Il est bien plus rentable pour une entreprise de fidéliser ses clients que d’en chercher de nouveaux. Prospecter coûte cher alors qu’il est possible de jouer sur des variables à partir de l’existant, tout particulièrement lorsqu’on exerce un monopole (et on comprend ainsi pourquoi les monopoles s’accommodent très bien entre eux en se partageant des secteurs) :

  1. on peut résumer la conception de Reichheld à partir de son premier best seller, The Loyalty Effect (1996) : avoir des clients fidèles, des employés fidèles et des propriétaires loyaux. Il n’y a pas de main invisible : tout repose sur a) le rapport entre hausse de la rétention des clients / hausse des dépenses, b) l’insensibilité aux prix rendue possible par la fidélisation (un client fidèle, ayant dépassé le stade du risque de défection, est capable de dépenser davantage pour des raisons qui n’ont rien à voir avec la valeur marchande), c) la diminution des coûts de maintenance (fidélisation des employés et adhésion au story telling), d) la hausse des rendements et des bénéfices. En la matière la firme Apple rassemble tous ces éléments à la limite de la caricature.
  2. Reichheld est aussi le créateur d’un instrument d’évaluation de la fidélisation : le NPS (Net Promoter Score). Il consiste essentiellement à catégoriser les clients, entre promoteurs, détracteurs ou passifs. Son autre best-seller The Ultimate Question 2.0: How Net Promoter Companies Thrive in a Customer-Driven World déploie les applications possibles du contrôle de la qualité des relations client qui devient dès lors la principale stratégie de la firme d’où découlent toutes les autres stratégies (en particulier les choix d’innovation). Ainsi il cite dans son ouvrage les plus gros scores NPS détenus par des firmes comme Apple, Amazon et Costco.

Il ne faut pas sous-estimer la valeur opérationnelle du NPS. Notamment parce qu’il permet de justifier les choix stratégiques. Dans The Ultimate Question 2.0 Reichheld fait référence à une étude de Bain & Co. qui montre que pour une banque, la valeur vie client d’un promoteur (au sens NPS) est estimée en moyenne à 9 500 dollars. Ce modèle aujourd’hui est une illustration de l’importance de la surveillance et du rôle prépondérant de l’analyse de données. En effet, plus la catégorisation des clients est fine, plus il est possible de déterminer les leviers de fidélisation. Cela passe évidemment par un système de surveillance à de multiples niveaux, à la fois internes et externes :

  • surveiller des opérations de l’organisation pour les rendre plus agiles et surveiller des employés pour augmenter la qualité des relations client,
  • rassembler le plus de données possibles sur les comportements des clients et les possibilités de déterminer leurs choix à l’avance.

Savoir si cette approche du marketing est née d’un nouveau contexte économique ou si au contraire ce sont les approches de la valeur vie client qui ont configuré l’économie d’aujourd’hui, c’est se heurter à l’éternel problème de l’œuf et de la poule. Toujours est-il que les stratégies de croissance et de rentabilité de l’économie reposent sur l’acquisition et l’exploitation des données personnelles de manière à manipuler les processus de décision des individus (ou plutôt des groupes d’individus) de manière à orienter les comportements et fixer des prix non en rapport avec la valeur des biens mais en rapport avec ce que les consommateurs (ou même les acheteurs en général car tout ne se réduit pas à la question des seuls biens de consommation et des services) sont à même de pouvoir supporter selon la catégorie à laquelle ils appartiennent.

Le fait de catégoriser ainsi les comportements et les influencer, comme nous l’avons vu dans les épisodes précédents de la série Léviathans, est une marque stratégique de ce que Shoshana Zuboff a appelé le capitalisme de surveillance8. Les entreprises ont aujourd’hui un besoin vital de rassembler les données personnelles dans des silos de données toujours plus immenses et d’exploiter ces big data de manière à optimiser leurs modèles économiques. Ainsi, du point de vue des individus, c’est le quotidien qui est scruté et analysé de telle manière que, il y a à peine une dizaine d’années, nous étions à mille lieues de penser l’extrême granularité des données qui cartographient et catégorisent nos comportements. Tel est l’objet du récent rapport publié par Cracked Lab Corporate surveillance in everyday life9 qui montre à quel point tous les aspect du quotidien font l’objet d’une surveillance à une échelle quasi-industrielle (on peut citer les activités de l’entreprise Acxiom), faisant des données personnelles un marché dont la matière première est traitée sans aucun consentement des individus. En effet, tout le savoir-faire repose essentiellement sur le recoupement statistique et la possibilité de catégoriser des milliards d’utilisateurs de manière à produire des représentations sociales dont les caractéristiques ne reflètent pas la réalité mais les comportements futurs. Ainsi par exemple les secteurs bancaires et des assurances sont particulièrement friands des possibilités offertes par le pistage numérique et l’analyse de solvabilité.

Cette surveillance a été caractérisée déjà en 1988 par le chercheur en systèmes d’information Roger Clarke10 :

  • dans la mesure où il s’agit d’automatiser, par des algorithmes, le traitement des informations personnelles dans un réseau regroupant plusieurs sources, et d’en inférer du sens, on peut la qualifier de « dataveillance », c’est à dire « l’utilisation systématique de systèmes de traitement de données à caractère personnel dans l’enquête ou le suivi des actions ou des communications d’une ou de plusieurs personnes » ;
  • l’un des attributs fondamentaux de cette dataveillance est que les intentions et les mécanismes sont cachés aux sujets qui font l’objet de la surveillance.

En effet, l’accès des sujets à leurs données personnelles et leurs traitements doit rester quasiment impossible car après un temps très court de captation et de rétention, l’effet de recoupement fait croître de manière exponentielle la somme d’information sur les sujets et les résultats, qu’ils soient erronés ou non, sont imbriqués dans le profilage et la catégorisation de groupes d’individus. Plus le monopole a des secteurs d’activité différents, plus les comportements des mêmes sujets vont pouvoir être quantifiés et analysés à des fins prédictives. C’est pourquoi la dépendance des firmes à ces informations est capitale ; pour citer Clarke en 201711 :

« L’économie de la surveillance numérique est cette combinaison d’institutions, de relations institutionnelles et de processus qui permet aux entreprises d’exploiter les données issues de la surveillance du comportement électronique des personnes et dont les sociétés de marketing deviennent rapidement dépendantes. »

Le principal biais que produit cette économie de la surveillance (pour S. Zuboff, c’est de capitalisme de surveillance qu’il s’agit puisqu’elle intègre une relation d’interdépendance entre centralisation des données et centralisation des capitaux) est qu’elle n’a plus rien d’une démarche descriptive mais devient prédictive par effet de prescription.

Elle n’est plus descriptive (mais l’a-t-elle jamais été ?) parce qu’elle ne cherche pas à comprendre les comportements économiques en fonction d’un contexte, mais elle cherche à anticiper les comportements en maximisant les indices comportementaux. On ne part plus d’un environnement économique pour comprendre comment le consommateur évolue dedans, on part de l’individu pour l’assigner à un environnement économique sur mesure dans l’intérêt de la firme. Ainsi, comme l’a montré une étude de Propublica en 201612, Facebook dispose d’un panel de pas moins de 52 000 indicateurs de profilage individuels pour en établir une classification générale. Cette quantification ne permet plus seulement, comme dans une approche statistique classique, de déterminer par exemple si telle catégorie d’individus est susceptible d’acheter une voiture. Elle permet de déterminer, de la manière la plus intime possible, quelle valeur économique une firme peut accorder à un panel d’individus au détriment des autres, leur valeur vie client.

Tout l’enjeu consiste à savoir comment influencer ces facteurs et c’est en cela que l’exploitation des données passe d’une dimension prédictive à une dimension prescriptive. Pour prendre encore l’exemple de Facebook, cette firme a breveté un système capable de déterminer la solvabilité bancaire des individus en fonction de la solvabilité moyenne de leur réseau de contacts13. L’important ici, n’est pas vraiment d’aider les banques à diminuer les risques d’insolvabilité de leurs clients, car elles savent très bien le faire toutes seules et avec les mêmes procédés d’analyse en big data. En fait, il s’agit d’influencer les stratégies personnelles des individus par le seul effet panoptique14 : si les individus savent qu’ils sont surveillés, toute la stratégie individuelle consistera à choisir ses amis Facebook en fonction de leur capacité à maximiser les chances d’accéder à un prêt bancaire (et cela peut fonctionner pour bien d’autres objectifs). L’intérêt de Facebook n’est pas d’aider les banques, ni de vendre une expertise en statistique (ce n’est pas le métier de Facebook) mais de normaliser les comportements dans l’intérêt économique et augmenter la valeur vie client potentielle de ses utilisateurs : si vous avez des problèmes d’argent, Facebook n’est pas fait pour vous. Dès lors il suffit ensuite de revendre des profils sur-mesure à des banques. On se retrouve typiquement dans un épisode d’anticipation de la série Black Mirror (Chute libre)15.

 

La fiction, l’anticipation, la dystopie… finalement, c’est-ce pas un biais que de toujours analyser sous cet angle l’économie de la surveillance et le rôle des algorithmes dans notre quotidien ? Tout se passe en quelque sorte comme si nous découvrions un nouveau modèle économique, celui dont nous venons de montrer que les préceptes sont déjà anciens, et comme si nous appréhendions seulement aujourd’hui les enjeux de la captation et l’exploitation des données personnelles. Au risque de décevoir tous ceux qui pensent que questionner la confiance envers les GAFAM est une activité d’avant-garde, la démarche a été initiée dès les prémices de la révolution informatique.

La vie privée à l’époque des pattes d’eph.

Face au constat selon lequel nous vivons dans un environnement où la surveillance fait loi, de nombreux ouvrages, articles de presse et autres témoignages ont sonné l’alarme. En décembre 2017, ce fut le soi-disant repentir de Chamath Palihapitya, ancien vice-président de Facebook, qui affirmait avoir contribué à créer « des outils qui déchirent le tissu social »16. Il ressort de cette lecture qu’après plusieurs décennies de centralisation et d’exploitation des données personnelles par des acteurs économiques ou institutionnels, nous n’avons pas fini d’être surpris par les transformations sociales qu’impliquent les big data. Là où, effectivement, nous pouvons accorder un tant soit peu de de crédit à C. Palihapitya, c’est dans le fait que l’extraction et l’exploitation des données personnelles implique une économie de la surveillance qui modèle la société sur son modèle économique. Et dans ce modèle, l’exercice de certains droits (comme le droit à la vie privée) passe d’un état absolu (un droit de l’homme) à un état relatif (au contexte économique).

Comme cela devient une habitude dans cette série des Léviathans, nous pouvons effectuer un rapide retour dans le temps et dans l’espace. Situons-nous à la veille des années 1970, aux États-Unis, plus exactement dans la période charnière qui vit la production en masse des ordinateurs mainframe (du type IBM 360), à destination non plus des grands laboratoires de recherche et de l’aéronautique, mais vers les entreprises des secteurs de la banque, des assurances et aussi vers les institutions gouvernementales. L’objectif premier de tels investissements (encore bien coûteux à cette époque) était le traitement des données personnelles des citoyens ou des clients.

Comme bien des fois en histoire, il existe des périodes assez courtes où l’on peut comprendre les événements non pas parce qu’ils se produisent suivant un enchaînement logique et linéaire, mais parce qu’ils surviennent de manière quasi-simultanée comme des fruits de l’esprit du temps. Ainsi nous avons d’un côté l’émergence d’une industrie de la donnée personnelle, et, de l’autre l’apparition de nombreuses publications portant sur les enjeux de la vie privée. D’aucuns pourraient penser que, après la publication en 1949 du grand roman de G. Orwell, 1984, la dystopie orwellienne pouvait devenir la clé de lecture privilégiée de l’informationnalisation (pour reprendre le terme de S. Zuboff) de la société américaine dans les années 1960-1970. Ce fut effectivement le cas… plus exactement, si les références à Orwell sont assez courantes dans la littérature de l’époque17, il y avait deux lectures possibles de la vie privée dans une société aussi bouleversée que celle de l’Amérique des années 1960. La première questionnait la hiérarchie entre vie privée et vie publique. La seconde focalisait sur le traitement des données informatiques. Pour mieux comprendre l’état d’esprit de cette période, il faut parcourir quelques références.

Vie privée vs vie publique

Deux best-sellers parus en été 1964 effectuent un travail introspectif sur la société américaine et son rapport à la vie privée. Le premier, écrit par Myron Brenton, s’intitule The privacy invaders18. Brenton est un ancien détective privé qui dresse un inventaire des techniques de surveillance à l’encontre des citoyens et du droit. Le second livre, écrit par Vance Packard, connut un succès international. Il s’intitule The naked Society19, traduit en français un an plus tard sous le titre Une société sans défense. V. Packard est alors universitaire, chercheur en sociologie et économie. Il est connu pour avoir surtout travaillé sur la société de consommation et le marketing et dénoncé, dans un autre ouvrage (La persuasion clandestine20), les abus des publicitaires en matière de manipulation mentale. Dans The naked Society comme dans The privacy invaders les mêmes thèmes sont déployés à propos des dispositifs de surveillance, entre les techniques d’enquêtes des banques sur leurs clients débiteurs, les écoutes téléphoniques, la surveillance audio et vidéo des employés sur les chaînes de montage, en somme toutes les stratégies privées ou publiques d’espionnage des individus et d’abus en tout genre qui sont autant d’atteintes à la vie privée. Il faut dire que la société américaine des années 1960 a vu aussi bien arriver sur le marché des biens de consommation le téléphone et la voiture à crédit mais aussi l’électronique et la miniaturisation croissante des dispositifs utiles dans ce genre d’activité. Or, les questions que soulignent Brenton et Packard, à travers de nombreux exemples, ne sont pas tant celles, plus ou moins spectaculaires, de la mise en œuvre, mais celles liées au droit des individus face à des puissances en recherche de données sur la vie privée extorquées aux sujets mêmes. En somme, ce que découvrent les lecteurs de ces ouvrages, c’est que la vie privée est une notion malléable, dans la réalité comme en droit, et qu’une bonne part de cette malléabilité est relative aux technologies et au médias. Packard ira légèrement plus loin sur l’aspect tragique de la société américaine en focalisant plus explicitement sur le respect de la vie privée dans le contexte des médias et de la presse à sensation et dans les contradictions apparente entre le droit à l’information, le droit à la vie privée et le Sixième Amendement. De là, il tire une sonnette d’alarme en se référant à Georges Orwell, et dénonçant l’effet panoptique obtenu par l’accessibilité des instruments de surveillance, la généralisation de leur emploi dans le quotidien, y compris pour les besoins du marketing, et leur impact culturel.

En réalité, si ces ouvrages connurent un grand succès, c’est parce que leur approche de la vie privée reposait sur un questionnement des pratiques à partir de la morale et du droit, c’est-à-dire sur ce que, dans une société, on est prêt à admettre ou non au sujet de l’intimité vue comme une part structurelle des relations sociales. Qu’est-ce qui relève de ma vie privée et qu’est-ce qui relève de la vie publique ? Que puis-je exposer sans crainte selon mes convictions, ma position sociale, la classe à laquelle j’appartiens, etc. Quelle est la légitimité de la surveillance des employés dans une usine, d’un couple dans une chambre d’hôtel, d’une star du show-biz dans sa villa ?

Il reste que cette approche manqua la grande révolution informatique naissante et son rapport à la vie privée non plus conçue comme l’image et l’estime de soi, mais comme un ensemble d’informations quantifiables à grande échelle et dont l’analyse peut devenir le mobile de décisions qui impactent la société en entier21. La révolution informatique relègue finalement la légitimité de la surveillance au second plan car la surveillance est alors conçue de manière non plus intentionnelle mais comme une série de faits : les données fournies par les sujets, auparavant dans un contexte fermé comme celui de la banque locale, finirent par se retrouver centralisées et croisées au gré des consortiums utilisant l’informatique pour traiter les données des clients. Le même schéma se retrouva pour ce qui concerne les institutions publiques dans le contexte fédéral américain.

Vie privée vs ordinateurs

Une autre approche commença alors à faire son apparition dans la sphère universitaire. Elle intervient dans la seconde moitié des années 1960. Il s’agissait de se pencher sur la gouvernance des rapports entre la vie privée et l’administration des données personnelles. Suivant au plus près les nouvelles pratiques des grands acteurs économiques et gouvernementaux, les universitaires étudièrent les enjeux de la numérisation des données personnelles avec en arrière-plan les préoccupations juridiques, comme celle de V. Packard, qui faisaient l’objet des réflexions de la décennie qui se terminait. Si, avec la société de consommation venait tout un lot de dangers sur la vie privée, cette dernière devrait être protégée, mais il fallait encore savoir sur quels plans agir. Le début des années 1970, en guise de résultat de ce brainstorming général, marquèrent alors une nouvelle ère de la privacy à l’Américaine à l’âge de l’informatisation et du réseautage des données personnelles. Il s’agissait de comprendre qu’un changement majeur était en train de s’effectuer avec les grands ordinateurs en réseau et qu’il fallait formaliser dans le droit les garde-fou les plus pertinents : on passait d’un monde où la vie privée pouvait faire l’objet d’une intrusion par des acteurs séparés, recueillant des informations pour leur propre compte en fonction d’objectifs différents, à un monde où les données éparses étaient désormais centralisées, avec des machines capables de traiter les informations de manière rapide et automatisée, capables d’inférer des informations sans le consentement des sujets à partir d’informations que ces derniers avaient données volontairement dans des contextes très différents.

La liste des publications de ce domaine serait bien longue. Par exemple, la Rand Corporation publia une longue liste bibliographique annotée au sujet des données personnelles informatisées. Cette liste regroupe près de 300 publications entre 1965 et 1967 sur le sujet22.

Des auteurs universitaires firent école. On peut citer :

  • Alan F. Westin : Privacy and freedom (1967), Civil Liberties and Computerized Data Systems (1971), Databanks in a Free Society: Computers, Record Keeping and Privacy (1972)23 ;
  • James B. Rule : Private lives and public surveillance: social control in the computer age (1974)24 ;
  • Arthur R. Miller : The assault on privacy. Computers, Data Banks and Dossier (1971)25 ;
  • Malcolm Warner et Mike Stone, The Data Bank Society : Organizations, Computers and Social Freedom (1970)26.

Toutes ces publications ont ceci en commun qu’elles procédèrent en deux étapes. La première consistait à dresser un tableau synthétique de la société américaine face à la captation des informations personnelles. Quatre termes peuvent résumer les enjeux du traitement des informations : 1) la légitimité de la captation des informations, 2) la permanence des données et leurs modes de rétention, 3) la transférabilité (entre différentes organisations), 4) la combinaison ou le recoupement de ces données et les informations ainsi inférées27.

La seconde étape consistait à choisir ce qui, dans cette « société du dossier (dossier society) » comme l’appelait Arthur R. Miller, devait faire l’objet de réformes. Deux fronts venaient en effet de s’ouvrir : l’État et les firmes.

Le premier, évident, était celui que la dystopie orwellienne pointait avec empressement : l’État de surveillance. Pour beaucoup de ces analystes, en effet, le fédéralisme américain et la multiplicité des agences gouvernementales pompaient allègrement la privacy des honnêtes citoyens et s’équipaient d’ordinateurs à temps partagé justement pour rendre interopérables les systèmes de traitement d’information à (trop) grande échelle. Un rapide coup d’œil sur les références citées, montre que, effectivement, la plupart des conclusions focalisaient sur le besoin d’adapter le droit aux impératifs constitutionnels américains. Tels sont par exemple les arguments de A. F. Westin pour lequel l’informatisation des données privées dans les différentes autorités administratives devait faire l’objet non d’un recul, mais de nouvelles règles portant sur la sécurité, l’accès des citoyens à leurs propres données et la pertinence des recoupements (comme par exemple l’utilisation restreinte du numéro de sécurité sociale). En guise de synthèse, le rapport de l’U.S. Department of health, Education and Welfare livré en 197328 (et où l’on retrouve Arthur R. Miller parmi les auteurs) repris ces éléments au titre de ses recommandations. Il prépara ainsi le Privacy Act de 1974, qui vise notamment à prévenir l’utilisation abusive de documents fédéraux et garantir l’accès des individus aux données enregistrées les concernant.

Le second front, tout aussi évident mais moins accessible car protégé par le droit de propriété, était celui de la récolte de données par les firmes, et en particulier les banques. L’un des auteurs les plus connus, Arthur R. Miller dans The assault on privacy, fit la synthèse des deux fronts en focalisant sur le fait que l’informatisation des données personnelles, par les agences gouvernementales comme par les firmes, est une forme de surveillance et donc un exercice du pouvoir. Se poser la question de leur légitimité renvoie effectivement à des secteurs différents du droit, mais c’est pour lui le traitement informatique (il utilise le terme « cybernétique ») qui est un instrument de surveillance par essence. Et cet instrument est orwellien :

« Il y a à peine dix ans, on aurait pu considérer avec suffisance Le meilleur des mondes de Huxley ou 1984 de Orwell comme des ouvrages de science-fiction excessifs qui ne nous concerneraient pas et encore moins ce pays. Mais les révélations publiques répandues au cours des dernières années au sujet des nouvelles formes de pratiques d’information ont fait s’envoler ce manteau réconfortant mais illusoire. »

Pourtant, un an avant la publication de Miller fut voté le Fair Credit Reporting Act, portant sur les obligations déclaratives des banques. Elle fut aussi l’une des premières lois sur la protection des données personnelles, permettant de protéger les individus, en particulier dans le secteur bancaire, contre la tenue de bases de données secrètes, la possibilité pour les individus d’accéder aux données et de les contester, et la limitation dans le temps de la rétention des informations.

Cependant, pour Miller, le Fair Credit Reporting Act est bien la preuve que la bureaucratie informatisée et le réseautage des données personnelles impliquent deux pertes de contrôle de la part de l’individu et pour lesquelles la régulation par le droit n’est qu’un pis-aller (pp. 25-38). On peut de même, en s’autorisant quelque anachronisme, s’apercevoir à quel point les deux types de perte de contrôles qu’il pointe nous sont éminemment contemporains.

  • The individual loss of control over personal information  : dans un contexte où les données sont mises en réseau et recoupées, dès lors qu’une information est traitée par informatique, le sujet et l’opérateur n’ont plus le contrôle sur les usages qui pourront en être faits. Sont en jeu la sécurité et l’intégrité des données (que faire en cas d’espionnage ? que faire en cas de fuite non maîtrisée des données vers d’autres opérateurs : doit-on exiger que les opérateurs en informent les individus ?).
  • The individual loss of control over the accuracy of his informational profil : la centralisation des données permet de regrouper de multiples aspects de la vie administrative et sociale de la personne, et de recouper toutes ces données pour en inférer des profils. Dans la mesure où nous assistons à une concentration des firmes par rachats successifs et l’émergence de monopoles (Miller prend toujours l’exemple des banques), qu’arrive-t-il si certaines données sont erronées ou si certains recoupements mettent en danger le droit à la vie privée : par exemple le rapport entre les données de santé, l’identité des individus et les crédits bancaires.

Et Miller de conclure (p. 79) :

« Ainsi, l’informatisation, le réseautage et la réduction de la concurrence ne manqueront pas de pousser l’industrie de l’information sur le crédit encore plus profondément dans le marasme du problème de la protection de la vie privée. »

Les échos du passé

La lutte pour la préservation de la vie privée dans une société numérisée passe par une identification des stratégies intentionnelles de la surveillance et par l’analyse des procédés d’extraction, rétention et traitement des données. La loi est-elle une réponse ? Oui, mais elle est loin de suffire. La littérature nord-américaine dont nous venons de discuter montre que l’économie de la surveillance dans le contexte du traitement informatisé des données personnelles est née il y a plus de 50 ans. Et dès le début il fut démontré, dans un pays où les droits individuels sont culturellement associés à l’organisation de l’État fédéral (la Déclaration des Droits), non seulement que la privacy changeait de nature (elle s’étend au traitement informatique des informations fournies et aux données inférées) mais aussi qu’un équilibre s’établissait entre le degré de sanctuarisation de la vie privée et les impératifs régaliens et économiques qui réclament une industrialisation de la surveillance.

Puisque l’intimité numérique n’est pas absolue mais le résultat d’un juste équilibre entre le droit et les pratiques, tout les jeux post-révolution informatique après les années 1960 consistèrent en une lutte perpétuelle entre défense et atteinte à la vie privée. C’est ce que montre Daniel J. Solove dans « A Brief History of Information Privacy Law »29 en dressant un inventaire chronologique des différentes réponses de la loi américaine face aux changements technologiques et leurs répercussions sur la vie privée.

Il reste néanmoins que la dimension industrielle de l’économie de la surveillance a atteint en 2001 un point de basculement à l’échelle mondiale avec le Patriot Act30 dans le contexte de la lutte contre le terrorisme. À partir de là, les principaux acteurs de cette économie ont vu une demande croissante de la part des États pour récolter des données au-delà des limites strictes de la loi sous couvert des dispositions propres à la sûreté nationale et au secret défense. Pour rester sur l’exemple américain, Thomas Rabino écrit à ce sujet31 :

« Alors que le Privacy Act de 1974 interdit aux agences fédérales de constituer des banques de données sur les citoyens américains, ces mêmes agences fédérales en font désormais l’acquisition auprès de sociétés qui, à l’instar de ChoicePoint, se sont spécialisées dans le stockage d’informations diverses. Depuis 2001, le FBI et d’autres agences fédérales ont conclu, dans la plus totale discrétion, de fructueux contrats avec ChoicePoint pour l’achat des renseignements amassés par cette entreprise d’un nouveau genre. En 2005, le budget des États-Unis consacrait plus de 30 millions de dollars à ce type d’activité. »

Dans un contexte plus récent, on peut affirmer que même si le risque terroriste est toujours agité comme un épouvantail pour justifier des atteintes toujours plus fortes à l’encontre de la vie privée, les intérêts économiques et la pression des lobbies ne peuvent plus se cacher derrière la Raison d’État. Si bien que plusieurs pays se mettent maintenant au diapason de l’avancement technologique et des impératifs de croissance économique justifiant par eux-mêmes des pratiques iniques. Ce fut le cas par exemple du gouvernement de Donald Trump qui, en mars 2017 et à la plus grande joie du lobby des fournisseurs d’accès, abroge une loi héritée du gouvernement précédent et qui exigeait que les FAI obtiennent sous conditions la permission de partager des renseignements personnels – y compris les données de localisation32.

Encore en mars 2017, c’est la secrétaire d’État à l’Intérieur Britannique Amber Rudd qui juge publiquement « inacceptable » le chiffrement des communications de bout en bout et demande aux fournisseurs de messagerie de créer discrètement des backdoors, c’est à dire renoncer au chiffrement de bout en bout sans le dire aux utilisateurs33. Indépendamment du caractère moralement discutable de cette injonction, on peut mesurer l’impact du message sur les entreprises comme Google, Facebook et consors : il existe des décideurs politiques capables de demander à ce qu’un fournisseur de services propose à ses utilisateurs un faux chiffrement, c’est-à-dire que le droit à la vie privée soit non seulement bafoué mais, de surcroît, que le mensonge exercé par les acteurs privés soit couvert par les acteurs publics, et donc par la loi.

Comme le montre Shoshana Zuboff, le capitalisme de surveillance est aussi une idéologie, celle qui instaure une hiérarchie entre les intérêts économiques et le droit. Le droit peut donc être une arme de lutte pour la sauvegarde de la vie privée dans l’économie de la surveillance, mais il ne saurait suffire dans la mesure où il n’y pas de loyauté entre les acteurs économiques et les sujets et parfois même encore moins entre les décideurs publics et les citoyens.

Dans ce contexte où la confiance n’est pas de mise, les portes sont restées ouvertes depuis les années 1970 pour créer l’industrie des big data dont le carburant principal est notre intimité, notre quotidienneté. C’est parce qu’il est désormais possible de repousser toujours un peu plus loin les limites de la captation des données personnelles que des théories économique prônent la fidélisation des clients et la prédiction de leurs comportements comme seuls points d’appui des investissements et de l’innovation. C’est vrai dans le marketing, c’est vrai dans les services et l’innovation numériques. Et tout naturellement c’est vrai dans la vie politique, comme le montre par exemple l’affaire des dark posts durant la campagne présidentielle de D. Trump : la possibilité de contrôler l’audience et d’influencer une campagne présidentielle via les réseaux sociaux comme Facebook est désormais démontrée.

Tant que ce modèle économique existera, aucune confiance ne sera possible. La confiance est même absente des pratiques elles-mêmes, en particulier dans le domaine du traitement algorithmique des informations. En septembre 2017, la chercheuse Zeynep Tufekci, lors d’une conférence TED34, reprenait exactement les questions d’Arthur R. Miller dans The assault on privacy, soit 46 ans après. Miller prenait comme étude de cas le stockage d’information bancaire sur les clients débiteurs, et Tufekci prend les cas des réservation de vols aériens en ligne et du streaming vidéo. Dans les deux réflexions, le constat est le même : le traitement informatique de nos données personnelles implique que nous (les sujets et les opérateurs eux-mêmes) perdions le contrôle sur ces données :

« Le problème, c’est que nous ne comprenons plus vraiment comment fonctionnent ces algorithmes complexes. Nous ne comprenons pas comment ils font cette catégorisation. Ce sont d’énormes matrices, des milliers de lignes et colonnes, peut-être même des millions, et ni les programmeurs, ni quiconque les regardant, même avec toutes les données, ne comprend plus comment ça opère exactement, pas plus que vous ne sauriez ce que je pense en ce moment si l’on vous montrait une coupe transversale de mon cerveau. C’est comme si nous ne programmions plus, nous élevons une intelligence que nous ne comprenons pas vraiment. »

Z. Tufekci montre même que les algorithmes de traitement sont en mesure de fournir des conclusions (qui permettent par exemple d’inciter les utilisateurs à visualiser des vidéos sélectionnées d’après leur profil et leur historique) mais que ces conclusions ont ceci de particulier qu’elle modélisent le comportement humain de manière à l’influencer dans l’intérêt du fournisseur. D’après Z. Tufekci : «  L’algorithme a déterminé que si vous pouvez pousser les gens à penser que vous pouvez leur montrer quelque chose de plus extrême (nda : des vidéos racistes dans l’exemple cité), ils ont plus de chances de rester sur le site à regarder vidéo sur vidéo, descendant dans le terrier du lapin pendant que Google leur sert des pubs. »

Ajoutons de même que les technologies de deep learning, financées par millions par les GAFAM, se prêtent particulièrement bien au jeu du traitement automatisé en cela qu’elle permettent, grâce à l’extrême croissance du nombre de données, de procéder par apprentissage. Cela permet à Facebook de structurer la grande majorité des données des utilisateurs qui, auparavant, n’était pas complètement exploitable35. Par exemple, sur les milliers de photos de chatons partagées par les utilisateurs, on peut soit se contenter de constater une redondance et ne pas les analyser davantage, soit apprendre à y reconnaître d’autres informations, comme par exemple l’apparition, en arrière-plan, d’un texte, d’une marque de produit, etc. Il en est de même pour la reconnaissance faciale, qui a surtout pour objectif de faire concorder les identités des personnes avec toutes les informations que l’on peut inférer à partir de l’image et du texte.

Si les techniques statistiques ont le plus souvent comme objectif de contrôler les comportements à l’échelle du groupe, c’est parce que le seul fait de catégoriser automatiquement les individus consiste à considérer que leurs données personnelles en constituent l’essence. L’économie de la surveillance démontre ainsi qu’il n’y a nul besoin de connaître une personne pour en prédire le comportement, et qu’il n’y a pas besoin de connaître chaque individu d’un groupe en particulier pour le catégoriser et prédire le comportement du groupe, il suffit de laisser faire les algorithmes : le tout est d’être en mesure de classer les sujets dans les bonnes catégories et même faire en sorte qu’ils y entrent tout à fait. Cela a pour effet de coincer littéralement les utilisateurs des services « capteurs de données » dans des bulles de filtres où les informations auxquelles ils ont accès leur sont personnalisées selon des profils calculés36. Si vous partagez une photo de votre chat devant votre cafetière, et que dernièrement vous avez visité des sites marchands, vous aurez de grandes chance pour vos futures annonces vous proposent la marque que vous possédez déjà et exercent, par effet de répétition, une pression si forte que c’est cette marque que vous finirez par acheter. Ce qui fonctionne pour le marketing peut très bien fonctionner pour d’autres objectifs, même politiques.

En somme tous les déterminants d’une société soumise au capitalisme de surveillance, apparus dès les années 1970, structurent le monde numérique d’aujourd’hui sans que les lois ne puissent jouer de rôle pleinement régulateur. L’usage caché et déloyal des big data, le trafic de données entre organisations, la dégradation des droits individuels (à commencer par la liberté d’expression et le droit à la vie privée), tous ces éléments ont permis à des monopoles d’imposer un modèle d’affaire et affaiblir l’État-nation. Combien de temps continuerons-nous à l’accepter ?

Sortir du marasme

En 2016, à la fin de son article synthétique sur le capitalisme de surveillance8, Shoshana Zuboff exprime personnellement un point de vue selon lequel la réponse ne peut pas être uniquement technologique :

« (…) les faits bruts du capitalisme de surveillance suscitent nécessairement mon indignation parce qu’ils rabaissent la dignité humaine. L’avenir de cette question dépendra des savants et journalistes indignés attirés par ce projet de frontière, des élus et des décideurs indignés qui comprennent que leur autorité provient des valeurs fondamentales des communautés démocratiques, et des citoyens indignés qui agissent en sachant que l’efficacité sans l’autonomie n’est pas efficace, la conformité induite par la dépendance n’est pas un contrat social et être libéré de l’incertitude n’est pas la liberté. »

L’incertitude au sujet des dérives du capitalisme de surveillance n’existe pas. Personne ne peut affirmer aujourd’hui qu’avec l’avènement des big data dans les stratégies économiques, on pouvait ignorer que leur usage déloyal était non seulement possible mais aussi que c’est bien cette direction qui fut choisie d’emblée dans l’intérêt des monopoles et en vertu de la centralisation des informations et des capitaux. Depuis les années 1970, plusieurs concepts ont cherché à exprimer la même chose. Pour n’en citer que quelques-uns : computocracie (M. Warner et M. Stone, 1970), société du dossier (Arthur R. Miller, 1971), surveillance de masse (J. Rule, 1973), dataveillance (R. Clarke, 1988), capitalisme de surveillance (Zuboff, 2015)… tous cherchent à démontrer que la surveillance des comportements par l’usage des données personnelles implique en retour la recherche collective de points de rupture avec le modèle économique et de gouvernance qui s’impose de manière déloyale. Cette recherche peut s’exprimer par le besoin d’une régulation démocratiquement décidée et avec des outils juridiques. Elle peut s’exprimer aussi autrement, de manière violente ou pacifiste, militante et/ou contre-culturelle.

Plusieurs individus, groupes et organisation se sont déjà manifestés dans l’histoire à ce propos. Les formes d’expression et d’action ont été diverses :

  • institutionnelles : les premières formes d’action pour garantir le droit à la vie privée ont consisté à établir des rapports collectifs préparatoires à des grandes lois, comme le rapport Records, computers and the rights of citizens, de 1973, cité plus haut ;
  • individualistes, antisociales et violentes : bien que s’inscrivant dans un contexte plus large de refus technologique, l’affaire Theodore Kaczynski (alias Unabomber) de 1978 à 1995 est un bon exemple d’orientation malheureuse que pourraient prendre quelques individus isolés trouvant des justifications dans un contexte paranoïaque ;
  • collectives – activistes – légitimistes : c’est le temps des manifestes cypherpunk des années 199037, ou plus récemment le mouvement Anonymous, auxquels on peut ajouter des collectifs « événementiels », comme le Jam Echelon Day ;
  • Associatives, organisées : on peut citer le mouvement pour le logiciel libre et la Free Software Foundation, l’Electronic Frontier Foundation, La Quadrature du Net, ou bien encore certaines branches d’activité d’organisation plus générales comme la Ligue des Droits de l’Homme, Reporter Sans Frontière, etc.

Les limites de l’attente démocratique sont néanmoins déjà connues. La société ne peut réagir de manière légale, par revendication interposée, qu’à partir du moment où l’exigence de transparence est remplie. Lorsqu’elle ne l’est pas, au pire les citoyens les plus actifs sont taxés de complotistes, au mieux apparaissent de manière épisodique des alertes, à l’image des révélations d’Edward Snowden, mais dont la fréquence est si rare malgré un impact psychologique certain, que la situation a tendance à s’enraciner dans un statu quo d’où sortent généralement vainqueurs ceux dont la capacité de lobbying est la plus forte.

À cela s’ajoute une difficulté technique due à l’extrême complexité des systèmes de surveillance à l’œuvre aujourd’hui, avec des algorithmes dont nous maîtrisons de moins en moins les processus de calcul (cf. Z. Tufekci). À ce propos on peut citer Roger Clarke38 :

« Dans une large mesure, la transparence a déjà été perdue, en partie du fait de la numérisation, et en partie à cause de l’application non pas des approches procédurales et d’outils de développement des logiciels algorithmiques du XXe siècle, mais à cause de logiciels de dernière génération dont la raison d’être est obscure ou à laquelle la notion de raison d’être n’est même pas applicable. »

Une autre option pourrait consister à mettre en œuvre un modèle alternatif qui permette de sortir du marasme économique dans lequel nous sommes visiblement coincés. Sans en faire l’article, le projet Contributopia de Framasoft cherche à participer, à sa mesure, à un processus collectif de réappropriation d’Internet et, partant:

  • montrer que le code est un bien public et que la transparence, grâce aux principes du logiciel libre (l’ouverture du code), permet de proposer aux individus un choix éclairé, à l’encontre de l’obscurantisme de la dataveillance ;
  • promouvoir des apprentissages à contre-courant des pratiques de captation des vies privées et vers des usages basés sur le partage (du code, de la connaissance) entre les utilisateurs ;
  • rendre les utilisateurs autonomes et en même temps contributeurs à un réseau collectif qui les amènera naturellement, par l’attention croissante portée aux pratiques des monopoles, à refuser ces pratiques, y compris de manière active en utilisant des solutions de chiffrement, par exemple.

Mais Contributopia de Framasoft ne concerne que quelques aspects des stratégies de sortie du capitalisme de surveillance. Par exemple, pour pouvoir œuvrer dans cet esprit, une politique rigide en faveur de la neutralité du réseau Internet doit être menée. Les entreprises et les institutions publiques doivent être aussi parmi les premières concernées, car il en va de leur autonomie numérique, que cela soit pour de simples questions économiques (ne pas dépendre de la bonne volonté d’un monopole et de la logique des brevets) mais aussi pour des questions de sécurité. Enfin, le passage du risque pour la vie privée au risque de manipulation sociale étant avéré, toutes les structures militantes en faveur de la démocratie et les droits de l’homme doivent urgemment porter leur attention sur le traitement des données personnelles. Le cas de la britannique Amber Rudd est loin d’être isolé : la plupart des gouvernements collaborent aujourd’hui avec les principaux monopoles de l’économie numérique et, donc, contribuent activement à l’émergence d’une société de la surveillance. Aujourd’hui, le droit à la vie privée, au chiffrement des communications, au secret des correspondances sont des droits à protéger coûte que coûte sans avoir à choisir entre la liberté et les épouvantails (ou les sirènes) agités par les communicants.

 




Google, nouvel avatar du capitalisme, celui de la surveillance

Nous avons la chance d’être autorisés à traduire et publier un long article qui nous tient à cœur : les idées et analyses qu’il développe justifient largement les actions que nous menons avec vous et pour le plus grand nombre.

Avant propos

Par Framatophe.

Dans ses plus récents travaux, Shoshana Zuboff procède à une analyse systématique de ce qu’elle appelle le capitalisme de surveillance. Il ne s’agit pas d’une critique du capitalisme-libéral en tant qu’idéologie, mais d’une analyse des mécanismes et des pratiques des acteurs dans la mesure où elles ont radicalement transformé notre système économique. En effet, avec la fin du XXe siècle, nous avons aussi vu la fin du (néo)libéralisme dans ce qu’il avait d’utopique, à savoir l’idée (plus ou moins vérifiée) qu’en situation d’abondance, chacun pouvait avoir la chance de produire et capitaliser. Cet égalitarisme, sur lequel s’appuient en réalité bien des ressorts démocratiques, est mis à mal par une nouvelle forme de capitalisme : un capitalisme submergé par des monopoles capables d’utiliser les technologies de l’information de manière à effacer la « libre concurrence » et modéliser les marchés à leurs convenances. La maîtrise de la production ne suffit plus : l’enjeu réside dans la connaissance des comportements. C’est de cette surveillance qu’il s’agit, y compris lorsqu’elle est instrumentalisée par d’autres acteurs, comme un effet de bord, telle la surveillance des États par des organismes peu scrupuleux.

La démarche intellectuelle de Shoshana Zuboff est très intéressante. Spécialiste au départ des questions managériales dans l’entreprise, elle a publié un ouvrage en 1988 intitulé In the Age Of The Smart Machine où elle montre comment les mécanismes productivistes, une fois dotés des moyens d’« informationnaliser » la division du travail et son contrôle (c’est-à-dire qu’à chaque fois que vous divisez un travail en plusieurs tâches vous pouvez en renseigner la procédure pour chacune et ainsi contrôler à la fois la production et les hommes), ont progressivement étendu l’usage des technologies de l’information à travers toutes les chaînes de production, puis les services, puis les processus de consommation, etc. C’est à partir de ces clés de lecture que nous pouvons alors aborder l’état de l’économie en général, et on s’aperçoit alors que l’usage (lui même générateur de profit) des Big Data consiste à maîtriser les processus de consommation et saper les mécanismes de concurrence qui étaient auparavant l’apanage revendiqué du libéralisme « classique ».

Ainsi, prenant l’exemple de Google, Shoshana Zuboff analyse les pratiques sauvages de l’extraction de données par ces grands acteurs économiques, à partir des individus, des sociétés, et surtout du quotidien, de nos intimités. Cette appropriation des données comportementales est un processus violent de marchandisation de la connaissance « sur » l’autre et de son contrôle. C’est ce que Shoshana Zuboff nomme Big Other :

« (Big Other) est un régime institutionnel, omniprésent, qui enregistre, modifie, commercialise l’expérience quotidienne, du grille-pain au corps biologique, de la communication à la pensée, de manière à établir de nouveaux chemins vers les bénéfices et les profits. Big Other est la puissance souveraine d’un futur proche qui annihile la liberté que l’on gagne avec les règles et les lois.» 1

Dans l’article ci-dessous, Shoshana Zuboff ne lève le voile que sur un avatar de ce capitalisme de surveillance, mais pas n’importe lequel : Google. En le comparant à ce qu’était General Motors, elle démontre comment l’appropriation des données comportementales par Google constitue en fait un changement de paradigme dans les mécanismes capitalistes : le capital, ce n’est plus le bien ou le stock (d’argent, de produits, de main-d’oeuvre etc.), c’est le comportement et la manière de le renseigner, c’est à dire l’information qu’une firme comme Google peut s’approprier.

Ce qui manquait à la littérature sur ces transformations de notre « société de l’information », c’étaient des clés de lecture capables de s’attaquer à des processus dont l’échelle est globale. On peut toujours en rester à Big Brother, on ne fait alors que se focaliser sur l’état de nos relations sociales dans un monde où le capitalisme de surveillance est un état de fait, comme une donnée naturelle. Au contraire, le capitalisme de surveillance dépasse les États ou toute forme de centralisation du pouvoir. Il est informel et pourtant systémique. Shoshana Zuboff nous donne les clés pour appréhender ces processus globaux, partagé par certaines firmes, où l’appropriation de l’information sur les individus est si totale qu’elle en vient à déposséder l’individu de l’information qu’il a sur lui-même, et même du sens de ses actions.

 

Shoshana Zuboff est professeur émérite à Charles Edward Wilson, Harvard Business School. Cet essai a été écrit pour une conférence en 2016 au Green Templeton College, Oxford. Son prochain livre à paraître en novembre 2017 s’intitule Maître ou Esclave : une lutte pour l’âme de notre civilisation de l’information et sera publié par Eichborn en Allemagne, et par Public Affairs aux États-Unis.

Les secrets du capitalisme de surveillance

par Shoshana Zuboff

Article original en anglais paru dans le Franfurter Allgemeine Zeitung : The Secrets of Surveillance Capitalism

Traduction originale : Dr. Virginia Alicia Hasenbalg-Corabianu, révision Framalang : mo, goofy, Mannik, Lumi, lyn

Le contrôle exercé par les gouvernements n’est rien comparé à celui que pratique Google. L’entreprise crée un genre entièrement nouveau de capitalisme, une logique d’accumulation systémique et cohérente que nous appelons le capitalisme de surveillance. Pouvons-nous y faire quelque chose ?

Nous devons faire face aux assauts menés par les appétits insatiables d’un tout nouveau genre de capitalisme : le capitalisme de surveillance. Image © ddp images

 

Google a dépassé Apple en janvier en devenant la plus grosse capitalisation boursière du monde, pour la première fois depuis 2010 (à l’époque, chacune des deux entreprises valait moins de 200 milliards de dollars; aujourd’hui, chacune est évaluée à plus de 500 milliards). Même si cette suprématie de Google n’a duré que quelques jours, le succès de cette entreprise a des implications pour tous ceux qui ont accès à Internet. Pourquoi ? Parce que Google est le point de départ pour une toute nouvelle forme de capitalisme dans laquelle les bénéfices découlent de la surveillance unilatérale ainsi que de la modification du comportement humain. Il s’agit d’une intrusion globale. Il s’agit d’un nouveau capitalisme de surveillance qui est inimaginable en dehors des insondables circuits à haute vitesse de l’univers numérique de Google, dont le vecteur est l’Internet et ses successeurs. Alors que le monde est fasciné par la confrontation entre Apple et le FBI, véritable réalité est que les capacités de surveillance d’espionnage en cours d’élaboration par les capitalistes de la surveillance sont enviées par toutes les agences de sécurité des États. Quels sont les secrets de ce nouveau capitalisme, comment les entreprises produisent-elles une richesse aussi stupéfiante, et comment pouvons-nous nous protéger de leur pouvoir envahissant ?

I. Nommer et apprivoiser

La plupart des Américains se rendent compte qu’il y a deux types de personnes qui sont régulièrement surveillées quand elles se déplacent dans le pays. Dans le premier groupe, celles qui sont surveillées contre leur volonté par un dispositif de localisation attaché à la cheville suite à une ordonnance du tribunal. Dans le second groupe, toutes les autres.

Certains estiment que cette affirmation est absolument fondée. D’autres craignent qu’elle ne puisse devenir vraie. Certains doivent penser que c’est ridicule. Ce n’est pas une citation issue d’un roman dystopique, d’un dirigeant de la Silicon Valley, ni même d’un fonctionnaire de la NSA. Ce sont les propos d’un consultant de l’industrie de l’assurance automobile, conçus comme un argument en faveur de « la télématique automobile » et des capacités de surveillance étonnamment intrusives des systèmes prétendument bénins déjà utilisés ou en développement. C’est une industrie qui a eu une attitude notoire d’exploitation de ses clients et des raisons évidentes d’être inquiète, pour son modèle économique, des implications des voitures sans conducteur. Aujourd’hui, les données sur l’endroit où nous sommes et celui où nous allons, sur ce que nous sentons, ce que nous disons, les détails de notre conduite, et les paramètres de notre véhicule se transforment en balises de revenus qui illuminent une nouvelle perspective commerciale. Selon la littérature de l’industrie, ces données peuvent être utilisées pour la modification en temps réel du comportement du conducteur, déclencher des punitions (hausses de taux en temps réel, pénalités financières, couvre-feux, verrouillages du moteur) ou des récompenses (réductions de taux, coupons à collectionner pour l’achat d’avantages futurs).

Bloomberg Business Week note que ces systèmes automobiles vont donner aux assureurs la possibilité d’augmenter leurs recettes en vendant des données sur la conduite de leur clientèle de la même manière que Google réalise des profits en recueillant et en vendant des informations sur ceux qui utilisent son moteur de recherche. Le PDG de Allstate Insurance veut être à la hauteur de Google. Il déclare : « Il y a beaucoup de gens qui font de la monétisation des données aujourd’hui. Vous allez chez Google et tout paraît gratuit. Ce n’est pas gratuit. Vous leur donnez des informations ; ils vendent vos informations. Pourrions-nous, devrions-nous vendre ces informations que nous obtenons des conducteurs à d’autres personnes, et réaliser ainsi une source de profit supplémentaire…? C’est une partie à long terme. »

Qui sont ces « autres personnes » et quelle est cette « partie à long terme » ? Il ne s’agit plus de l’envoi d’un catalogue de vente par correspondance ni le ciblage de la publicité en ligne. L’idée est de vendre l’accès en temps réel au flux de votre vie quotidienne – votre réalité – afin d’influencer et de modifier votre comportement pour en tirer profit. C’est la porte d’entrée vers un nouvel univers d’occasions de monétisation : des restaurants qui veulent être votre destination ; des fournisseurs de services qui veulent changer vos plaquettes de frein ; des boutiques qui vous attirent comme les sirènes des légendes. Les « autres personnes », c’est tout le monde, et tout le monde veut acheter un aspect  de votre comportement pour leur profit. Pas étonnant, alors, que Google ait récemment annoncé que ses cartes ne fourniront pas seulement l’itinéraire que vous recherchez, mais qu’elles suggéreront aussi une destination.

Le véritable objectif : modifier le comportement réel des gens, à grande échelle.

Ceci est juste un coup d’œil pris au vol d’une industrie, mais ces exemples se multiplient comme des cafards. Parmi les nombreux entretiens que j’ai menés au cours des trois dernières années, l’ingénieur responsable de la gestion et analyse de méga données d’une prestigieuse entreprise de la Silicon Valley qui développe des applications pour améliorer l’apprentissage des étudiants m’a dit : « Le but de tout ce que nous faisons est de modifier le comportement des gens à grand échelle. Lorsque les gens utilisent notre application, nous pouvons cerner leurs comportements, identifier les bons et les mauvais comportements, et développer des moyens de récompenser les bons et punir les mauvais. Nous pouvons tester à quel point nos indices sont fiables pour eux et rentables pour nous. »

L’idée même d’un produit efficace, abordable et fonctionnel puisse suffire aux échanges commerciaux est en train de mourir. L’entreprise de vêtements de sport Under Armour réinvente ses produits comme des technologies que l’on porte sur soi. Le PDG veut lui aussi ressembler à Google. Il dit : « Tout cela ressemble étrangement à ces annonces qui, à cause de votre historique de navigation, vous suivent quand vous êtes connecté à l’Internet (Internet ou l’internet), c’est justement là le problème – à ce détail près que Under Armour traque votre comportement réel, et que les données obtenues sont plus spécifiques… si vous incitez les gens à devenir de meilleurs athlètes ils auront encore plus besoin de notre équipement. » Les exemples de cette nouvelle logique sont infinis, des bouteilles de vodka intelligentes aux thermomètres rectaux reliés à Internet, et littéralement tout ce qu’il y a entre les deux. Un rapport de Goldman Sachs appelle une « ruée vers l’or » cette course vers « de gigantesques quantités de données ».

La bataille des données comportementales

Nous sommes entrés dans un territoire qui était jusqu’alors vierge. L’assaut sur les données de comportement progresse si rapidement qu’il ne peut plus être circonscrit par la notion de vie privée et sa revendication. Il y a un autre type de défi maintenant, celui qui menace l’idéal existentiel et politique de l’ordre libéral moderne défini par les principes de l’autodétermination constitué au cours des siècles, voire des millénaires. Je pense à des notions qui entre autres concernent dès le départ le caractère sacré de l’individu et les idéaux de l’égalité sociale ; le développement de l’identité, l’autonomie et le raisonnement moral ; l’intégrité du marché ; la liberté qui revient à la réalisation et l’accomplissement des promesses ; les normes et les règles de la collectivité ; les fonctions de la démocratie de marché ; l’intégrité politique des sociétés et l’avenir de la souveraineté démocratique. En temps et lieu, nous allons faire un bilan rétrospectif de la mise en place en Europe du « Droit à l’Oubli » et l’invalidation plus récente de l’Union européenne de la doctrine Safe Harbor2 comme les premiers jalons d’une prise en compte progressive des vraies dimensions de ce défi.

Il fut un temps où nous avons imputé la responsabilité de l’assaut sur les données comportementales à l’État et à ses agences de sécurité. Plus tard, nous avons également blâmé les pratiques rusées d’une poignée de banques, de courtiers en données et d’entreprises Internet. Certains attribuent l’attaque à un inévitable « âge des mégadonnées », comme s’il était possible de concevoir des données nées pures et irréprochables, des données en suspension dans un lieu céleste où les faits se subliment dans la vérité.

Le capitalisme a été piraté par la surveillance

Je suis arrivée à une conclusion différente : l’assaut auquel nous sommes confronté⋅e⋅s est conduit dans une large mesure par les appétits exceptionnels d’un tout nouveau genre du capitalisme, une nouvelle logique systémique et cohérente de l’accumulation que j’appelle le capitalisme de surveillance. Le capitalisme a été détourné par un projet de surveillance lucrative qui subvertit les mécanismes évolutifs « normaux » associés à son succès historique et qui corrompt le rapport entre l’offre et la demande qui, pendant des siècles, même imparfaitement, a lié le capitalisme aux véritables besoins de ses populations et des sociétés, permettant ainsi l’expansion fructueuse de la démocratie de marché.

© AFP Eric Schmidt siégeant à Google/Alphabet

Le capitalisme de surveillance est une mutation économique nouvelle, issue de l’accouplement clandestin entre l’énorme pouvoir du numérique avec l’indifférence radicale et le narcissisme intrinsèque du capitalisme financier, et la vision néolibérale qui a dominé le commerce depuis au moins trois décennies, en particulier dans les économies anglo-saxonnes. C’est une forme de marché sans précédent dont les racines se développent dans un espace de non-droit. Il a été découvert et consolidé par Google, puis adopté par Facebook et rapidement diffusé à travers l’Internet. Le cyberespace est son lieu de naissance car, comme le célèbrent Eric Schmidt, Président de Google/Alphabet, et son co-auteur Jared Cohen, à la toute première page de leur livre sur l’ère numérique, « le monde en ligne n’est vraiment pas attaché aux lois terrestres… Il est le plus grand espace ingouvernable au monde ».

Alors que le capitalisme de surveillance découvre les pouvoirs invasifs de l’Internet comme source d’accumulation de capital et de création de richesses, il est maintenant, comme je l’ai suggéré, prêt à transformer aussi les pratiques commerciales au sein du monde réel. On peut établir l’analogie avec la propagation rapide de la production de masse et de l’administration dans le monde industrialisé au début du XXe siècle, mais avec un bémol majeur. La production de masse était en interaction avec ses populations qui étaient ses consommateurs et ses salariés. En revanche, le capitalisme de surveillance se nourrit de populations dépendantes qui ne sont ni ses consommateurs, ni ses employés, mais largement ignorantes de ses pratiques.

L’accès à Internet, un droit humain fondamental

Nous nous étions jetés sur Internet pour y trouver réconfort et solutions, mais nos besoins pour une vie efficace ont été contrecarrés par les opérations lointaines et de plus en plus impitoyables du capitalisme de la fin du XXe siècle. Moins de deux décennies après l’introduction du navigateur web Mosaic auprès du public, qui permettait un accès facile au World Wide Web, un sondage BBC de 2010 a révélé que 79 % des personnes de 26 pays différents considéraient l’accès à l’Internet comme un droit humain fondamental. Tels sont les Charybde et Scylla de notre sort. Il est presque impossible d’imaginer la participation à une vie quotidienne efficace – de l’emploi à l’éducation, en passant par les soins de santé – sans pouvoir accéder à Internet et savoir s’en servir, même si ces espaces en réseau autrefois florissants s’avèrent être une forme nouvelle et plus forte d’asservissement. Il est arrivé rapidement et sans notre accord ou entente préalable. En effet, les préjudices les plus poignants du régime ont été difficiles à saisir ou à théoriser, brouillés par l’extrême vitesse et camouflés par des opérations techniques coûteuses et illisibles, des pratiques secrètes des entreprises, de fausses rhétoriques discursives, et des détournements culturels délibérés.

Apprivoiser cette nouvelle force nécessite qu’elle soit nommée correctement. Cette étroite interdépendance du nom et de l’apprivoisement est clairement illustrée dans l’histoire récente de la recherche sur le VIH que je vous propose comme analogie. Pendant trois décennies, les recherches des scientifiques visaient à créer un vaccin en suivant la logique des guérisons précédentes qui amenaient le système immunitaire à produire des anticorps neutralisants. Mais les données collectées et croisées ont révélé des comportements imprévus du virus VIH défiant les modèles obtenus auprès d’autres maladies infectieuses.

L’analogie avec la recherche contre le SIDA

La tendance a commencé à prendre une autre direction à la Conférence internationale sur le SIDA en 2012, lorsque de nouvelles stratégies ont été présentées reposant sur une compréhension plus adéquate de la biologie des quelques porteurs du VIH, dont le sang produit des anticorps naturels. La recherche a commencé à se déplacer vers des méthodes qui reproduisent cette réponse d’auto-vaccination. Un chercheur de pointe a annoncé : « Nous connaissons le visage de l’ennemi maintenant, et nous avons donc de véritables indices sur la façon d’aborder le problème. »

Ce qu’il nous faut en retenir : chaque vaccin efficace commence par une compréhension approfondie de la maladie ennemie. Nous avons tendance à compter sur des modèles intellectuels, des vocabulaires et des outils mis en place pour des catastrophes passées. Je pense aux cauchemars totalitaires du XXe siècle ou aux prédations monopolistiques du capitalisme de l’Âge d’Or. Mais les vaccins que nous avons développés pour lutter contre ces menaces précédentes ne sont pas suffisants ni même appropriés pour les nouveaux défis auxquels nous sommes confrontés. C’est comme si nous lancions des boules de neige sur un mur de marbre lisse pour ensuite les regarder glisser et ne laisser rien d’autre qu’une trace humide : une amende payée ici, un détour efficace là.

Une impasse de l’évolution

Je tiens à dire clairement que le capitalisme de surveillance n’est pas la seule modalité actuelle du capitalisme de l’information, ni le seul modèle possible pour l’avenir. Son raccourci vers l’accumulation du capital et l’institutionnalisation rapide, cependant, en a fait le modèle par défaut du capitalisme de l’information. Les questions que je pose sont les suivantes : est-ce que le capitalisme de surveillance devient la logique dominante de l’accumulation dans notre temps, ou ira-t-il vers une impasse dans son évolution – une poule avec des dents au terme de l’évolution capitaliste ? Qu’est-ce qu’un vaccin efficace impliquerait ? Quel pourrait être ce vaccin efficace ?

Le succès d’un traitement dépend de beaucoup d’adaptations individuelles, sociales et juridiques, mais je suis convaincue que la lutte contre la « maladie hostile » ne peut commencer sans une compréhension des nouveaux mécanismes qui rendent compte de la transformation réussie de l’investissement en capital par le capitalisme de surveillance. Cette problématique a été au centre de mon travail dans un nouveau livre, Maître ou Esclave : une lutte pour le cœur de notre civilisation de l’information, qui sera publié au début de l’année prochaine. Dans le court espace de cet essai, je voudrais partager certaines de mes réflexions sur ce problème.

II. L’avenir : le prédire et le vendre

Les nouvelles logiques économiques et leurs modèles commerciaux sont élaborés dans un temps et lieu donnés, puis perfectionnés par essais et erreurs. Ford a mis au point et systématisé la production de masse. General Motors a institutionnalisé la production en série comme une nouvelle phase du développement capitaliste avec la découverte et l’amélioration de l’administration à grande échelle et la gestion professionnelle. De nos jours, Google est au capitalisme de surveillance ce que Ford et General Motors étaient à la production en série et au capitalisme managérial il y a un siècle : le découvreur, l’inventeur, le pionnier, le modèle, le praticien chef, et le centre de diffusion.

Plus précisément, Google est le vaisseau amiral et le prototype d’une nouvelle logique économique basée sur la prédiction et sa vente, un métier ancien et éternellement lucratif qui a exploité la confrontation de l’être humain avec l’incertitude depuis le début de l’histoire humaine. Paradoxalement, la certitude de l’incertitude est à la fois une source durable d’anxiété et une de nos expériences les plus fructueuses. Elle a produit le besoin universel de confiance et de cohésion sociale, des systèmes d’organisation, de liaison familiale, et d’autorité légitime, du contrat comme reconnaissance formelle des droits et obligations réciproques, la théorie et la pratique de ce que nous appelons « le libre arbitre ». Quand nous éliminons l’incertitude, nous renonçons au besoin humain de lancer le défi de notre prévision face à un avenir toujours inconnu, au profit de la plate et constante conformité avec ce que d’autres veulent pour nous.

La publicité n’est qu’un facteur parmi d’autres

La plupart des gens attribuent le succès de Google à son modèle publicitaire. Mais les découvertes qui ont conduit à la croissance rapide du chiffre d’affaires de Google et à sa capitalisation boursière sont seulement incidemment liées à la publicité. Le succès de Google provient de sa capacité à prédire l’avenir, et plus particulièrement, l’avenir du comportement. Voici ce que je veux dire :

Dès ses débuts, Google a recueilli des données sur le comportement lié aux recherches des utilisateurs comme un sous-produit de son moteur de recherche. À l’époque, ces enregistrements de données ont été traités comme des déchets, même pas stockés méthodiquement ni mis en sécurité. Puis, la jeune entreprise a compris qu’ils pouvaient être utilisés pour développer et améliorer continuellement son moteur de recherche.

Le problème était le suivant : servir les utilisateurs avec des résultats de recherche incroyables « consommait » toute la valeur que les utilisateurs produisaient en fournissant par inadvertance des données comportementales. C’est un processus complet et autonome dans lequel les utilisateurs sont des « fins-en-soi ». Toute la valeur que les utilisateurs produisent était réinvestie pour simplifier l’utilisation sous forme de recherche améliorée. Dans ce cycle, il ne restait rien à  transformer en capital, pour Google. L’efficacité du moteur de recherche avait autant besoin de données comportementales des utilisateurs que les utilisateurs de la recherche. Faire payer des frais pour le service était trop risqué. Google était sympa, mais il n’était pas encore du capitalisme – seulement l’une des nombreuses startups de l’Internet qui se vantaient de voir loin, mais sans aucun revenu.

Un tournant dans l’usage des données comportementales

L’année 2001 a été celle de l’effervescence dans la bulle du dot.com avec des pressions croissantes des investisseurs sur Google. À l’époque, les annonceurs sélectionnaient les pages du terme de recherche pour les afficher. Google a décidé d’essayer d’augmenter ses revenus publicitaires en utilisant ses capacités analytiques déjà considérables dans l’objectif d’accroître la pertinence d’une publicité pour les utilisateurs – et donc sa valeur pour les annonceurs. Du point de vue opérationnel cela signifiait que Google allait enfin valoriser son trésor croissant de données comportementales. Désormais, les données allaient être aussi utilisées pour faire correspondre les publicités avec les des mots-clés, en exploitant les subtilités que seul l’accès à des données comportementales, associées à des capacités d’analyse, pouvait révéler.

Il est maintenant clair que ce changement dans l’utilisation des données comportementales a été un tournant historique. Les données comportementales qui avaient été rejetées ou ignorées ont été redécouvertes et sont devenues ce que j’appelle le surplus de comportement. Le succès spectaculaire de Google obtenu en faisant correspondre les annonces publicitaires aux pages a révélé la valeur transformationnelle de ce surplus comportemental comme moyen de générer des revenus et, finalement, de transformer l’investissement en capital. Le surplus comportemental était l’actif à coût zéro qui changeait la donne, et qui pouvait être détourné de l’amélioration du service au profit d’un véritable marché. La clé de cette formule, cependant, est que ce nouveau marché n’est pas le fruit d’un échange avec les utilisateurs, mais plutôt avec d’autres entreprises qui ont compris comment faire de l’argent en faisant des paris sur le comportement futur des utilisateurs. Dans ce nouveau contexte, les utilisateurs ne sont plus une fin en soi. Au contraire, ils sont devenus une source de profit d’un nouveau type de marché dans lequel ils ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont la source de matière première gratuite qui alimente un nouveau type de processus de fabrication.

© dapd voir le monde avec l’œil de Google : les Google Glass

Bien que ces faits soient connus, leur importance n’a pas été pleinement évaluée ni théorisée de manière adéquate. Ce qui vient de se passer a été la découverte d’une équation commerciale étonnamment rentable – une série de relations légitimes qui ont été progressivement institutionnalisées dans la logique économique sui generis du capitalisme de surveillance. Cela ressemble à une planète nouvellement repérée avec sa propre physique du temps et de l’espace, ses journées de soixante-sept heures, un ciel d’émeraude, des chaînes de montagnes inversées et de l’eau sèche.

Une forme de profit parasite

L’équation : tout d’abord, il est impératif de faire pression pour obtenir plus d’utilisateurs et plus de canaux, des services, des dispositifs, des lieux et des espaces de manière à avoir accès à une gamme toujours plus large de surplus de comportement. Les utilisateurs sont la ressource humaine naturelle qui fournit cette matière première gratuite.

En second lieu, la mise en œuvre de l’apprentissage informatique, de l’intelligence artificielle et de la science des données pour l’amélioration continue des algorithmes constitue un immense « moyen de production » du XXIe siècle coûteux, sophistiqué et exclusif.

Troisièmement, le nouveau processus de fabrication convertit le surplus de comportement en produits de prévision conçus pour prédire le comportement actuel et à venir.

Quatrièmement, ces produits de prévision sont vendus dans un nouveau type de méta-marché qui fait exclusivement commerce de comportements à venir. Plus le produit est prédictif, plus faible est le risque pour les acheteurs et plus le volume des ventes augmente. Les profits du capitalisme de surveillance proviennent principalement, sinon entièrement, de ces marchés du comportement futur.

Alors que les annonceurs ont été les acheteurs dominants au début de ce nouveau type de marché, il n’y a aucune raison de fond pour que de tels marchés soient réservés à ce groupe. La tendance déjà perceptible est que tout acteur ayant un intérêt à monétiser de l’information probabiliste sur notre comportement et/ou à influencer le comportement futur peut payer pour entrer sur un marché où sont exposées et vendues les ressources issues du comportement des individus, des groupes, des organismes, et les choses. Voici comment dans nos propres vies nous observons le capitalisme se déplacer sous nos yeux : au départ, les bénéfices provenaient de produits et services, puis de la spéculation, et maintenant de la surveillance. Cette dernière mutation peut aider à expliquer pourquoi l’explosion du numérique a échoué, jusqu’à présent, à avoir un impact décisif sur la croissance économique, étant donné que ses capacités sont détournées vers une forme de profit fondamentalement parasite.

III. Un péché non originel

L’importance du surplus de comportement a été rapidement camouflée, à la fois par Google et mais aussi par toute l’industrie de l’Internet, avec des étiquettes comme « restes numériques », « miettes numériques », et ainsi de suite. Ces euphémismes pour le surplus de comportement fonctionnent comme des filtres idéologiques, à l’instar des premières cartes géographiques du continent nord-américain qui marquaient des régions entières avec des termes comme « païens », « infidèles », « idolâtres », « primitifs », « vassaux » ou « rebelles ». En vertu de ces étiquettes, les peuples indigènes, leurs lieux et leurs revendications ont été effacés de la pensée morale et juridique des envahisseurs, légitimant leurs actes d’appropriation et de casse au nom de l’Église et la Monarchie.

Nous sommes aujourd’hui les peuples autochtones dont les exigences implicites d’autodétermination ont disparu des cartes de notre propre comportement. Elles sont effacées par un acte étonnant et audacieux de dépossession par la surveillance, qui revendique son droit d’ignorer toute limite à sa soif de connaissances et d’influence sur les nuances les plus fines de notre comportement. Pour ceux qui s’interrogent sur l’achèvement logique du processus global de marchandisation, la réponse est qu’ils achèvent eux-mêmes la spoliation de notre réalité quotidienne intime, qui apparaît maintenant comme un comportement à surveiller et à modifier, à acheter et à vendre.

Le processus qui a commencé dans le cyberespace reflète les développements capitalistes du dix-neuvième siècle qui ont précédé l’ère de l’impérialisme. À l’époque, comme Hannah Arendt le décrit dans Les Origines du totalitarisme, « les soi-disant lois du capitalisme ont été effectivement autorisées à créer des réalités » ainsi on est allé vers des régions moins développées où les lois n’ont pas suivi. « Le secret du nouvel accomplissement heureux », a-t-elle écrit, « était précisément que les lois économiques ne bloquaient plus la cupidité des classes possédantes. » Là, « l’argent pouvait finalement engendrer de l’argent », sans avoir à passer par « le long chemin de l’investissement dans la production… »

Le péché originel du simple vol

Pour Arendt, ces aventures du capital à l’étranger ont clarifié un mécanisme essentiel du capitalisme. Marx avait développé l’idée de « l’accumulation primitive » comme une théorie du Big-Bang – Arendt l’a appelé « le péché originel du simple vol » – dans lequel l’appropriation de terres et de ressources naturelles a été l’événement fondateur qui a permis l’accumulation du capital et l’émergence du système de marché. Les expansions capitalistes des années 1860 et 1870 ont démontré, écrit Arendt, que cette sorte de péché originel a dû être répété encore et encore, « de peur que le moteur de l’accumulation de capital ne s’éteigne soudainement ».

Dans son livre The New Imperialism, le géographe et théoricien social David Harvey s’appuie sur ce qu’il appelle « accumulation par dépossession ». « Ce que fait l’accumulation par dépossession » écrit-il, « c’est de libérer un ensemble d’actifs… à un très faible (et dans certains cas, zéro) coût ». Le capital sur-accumulé peut s’emparer de ces actifs et les transformer immédiatement en profit… Il peut aussi refléter les tentatives de certains entrepreneurs… de « rejoindre le système » et rechercher les avantages de l’accumulation du capital.

Brèche dans le « système »

Le processus qui permet que le « surplus de comportement » conduise à la découverte du capitalisme de surveillance illustre cette tendance. C’est l’acte fondateur de la spoliation au profit d’une nouvelle logique du capitalisme construite sur les bénéfices de la surveillance, qui a ouvert la possibilité pour Google de devenir une entreprise capitaliste. En effet, en 2002, première année rentable Google, le fondateur Sergey Brin savoura sa percée dans le « système », comme il l’a dit à Levy,

« Honnêtement, quand nous étions encore dans les jours du boom dot-com, je me sentais comme un idiot. J’avais une startup – comme tout le monde. Elle ne générait pas de profit, c’était le cas des autres aussi, était-ce si dur ? Mais quand nous sommes devenus rentables, j’ai senti que nous avions construit une véritable entreprise « .

Brin était un capitaliste, d’accord, mais c’était une mutation du capitalisme qui ne ressemblait à rien de tout ce que le monde avait vu jusqu’alors.

Une fois que nous comprenons ce raisonnement, il devient clair qu’exiger le droit à la vie privée à des capitalistes de la surveillance ou faire du lobbying pour mettre fin à la surveillance commerciale sur l’Internet c’est comme demander à Henry Ford de faire chaque modèle T à la main. C’est comme demander à une girafe de se raccourcir le cou ou à une vache de renoncer à ruminer. Ces exigences sont des menaces existentielles qui violent les mécanismes de base de la survie de l’entité. Comment pouvons-nous nous espérer que des entreprises dont l’existence économique dépend du surplus du comportement cessent volontairement la saisie des données du comportement ? C’est comme demander leur suicide.

Toujours plus de surplus comportemental avec Google

Les impératifs du capitalisme de surveillance impliquent qu’il faudra toujours plus de surplus comportemental pour que Google et d’autres les transforment en actifs de surveillance, les maîtrisent comme autant de prédictions, pour les vendre dans les marchés exclusifs du futur comportement et les transformer en capital. Chez Google et sa nouvelle société holding appelée Alphabet, par exemple, chaque opération et investissement vise à accroître la récolte de surplus du comportement des personnes, des organismes, de choses, de processus et de lieux à la fois dans le monde virtuel et dans le monde réel. Voilà comment un jour de soixante-sept heures se lève et obscurcit un ciel d’émeraude. Il faudra rien moins qu’une révolte sociale pour révoquer le consensus général à des pratiques visant à la dépossession du comportement et pour contester la prétention du capitalisme de surveillance à énoncer les données du destin.

Quel est le nouveau vaccin ? Nous devons ré-imaginer comment intervenir dans les mécanismes spécifiques qui produisent les bénéfices de la surveillance et, ce faisant, réaffirmer la primauté de l’ordre libéral dans le projet capitaliste du XXIe siècle. Dans le cadre de ce défi, nous devons être conscients du fait que contester Google, ou tout autre capitaliste de surveillance pour des raisons de monopole est une solution du XXe siècle à un problème du 20e siècle qui, tout en restant d’une importance vitale, ne perturbe pas nécessairement l’équation commerciale du capitalisme de surveillance. Nous avons besoin de nouvelles interventions qui interrompent, interdisent ou réglementent : 1) la capture initiale du surplus du comportement, 2) l’utilisation du surplus du comportement comme matière première gratuite, 3) des concentrations excessives et exclusives des nouveaux moyens de production, 4) la fabrication de produits de prévision, 5) la vente de produits de prévision, 6) l’utilisation des produits de prévision par des tiers pour des opérations de modification, d’influence et de contrôle, et 5) la monétisation des résultats de ces opérations. Tout cela est nécessaire pour la société, pour les personnes, pour l’avenir, et c’est également nécessaire pour rétablir une saine évolution du capitalisme lui-même.

IV. Un coup d’en haut

Dans la représentation classique des menaces sur la vie privée, le secret institutionnel a augmenté, et les droits à la vie privée ont été érodés. Mais ce cadrage est trompeur, car la vie privée et le secret ne sont pas opposés, mais plutôt des moments dans une séquence. Le secret est une conséquence ; la vie privée est la cause. L’exercice du droit à la vie privée a comme effet la possibilité de choisir, et l’on peut choisir de garder quelque chose en secret ou de le partager. Les droits à la vie privée confèrent donc les droits de décision, mais ces droits de décision ne sont que le couvercle sur la boîte de Pandore de l’ordre libéral. À l’intérieur de la boîte, les souverainetés politiques et économiques se rencontrent et se mélangent avec des causes encore plus profondes et plus subtiles : l’idée de l’individu, l’émergence de soi, l’expérience ressentie du libre arbitre.

Le capitalisme de surveillance ne dégrade pas ces droits à la décision – avec leurs causes et leurs conséquences – il les redistribue plutôt. Au lieu de nombreuses personnes ayant quelques « droits », ces derniers ont été concentrés à l’intérieur du régime de surveillance, créant ainsi une toute nouvelle dimension de l’inégalité sociale. Les implications de cette évolution me préoccupent depuis de nombreuses années, et mon sens du danger s’intensifie chaque jour. L’espace de cet essai ne me permet pas de poursuivre jusqu’à la conclusion, mais je vous propose d’en résumer l’essentiel.

Le capitalisme de surveillance va au-delà du terrain institutionnel classique de l’entreprise privée. Il accumule non seulement les actifs de surveillance et des capitaux, mais aussi des droits. Cette redistribution unilatérale des droits soutient un régime de conformité administré en privé fait de récompenses et des punitions en grande partie déliée de toute sanction. Il opère sans mécanismes significatifs de consentement, soit sous la forme traditionnelle d’un « exit, voice or loyalty »3 associé aux marchés, soit sous la forme d’un contrôle démocratique exprimé par des lois et des règlements.

Un pouvoir profondément antidémocratique

En conséquence, le capitalisme de surveillance évoque un pouvoir profondément anti-démocratique que l’on peut qualifier de coup d’en haut : pas un coup d’état, mais plutôt un coup contre les gens, un renversement de la souveraineté du peuple. Il défie les principes et les pratiques de l’autodétermination – dans la vie psychique et dans les relations sociales, le politique et la gouvernance – pour lesquels l’humanité a souffert longtemps et sacrifié beaucoup. Pour cette seule raison, ces principes ne doivent pas être confisqués pour la poursuite unilatérale d’un capitalisme défiguré. Pire encore serait leur forfait par notre propre ignorance, impuissance apprise, inattention, inconvenance, force de l’habitude, ou laisser aller. Tel est, je crois, le terrain sur lequel notre lutte pour l’avenir devra se dérouler.

Hannah Arendt a dit un jour que l’indignation est la réponse naturelle de l’homme à ce qui dégrade la dignité humaine. Se référant à son travail sur les origines du totalitarisme, elle a écrit : « Si je décris ces conditions sans permettre à mon indignation d’y intervenir, alors j’ai soulevé ce phénomène particulier hors de son contexte dans la société humaine et l’ai ainsi privé d’une partie de sa nature, privé de l’une de ses qualités intrinsèques importantes. »

C’est donc ainsi pour moi et peut-être pour vous : les faits bruts du capitalisme de surveillance suscitent nécessairement mon indignation parce qu’ils rabaissent la dignité humaine. L’avenir de cette question dépendra des savants et journalistes indignés attirés par ce projet de frontière, des élus et des décideurs indignés qui comprennent que leur autorité provient des valeurs fondamentales des communautés démocratiques, et des citoyens indignés qui agissent en sachant que l’efficacité sans l’autonomie n’est pas efficace, la conformité induite par la dépendance n’est pas un contrat social et être libéré de l’incertitude n’est pas la liberté.

—–

1. Shoshana Zuboff, « Big other : surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, p. 81.

2. Le 6 octobre 2015, la Cour de justice de l’Union européenne invalide l’accord Safe Harbor. La cour considère que les États-Unis n’offrent pas un niveau de protection adéquat aux données personnelles transférées et que les états membres peuvent vérifier si les transferts de données personnelles entre cet état et les États-Unis respectent les exigences de la directive européenne sur la protection des données personnelles.

3. Référence aux travaux de A. O. Hirschman sur la manière de gérer un mécontentement auprès d’une entreprise : faire défection (exit), ou prendre la parole (voice). La loyauté ayant son poids dans l’une ou l’autre décision.