Bifurquer avant l’impact : l’impasse du capitalisme de surveillance

La chaleur de l’été ne nous fait pas oublier que nous traversons une crise dont les racines sont bien profondes. Pendant que nos forêts crament, que des oligarques jouent aux petits soldats à nos portes, et vu que je n’avais que cela à faire, je lisais quelques auteurs, ceux dont on ne parle que rarement mais qui sont Ô combien indispensables. Tout cela raisonnait si bien que, le temps de digérer un peu à l’ombre, j’ai tissé quelques liens avec mon sujet de prédilection, la surveillance et les ordinateurs. Et puis voilà, paf, le déclic. Dans mes archives, ces mots de Sébastien Broca en 2019 : « inscrire le capitalisme de surveillance dans une histoire plus large ». Mais oui, c’est là dessus qu’il faut insister, bien sûr. On s’y remet.

Je vous livre donc ici quelques réflexions qui, si elles sont encore loin d’être pleinement abouties, permettront peut-être à certains lecteurs d’appréhender les luttes sociales qui nous attendent ces prochains mois. Alimentons, alimentons, on n’est plus à une étincelle près.

— Christophe Masutti


Le capitalisme de surveillance est un mode d’être du capitalisme aujourd’hui dominant l’ensemble des institutions économiques et politiques. Il mobilise toutes les technologies de monitoring social et d’analyse de données dans le but de consolider les intérêts capitalistes à l’encontre des individus qui se voient spoliés de leur vie privée, de leurs droits et du sens de leur travail. L’exemple des entreprises-plateformes comme Uber est une illustration de cette triple spoliation des travailleurs comme des consommateurs. L’hégémonie d’Uber dans ce secteur d’activité s’est imposée, comme tout capitalisme hégémonique, avec la complicité des décideurs politiques. Cette complicité s’explique par la dénégation des contradictions du capitalisme et la contraction des politiques sur des catégories anciennes largement dépassées. Que les décideurs y adhèrent ou non, le discours public reste campé sur une idée de la production de valeur qui n’a plus grand-chose de commun avec la réalité de l’économie sur-financiarisée.

Il est donc important d’analyser le capitalisme de surveillance à travers les critiques du capitalisme et des technologies afin de comprendre, d’une part pourquoi les stratégies hégémoniques des multinationales de l’économie numérique ne sont pas une perversion du capitalisme mais une conséquence logique de la jonction historique entre technologie et finance, et d’autre part que toute régulation cherchant à maintenir le statu quo d’un soi-disant « bon » capitalisme est vouée à l’échec. Reste à explorer comment nous pouvons produire de nouveaux imaginaires économiques et retrouver un rapport aux technologies qui soit émancipateur et générateur de libertés.

paquet de cigarette dont la marque est "Capitalism" avec pour avertissement "the cancer of the working class"
Une critique du capitalisme qui s’est déjà bien étoffée au cours de l’histoire.

Situer le capitalisme de surveillance dans une histoire critique du capitalisme

Dans la Monthly Review en 2014, ceux qui forgèrent l’expression capitalisme de surveillance inscrivaient cette dernière dans une critique du capitalisme monopoliste américain depuis la fin de la Seconde Guerre Mondiale. En effet, lorsqu’on le ramène à l’histoire longue, qui ne se réduit pas aux vingt dernières années de développement des plus grandes plateformes numériques mondiales, on constate que le capitalisme de surveillance est issu des trois grands axes de la dynamique capitaliste de la seconde moitié du XXᵉ siècle. Pour John B. Foster et Robert W. McChesney, la surveillance cristallise les intérêts de marché de l’économie qui soutient le complexe militaro-industriel sur le plan géopolitique, la finance, et le marketing de consommation, c’est-à-dire un impérialisme sur le marché extérieur (guerre et actionnariat), ce qui favorise en retour la dynamique du marché intérieur reposant sur le crédit et la consommation. Ce système impérialiste fonctionne sur une logique de connivence avec les entreprises depuis plus de soixante ans et a instauré la surveillance (de l’espionnage de la Guerre Froide à l’apparition de l’activité de courtage de données) comme le nouveau gros bâton du capitalisme.

Plus récemment, dans une interview pour LVSL, E. Morozov ne dit pas autre chose lorsqu’il affirme qu’aujourd’hui l’enjeu des Big Tech aux États-Unis se résume à la concurrence entre les secteurs d’activités technologiques sur le marché intérieur et « la volonté de maintenir le statut hégémonique des États-Unis dans le système financier international ».

Avancées technologiques et choix sociaux

Une autre manière encore de situer le capitalisme de surveillance sur une histoire longue consiste à partir du rôle de l’émergence de la microélectronique (ou ce que j’appelle l’informatisation des organisations) à travers une critique radicale du capitalisme. C’est sur les écrits de Robert Kurz (et les autres membres du groupe Krisis) qu’il faut cette fois se pencher, notamment son travail sur les catégories du capitalisme.

Ici on s’intéresse à la microélectronique en tant que troisième révolution industrielle. Sur ce point, comme je le fais dans mon livre, je préfère maintenir mon approche en parlant de l’informatisation des organisations, car il s’agit surtout de la transformation des processus de production et pas tellement des innovations techniques en tant que telles. Si en effet on se concentre sur ce dernier aspect de la microélectronique, on risque d’induire un rapport mécanique entre l’avancement technique et la transformation capitaliste, alors que ce rapport est d’abord le résultat de choix sociaux plus ou moins imposés par des jeux de pouvoirs (politique, financier, managérial, etc.). Nous y reviendrons : il est important de garder cela en tête car l’objet de la lutte sociale consiste à prendre la main sur ces choix pour toutes les meilleures raisons du monde, à commencer par notre rapport à l’environnement et aux techniques.

Pour expliquer, je vais devoir simplifier à l’extrême la pensée de R. Kurz et faire des raccourcis. Je m’en excuse par avance. R. Kurz s’oppose à l’idée de la cyclicité des crises du capitalisme. Au contraire ce dernier relève d’une dynamique historique, qui va toujours de l’avant, jusqu’à son effondrement. On peut alors considérer que la succession des crises ont été surmontées par le capitalisme en changeant le rapport structurel de la production. Il en va ainsi pour l’industrialisation du XIXᵉ siècle, le fordisme (industrialisation moderne), la sur-industrialisation des années 1930, le marché de consommation des années 1950, ou de la financiarisation de l’économie à partir des années 1970. Pour R. Kurz, ces transformations successives sont en réalité une course en avant vers la contradiction interne du capitalisme, son impossibilité à renouveler indéfiniment ses processus d’accumulation sans compter sur les compensations des pertes de capital, qu’elles soient assurées par les banques centrales qui produisent des liquidités (keynésianisme) ou par le marché financier lui-même remplaçant les banques centrales (le néolibéralisme qui crée toujours plus de dettes). Cette course en avant connaît une limite indépassable, une « borne interne » qui a fini par être franchie, celle du travail abstrait (le travail socialement nécessaire à la production, créant de la valeur d’échange) qui perd peu à peu son sens de critère de valeur marchande.

Cette critique de la valeur peut être vue de deux manières qui se rejoignent. La première est amenée par Roswitha Scholz et repose sur l’idée que la valeur comme rapport social déterminant la logique marchande n’a jamais été critiquée à l’aune tout à fait pratique de la reproduction de la force de travail, à savoir les activités qu’on détermine comme exclusivement féminines (faire le ménage, faire à manger, élever les enfants, etc.) et sont dissociées de la valeur. Or, cette tendance phallocrate du capitalisme (comme de la critique marxiste/socialiste qui n’a jamais voulu l’intégrer) rend cette conception autonome de la valeur complètement illusoire. La seconde approche situe dans l’histoire la fragilité du travail abstrait qui dépend finalement des processus de production. Or, au tournant des années 1970 et 1980, la révolution informatique (la microélectronique) est à l’origine d’une rationalisation pour ainsi dire fulgurante de l’ensemble des processus de production en très peu de temps et de manière mondialisée. Il devient alors plus rentable de rationaliser le travail que de conquérir de nouveaux espaces pour l’accumulation de capital. Le régime d’accumulation atteint sa limite et tout se rabat sur les marchés financiers et le capital fictif. Comme le dit R. Kurz dans Vies et mort du capitalisme1 :

C’est le plus souvent, et non sans raison, la troisième révolution industrielle (la microélectronique) qui est désignée comme la cause profonde de la nouvelle crise mondiale. Pour la première fois dans l’histoire du capitalisme, en effet, les potentiels de rationalisation dépassent les possibilités d’une expansion des marchés.

Non seulement il y a la perte de sens du travail (la rationalisation à des échelles inédites) mais aussi une rupture radicale avec les catégories du capitalisme qui jusque-là reposaient surtout sur la valeur marchande substantiellement liée au travail abstrait (qui lui-même n’intégrait pas de toute façon ses propres conditions de reproduction).

Très voisins, les travaux d’Ernst Lohoff et de Norbert Trenkle questionnent la surfinanciarisation de l’économie dans La grande dévalorisation2. Pour eux, c’est la forme même de la richesse capitaliste qui est en question. Ils en viennent aux mêmes considérations concernant l’informatisation de la société. La troisième révolution industrielle a créé un rétrécissement de la production de valeur. La microélectronique (entendue cette fois en tant que description de dispositifs techniques) a permis l’avancée de beaucoup de produits innovants mais l’innovation dans les processus de production qu’elle a induits a été beaucoup plus forte et attractive, c’est-à-dire beaucoup plus rentable : on a préféré produire avec toujours moins de temps de travail, et ce temps de travail a fini par devenir une variable de rentabilité au lieu d’être une production de valeur.

Si bien qu’on est arrivé à ce qui, selon Marx, est une incompatibilité avec le capitalisme : l’homme finit par se situer en dehors du processus de production. Du moins, il tend à l’être dans nos économies occidentales. Et ce fut pourtant une sorte d’utopie formulée par les capitalistes eux-mêmes dans les années 1960. Alors que les industries commençaient à s’informatiser, le rêve cybernéticien d’une production sans travailleurs était en plein essor. Chez les plus techno-optimistes on s’interrogeait davantage à propos des répercussions de la transformation des processus de production sur l’homme qu’à propos de leur impact sur la dynamique capitaliste. La transformation « cybernétique » des processus de production ne faisait pas vraiment l’objet de discussion tant la technologie était à l’évidence une marche continue vers une nouvelle société. Par exemple, pour un sociologue comme George Simpson3, au « stade 3 » de l’automatisation (lorsque les machines n’ont plus besoin d’intervention humaine directe pour fonctionner et produire), l’homme perd le sens de son travail, bien que libéré de la charge physique, et « le système industriel devient un système à boutons-poussoirs ». Que l’automatisation des processus de production (et aussi des systèmes décisionnels) fasse l’objet d’une critique ou non, ce qui a toujours été questionné, ce sont les répercussions sur l’organisation sociale et le constat que le travail n’a jamais été aussi peu émancipateur alors qu’on en attendait l’inverse4.

La surveillance comme catégorie du capitalisme

Revenons maintenant au capitalisme de surveillance. D’une part, son appellation de capitalisme devient quelque peu discutable puisqu’en effet il n’est pas possible de le désincarner de la dynamique capitaliste elle-même. C’est pour cela qu’il faut préciser qu’il s’agit surtout d’une expression initialement forgée pour les besoins méthodiques de son approche. Par contre, ce que j’ai essayé de souligner sans jamais le dire de cette manière, c’est que la surveillance est devenue une catégorie du capitalisme en tant qu’elle est une tentative de pallier la perte de substance du travail abstrait pour chercher de la valeur marchande dans deux directions :

  • la rationalisation à l’extrême des processus productifs qu’on voit émerger dans l’économie de plateformes, de l’esclavagisme moderne des travailleurs du clic à l’ubérisation de beaucoup de secteurs productifs de services, voire aussi industriels (on pense à Tesla). Une involution du travail qui en retour se paie sur l’actionnariat tout aussi extrême de ces mêmes plateformes dont les capacités d’investissement réel sont quasi-nulles.
  • L’autre direction est née du processus même de l’informatisation des organisations dès le début, comme je l’ai montré à propos de l’histoire d’Axciom, à savoir l’extraction et le courtage de données qui pillent littéralement nos vies privées et dissocient cette fois la force de travail elle-même du rapport social qu’elle implique puisque c’est dans nos intimités que la plus-value est recherchée. La financiarisation de ces entreprises est d’autant plus évidente que leurs besoins d’investissement sont quasiment nuls. Quant à leurs innovations (le travail des bases de données) elles sont depuis longtemps éprouvées et reposent aussi sur le modèle de plateforme mentionné ci-dessus.

Mais alors, dans cette configuration, on a plutôt l’impression qu’on ne fait que placer l’homme au centre de la production et non en dehors ou presque en dehors. Il en va ainsi des livreurs d’Uber, du travail à la tâche, des contrats de chantiers adaptés à la Recherche et à l’Enseignement, et surtout, surtout, nous sommes nous-mêmes producteurs des données dont se nourrit abondamment l’industrie numérique.

On comprend que, par exemple, certains ont cru intelligent de tenter de remettre l’homme dans le circuit de production en basant leur raisonnement sur l’idée de la propriété des données personnelles et de la « liberté d’entreprendre ». En réalité la configuration du travail à l’ère des plateformes est le degré zéro de la production de valeur : les données n’ont de valeur qu’une fois travaillées, concaténées, inférées, calculées, recoupées, stockées (dans une base), etc. En soi, même si elles sont échangeables sur un marché, il faut encore les rendre rentables et pour cela il y a de l’Intelligence Artificielle et des travailleurs du clic. Les seconds ne sont que du temps de travail volatile (il produit de la valeur en tant que travail salarié, mais si peu qu’il en devient négligeable au profit de la rationalisation structurelle), tandis que l’IA a pour objectif de démontrer la rentabilité de l’achat d’un jeu de données sur le marché (une sorte de travail mort-vivant5 qu’on incorporerait directement à la marchandisation). Et la boucle est bouclée : cette rentabilité se mesure à l’aune de la rationalisation des processus de production, ce qui génère de l’actionnariat et une tendance au renforcement des monopoles. Pour le reste, afin d’assurer les conditions de permanence du capitalisme (il faut bien des travailleurs pour assurer un minimum de salubrité de la structure, c’est-à-dire maintenir un minimum de production de valeur), deux choses :

  • on maintient en place quelques industries dont tout le jeu mondialisé consiste à être de plus en plus rationalisées pour coûter moins cher et rapporter plus, ce qui accroît les inégalités et la pauvreté (et plus on est pauvre, plus on est exploité),
  • on vend du rêve en faisant croire que le marché de produits innovants (concrets) est en soi producteur de valeur (alors que s’accroît la pauvreté) : des voitures Tesla, des services par abonnement, de l’école à distance, un métavers… du vent.

Réguler le capitalisme ne suffit pas

Pour l’individu comme pour les entreprises sous perfusion technologique, l’attrait matériel du capitalisme est tel qu’il est extrêmement difficile de s’en détacher. G. Orwell avait (comme on peut s’y attendre de la part d’un esprit si brillant) déjà remarqué cette indécrottable attraction dans Le Quai de Wigan : l’adoration de la technique et le conformisme polluent toute critique entendable du capitalisme. Tant que le capitalisme maintiendra la double illusion d’une production concrète et d’un travail émancipateur, sans remettre en cause le fait que ce sont bien les produits financiers qui représentent l’essentiel du PIB mondial6, les catégories trop anciennes avec lesquelles nous pensons le capitalisme ne nous permettront pas de franchir le pas d’une critique radicale de ses effets écocides et destructeurs de libertés.

Faudrait-il donc s’en accommoder ? La plus importante mise en perspective critique des mécanismes du capitalisme de surveillance, celle qui a placé son auteure Shoshana Zuboff au-devant de la scène ces trois dernières années, n’a jamais convaincu personne par les solutions qu’elle propose.

Premièrement parce qu’elle circonscrit le capitalisme de surveillance à la mise en œuvre par les GAFAM de solutions de rentabilité actionnariale en allant extraire le minerai de données personnelles afin d’en tirer de la valeur marchande. Le fait est qu’en réalité ce modèle économique de valorisation des données n’est absolument pas nouveau, il est né avec les ordinateurs dont c’est la principale raison d’être (vendables). Par conséquent ces firmes n’ont créé de valeur qu’à la marge de leurs activités principales (le courtage de données), par exemple en fournissant des services dont le Web aurait très bien pu se passer. Sauf peut-être la fonction de moteur de recherche, nonobstant la situation de monopole qu’elle a engendrée au détriment de la concurrence, ce qui n’est que le reflet de l’effet pervers du monopole et de la financiarisation de ces firmes, à savoir tuer la concurrence, s’approprier (financièrement) des entreprises innovantes, et tuer toute dynamique diversifiée d’innovation.

Deuxièmement, les solutions proposées reposent exclusivement sur la régulation des ces monstres capitalistes. On renoue alors avec d’anciennes visions, celles d’un libéralisme garant des équilibres capitalistes, mais cette fois presque exclusivement du côté du droit : c’est mal de priver les individus de leur vie privée, donc il faut plus de régulation dans les pratiques. On n’est pas loin de renouer avec la vieille idée de l’ethos protestant à l’origine du capitalisme moderne selon Max Weber : la recherche de profit est un bien, il s’accomplit par le travail et le don de soi à l’entreprise. La paix de nos âmes ne peut donc avoir lieu sans le capitalisme. C’est ce que cristallise Milton Friedman dans une de ses célèbres affirmations : « la responsabilité sociale des entreprises est de maximiser leurs profits »7. Si le capitalisme est un dispositif géant générateur de profit, il n’est ni moral ni immoral, c’est son usage, sa destination qui l’est. Par conséquent, ce serait à l’État d’agir en assumant les conséquences d’un mauvais usage qu’en feraient les capitalistes.

Contradiction : le capitalisme n’est pas un simple dispositif, il est à la fois marché, organisation, choix collectifs, et choix individuels. Son extension dans nos vies privées est le résultat du choix de la rationalisation toujours plus drastique des conditions de rentabilité. Dans les années 1980, les économistes néoclassiques croyaient fortement au triptyque gagnant investissement – accroissement de main d’œuvre – progrès technique. Sauf que même l’un des plus connus des économistes américains, Robert Solow, a dû se rendre à une évidence, un « paradoxe » qu’il soulevait après avoir admis que « la révolution technologique [de l’informatique] s’est accompagnée partout d’un ralentissement de la croissance de la productivité, et non d’une augmentation ». Il conclut : « Vous pouvez voir l’ère informatique partout, sauf dans les statistiques de la productivité »8. Pour Solow, croyant encore au vieux monde de la croissance « productrice », ce n’était qu’une question de temps, mais pour l’économie capitaliste, c’était surtout l’urgence de se tourner vers des solutions beaucoup plus rapides : l’actionnariat (et la rationalisation rentable des process) et la valorisation quasi-immédiate de tout ce qui pouvait être valorisable sur le marché le plus facile possible, celui des services, celui qui nécessite le moins d’investissements.

La volonté d’aller dans le mur

Le capitalisme à l’ère numérique n’a pas créé de stagnation, il est structurellement destructeur. Il n’a pas créé de défaut d’investissement, il est avant tout un choix réfléchi, la volonté d’aller droit dans le mur en espérant faire partie des élus qui pourront changer de voiture avant l’impact. Dans cette hyper-concurrence qui est devenue essentiellement financière, la seule manière d’envisager la victoire est de fabriquer des monopoles. C’est là que la fatuité de la régulation se remarque le plus. Un récent article de Michael Kwet9 résume très bien la situation. On peut le citer longuement :

Les défenseurs de la législation antitrust affirment que les monopoles faussent un système capitaliste idéal et que ce qu’il faut, c’est un terrain de jeu égal pour que tout le monde puisse se faire concurrence. Pourtant, la concurrence n’est bonne que pour ceux qui ont des ressources à mettre en concurrence. Plus de la moitié de la population mondiale vit avec moins de 7,40 dollars [7,16 euros] par jour, et personne ne s’arrête pour demander comment ils seront “compétitifs” sur le “marché concurrentiel” envisagé par les défenseurs occidentaux de l’antitrust. C’est d’autant plus décourageant pour les pays à revenu faible ou intermédiaire que l’internet est largement sans frontières.

À un niveau plus large […] les défenseurs de l’antitrust ignorent la division globalement inégale du travail et de l’échange de biens et de services qui a été approfondie par la numérisation de l’économie mondiale. Des entreprises comme Google, Amazon, Meta, Apple, Microsoft, Netflix, Nvidia, Intel, AMD et bien d’autres sont parvenues à leur taille hégémonique parce qu’elles possèdent la propriété intellectuelle et les moyens de calcul utilisés dans le monde entier. Les penseurs antitrust, en particulier ceux des États-Unis, finissent par occulter systématiquement la réalité de l’impérialisme américain dans le secteur des technologies numériques, et donc leur impact non seulement aux États-Unis, mais aussi en Europe et dans les pays du Sud.

Les initiatives antitrust européennes ne sont pas meilleures. Là-bas, les décideurs politiques qui s’insurgent contre les maux des grandes entreprises technologiques tentent discrètement de créer leurs propres géants technologiques.

Dans la critique mainstream du capitalisme de surveillance, une autre erreur s’est révélée, en plus de celle qui consiste à persister dans la défense d’un imaginaire capitaliste. C’est celle de voir dans l’État et son pouvoir de régulation un défenseur de la démocratie. C’est d’abord une erreur de principe : dans un régime capitaliste monopoliste, l’État assure l’hégémonie des entreprises de son cru et fait passer sous l’expression démocratie libérale (ou libertés) ce qui favorise l’émergence de situations de domination. Pour lutter contre, il y a une urgence dans notre actualité économique : la logique des start-up tout autant que celle de la « propriété intellectuelle » doivent laisser place à l’expérimentation collective de gouvernance de biens communs de la connaissance et des techniques (nous en parlerons plus loin). Ensuite, c’est une erreur pratique comme l’illustrent les affaires de lobbying et de pantouflage dans le petit monde des décideurs politiques. Une illustration parmi des centaines : les récents Uber Files démontrant, entre autres, les accords passés entre le président Emmanuel Macron et les dirigeants d’Uber (voir sur le site Le Monde).

Situer ces enjeux dans un contexte historique aussi général suppose de longs développements, rarement simples à exposer. Oui, il s’agit d’une critique du capitalisme, et oui cette critique peut être plus ou moins radicale selon que l’on se place dans un héritage marxiste, marxien ou de la critique de la valeur, ou que l’on demeure persuadé qu’un capitalisme plus respectueux, moins « féodal » pourrait advenir. Sans doute qu’un mirage subsiste, celui de croire qu’autant de bienfaits issus du capitalisme suffisent à le dédouaner de l’usage dévoyé des technologies. « Sans le capitalisme nous en serions encore à nous éclairer à la bougie…» En d’autres termes, il y aurait un progrès indiscutable à l’aune duquel les technologies de surveillance pourraient être jugées. Vraiment ?

 

« Il y a une application pour ça », le slogan d’Apple qui illustre bien le solutionnisme technologique.

Situer le capitalisme de surveillance dans notre rapport à la technique

C’est un poncif : les technologies de surveillance ont été développées dans une logique de profit. Il s’agit des technologies dont l’objectif est de créer des données exploitables à partir de nos vies privées, à des fins de contrôle ou purement mercantiles (ce qui revient au même puisque les technologies de contrôle sont possédées par des firmes qui achètent des données).

Or, il est temps de mettre fin à l’erreur répandue qui consiste à considérer que les technologies de surveillance sont un mal qui pervertit le capitalisme censé être le moteur de la démocratie libérale. Ceci conduit à penser que seule une régulation bien menée par l’État dans le but de restaurer les vertus du « bon » capitalisme serait salutaire tant nos vies privées sont sur-exploitées et nos libertés érodées. Tel est le credo de Shoshana Zuboff et avec elle bon nombre de décideurs politiques.

Croire qu’il y a de bons et de mauvais usages

L’erreur est exactement celle que dénonçait en son temps Jacques Ellul. C’est celle qui consiste à vouloir absolument attribuer une valeur à l’usage de la technique. Le bon usage serait celui qui pousse à respecter la vie privée, et le mauvais usage celui qui tend à l’inverse. Or, il n’y a d’usage technique que technique. Il n’y a qu’un usage de la bombe atomique, celui de faire boum (ou pas si elle est mal utilisée). Le choix de développer la bombe est, lui, par contre, un choix qui fait intervenir des enjeux de pouvoir et de valeurs.

Au tout début des années 1970, à l’époque où se développaient les techniques d’exploitation des bases de données et le courtage de données, c’est ce qu’ont montré James Martin et Adrian Norman pour ce qui concerne les systèmes informatiques10 : à partir du moment où un système est informatisé, la quantification est la seule manière de décrire le monde. Ceci est valable y compris pour les systèmes décisionnels. Le paradoxe que pointaient ces auteurs montrait que le traitement de l’information dans un système décisionnel – par exemple dans n’importe quelle organisation économique, comme une entreprise – devait avoir pour objectif de rationaliser les procédures et les décisions en utilisant une quantité finie de données pour en produire une quantité réduite aux éléments les plus stratégiques, or, l’informatisation suppose un choix optimum parmi une grande variété d’arbres décisionnels et donc un besoin croissant de données, une quantité tendant vers l’infini.

Martin et Norman illustraient ce qu’avait affirmé Jacques Ellul vingt ans auparavant : la technique et sa logique de développement seraient autonomes. Bien que discutable, cette hypothèse montre au moins une chose : dans un monde capitaliste, tout l’enjeu consisterait comme au rugby à transformer l’essai, c’est-à-dire voir dans le développement des techniques autant d’opportunités de profit et non pas d’investissements productifs. Les choix se posent alors en termes d’anti-productivité concrète. Dans le monde des bases de données et leur exploitation la double question qui s’est posée de 1970 à aujourd’hui est de savoir si nous sommes capables d’engranger plus ou moins de données et comment leur attribuer une valeur marchande.

Le reste n’est que sophismes : l’usine entièrement automatisée des rêves cybernéticiens les plus fous, les boules de cristal des statistiques électorales, les données de recouvrement bancaires et le crédit à la consommation, les analyses marketing et la consommation de masse, jusqu’à la smart city de la Silicon Valley et ses voitures autonomes (et ses aspirateurs espions)… la justification de la surveillance et de l’extraction de données repose sur l’idée d’un progrès social, d’un bon usage des technologies, et d’une neutralité des choix technologiques. Et il y a un paralogisme. Si l’on ne pense l’économie qu’en termes capitalistes et libéraux, cette neutralité est un postulat qui ne peut être remis en cause qu’à l’aune d’un jugement de valeur : il y aurait des bons et des mauvais usages des technologies, et c’est à l’État d’assurer le rôle minimal de les arbitrer au regard de la loi. Nul ne remet alors en question les choix eux-mêmes, nul ne remet en question l’hégémonie des entreprises qui nous couvrent de leurs « bienfaits » au prix de quelques « négligeables » écarts de conduite, nul ne remet en question l’exploitation de nos vies privées (un mal devenu nécessaire) et l’on préfère nous demander notre consentement plus ou moins éclairé, plus ou moins obligé.

La technologie n’est pas autonome

Cependant, comme nous le verrons vers la fin de ce texte, les études en sociologie des sciences montrent en fait qu’il n’y a pas d’autonomie de la technique. Sciences, technologies et société s’abreuvent mutuellement entre les usages, les expérimentations et tous ces interstices épistémiques d’appropriation des techniques, de désapprentissage, de renouvellement, de détournements, et d’expression des besoins pour de nouvelles innovations qui seront à leur tour appropriées, modifiées, transformées, etc. En réalité l’hypothèse de l’autonomie de la technique a surtout servi au capitalisme pour suivre une course à l’innovation qui ne saurait être remise en question, comme une loi naturelle qui justifie en soi la mise sur le marché de nouvelles technologies et au besoin faire croire en leur utilité. Tel est le fond de commerce du transhumanisme et son « économie des promesses ».

L’erreur consiste à prêter le flanc au solutionnisme technologique (le même qui nous fait croire que des caméras de surveillance sont un remède à la délinquance, ou qu’il faut construire des grosses berlines sur batteries pour ne plus polluer) et à se laisser abreuver des discours néolibéraux qui, parce qu’il faut bien rentabiliser ces promesses par de la marchandisation des données – qui est elle-même une promesse pour l’actionnariat –, nous habituent petit à petit à être surveillés. Pour se dépêtrer de cela, la critique du capitalisme de surveillance doit être une critique radicale du capitalisme et du néolibéralisme car la lutte contre la surveillance ne peut être décorrélée de la prise en compte des injustices sociales et économiques dont ils sont les causes pratiques et idéologiques.

Je vois venir les lecteurs inquiets. Oui, j’ai placé ce terme de néolibéralisme sans prévenir. C’est mettre la charrue avant les bœufs mais c’est parfois nécessaire. Pour mieux comprendre, il suffit de définir ce qu’est le néolibéralisme. C’est l’idéologie appelée en Allemagne ordolibéralisme, si l’on veut, c’est-à-dire l’idée que le laissez-faire a démontré son erreur historique (les crises successives de 1929, 1972, 2008, ou la crise permanente), et que par conséquent l’État a fait son grand retour dans le marché au service du capital, comme le principal organisateur de l’espace de compétition capitaliste et le dépositaire du droit qui érige la propriété et le profit au titre de seules valeurs acceptables. Que des contrats, plus de discussion, there is no alternative, comme disait la Margaret. Donc partant de cette définition, à tous les niveaux organisationnels, celui des institutions de l’État comme celui des organisations du capital, la surveillance est à la fois outil de contrôle et de génération de profit (dans les limites démontrées par R. Kurz, à savoir : pas sans compter presque exclusivement sur l’actionnariat et les produits financiers, cf. plus haut).

Le choix du « monitoring »

La course en avant des technologies de surveillance est donc le résultat d’un choix. Il n’y a pas de bon ou de mauvais usage de la surveillance électronique : elle est faite pour récolter des données. Le choix en question c’est celui de n’avoir vu dans ces données qu’un objet marchand. Peu importe les bienfaits que cela a pu produire pour l’individu, ils ne sont visibles que sur un court terme. Par exemple les nombreuses applications de suivi social que nous utilisons nous divertissent et rendent parfois quelque service, mais comme le dit David Lyon dans The Culture of Surveillance, elle ne font que nous faire accepter passivement les règles du monitoring et du tri social que les États comme les multinationales mettent en œuvre.

Il n’y a pas de différence de nature entre la surveillance des multinationales et la surveillance par l’État : ce sont les multinationales qui déterminent les règles du jeu de la surveillance et l’État entérine ces règles et absorbe les conditions de l’exercice de la surveillance au détriment de sa souveraineté. C’est une constante bien comprise, qu’il s’agisse des aspects techniques de la surveillance sur lesquels les Big Tech exercent une hégémonie qui en retour sert les intérêts d’un ou plusieurs États (surtout les États-Unis aujourd’hui), ou qu’il s’agisse du droit que les Big Tech tendent à modifier en leur faveur soit par le jeu des lobbies soit par le jeu des accords internationaux (tout comme récemment le nouvel accord entre l’Europe et les États-Unis sur les transferts transatlantiques de données, qui vient contrecarrer les effets d’annonce de la Commission Européenne).

dessins de personnes qui brisent un mur sombre pour aller vers des colines vertes
Trouver et cultiver nos espaces de libertés.
Illustration CC-By David Revoy (sources)

Quels espaces de liberté dans ce monde technologique ?

Avec l’apparition des ordinateurs et des réseaux, de nombreuses propositions ont vu le jour. Depuis les années 1970, si l’on suit le développement des différents mouvements de contestation sociale à travers le monde, l’informatique et les réseaux ont souvent été plébiscités comme des solutions techniques aux défauts des démocraties. De nombreux exemples d’initiatives structurantes pour les réseaux informatiques et les usages des ordinateurs se sont alors vus détournés de leurs fonctions premières. On peut citer le World Wide Web tel que conçu par Tim Berners Lee, lui même suivant les traces du monde hypertextuel de Ted Nelson et son projet Xanadu. Pourquoi ce design de l’internet des services s’est-il trouvé à ce point sclérosé par la surveillance ? Pour deux raisons : 1) on n’échappe pas (jamais) au développement technique de la surveillance (les ordinateurs ont été faits et vendus pour cela et le sont toujours11) et 2) parce qu’il y a des intérêts de pouvoir en jeu, policiers et économiques, celui de contrôler les communications. Un autre exemple : le partage des programmes informatiques. Comme chacun le sait, il fut un temps où la création d’un programme et sa distribution n’étaient pas assujettis aux contraintes de la marchandisation et de la propriété intellectuelle. Cela permettait aux utilisateurs de machines de partager non seulement des programmes mais des connaissances et des nouveaux usages, faisant du code un bien commun. Sous l’impulsion de personnages comme Bill Gates, tout cela a changé au milieu des années 1970 et l’industrie du logiciel est née. Cela eut deux conséquences, négative et positive. Négative parce que les utilisateurs perdaient absolument toute maîtrise de la machine informatique, et toute possibilité d’innovation solidaire, au profit des intérêts d’entreprises qui devinrent très vite des multinationales. Positive néanmoins, car, grâce à l’initiative de quelques hackers, dont Richard Stallman, une alternative fut trouvée grâce au logiciel libre et la licence publique générale et ses variantes copyleft qui sanctuarisent le partage du code. Ce partage relève d’un paradigme qui ne concerne plus seulement le code, mais toute activité intellectuelle dont le produit peut être partagé, assurant leur liberté de partage aux utilisateurs finaux et la possibilité de créer des communs de la connaissance.

Alors que nous vivons dans un monde submergé de technologies, nous aurions en quelque sorte gagné quelques espaces de liberté d’usage technique. Mais il y a alors comme un paradoxe.

À l’instar de Jacques Ellul, pour qui l’autonomie de la technique implique une aliénation de l’homme à celle-ci, beaucoup d’auteurs se sont inquiétés du fait que les artefacts techniques configurent par eux-mêmes les actions humaines. Qu’on postule ou pas une autonomie de la technique, son caractère aliénant reste un fait. Mais il ne s’agit pas de n’importe quels artefacts. Nous ne parlons pas d’un tournevis ou d’un marteau, ou encore d’un silex taillé. Il s’agit des systèmes techniques, c’est-à-dire des dispositifs qu’on peut qualifier de socio-techniques qui font intervenir l’homme comme opérateur d’un ensemble d’actions techniques par la technique. En quelque sorte, nous perdons l’initiative et les actions envisagées tendent à la conformité avec le dispositif technique et non plus uniquement à notre volonté. Typiquement, les ordinateurs dans les entreprises à la fin des années 1960 ont été utilisés pour créer des systèmes d’information, et c’est à travers ces systèmes techniques que l’action de l’homme se voit configurée, modelée, déterminée, entre ce qui est possible et ce qui ne l’est pas. Dans son article « Do artefacts have politics ? », Langdon Winner s’en inquiétait à juste titre : nos objectifs et le sens de nos actions sont conditionnés par la technique. Cette dernière n’est jamais neutre, elle peut même provoquer une perte de sens de l’action, par exemple chez le travailleur à la chaîne ou le cadre qui non seulement peuvent être noyés dans une organisation du travail trop grande, mais aussi parce que l’automatisation de la production et de la décision les prive de toute initiative (et de responsabilité).

La tentation du luddisme

Pour lutter contre cette perte de sens, des choix sont envisageables. Le premier consiste à lutter contre la technique. En évacuant la complexité qu’il y a à penser qu’un mouvement réfractaire au développement technique puisse aboutir à une société plus libre, on peut certes imaginer des fronts luddites en certains secteurs choisis. Par exemple, tel fut le choix du CLODO dans la France des années 1980, prétendant lutter contre l’envahissement informatique dans la société. Concernant la surveillance, on peut dire qu’au terme d’un processus de plus de 50 ans, elle a gagné toutes les sphères socio-économiques grâce au développement technologique. Un front (néo-)luddite peut sembler justifié tant cette surveillance remet en cause très largement nos libertés et toutes les valeurs positives que l’on oppose généralement au capitalisme : solidarité et partage, notamment.

Pour autant, est-ce que la lutte contre le capitalisme de surveillance doit passer par la négation de la technique ? Il est assez évident que toute forme d’action directe qui s’oppose en bloc à la technique perd sa crédibilité en ce qu’elle ne fait que proposer un fantasme passéiste ou provoquer des réactions de retrait qui n’ont souvent rien de constructif. C’est une critique souvent faite à l’anarcho-primitivisme qui, lorsqu’il ne se contente pas d’opposer une critique éclairée de la technique (et des processus qui ont conduit à la création de l’État) en vient parfois à verser dans la technophobie. C’est une réaction aussi compréhensible que contrainte tant l’envahissement technologique et ses discours ont quelque chose de suffoquant. En oubliant cette question de l’autonomie de la technique, je suis personnellement tout à fait convaincu par l’analyse de J. Ellul selon laquelle nous sommes à la fois accolés et dépendants d’un système technique. En tant que système il est devenu structurellement nécessaire aux organisations (qu’elles soient anarchistes ou non) au moins pour communiquer, alors que le système capitaliste, lui, ne nous est pas nécessaire mais imposé par des jeux de pouvoirs. Une réaction plus constructive consiste donc à orienter les choix technologiques, là où l’action directe peut prendre un sens tout à fait pertinent.

Prenons un exemple qui pourrait paraître trivial mais qui s’est révélé particulièrement crucial lors des périodes de confinement que nous avons subies en raison de l’épidémie Covid. Qu’il s’agisse des entreprises ou des institutions publiques, toutes ont entamé dans l’urgence une course en avant vers les solutions de visio-conférence dans l’optique de tâcher de reproduire une forme présentielle du travail de bureau. La visio-conférence suscite un flux de données bien plus important que la voix seule, et par ailleurs la transmission vocale est un ensemble de techniques déjà fort éprouvées depuis plus d’un siècle. Que s’est-il produit ? Les multinationales se sont empressées de vendre leurs produits et pomper toujours plus de données personnelles, tandis que les limites pratiques de la visio-conférence se sont révélées : dans la plupart des cas, réaliser une réunion « filmée » n’apporte strictement rien de plus à l’efficacité d’une conférence vocale. Dans la plupart des cas, d’ailleurs, afin d’économiser de la bande passante (croit-on), la pratique courante consiste à éteindre sa caméra pendant la réunion. Où sont les gains de productivité tant annoncés par les GAFAM ? Au lieu de cela, il y a en réalité un détournement des usages, et même des actes de résistance du quotidien (surtout lorsqu’il s’agit de surveiller les salariés à distance).

Les choix technologiques doivent être collectifs

Une critique des techniques pourrait donc consister à d’abord faire le point sur nos besoins et en prenant en compte l’urgence climatique et environnementale dans laquelle nous sommes (depuis des décennies). Elle pourrait aussi consister à prendre le contrepoint des discours solutionnistes qui tendent à justifier le développement de techniques le plus souvent inutiles en pratique mais toujours plus contraignantes quant au limites éthiques vers lesquelles elles nous poussent. Les choix technologiques doivent donc d’abord être des choix collectifs, dont l’assentiment se mesure en fonction de l’économie énergétique et de l’acceptabilité éthique de la trajectoire choisie. On peut revenir à une technologie ancienne et éprouvée et s’en contenter parce qu’elle est efficace et on peut refuser une technologie parce qu’elle n’est pas un bon choix dans l’intérêt collectif. Et par collectif, j’entends l’ensemble des relations inter-humaines et des relations environnementales dont dépendent les premières.

Les attitudes de retraits par rapports aux technologies, le refus systématique des usages, sont rarement bénéfiques et ne constituent que rarement une démarche critique. Ils sont une réaction tout à fait compréhensible du fait que la politique a petit à petit déserté les lieux de production (pour ce qu’il en reste). On le constate dans le désistement progressif du syndicalisme ces 30 ou 40 dernières années et par le fait que la critique socialiste (ou « de gauche ») a été incapable d’intégrer la crise du capitalisme de la fin du XXᵉ siècle. Pire, en se transformant en un centre réactionnaire, cette gauche a créé une technocratie de la gestion aux ordres du néolibéralisme : autoritarisme et pansements sociaux pour calmer la révolte qui gronde. Dès lors, de désillusions en désillusions, dans la grande cage concurrentielle de la rareté du travail rémunéré (rentable) quelle place peut-il y avoir pour une critique des techniques et de la surveillance ? Peut-on demander sérieusement de réfléchir à son usage de Whatsapp à une infirmière qui a déjà toutes les difficultés du monde à concilier la garde de ses enfants, les heures supplémentaires (parfois non payées) à l’hôpital, le rythme harassant du cycle des gardes, les heures de transports en commun et par dessus le marché, le travail domestique censé assurer les conditions de reproduction du travail abstrait ? Alors oui, dans ces conditions où le management du travail n’est devenu qu’une affaire de rationalisation rentable, les dispositifs techniques ne font pas l’objet d’usages réfléchis ou raisonnés, il font toujours l’objet d’un usage opportuniste : je n’utilise pas Whatsapp parce que j’aime Facebook ou que je me fiche de savoir ce que deviennent mes données personnelles, j’utilise Whatsapp parce que c’est le moyen que j’ai trouvé pour converser avec mes enfants et m’assurer qu’ils sont bien rentrés à la maison après l’école.

Low tech et action directe

En revanche, un retrait que je pourrais qualifier de technophobe et donc un minimum réfléchi, laisse entier le problème pour les autres. La solidarité nous oblige à créer des espaces politiques où justement technologie et capitalisme peuvent faire l’objet d’une critique et surtout d’une mise en pratique. Le mouvement Low Tech me semble être l’un des meilleurs choix. C’est en substance la thèse que défend Uri Gordon (« L’anarchisme et les politiques techniques ») en voyant dans les possibilités de coopérations solidaires et de choix collectivement réfléchis, une forme d’éthique de l’action directe.

Je le suivrai sur ce point et en étendant davantage le spectre de l’action directe. Premièrement parce que si le techno-capitalisme aujourd’hui procède par privation de libertés et de politique, il n’implique pas forcément l’idée que nous ne soyons que des sujets soumis à ce jeu de manière inconditionnelle. C’est une tendance qu’on peut constater dans la plupart des critiques du pouvoir : ne voir l’individu que comme une entité dont la substance n’est pas discutée, simplement soumis ou non soumis, contraint ou non contraint, privé de liberté ou disposant de liberté, etc. Or il y a tout un ensemble d’espaces de résistance conscients ou non conscients chez tout individu, ce que Michel de Certeau appelait des tactiques du quotidien12. Il ne s’agit pas de stratégies où volonté et pouvoir se conjuguent, mais des mouvements « sur le fait », des alternatives multiples mises en œuvre sans chercher à organiser cet espace de résistance. Ce sont des espaces féconds, faits d’expérimentations et d’innovations, et parfois même configurent les techniques elles-mêmes dans la différence entre la conception initiale et l’usage final à grande échelle. Par exemple, les ordinateurs et leurs systèmes d’exploitations peuvent ainsi être tantôt les instruments de la surveillance et tantôt des instruments de résistance, en particulier lorsqu’ils utilisent des logiciels libres. Des apprentissages ont lieu et cette fois ils dépassent l’individu, ils sont collectifs et ils intègrent des connaissances en commun.

En d’autres termes, chaque artefact et chaque système technique est socialement digéré, ce qui en retour produit des interactions et détermine des motivations et des objectifs qui peuvent s’avérer très différents de ceux en fonction desquels les dispositifs ont été créés. Ce processus est ce que Sheila Jasanoff appelle un processus de coproduction épistémique et normatif13 : sciences et techniques influencent la société en offrant un cadre tantôt limitatif, tantôt créatif, ce qui en retour favorise des usages et des besoins qui conditionnent les trajectoires scientifiques et technologiques. Il est par conséquent primordial de situer l’action directe sur ce créneau de la coproduction en favorisant les expériences tactiques individuelles et collectives qui permettent de déterminer des choix stratégiques dans l’orientation technologique de la société. Dit en des mots plus simples : si la décision politique n’est plus suffisante pour garantir un cadre normatif qui reflète les choix collectifs, alors ce sont les collectifs qui doivent pouvoir créer des stratégies et au besoin les imposer par un rapport de force.

Créer des espaces d’expérimentations utopiques

Les hackers ne produisent pas des logiciels libres par pur amour d’autrui et par pure solidarité : même si ces intentions peuvent être présentes (et je ne connais pas de libristes qui ne soient pas animés de tels sentiments), la production de logiciel libre (ou open source) est d’abord faite pour créer de la valeur. On crée du logiciel libre parce que collectivement on est capable d’administrer et valoriser le bien commun qu’est le code libre, à commencer par tout un appareillage juridique comme les licences libres. Il en va de même pour toutes les productions libres qui emportent avec elles un idéal technologique : l’émancipation, l’activité libre que représente le travail du code libre (qui n’est la propriété de personne). Même si cela n’exempte pas de se placer dans un rapport entre patron (propriétaire des moyens de production) et salarié, car il y a des entreprises spécialisées dans le Libre, il reste que le Libre crée des espaces d’équilibres économiques qui se situent en dehors de l’impasse capitaliste. La rentabilité et l’utilité se situent presque exclusivement sur un plan social, ce qui explique l’aspect très bigarré des modèles d’organisations économiques du Libre, entre associations, fondations, coopératives…

L’effet collatéral du Libre est aussi de créer toujours davantage d’espaces de libertés numériques, cette fois en dehors du capitalisme de surveillance et ses pratiques d’extraction. Cela va des pratiques de chiffrement des correspondances à l’utilisation de logiciels dédiés explicitement aux luttes démocratiques à travers le monde. Cela a le mérite de créer des communautés plus ou moins fédérées ou archipélisées, qui mettent en pratique ou du moins sous expérimentation l’alliance entre les technologies de communication et l’action directe, au service de l’émancipation sociale.

Il ne s’agit pas de promettre un grand soir et ce n’est certes pas avec des expériences qui se complaisent dans la marginalité que l’on peut bouleverser le capitalisme. Il ne s’agit plus de proposer des alternatives (qui fait un détour lorsqu’on peut se contenter du droit chemin?) mais des raisons d’agir. Le capitalisme est désuet. Dans ses soubresauts (qui pourraient bien nous mener à la guerre et la ruine), on ressort l’argument du bon sens, on cherche le consentement de tous malgré l’expérience que chacun fait de l’exploitation et de la domination. Au besoin, les capitalistes se montrent autoritaires et frappent. Mais que montrent les expériences d’émancipation sociales ? Que nous pouvons créer un ordre fait de partage et d’altruisme, de participation et de coopération, et que cela est parfaitement viable, sans eux, sur d’autres modèles plus cohérents14. En d’autres termes, lutter contre la domination capitaliste, c’est d’abord démontrer par les actes que d’autres solutions existent et sans chercher à les inclure au forceps dans ce système dominant. Au contraire, il y a une forme d’héroïsme à ne pas chercher à tordre le droit si ce dernier ne permet pas une émancipation franche et durable du capitalisme. Si le droit ne convient pas, il faut prendre le gauche.

La lutte pour les libertés numériques et l’application des principes du Libre permettent de proposer une sortie positive du capitalisme destructeur. Néanmoins on n’échappera pas à la dure réalité des faits. Par exemple que l’essentiel des « tuyaux » des transmissions numériques (comme les câbles sous-marins) appartiennent aux multinationales du numérique et assurent ainsi l’un des plus écrasants rapports de domination de l’histoire. Pourtant, on peut imaginer des expériences utopiques, comme celle du Chaos Computer Club, en 2012, consistant à créer un Internet hors censure via un réseau de satellite amateur.

L’important est de créer des espaces d’expérimentation utopiques, parce qu’ils démontrent tôt ou tard la possibilité d’une solution, il sont préfiguratifs15. Devant la décision politique au service du capital, la lutte pour un réseau d’échanges libres ne pourra certes pas se passer d’un rapport de force mais encore moins de nouveaux imaginaires. Car, finalement, ce que crée la crise du capitalisme, c’est la conscience de son écocide, de son injustice, de son esclavagisme technologique. Reste l’espoir, première motivation de l’action.

Notes


  1. R. Kurz, Vies et mort du capitalisme, Nouvelles Éditions Ligne, 2011, p. 37↩︎
  2. Ernst Lohoff et Norbert Trenkle, La grande dévalorisation. Pourquoi la spéculation et la dette de l’État ne sont pas les causes de la crise, Paris, Post-éditions, 2014.↩︎
  3. Georges Simpson, « Western Man under Automation », International Journal of Comparative Sociology, num. 5, 1964, pp. 199-207.↩︎
  4. Comme le dit Moishe Postone dans son article « Repenser Le Capital à la lumière des Grundrisse » : « La transformation radicale du processus de production mentionnée plus haut n’est pas le résultat quasi-automatique du développement rapide des savoirs techniques et scientifique et de leurs applications. C’est plutôt une possibilité qui naît d’une contradiction sociale intrinsèque croissante. Bien que la course du développement capitaliste génère la possibilité d’une structure nouvelle et émancipatrice du travail social, sa réalisation générale est impossible dans le capitalisme. »↩︎
  5. Là je reprends une catégorie marxiste. Marx appelle le (résultat du -) travail mort ce qui a besoin de travail productif. Par exemple, une matière comme le blé récolté est le résultat d’un travail déjà passé, il lui faut un travail vivant (celui du meunier) pour devenir matière productive. Pour ce qui concerne l’extraction de données, il faut comprendre que l’automatisation de cette extraction, le stockage, le travail de la donnée et la marchandisation sont un seul et même mouvement (on ne marchande pas des jeux de données « en l’air », ils correspondent à des commandes sur une marché tendu). Les données ne sont pas vraiment une matière première, elles ne sont pas non plus un investissement, mais une forme insaisissable du travail à la fois matière première et système technique.↩︎
  6. On peut distinguer entre économie réelle et économie financière. Voir cette étude de François Morin, juste avant le crack de 2008. François Morin, « Le nouveau mur de l’argent », Nouvelles Fondations, num. 3-4, 2007, p. 30-35.↩︎
  7. The New York Times Magazine, 13 septembre 1970.↩︎
  8. Robert Solow, « We’d better watch out », New York Times Book Review, 12 juillet 1987, page 36.↩︎
  9. Mike Kwet, « Digital Ecosocialism Breaking the power of Big Tech » (ROAR Magazine), trad. Fr. Louis Derrac, sous le titre « Écosocialisme numérique – Briser le pouvoir des Big Tech », parue sur Framablog.org.↩︎
  10. James Martin et Adrian R. D. Norman, The Computerized Society. An Appraisal of the Impact of Computers on Society over the next 15 Years, Englewood Cliffs, Prentice-Hall, 1970, p. 522.↩︎
  11. c’est ce que je tâche de montrer dans une partie de mon livre Affaires privées. Aux sources du capitalisme de surveillance : pourquoi fabriquer et acheter des ordinateurs ? Si les entreprises sont passées à l’informatique c’est pour améliorer la production et c’est aussi pourquoi le courtage de données s’est développé.↩︎
  12. Sur les « tactiques numériques », on pourra lire avec profit l’article de Beatrice Latini et Jules Rostand, « La libre navigation. Michel de Certeau à l’épreuve du numérique », Esprit, 2022/1-2 (Janvier-Février), p. 109-117.↩︎
  13. Sheila Jasanoff, « Ordering Knowledge, Ordering Society », dans S. Jasanoff (éd.), States of knowledge. The co-production of science and social order, Londres, Routledge, 2004, pp. 13-45.↩︎
  14. Sur ce point on peut lire avec intérêt ce texte de Ralph Miliband, « Comment lutter contre l’hégémonie capitaliste ? », paru initialement en 1990 et traduit sur le site Contretemps.↩︎
  15. Voir David Graeber, et Alexie Doucet, Comme si nous étions déjà libres, Montréal, Lux éditeur, 2014. La préfiguration est l’« idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer ». Voir aussi Marianne Maeckelbergh, « Doing is Believing: Prefiguration as Strategic Practice in the Alterglobalization Movement », Social Movement Studies, vol. 10, num. 1, 2011, pp. 1‑20.↩︎



Les Léviathans V. Vie privée, informatique et marketing dans le monde d’avant Google

Dans notre ère désormais numérique il nous arrive parfois d’être pris d’un léger vertige tant le flux tourbillonnant de l’actualité porte des coups brutaux à notre représentation du monde. C’est alors qu’un pas de côté est salutaire.

Apprendre avec Meltdown et Spectre que même le matériel, en l’occurrence le processeur, comporte des failles critiques, ou plus récemment que par dizaines de millions des profils Facebook ont été exploités pour manipuler l’opinion à des fins politiques, voilà le genre d’affaires qui défraient la chronique, mais qui nous demandent un peu de recul.

Dans la continuité de sa série des Léviathans, Christophe Masutti nous propose aujourd’hui avec Léviathans V de prendre un peu de distance avec le capitalisme de surveillance pour mieux en appréhender et déconstruire le mode opératoire.

Pour commencer, il nous invite à remonter aux années 1960 aux États-Unis et découvrir que l’exploitation des données personnelles par le marketing numérique (certes moins sophistiqué qu’aujourd’hui) était une réalité dès la constitution des premières banques de données. Au point que très tôt des mouvements d’opinion sont apparus pour s’opposer aux dangers des atteintes à la vie privée. On verra donc à quel point ni la collecte de données personnelles à des fins marchandes ni les légitimes oppositions qu’elle soulève ne sont dans leur principe des phénomènes nouveaux.

Historiquement, c’est l’informatique bancaire qui s’est trouvée comme à l’avant-garde de cette collecte structurée qui va constituer les bases de données. Mais entre le climat de la Guerre froide et la méfiance des citoyens américains alors jaloux de leur liberté, les protestations sont vives. Dès le début des années 1970 certains déjà redoutent un monde où l’individu serait sous totale surveillance grâce aux technologies informatiques.

Les tentatives pour contenir par un cadre juridique l’exploitation des données privées étaient trouées d’exceptions dont les entreprises commerciales ont évidemment profité. Grâce à l’informatisation croissante du traitement de données, il leur devenait facile de déterminer des types de consommateurs et d’anticiper sur leurs désirs d’achat : dès avant 1980, le profilage était né.

Christophe Masutti retrace le chemin parcouru depuis : comment les données vont devenir une ressource monnayable, comment dès le début des années 1990 on peut proposer un modèle économique où chacun vendrait ses données (ça ne vous rappelle rien ?), comment s’est développé le business juteux du commerce des données, au point d’alimenter les méga-corporations que nous connaissons aujourd’hui, et quelles voix se sont élevées, opposant la liberté au profilage et à la segmentation sociale qu’impose cette économie de la surveillance.

En définitive, le parcours historique et analytique que vous allez lire est à la fois surprenant – puisque tout était déjà là, et éclairant – car c’est ainsi que nous en sommes arrivés là.

*   *   *

Comme le texte de l’article est un peu long (une trentaine de pages au format A4 plus une abondante bibliographie), nous vous en proposons la lecture hors-ligne en téléchargeant ci-dessous le fichier .pdf (avec liens actifs pour le parcourir)

Cliquez sur l’image pour télécharger Léviathans V de Christophe Masutti au format .pdf (210 Ko) (ou sur Hal-shs)

 

* Crédit image Robert Nix (CC BY-2.0)

 

 

 




Framadsense, la publicité qui a du sens

C’est avec le plus grand sérieux que nous lançons aujourd’hui notre alternative à la régie publicitaire Google AdSense : Framadsense !

EDIT 20/09/2023 : Ce « service » est aujourd’hui fermé. Néanmoins, le code source est toujours disponible pour qui est intéressé.

Aujourd’hui on trolle la pub !

On ne va pas noyer le poisson : aujourd’hui est le jour rêvé pour lancer notre outil de bannières publicitaires. C’est dimanche, nos salarié·e·s se reposent, nos bénévoles ont une vie personnelle, vous allez donc pouvoir enflammer les z’internets en toute autonomie.

Vous croyez que c’est une blague…? Vous ne vous doutez pas à quel point nous sommes sérieuxses, dès qu’il s’agit de déconner.

Nous avons déjà parlé ici du fléau qu’est la publicité « digitale » (comme disent les « dir’comm' » et les « dir’mark' »). C’est le profilage publicitaire qui est aux origines des Léviathans qui centralisent le web. Il suffit de voir le talk « Nous créons une dystopie simplement pour obliger les gens à cliquer sur des publicités » pour comprendre combien c’est grave, et combien il faut Dégoogliser Internet. Nous relayons aussi des alternatives plus vertueuses, comme celle de la rédaction de NexINpact.

La pub en ligne est partout, c’est une catastrophe numérique et écologique… On comprend pourquoi certaines personnes s’échangent de formidables astuces pour résister à l’agression publicitaire. L’ironie, c’est que la plupart des alternatives et connaissances qui nous permettent de faire respecter nos intimités numériques sont peu connues… et qu’elles manquent de pub !

Notre sérieux va vous surprendre

C’est parti d’une idée de JosephK. Oui, JosephK, un salarié de Framasoft qui déjà, pour la blague, avait codé le Bingo du Troll (à utiliser sans modération dès qu’un troll vous emmouscaille). Celui qui, récemment, a bidouillé un joli lifting pour le Framablog (vous avez remarqué comme il est plus aéré, plus lisible ?). JosephK, un des plus farouches opposants à la pub parmi nous, qui vient nous proposer :

Et si on montrait les mécanismes de la pub en ligne tout en faisant de la réclame pour les alternatives éthiques ?

Il y a des informations que nos navigateurs web diffusent en permanence : de quel site on vient (c’est le rôle du « référent »), ainsi que les versions de notre système d’exploitation et notre navigateur web (ce que transmet le « user agent »). Rien qu’avec ces infos-là, donc sans pister quiconque, on peut générer des bannières qui expliquent aux personnes utilisant des outils fermés comment mieux se libérer… « Tu viens de Facebook ? Essaie Framasphère ! » ou « Tu utilises Chrome ? Firefox est plus rapide et plus éthique ! »

Framadsense, parce que ça nous fait rire

Si on crée ce micro-outil pour nous, autant le mettre à disposition de tou·te·s, non ? Ainsi est né Framadsense, disponible à l’adresse https://sense.framasoft.org. Si vous voulez l’utiliser pour votre site web, il vous suffit :

  • D’aller sur Framadsense
  • De paramétrer le type de bannière que vous voulez (cocher des cases, quoi !)
  • De copier/coller le code généré à l’endroit de votre site où vous voulez insérer de la (fausse-)pub !

Sense3, le logiciel développé par JosephK, est un logiciel libre (forcément !) qui respecte notre vie privée, et dont les bannières affichent uniquement des projets libres et non lucratifs… voire des œuvres d’art, juste pour le plaisir de remplacer la pollution visuelle par de la culture ! Vous pouvez d’ailleurs proposer de nouvelles bannières en collaborant au code sur son dépôt (nous, on a juste fait les exemples les plus courants… venez pas nous gronder si votre projet libre favori n’y est pas encore !).

Voilà : même quand il s’agit de déconner, on en profite pour hacker les codes de la pub. Plus qu’un poisson, Framadsense est un vrai logiciel qui permet au moins qu’on se pose la question :

comment attirer l’attention de nos proches sur le fait que nos attentions sont sur-sollicitées ?

Vous avez le reste du (long) week-end pour y répondre (ou pour manger du chocolat).

L’équipe de Framasoft.




Les nouveaux Léviathans IV. La surveillance qui vient

Dans ce quatrième numéro de la série Nouveaux Léviathans, nous allons voir dans quelle mesure le modèle économique a développé son besoin vital de la captation des données relatives à la vie privée. De fait, nous vivons dans le même scénario dystopique depuis une cinquantaine d’années. Nous verrons comment les critiques de l’économie de la surveillance sont redondantes depuis tout ce temps et que, au-delà des craintes, le temps est à l’action d’urgence.

Note : voici le quatrième volet de la série des Nouveaux (et anciens) Léviathans, initiée en 2016, par Christophe Masutti, alias Framatophe. Pour retrouver les articles précédents, une liste vous est présentée à la fin de celui-ci.

Aujourd’hui

Avons-nous vraiment besoin des utopies et des dystopies pour anticiper les rêves et les cauchemars des technologies appliquées aux comportements humains ? Sempiternellement rabâchés, le Meilleur de mondes et 1984 sont sans doute les romans les plus vendus parmi les best-sellers des dernières années. Il existe un effet pervers des utopies et des dystopies, lorsqu’on les emploie pour justifier des arguments sur ce que devrait être ou non la société : tout argument qui les emploie afin de prescrire ce qui devrait être se trouve à un moment ou à un autre face au mur du réel sans possibilité de justifier un mécanisme crédible qui causerait le basculement social vers la fiction libératrice ou la fiction contraignante. C’est la raison pour laquelle l’île de Thomas More se trouve partout et nulle part, elle est utopique, en aucun lieu. Utopie et dystopie sont des propositions d’expérience et n’ont en soi aucune vocation à prouver ou prédire quoi que ce soit bien qu’elles partent presque toujours de l’expérience commune et dont tout l’intérêt, en particulier en littérature, figure dans le troublant cheminement des faits, plus ou moins perceptible, du réel vers l’imaginaire.

Pourtant, lorsqu’on se penche sur le phénomène de l’exploitation des données personnelles à grande échelle par des firmes à la puissance financière inégalable, c’est la dystopie qui vient à l’esprit. Bien souvent, au gré des articles journalistiques pointant du doigt les dernières frasques des GAFAM dans le domaine de la protection des données personnelles, les discussions vont bon train : « ils savent tout de nous », « nous ne sommes plus libres », « c’est Georges Orwell », « on nous prépare le meilleur des mondes ». En somme, c’est l’angoisse  pendant quelques minutes, juste le temps de vérifier une nouvelle fois si l’application Google de notre smartphone a bien enregistré l’adresse du rendez-vous noté la veille dans l’agenda.

Un petit coup d’angoisse ? allez… que diriez-vous si vos activités sur les réseaux sociaux, les sites d’information et les sites commerciaux étaient surveillées et quantifiées de telle manière qu’un système de notation et de récompense pouvait vous permettre d’accéder à certains droits, à des prêts bancaires, à des autorisations officielles, au logement, à des libertés de circulation, etc. Pas besoin de science-fiction. Ainsi que le rapportait Wired en octobre 20171, la Chine a déjà tout prévu d’ici 2020, c’est-à-dire demain. Il s’agit, dans le contexte d’un Internet déjà ultra-surveillé et non-neutre, d’établir un système de crédit social en utilisant les big data sur des millions de citoyens et effectuer un traitement qui permettra de catégoriser les individus, quels que soient les risques : risques d’erreurs, risques de piratage, crédibilité des indicateurs, atteinte à la liberté d’expression, etc.

Évidemment les géants chinois du numérique comme Alibaba et sa filiale de crédit sont déjà sur le coup. Mais il y a deux choses troublantes dans cette histoire. La première c’est que le crédit social existe déjà et partout : depuis des années on évalue en ligne les restaurants et les hôtels sans se priver de critiquer les tenanciers et il existe toute une économie de la notation dans l’hôtellerie et la restauration, des applications terrifiantes comme Peeple2 existent depuis 2015, les banques tiennent depuis longtemps des listes de créanciers, les fournisseurs d’énergie tiennent à jour les historiques des mauvais payeurs, etc.  Ce que va faire la Chine, c’est le rêve des firmes, c’est la possibilité à une gigantesque échelle et dans un cadre maîtrisé (un Internet non-neutre) de centraliser des millions de gigabits de données personnelles et la possibilité de recouper ces informations auparavant éparses pour en tirer des profils sur lesquels baser des décisions.

Le second élément troublant, c’est que le gouvernement chinois n’aurait jamais eu cette idée si la technologie n’était pas déjà à l’œuvre et éprouvée par des grandes firmes. Le fait est que pour traiter autant d’informations par des algorithmes complexes, il faut : de grandes banques de données, beaucoup d’argent pour investir dans des serveurs et dans des compétences, et espérer un retour sur investissement de telle sorte que plus vos secteurs d’activités sont variés plus vous pouvez inférer des profils et plus votre marketing est efficace. Il est important aujourd’hui pour des monopoles mondialisés de savoir combien vous avez de chance d’acheter à trois jours d’intervalle une tondeuse à gazon et un canard en mousse. Le profilage de la clientèle (et des utilisateurs en général) est devenu l’élément central du marché à tel point que notre économie est devenue une économie de la surveillance, repoussant toujours plus loin les limites de l’analyse de nos vies privées.

La dystopie est en marche, et si nous pensons bien souvent au cauchemar orwellien lorsque nous apprenons l’existence de projets comme celui du gouvernement chinois, c’est parce que nous n’avons pas tous les éléments en main pour en comprendre le cheminement. Nous anticipons la dystopie mais trop souvent, nous n’avons pas les moyens de déconstruire ses mécanismes. Pourtant, il devient de plus en plus facile de montrer ces mécanismes sans faire appel à l’imaginaire : toutes les conditions sont remplies pour n’avoir besoin de tracer que quelques scénarios alternatifs et peu différents les uns des autres. Le traitement et l’analyse de nos vies privées provient d’un besoin, celui de maximiser les profits dans une économie qui favorise l’émergence des monopoles et la centralisation de l’information. Cela se retrouve à tous les niveaux de l’économie, à commencer par l’activité principale des géants du Net : le démarchage publicitaire. Comprendre ces modèles économiques revient aussi à comprendre les enjeux de l’économie de la surveillance.

Données personnelles : le commerce en a besoin

Dans le petit monde des études en commerce et marketing, Frederick Reichheld fait figure de référence. Son nom et ses publications dont au moins deux best sellers, ne sont pas vraiment connus du grand public, en revanche la plupart des stratégies marketing des vingt dernières années sont fondées, inspirées et même modélisées à partir de son approche théorique de la relation entre la firme et le client. Sa principale clé de lecture est une notion, celle de la fidélité du client. D’un point de vue opérationnel cette notion est déclinée en un concept, celui de la valeur vie client (customer lifetime value) qui se mesure à l’aune de profits réalisés durant le temps de cette relation entre le client et la firme. Pour Reichheld, la principale activité du marketing consiste à optimiser cette valeur vie client. Cette optimisation s’oppose à une conception rétrograde (et qui n’a jamais vraiment existé, en fait3) de la « simple » relation marchande.

En effet, pour bien mener les affaires, la relation avec le client ne doit pas seulement être une série de transactions marchandes, avec plus ou moins de satisfaction à la clé. Cette manière de concevoir les modèles économiques, qui repose uniquement sur l’idée qu’un client satisfait est un client fidèle, a son propre biais : on se contente de donner de la satisfaction. Dès lors, on se place d’un point de vue concurrentiel sur une conception du capitalisme marchand déjà ancienne. Le modèle de la concurrence « non faussée » est une conception nostalgique (fantasmée) d’une relation entre firme et client qui repose sur la rationalité de ce dernier et la capacité des firmes à produire des biens en réponse à des besoins plus ou moins satisfaits. Dès lors la décision du client, son libre arbitre, serait la variable juste d’une économie auto-régulée (la main invisible) et la croissance économique reposerait sur une dynamique de concurrence et d’innovation, en somme, la promesse du « progrès ».

Évidemment, cela ne fonctionne pas ainsi. Il est bien plus rentable pour une entreprise de fidéliser ses clients que d’en chercher de nouveaux. Prospecter coûte cher alors qu’il est possible de jouer sur des variables à partir de l’existant, tout particulièrement lorsqu’on exerce un monopole (et on comprend ainsi pourquoi les monopoles s’accommodent très bien entre eux en se partageant des secteurs) :

  1. on peut résumer la conception de Reichheld à partir de son premier best seller, The Loyalty Effect (1996) : avoir des clients fidèles, des employés fidèles et des propriétaires loyaux. Il n’y a pas de main invisible : tout repose sur a) le rapport entre hausse de la rétention des clients / hausse des dépenses, b) l’insensibilité aux prix rendue possible par la fidélisation (un client fidèle, ayant dépassé le stade du risque de défection, est capable de dépenser davantage pour des raisons qui n’ont rien à voir avec la valeur marchande), c) la diminution des coûts de maintenance (fidélisation des employés et adhésion au story telling), d) la hausse des rendements et des bénéfices. En la matière la firme Apple rassemble tous ces éléments à la limite de la caricature.
  2. Reichheld est aussi le créateur d’un instrument d’évaluation de la fidélisation : le NPS (Net Promoter Score). Il consiste essentiellement à catégoriser les clients, entre promoteurs, détracteurs ou passifs. Son autre best-seller The Ultimate Question 2.0: How Net Promoter Companies Thrive in a Customer-Driven World déploie les applications possibles du contrôle de la qualité des relations client qui devient dès lors la principale stratégie de la firme d’où découlent toutes les autres stratégies (en particulier les choix d’innovation). Ainsi il cite dans son ouvrage les plus gros scores NPS détenus par des firmes comme Apple, Amazon et Costco.

Il ne faut pas sous-estimer la valeur opérationnelle du NPS. Notamment parce qu’il permet de justifier les choix stratégiques. Dans The Ultimate Question 2.0 Reichheld fait référence à une étude de Bain & Co. qui montre que pour une banque, la valeur vie client d’un promoteur (au sens NPS) est estimée en moyenne à 9 500 dollars. Ce modèle aujourd’hui est une illustration de l’importance de la surveillance et du rôle prépondérant de l’analyse de données. En effet, plus la catégorisation des clients est fine, plus il est possible de déterminer les leviers de fidélisation. Cela passe évidemment par un système de surveillance à de multiples niveaux, à la fois internes et externes :

  • surveiller des opérations de l’organisation pour les rendre plus agiles et surveiller des employés pour augmenter la qualité des relations client,
  • rassembler le plus de données possibles sur les comportements des clients et les possibilités de déterminer leurs choix à l’avance.

Savoir si cette approche du marketing est née d’un nouveau contexte économique ou si au contraire ce sont les approches de la valeur vie client qui ont configuré l’économie d’aujourd’hui, c’est se heurter à l’éternel problème de l’œuf et de la poule. Toujours est-il que les stratégies de croissance et de rentabilité de l’économie reposent sur l’acquisition et l’exploitation des données personnelles de manière à manipuler les processus de décision des individus (ou plutôt des groupes d’individus) de manière à orienter les comportements et fixer des prix non en rapport avec la valeur des biens mais en rapport avec ce que les consommateurs (ou même les acheteurs en général car tout ne se réduit pas à la question des seuls biens de consommation et des services) sont à même de pouvoir supporter selon la catégorie à laquelle ils appartiennent.

Le fait de catégoriser ainsi les comportements et les influencer, comme nous l’avons vu dans les épisodes précédents de la série Léviathans, est une marque stratégique de ce que Shoshana Zuboff a appelé le capitalisme de surveillance4. Les entreprises ont aujourd’hui un besoin vital de rassembler les données personnelles dans des silos de données toujours plus immenses et d’exploiter ces big data de manière à optimiser leurs modèles économiques. Ainsi, du point de vue des individus, c’est le quotidien qui est scruté et analysé de telle manière que, il y a à peine une dizaine d’années, nous étions à mille lieues de penser l’extrême granularité des données qui cartographient et catégorisent nos comportements. Tel est l’objet du récent rapport publié par Cracked Lab Corporate surveillance in everyday life5 qui montre à quel point tous les aspect du quotidien font l’objet d’une surveillance à une échelle quasi-industrielle (on peut citer les activités de l’entreprise Acxiom), faisant des données personnelles un marché dont la matière première est traitée sans aucun consentement des individus. En effet, tout le savoir-faire repose essentiellement sur le recoupement statistique et la possibilité de catégoriser des milliards d’utilisateurs de manière à produire des représentations sociales dont les caractéristiques ne reflètent pas la réalité mais les comportements futurs. Ainsi par exemple les secteurs bancaires et des assurances sont particulièrement friands des possibilités offertes par le pistage numérique et l’analyse de solvabilité.

Cette surveillance a été caractérisée déjà en 1988 par le chercheur en systèmes d’information Roger Clarke6 :

  • dans la mesure où il s’agit d’automatiser, par des algorithmes, le traitement des informations personnelles dans un réseau regroupant plusieurs sources, et d’en inférer du sens, on peut la qualifier de « dataveillance », c’est à dire « l’utilisation systématique de systèmes de traitement de données à caractère personnel dans l’enquête ou le suivi des actions ou des communications d’une ou de plusieurs personnes » ;
  • l’un des attributs fondamentaux de cette dataveillance est que les intentions et les mécanismes sont cachés aux sujets qui font l’objet de la surveillance.

En effet, l’accès des sujets à leurs données personnelles et leurs traitements doit rester quasiment impossible car après un temps très court de captation et de rétention, l’effet de recoupement fait croître de manière exponentielle la somme d’information sur les sujets et les résultats, qu’ils soient erronés ou non, sont imbriqués dans le profilage et la catégorisation de groupes d’individus. Plus le monopole a des secteurs d’activité différents, plus les comportements des mêmes sujets vont pouvoir être quantifiés et analysés à des fins prédictives. C’est pourquoi la dépendance des firmes à ces informations est capitale ; pour citer Clarke en 20177 :

« L’économie de la surveillance numérique est cette combinaison d’institutions, de relations institutionnelles et de processus qui permet aux entreprises d’exploiter les données issues de la surveillance du comportement électronique des personnes et dont les sociétés de marketing deviennent rapidement dépendantes. »

Le principal biais que produit cette économie de la surveillance (pour S. Zuboff, c’est de capitalisme de surveillance qu’il s’agit puisqu’elle intègre une relation d’interdépendance entre centralisation des données et centralisation des capitaux) est qu’elle n’a plus rien d’une démarche descriptive mais devient prédictive par effet de prescription.

Elle n’est plus descriptive (mais l’a-t-elle jamais été ?) parce qu’elle ne cherche pas à comprendre les comportements économiques en fonction d’un contexte, mais elle cherche à anticiper les comportements en maximisant les indices comportementaux. On ne part plus d’un environnement économique pour comprendre comment le consommateur évolue dedans, on part de l’individu pour l’assigner à un environnement économique sur mesure dans l’intérêt de la firme. Ainsi, comme l’a montré une étude de Propublica en 20168, Facebook dispose d’un panel de pas moins de 52 000 indicateurs de profilage individuels pour en établir une classification générale. Cette quantification ne permet plus seulement, comme dans une approche statistique classique, de déterminer par exemple si telle catégorie d’individus est susceptible d’acheter une voiture. Elle permet de déterminer, de la manière la plus intime possible, quelle valeur économique une firme peut accorder à un panel d’individus au détriment des autres, leur valeur vie client.

Tout l’enjeu consiste à savoir comment influencer ces facteurs et c’est en cela que l’exploitation des données passe d’une dimension prédictive à une dimension prescriptive. Pour prendre encore l’exemple de Facebook, cette firme a breveté un système capable de déterminer la solvabilité bancaire des individus en fonction de la solvabilité moyenne de leur réseau de contacts9. L’important ici, n’est pas vraiment d’aider les banques à diminuer les risques d’insolvabilité de leurs clients, car elles savent très bien le faire toutes seules et avec les mêmes procédés d’analyse en big data. En fait, il s’agit d’influencer les stratégies personnelles des individus par le seul effet panoptique10 : si les individus savent qu’ils sont surveillés, toute la stratégie individuelle consistera à choisir ses amis Facebook en fonction de leur capacité à maximiser les chances d’accéder à un prêt bancaire (et cela peut fonctionner pour bien d’autres objectifs). L’intérêt de Facebook n’est pas d’aider les banques, ni de vendre une expertise en statistique (ce n’est pas le métier de Facebook) mais de normaliser les comportements dans l’intérêt économique et augmenter la valeur vie client potentielle de ses utilisateurs : si vous avez des problèmes d’argent, Facebook n’est pas fait pour vous. Dès lors il suffit ensuite de revendre des profils sur-mesure à des banques. On se retrouve typiquement dans un épisode d’anticipation de la série Black Mirror (Chute libre)11.

 

La fiction, l’anticipation, la dystopie… finalement, c’est-ce pas un biais que de toujours analyser sous cet angle l’économie de la surveillance et le rôle des algorithmes dans notre quotidien ? Tout se passe en quelque sorte comme si nous découvrions un nouveau modèle économique, celui dont nous venons de montrer que les préceptes sont déjà anciens, et comme si nous appréhendions seulement aujourd’hui les enjeux de la captation et l’exploitation des données personnelles. Au risque de décevoir tous ceux qui pensent que questionner la confiance envers les GAFAM est une activité d’avant-garde, la démarche a été initiée dès les prémices de la révolution informatique.

La vie privée à l’époque des pattes d’eph.

Face au constat selon lequel nous vivons dans un environnement où la surveillance fait loi, de nombreux ouvrages, articles de presse et autres témoignages ont sonné l’alarme. En décembre 2017, ce fut le soi-disant repentir de Chamath Palihapitya, ancien vice-président de Facebook, qui affirmait avoir contribué à créer « des outils qui déchirent le tissu social »12. Il ressort de cette lecture qu’après plusieurs décennies de centralisation et d’exploitation des données personnelles par des acteurs économiques ou institutionnels, nous n’avons pas fini d’être surpris par les transformations sociales qu’impliquent les big data. Là où, effectivement, nous pouvons accorder un tant soit peu de de crédit à C. Palihapitya, c’est dans le fait que l’extraction et l’exploitation des données personnelles implique une économie de la surveillance qui modèle la société sur son modèle économique. Et dans ce modèle, l’exercice de certains droits (comme le droit à la vie privée) passe d’un état absolu (un droit de l’homme) à un état relatif (au contexte économique).

Comme cela devient une habitude dans cette série des Léviathans, nous pouvons effectuer un rapide retour dans le temps et dans l’espace. Situons-nous à la veille des années 1970, aux États-Unis, plus exactement dans la période charnière qui vit la production en masse des ordinateurs mainframe (du type IBM 360), à destination non plus des grands laboratoires de recherche et de l’aéronautique, mais vers les entreprises des secteurs de la banque, des assurances et aussi vers les institutions gouvernementales. L’objectif premier de tels investissements (encore bien coûteux à cette époque) était le traitement des données personnelles des citoyens ou des clients.

Comme bien des fois en histoire, il existe des périodes assez courtes où l’on peut comprendre les événements non pas parce qu’ils se produisent suivant un enchaînement logique et linéaire, mais parce qu’ils surviennent de manière quasi-simultanée comme des fruits de l’esprit du temps. Ainsi nous avons d’un côté l’émergence d’une industrie de la donnée personnelle, et, de l’autre l’apparition de nombreuses publications portant sur les enjeux de la vie privée. D’aucuns pourraient penser que, après la publication en 1949 du grand roman de G. Orwell, 1984, la dystopie orwellienne pouvait devenir la clé de lecture privilégiée de l’informationnalisation (pour reprendre le terme de S. Zuboff) de la société américaine dans les années 1960-1970. Ce fut effectivement le cas… plus exactement, si les références à Orwell sont assez courantes dans la littérature de l’époque13, il y avait deux lectures possibles de la vie privée dans une société aussi bouleversée que celle de l’Amérique des années 1960. La première questionnait la hiérarchie entre vie privée et vie publique. La seconde focalisait sur le traitement des données informatiques. Pour mieux comprendre l’état d’esprit de cette période, il faut parcourir quelques références.

Vie privée vs vie publique

Deux best-sellers parus en été 1964 effectuent un travail introspectif sur la société américaine et son rapport à la vie privée. Le premier, écrit par Myron Brenton, s’intitule The privacy invaders14. Brenton est un ancien détective privé qui dresse un inventaire des techniques de surveillance à l’encontre des citoyens et du droit. Le second livre, écrit par Vance Packard, connut un succès international. Il s’intitule The naked Society15, traduit en français un an plus tard sous le titre Une société sans défense. V. Packard est alors universitaire, chercheur en sociologie et économie. Il est connu pour avoir surtout travaillé sur la société de consommation et le marketing et dénoncé, dans un autre ouvrage (La persuasion clandestine16), les abus des publicitaires en matière de manipulation mentale. Dans The naked Society comme dans The privacy invaders les mêmes thèmes sont déployés à propos des dispositifs de surveillance, entre les techniques d’enquêtes des banques sur leurs clients débiteurs, les écoutes téléphoniques, la surveillance audio et vidéo des employés sur les chaînes de montage, en somme toutes les stratégies privées ou publiques d’espionnage des individus et d’abus en tout genre qui sont autant d’atteintes à la vie privée. Il faut dire que la société américaine des années 1960 a vu aussi bien arriver sur le marché des biens de consommation le téléphone et la voiture à crédit mais aussi l’électronique et la miniaturisation croissante des dispositifs utiles dans ce genre d’activité. Or, les questions que soulignent Brenton et Packard, à travers de nombreux exemples, ne sont pas tant celles, plus ou moins spectaculaires, de la mise en œuvre, mais celles liées au droit des individus face à des puissances en recherche de données sur la vie privée extorquées aux sujets mêmes. En somme, ce que découvrent les lecteurs de ces ouvrages, c’est que la vie privée est une notion malléable, dans la réalité comme en droit, et qu’une bonne part de cette malléabilité est relative aux technologies et au médias. Packard ira légèrement plus loin sur l’aspect tragique de la société américaine en focalisant plus explicitement sur le respect de la vie privée dans le contexte des médias et de la presse à sensation et dans les contradictions apparente entre le droit à l’information, le droit à la vie privée et le Sixième Amendement. De là, il tire une sonnette d’alarme en se référant à Georges Orwell, et dénonçant l’effet panoptique obtenu par l’accessibilité des instruments de surveillance, la généralisation de leur emploi dans le quotidien, y compris pour les besoins du marketing, et leur impact culturel.

En réalité, si ces ouvrages connurent un grand succès, c’est parce que leur approche de la vie privée reposait sur un questionnement des pratiques à partir de la morale et du droit, c’est-à-dire sur ce que, dans une société, on est prêt à admettre ou non au sujet de l’intimité vue comme une part structurelle des relations sociales. Qu’est-ce qui relève de ma vie privée et qu’est-ce qui relève de la vie publique ? Que puis-je exposer sans crainte selon mes convictions, ma position sociale, la classe à laquelle j’appartiens, etc. Quelle est la légitimité de la surveillance des employés dans une usine, d’un couple dans une chambre d’hôtel, d’une star du show-biz dans sa villa ?

Il reste que cette approche manqua la grande révolution informatique naissante et son rapport à la vie privée non plus conçue comme l’image et l’estime de soi, mais comme un ensemble d’informations quantifiables à grande échelle et dont l’analyse peut devenir le mobile de décisions qui impactent la société en entier17. La révolution informatique relègue finalement la légitimité de la surveillance au second plan car la surveillance est alors conçue de manière non plus intentionnelle mais comme une série de faits : les données fournies par les sujets, auparavant dans un contexte fermé comme celui de la banque locale, finirent par se retrouver centralisées et croisées au gré des consortiums utilisant l’informatique pour traiter les données des clients. Le même schéma se retrouva pour ce qui concerne les institutions publiques dans le contexte fédéral américain.

Vie privée vs ordinateurs

Une autre approche commença alors à faire son apparition dans la sphère universitaire. Elle intervient dans la seconde moitié des années 1960. Il s’agissait de se pencher sur la gouvernance des rapports entre la vie privée et l’administration des données personnelles. Suivant au plus près les nouvelles pratiques des grands acteurs économiques et gouvernementaux, les universitaires étudièrent les enjeux de la numérisation des données personnelles avec en arrière-plan les préoccupations juridiques, comme celle de V. Packard, qui faisaient l’objet des réflexions de la décennie qui se terminait. Si, avec la société de consommation venait tout un lot de dangers sur la vie privée, cette dernière devrait être protégée, mais il fallait encore savoir sur quels plans agir. Le début des années 1970, en guise de résultat de ce brainstorming général, marquèrent alors une nouvelle ère de la privacy à l’Américaine à l’âge de l’informatisation et du réseautage des données personnelles. Il s’agissait de comprendre qu’un changement majeur était en train de s’effectuer avec les grands ordinateurs en réseau et qu’il fallait formaliser dans le droit les garde-fou les plus pertinents : on passait d’un monde où la vie privée pouvait faire l’objet d’une intrusion par des acteurs séparés, recueillant des informations pour leur propre compte en fonction d’objectifs différents, à un monde où les données éparses étaient désormais centralisées, avec des machines capables de traiter les informations de manière rapide et automatisée, capables d’inférer des informations sans le consentement des sujets à partir d’informations que ces derniers avaient données volontairement dans des contextes très différents.

La liste des publications de ce domaine serait bien longue. Par exemple, la Rand Corporation publia une longue liste bibliographique annotée au sujet des données personnelles informatisées. Cette liste regroupe près de 300 publications entre 1965 et 1967 sur le sujet18.

Des auteurs universitaires firent école. On peut citer :

  • Alan F. Westin : Privacy and freedom (1967), Civil Liberties and Computerized Data Systems (1971), Databanks in a Free Society: Computers, Record Keeping and Privacy (1972)19 ;
  • James B. Rule : Private lives and public surveillance: social control in the computer age (1974)20 ;
  • Arthur R. Miller : The assault on privacy. Computers, Data Banks and Dossier (1971)21 ;
  • Malcolm Warner et Mike Stone, The Data Bank Society : Organizations, Computers and Social Freedom (1970)22.

Toutes ces publications ont ceci en commun qu’elles procédèrent en deux étapes. La première consistait à dresser un tableau synthétique de la société américaine face à la captation des informations personnelles. Quatre termes peuvent résumer les enjeux du traitement des informations : 1) la légitimité de la captation des informations, 2) la permanence des données et leurs modes de rétention, 3) la transférabilité (entre différentes organisations), 4) la combinaison ou le recoupement de ces données et les informations ainsi inférées23.

La seconde étape consistait à choisir ce qui, dans cette « société du dossier (dossier society) » comme l’appelait Arthur R. Miller, devait faire l’objet de réformes. Deux fronts venaient en effet de s’ouvrir : l’État et les firmes.

Le premier, évident, était celui que la dystopie orwellienne pointait avec empressement : l’État de surveillance. Pour beaucoup de ces analystes, en effet, le fédéralisme américain et la multiplicité des agences gouvernementales pompaient allègrement la privacy des honnêtes citoyens et s’équipaient d’ordinateurs à temps partagé justement pour rendre interopérables les systèmes de traitement d’information à (trop) grande échelle. Un rapide coup d’œil sur les références citées, montre que, effectivement, la plupart des conclusions focalisaient sur le besoin d’adapter le droit aux impératifs constitutionnels américains. Tels sont par exemple les arguments de A. F. Westin pour lequel l’informatisation des données privées dans les différentes autorités administratives devait faire l’objet non d’un recul, mais de nouvelles règles portant sur la sécurité, l’accès des citoyens à leurs propres données et la pertinence des recoupements (comme par exemple l’utilisation restreinte du numéro de sécurité sociale). En guise de synthèse, le rapport de l’U.S. Department of health, Education and Welfare livré en 197324 (et où l’on retrouve Arthur R. Miller parmi les auteurs) repris ces éléments au titre de ses recommandations. Il prépara ainsi le Privacy Act de 1974, qui vise notamment à prévenir l’utilisation abusive de documents fédéraux et garantir l’accès des individus aux données enregistrées les concernant.

Le second front, tout aussi évident mais moins accessible car protégé par le droit de propriété, était celui de la récolte de données par les firmes, et en particulier les banques. L’un des auteurs les plus connus, Arthur R. Miller dans The assault on privacy, fit la synthèse des deux fronts en focalisant sur le fait que l’informatisation des données personnelles, par les agences gouvernementales comme par les firmes, est une forme de surveillance et donc un exercice du pouvoir. Se poser la question de leur légitimité renvoie effectivement à des secteurs différents du droit, mais c’est pour lui le traitement informatique (il utilise le terme « cybernétique ») qui est un instrument de surveillance par essence. Et cet instrument est orwellien :

« Il y a à peine dix ans, on aurait pu considérer avec suffisance Le meilleur des mondes de Huxley ou 1984 de Orwell comme des ouvrages de science-fiction excessifs qui ne nous concerneraient pas et encore moins ce pays. Mais les révélations publiques répandues au cours des dernières années au sujet des nouvelles formes de pratiques d’information ont fait s’envoler ce manteau réconfortant mais illusoire. »

Pourtant, un an avant la publication de Miller fut voté le Fair Credit Reporting Act, portant sur les obligations déclaratives des banques. Elle fut aussi l’une des premières lois sur la protection des données personnelles, permettant de protéger les individus, en particulier dans le secteur bancaire, contre la tenue de bases de données secrètes, la possibilité pour les individus d’accéder aux données et de les contester, et la limitation dans le temps de la rétention des informations.

Cependant, pour Miller, le Fair Credit Reporting Act est bien la preuve que la bureaucratie informatisée et le réseautage des données personnelles impliquent deux pertes de contrôle de la part de l’individu et pour lesquelles la régulation par le droit n’est qu’un pis-aller (pp. 25-38). On peut de même, en s’autorisant quelque anachronisme, s’apercevoir à quel point les deux types de perte de contrôles qu’il pointe nous sont éminemment contemporains.

  • The individual loss of control over personal information  : dans un contexte où les données sont mises en réseau et recoupées, dès lors qu’une information est traitée par informatique, le sujet et l’opérateur n’ont plus le contrôle sur les usages qui pourront en être faits. Sont en jeu la sécurité et l’intégrité des données (que faire en cas d’espionnage ? que faire en cas de fuite non maîtrisée des données vers d’autres opérateurs : doit-on exiger que les opérateurs en informent les individus ?).
  • The individual loss of control over the accuracy of his informational profil : la centralisation des données permet de regrouper de multiples aspects de la vie administrative et sociale de la personne, et de recouper toutes ces données pour en inférer des profils. Dans la mesure où nous assistons à une concentration des firmes par rachats successifs et l’émergence de monopoles (Miller prend toujours l’exemple des banques), qu’arrive-t-il si certaines données sont erronées ou si certains recoupements mettent en danger le droit à la vie privée : par exemple le rapport entre les données de santé, l’identité des individus et les crédits bancaires.

Et Miller de conclure (p. 79) :

« Ainsi, l’informatisation, le réseautage et la réduction de la concurrence ne manqueront pas de pousser l’industrie de l’information sur le crédit encore plus profondément dans le marasme du problème de la protection de la vie privée. »

Les échos du passé

La lutte pour la préservation de la vie privée dans une société numérisée passe par une identification des stratégies intentionnelles de la surveillance et par l’analyse des procédés d’extraction, rétention et traitement des données. La loi est-elle une réponse ? Oui, mais elle est loin de suffire. La littérature nord-américaine dont nous venons de discuter montre que l’économie de la surveillance dans le contexte du traitement informatisé des données personnelles est née il y a plus de 50 ans. Et dès le début il fut démontré, dans un pays où les droits individuels sont culturellement associés à l’organisation de l’État fédéral (la Déclaration des Droits), non seulement que la privacy changeait de nature (elle s’étend au traitement informatique des informations fournies et aux données inférées) mais aussi qu’un équilibre s’établissait entre le degré de sanctuarisation de la vie privée et les impératifs régaliens et économiques qui réclament une industrialisation de la surveillance.

Puisque l’intimité numérique n’est pas absolue mais le résultat d’un juste équilibre entre le droit et les pratiques, tout les jeux post-révolution informatique après les années 1960 consistèrent en une lutte perpétuelle entre défense et atteinte à la vie privée. C’est ce que montre Daniel J. Solove dans « A Brief History of Information Privacy Law »25 en dressant un inventaire chronologique des différentes réponses de la loi américaine face aux changements technologiques et leurs répercussions sur la vie privée.

Il reste néanmoins que la dimension industrielle de l’économie de la surveillance a atteint en 2001 un point de basculement à l’échelle mondiale avec le Patriot Act26 dans le contexte de la lutte contre le terrorisme. À partir de là, les principaux acteurs de cette économie ont vu une demande croissante de la part des États pour récolter des données au-delà des limites strictes de la loi sous couvert des dispositions propres à la sûreté nationale et au secret défense. Pour rester sur l’exemple américain, Thomas Rabino écrit à ce sujet27 :

« Alors que le Privacy Act de 1974 interdit aux agences fédérales de constituer des banques de données sur les citoyens américains, ces mêmes agences fédérales en font désormais l’acquisition auprès de sociétés qui, à l’instar de ChoicePoint, se sont spécialisées dans le stockage d’informations diverses. Depuis 2001, le FBI et d’autres agences fédérales ont conclu, dans la plus totale discrétion, de fructueux contrats avec ChoicePoint pour l’achat des renseignements amassés par cette entreprise d’un nouveau genre. En 2005, le budget des États-Unis consacrait plus de 30 millions de dollars à ce type d’activité. »

Dans un contexte plus récent, on peut affirmer que même si le risque terroriste est toujours agité comme un épouvantail pour justifier des atteintes toujours plus fortes à l’encontre de la vie privée, les intérêts économiques et la pression des lobbies ne peuvent plus se cacher derrière la Raison d’État. Si bien que plusieurs pays se mettent maintenant au diapason de l’avancement technologique et des impératifs de croissance économique justifiant par eux-mêmes des pratiques iniques. Ce fut le cas par exemple du gouvernement de Donald Trump qui, en mars 2017 et à la plus grande joie du lobby des fournisseurs d’accès, abroge une loi héritée du gouvernement précédent et qui exigeait que les FAI obtiennent sous conditions la permission de partager des renseignements personnels – y compris les données de localisation28.

Encore en mars 2017, c’est la secrétaire d’État à l’Intérieur Britannique Amber Rudd qui juge publiquement « inacceptable » le chiffrement des communications de bout en bout et demande aux fournisseurs de messagerie de créer discrètement des backdoors, c’est à dire renoncer au chiffrement de bout en bout sans le dire aux utilisateurs29. Indépendamment du caractère moralement discutable de cette injonction, on peut mesurer l’impact du message sur les entreprises comme Google, Facebook et consors : il existe des décideurs politiques capables de demander à ce qu’un fournisseur de services propose à ses utilisateurs un faux chiffrement, c’est-à-dire que le droit à la vie privée soit non seulement bafoué mais, de surcroît, que le mensonge exercé par les acteurs privés soit couvert par les acteurs publics, et donc par la loi.

Comme le montre Shoshana Zuboff, le capitalisme de surveillance est aussi une idéologie, celle qui instaure une hiérarchie entre les intérêts économiques et le droit. Le droit peut donc être une arme de lutte pour la sauvegarde de la vie privée dans l’économie de la surveillance, mais il ne saurait suffire dans la mesure où il n’y pas de loyauté entre les acteurs économiques et les sujets et parfois même encore moins entre les décideurs publics et les citoyens.

Dans ce contexte où la confiance n’est pas de mise, les portes sont restées ouvertes depuis les années 1970 pour créer l’industrie des big data dont le carburant principal est notre intimité, notre quotidienneté. C’est parce qu’il est désormais possible de repousser toujours un peu plus loin les limites de la captation des données personnelles que des théories économique prônent la fidélisation des clients et la prédiction de leurs comportements comme seuls points d’appui des investissements et de l’innovation. C’est vrai dans le marketing, c’est vrai dans les services et l’innovation numériques. Et tout naturellement c’est vrai dans la vie politique, comme le montre par exemple l’affaire des dark posts durant la campagne présidentielle de D. Trump : la possibilité de contrôler l’audience et d’influencer une campagne présidentielle via les réseaux sociaux comme Facebook est désormais démontrée.

Tant que ce modèle économique existera, aucune confiance ne sera possible. La confiance est même absente des pratiques elles-mêmes, en particulier dans le domaine du traitement algorithmique des informations. En septembre 2017, la chercheuse Zeynep Tufekci, lors d’une conférence TED30, reprenait exactement les questions d’Arthur R. Miller dans The assault on privacy, soit 46 ans après. Miller prenait comme étude de cas le stockage d’information bancaire sur les clients débiteurs, et Tufekci prend les cas des réservation de vols aériens en ligne et du streaming vidéo. Dans les deux réflexions, le constat est le même : le traitement informatique de nos données personnelles implique que nous (les sujets et les opérateurs eux-mêmes) perdions le contrôle sur ces données :

« Le problème, c’est que nous ne comprenons plus vraiment comment fonctionnent ces algorithmes complexes. Nous ne comprenons pas comment ils font cette catégorisation. Ce sont d’énormes matrices, des milliers de lignes et colonnes, peut-être même des millions, et ni les programmeurs, ni quiconque les regardant, même avec toutes les données, ne comprend plus comment ça opère exactement, pas plus que vous ne sauriez ce que je pense en ce moment si l’on vous montrait une coupe transversale de mon cerveau. C’est comme si nous ne programmions plus, nous élevons une intelligence que nous ne comprenons pas vraiment. »

Z. Tufekci montre même que les algorithmes de traitement sont en mesure de fournir des conclusions (qui permettent par exemple d’inciter les utilisateurs à visualiser des vidéos sélectionnées d’après leur profil et leur historique) mais que ces conclusions ont ceci de particulier qu’elle modélisent le comportement humain de manière à l’influencer dans l’intérêt du fournisseur. D’après Z. Tufekci : «  L’algorithme a déterminé que si vous pouvez pousser les gens à penser que vous pouvez leur montrer quelque chose de plus extrême (nda : des vidéos racistes dans l’exemple cité), ils ont plus de chances de rester sur le site à regarder vidéo sur vidéo, descendant dans le terrier du lapin pendant que Google leur sert des pubs. »

Ajoutons de même que les technologies de deep learning, financées par millions par les GAFAM, se prêtent particulièrement bien au jeu du traitement automatisé en cela qu’elle permettent, grâce à l’extrême croissance du nombre de données, de procéder par apprentissage. Cela permet à Facebook de structurer la grande majorité des données des utilisateurs qui, auparavant, n’était pas complètement exploitable31. Par exemple, sur les milliers de photos de chatons partagées par les utilisateurs, on peut soit se contenter de constater une redondance et ne pas les analyser davantage, soit apprendre à y reconnaître d’autres informations, comme par exemple l’apparition, en arrière-plan, d’un texte, d’une marque de produit, etc. Il en est de même pour la reconnaissance faciale, qui a surtout pour objectif de faire concorder les identités des personnes avec toutes les informations que l’on peut inférer à partir de l’image et du texte.

Si les techniques statistiques ont le plus souvent comme objectif de contrôler les comportements à l’échelle du groupe, c’est parce que le seul fait de catégoriser automatiquement les individus consiste à considérer que leurs données personnelles en constituent l’essence. L’économie de la surveillance démontre ainsi qu’il n’y a nul besoin de connaître une personne pour en prédire le comportement, et qu’il n’y a pas besoin de connaître chaque individu d’un groupe en particulier pour le catégoriser et prédire le comportement du groupe, il suffit de laisser faire les algorithmes : le tout est d’être en mesure de classer les sujets dans les bonnes catégories et même faire en sorte qu’ils y entrent tout à fait. Cela a pour effet de coincer littéralement les utilisateurs des services « capteurs de données » dans des bulles de filtres où les informations auxquelles ils ont accès leur sont personnalisées selon des profils calculés32. Si vous partagez une photo de votre chat devant votre cafetière, et que dernièrement vous avez visité des sites marchands, vous aurez de grandes chance pour vos futures annonces vous proposent la marque que vous possédez déjà et exercent, par effet de répétition, une pression si forte que c’est cette marque que vous finirez par acheter. Ce qui fonctionne pour le marketing peut très bien fonctionner pour d’autres objectifs, même politiques.

En somme tous les déterminants d’une société soumise au capitalisme de surveillance, apparus dès les années 1970, structurent le monde numérique d’aujourd’hui sans que les lois ne puissent jouer de rôle pleinement régulateur. L’usage caché et déloyal des big data, le trafic de données entre organisations, la dégradation des droits individuels (à commencer par la liberté d’expression et le droit à la vie privée), tous ces éléments ont permis à des monopoles d’imposer un modèle d’affaire et affaiblir l’État-nation. Combien de temps continuerons-nous à l’accepter ?

Sortir du marasme

En 2016, à la fin de son article synthétique sur le capitalisme de surveillance4, Shoshana Zuboff exprime personnellement un point de vue selon lequel la réponse ne peut pas être uniquement technologique :

« (…) les faits bruts du capitalisme de surveillance suscitent nécessairement mon indignation parce qu’ils rabaissent la dignité humaine. L’avenir de cette question dépendra des savants et journalistes indignés attirés par ce projet de frontière, des élus et des décideurs indignés qui comprennent que leur autorité provient des valeurs fondamentales des communautés démocratiques, et des citoyens indignés qui agissent en sachant que l’efficacité sans l’autonomie n’est pas efficace, la conformité induite par la dépendance n’est pas un contrat social et être libéré de l’incertitude n’est pas la liberté. »

L’incertitude au sujet des dérives du capitalisme de surveillance n’existe pas. Personne ne peut affirmer aujourd’hui qu’avec l’avènement des big data dans les stratégies économiques, on pouvait ignorer que leur usage déloyal était non seulement possible mais aussi que c’est bien cette direction qui fut choisie d’emblée dans l’intérêt des monopoles et en vertu de la centralisation des informations et des capitaux. Depuis les années 1970, plusieurs concepts ont cherché à exprimer la même chose. Pour n’en citer que quelques-uns : computocracie (M. Warner et M. Stone, 1970), société du dossier (Arthur R. Miller, 1971), surveillance de masse (J. Rule, 1973), dataveillance (R. Clarke, 1988), capitalisme de surveillance (Zuboff, 2015)… tous cherchent à démontrer que la surveillance des comportements par l’usage des données personnelles implique en retour la recherche collective de points de rupture avec le modèle économique et de gouvernance qui s’impose de manière déloyale. Cette recherche peut s’exprimer par le besoin d’une régulation démocratiquement décidée et avec des outils juridiques. Elle peut s’exprimer aussi autrement, de manière violente ou pacifiste, militante et/ou contre-culturelle.

Plusieurs individus, groupes et organisation se sont déjà manifestés dans l’histoire à ce propos. Les formes d’expression et d’action ont été diverses :

  • institutionnelles : les premières formes d’action pour garantir le droit à la vie privée ont consisté à établir des rapports collectifs préparatoires à des grandes lois, comme le rapport Records, computers and the rights of citizens, de 1973, cité plus haut ;
  • individualistes, antisociales et violentes : bien que s’inscrivant dans un contexte plus large de refus technologique, l’affaire Theodore Kaczynski (alias Unabomber) de 1978 à 1995 est un bon exemple d’orientation malheureuse que pourraient prendre quelques individus isolés trouvant des justifications dans un contexte paranoïaque ;
  • collectives – activistes – légitimistes : c’est le temps des manifestes cypherpunk des années 199033, ou plus récemment le mouvement Anonymous, auxquels on peut ajouter des collectifs « événementiels », comme le Jam Echelon Day ;
  • Associatives, organisées : on peut citer le mouvement pour le logiciel libre et la Free Software Foundation, l’Electronic Frontier Foundation, La Quadrature du Net, ou bien encore certaines branches d’activité d’organisation plus générales comme la Ligue des Droits de l’Homme, Reporter Sans Frontière, etc.

Les limites de l’attente démocratique sont néanmoins déjà connues. La société ne peut réagir de manière légale, par revendication interposée, qu’à partir du moment où l’exigence de transparence est remplie. Lorsqu’elle ne l’est pas, au pire les citoyens les plus actifs sont taxés de complotistes, au mieux apparaissent de manière épisodique des alertes, à l’image des révélations d’Edward Snowden, mais dont la fréquence est si rare malgré un impact psychologique certain, que la situation a tendance à s’enraciner dans un statu quo d’où sortent généralement vainqueurs ceux dont la capacité de lobbying est la plus forte.

À cela s’ajoute une difficulté technique due à l’extrême complexité des systèmes de surveillance à l’œuvre aujourd’hui, avec des algorithmes dont nous maîtrisons de moins en moins les processus de calcul (cf. Z. Tufekci). À ce propos on peut citer Roger Clarke34 :

« Dans une large mesure, la transparence a déjà été perdue, en partie du fait de la numérisation, et en partie à cause de l’application non pas des approches procédurales et d’outils de développement des logiciels algorithmiques du XXe siècle, mais à cause de logiciels de dernière génération dont la raison d’être est obscure ou à laquelle la notion de raison d’être n’est même pas applicable. »

Une autre option pourrait consister à mettre en œuvre un modèle alternatif qui permette de sortir du marasme économique dans lequel nous sommes visiblement coincés. Sans en faire l’article, le projet Contributopia de Framasoft cherche à participer, à sa mesure, à un processus collectif de réappropriation d’Internet et, partant:

  • montrer que le code est un bien public et que la transparence, grâce aux principes du logiciel libre (l’ouverture du code), permet de proposer aux individus un choix éclairé, à l’encontre de l’obscurantisme de la dataveillance ;
  • promouvoir des apprentissages à contre-courant des pratiques de captation des vies privées et vers des usages basés sur le partage (du code, de la connaissance) entre les utilisateurs ;
  • rendre les utilisateurs autonomes et en même temps contributeurs à un réseau collectif qui les amènera naturellement, par l’attention croissante portée aux pratiques des monopoles, à refuser ces pratiques, y compris de manière active en utilisant des solutions de chiffrement, par exemple.

Mais Contributopia de Framasoft ne concerne que quelques aspects des stratégies de sortie du capitalisme de surveillance. Par exemple, pour pouvoir œuvrer dans cet esprit, une politique rigide en faveur de la neutralité du réseau Internet doit être menée. Les entreprises et les institutions publiques doivent être aussi parmi les premières concernées, car il en va de leur autonomie numérique, que cela soit pour de simples questions économiques (ne pas dépendre de la bonne volonté d’un monopole et de la logique des brevets) mais aussi pour des questions de sécurité. Enfin, le passage du risque pour la vie privée au risque de manipulation sociale étant avéré, toutes les structures militantes en faveur de la démocratie et les droits de l’homme doivent urgemment porter leur attention sur le traitement des données personnelles. Le cas de la britannique Amber Rudd est loin d’être isolé : la plupart des gouvernements collaborent aujourd’hui avec les principaux monopoles de l’économie numérique et, donc, contribuent activement à l’émergence d’une société de la surveillance. Aujourd’hui, le droit à la vie privée, au chiffrement des communications, au secret des correspondances sont des droits à protéger coûte que coûte sans avoir à choisir entre la liberté et les épouvantails (ou les sirènes) agités par les communicants.

 




Les nouveaux Leviathans III. Du capitalisme de surveillance à la fin de la démocratie ?

Une chronique de Xavier De La Porte1 sur le site de la radio France Culture pointe une sortie du tout nouveau président Emmanuel Macron parue sur le compte Twitter officiel : « Une start-up nation est une nation où chacun peut se dire qu’il pourra créer une startup. Je veux que la France en soit une ». Xavier De La Porte montre à quel point cette conception de la France en « start-up nation » est en réalité une vieille idée, qui reprend les archaïsmes des penseurs libéraux du XVIIe siècle, tout en provoquant un « désenchantement politique ». La série des Nouveaux Léviathans, dont voici le troisième numéro, part justement de cette idée et cherche à en décortiquer les arguments.

Note : voici le troisième volet de la série des Nouveaux (et anciens) Léviathans, initiée en 2016, par Christophe Masutti, alias Framatophe. Pour retrouver les articles précédents, une liste vous est présentée à la fin de celui-ci.

Dans cet article nous allons voir comment ce que Shoshana Zuboff nomme Big Other (cf. article précédent) trouve dans ces archaïques conceptions de l’État un lieu privilégié pour déployer une nouvelle forme d’organisation sociale et politique. L’idéologie-Silicon ne peut plus être aujourd’hui analysée comme un élan ultra-libéral auquel on opposerait des valeurs d’égalité ou de solidarité. Cette dialectique est dépassée car c’est le Contrat Social qui change de nature : la légitimité de l’État repose désormais sur des mécanismes d’expertise2 par lesquels le capitalisme de surveillance impose une logique de marché à tous les niveaux de l’organisation socio-économique, de la décision publique à l’engagement politique. Pour comprendre comment le terrain démocratique a changé à ce point et ce que cela implique dans l’organisation d’une nation, il faut analyser tour à tour le rôle des monopoles numériques, les choix de gouvernance qu’ils impliquent, et comprendre comment cette idéologie est non pas théorisée, mais en quelque sorte auto-légitimée, rendue presque nécessaire, parce qu’aucun choix politique ne s’y oppose. Le capitalisme de surveillance impliquerait-il la fin de la démocratie ?

“Big Brother”, par Stephan Mosel, sous licence CC BY 2.0

Libéralisme et Big Other

Dans Les Nouveaux Leviathans II, j’abordais la question du capitalisme de surveillance sous l’angle de la fin du modèle économique du marché libéral. L’utopie dont se réclame ce dernier, que ce soit de manière rhétorique ou réellement convaincue, suppose une auto-régulation du marché, théorie maintenue en particulier par Friedrich Hayek3. À l’opposé de cette théorie qui fait du marché la seule forme (auto-)équilibrée de l’économie, on trouve des auteurs comme Karl Polanyi4 qui, à partir de l’analyse historique et anthropologique, démontre non seulement que l’économie n’a pas toujours été organisée autour d’un marché libéral, mais aussi que le capitalisme « désencastre » l’économie des relations sociales, et provoque un déni du contrat social.

Or, avec le capitalisme de surveillance, cette opposition (qui date tout de même de la première moitié du XXe siècle) a vécu. Lorsque Shoshana Zuboff aborde la genèse du capitalisme de surveillance, elle montre comment, à partir de la logique de rationalisation du travail, on est passé à une société de marché dont les comportements individuels et collectifs sont quantifiés, analysés, surveillés, grâce aux big data, tout comme le (un certain) management d’entreprise quantifie et rationalise les procédures. Pour S. Zuboff, tout ceci concourt à l’avènement de Big Other, c’est-à-dire un régime socio-économique régulé par des mécanismes d’extraction des données, de marchandisation et de contrôle. Cependant, ce régime ne se confronte pas à l’État comme on pourrait le dire du libertarisme sous-jacent au néolibéralisme qui considère l’État au pire comme contraire aux libertés individuelles, au mieux comme une instance limitative des libertés. Encore pourrait-on dire qu’une dialectique entre l’État et le marché pourrait être bénéfique et aboutirait à une forme d’équilibre acceptable. Or, avec le capitalisme de surveillance, le politique lui-même devient un point d’appui pour Big Other, et il le devient parce que nous avons basculé d’un régime politique à un régime a-politique qui organise les équilibres sociaux sur les principes de l’offre marchande. Les instruments de cette organisation sont les big datas et la capacité de modeler la société sur l’offre.

C’est que je précisais en 2016 dans un ouvrage coordonné par Tristan Nitot, Nina Cercy, Numérique : reprendre le contrôle5, en ces termes :

(L)es firmes mettent en œuvre des pratiques d’extraction de données qui annihilent toute réciprocité du contrat avec les utilisateurs, jusqu’à créer un marché de la quotidienneté (nos données les plus intimes et à la fois les plus sociales). Ce sont nos comportements, notre expérience quotidienne, qui deviennent l’objet du marché et qui conditionne même la production des biens industriels (dont la vente dépend de nos comportements de consommateurs). Mieux : ce marché n’est plus soumis aux contraintes du hasard, du risque ou de l’imprédictibilité, comme le pensaient les chantres du libéralisme du XXe siècle : il est devenu malléable parce que ce sont nos comportements qui font l’objet d’une prédictibilité d’autant plus exacte que les big data peuvent être analysées avec des méthodes de plus en plus fiables et à grande échelle.

Si j’écris que nous sommes passés d’un régime politique à un régime a-politique, cela ne signifie pas que cette transformation soit radicale, bien entendu. Il existe et il existera toujours des tensions idéologiques à l’intérieur des institutions de l’État. C’est plutôt une question de proportions : aujourd’hui, la plus grande partie des décisions et des organes opérationnels sont motivés et guidés par des considérations relevant de situations déclarées impératives et non par des perspectives politiques. On peut citer par exemple le grand mouvement de « rigueur » incitant à la « maîtrise » des dépenses publiques imposée par les organismes financiers européens ; des décisions motivées uniquement par le remboursement des dettes et l’expertise financière et non par une stratégie du bien-être social. On peut citer aussi, d’un point de vue plus local et français, les contrats des institutions publiques avec Microsoft, à l’instar de l’Éducation Nationale, à l’encontre de l’avis d’une grande partie de la société civile, au détriment d’une offre différente (comme le libre et l’open source) et dont la justification est uniquement donnée par l’incapacité de la fonction publique à envisager d’autres solutions techniques, non par ignorance, mais à cause du détricotage massif des compétences internes. Ainsi « rationaliser » les dépenses publiques revient en fait à se priver justement de rationalité au profit d’une simple adaptation de l’organisation publique à un état de fait, un déterminisme qui n’est pas remis en question et condamne toute idéologie à être non pertinente.

Ce n’est pas pour autant qu’il faut ressortir les vieilles théories de la fin de l’histoire. Qui plus est, les derniers essais du genre, comme la thèse de Francis Fukuyama6, se sont concentrés justement sur l’avènement de la démocratie libérale conçue comme le consensus ultime mettant fin aux confrontations idéologiques (comme la fin de la Guerre Froide). Or, le capitalisme de surveillance a minima repousse toute velléité de consensus, au-delà du libéralisme, car il finit par définir l’État tout entier comme un instrument d’organisation, quelle que soit l’idéologie : si le nouveau régime de Big Other parvient à organiser le social, c’est aussi parce que ce dernier a désengagé le politique et relègue la décision publique au rang de validation des faits, c’est-à-dire l’acceptation des contrats entre les individus et les outils du capitalisme de surveillance.

Les mécanismes ne sont pas si nombreux et tiennent en quatre points :

  • le fait que les firmes soient des multinationales et surfent sur l’offre de la moins-disance juridique pour s’établir dans les pays (c’est la pratique du law shopping),
  • le fait que l’utilisation des données personnelles soit déloyale envers les individus-utilisateurs des services des firmes qui s’approprient les données,
  • le fait que les firmes entre elles adoptent des processus loyaux (pactes de non-agression, partage de marchés, acceptation de monopoles, rachats convenus, etc.) et passent des contrats iniques avec les institutions, avec l’appui de l’expertise, faisant perdre aux États leur souveraineté numérique,
  • le fait que les monopoles « du numérique » diversifient tellement leurs activités vers les secteurs industriels qu’ils finissent par organiser une grande partie des dynamiques d’innovation et de concurrence à l’échelle mondiale.

Pour résumer les trois conceptions de l’économie dont il vient d’être question, on peut dresser ce tableau :

Économie Forme Individus État
Économie spontanée Diversité et créativité des formes d’échanges, du don à la financiarisation Régulent l’économie par la démocratie ; les échanges sont d’abord des relations sociales Garant de la redistribution équitable des richesses ; régulateur des échanges et des comportements
Marché libéral Auto-régulation, défense des libertés économiques contre la décision publique (conception libérale de la démocratie : liberté des échanges et de la propriété) Agents consommateurs décisionnaires dans un milieu concurrentiel Réguler le marché contre ses dérives inégalitaires ; maintient une démocratie plus ou moins forte
Capitalisme de surveillance Les monopoles façonnent les échanges, créent (tous) les besoins en fonction de leurs capacités de production et des big data Sont exclusivement utilisateurs des biens et services Automatisation du droit adapté aux besoins de l’organisation économique ; sécurisation des conditions du marché

Il est important de comprendre deux aspects de ce tableau :

  • il ne cherche pas à induire une progression historique et linéaire entre les différentes formes de l’économie et des rapports de forces : ces rapports sont le plus souvent diffus, selon les époques, les cultures. Il y a une économie spontanée à l’Antiquité comme on pourrait par exemple, comprendre les monnaies alternatives d’aujourd’hui comme des formes spontanées d’organisation des échanges.
  • aucune de ces cases ne correspond réellement à des conceptions théorisées. Il s’agit essentiellement de voir comment le capitalisme de surveillance induit une distorsion dans l’organisation économique : alors que dans des formes classiques de l’organisation économique, ce sont les acteurs qui produisent l’organisation, le capitalisme de surveillance induit non seulement la fin du marché libéral (vu comme place d’échange équilibrée de biens et services concurrentiels) mais exclut toute possibilité de régulation par les individus / citoyens : ceux-ci sont vus uniquement comme des utilisateurs de services, et l’État comme un pourvoyeur de services publics. La décision publique, elle, est une affaire d’accord entre les monopoles et l’État.

“FREE SPEECH” par Newtown grafitti, licence CC BY 2.0

Les monopoles et l’État

Pour sa première visite en Europe, Sundar Pichai qui était alors en février 2016 le nouveau CEO de Google Inc. , choisit les locaux de Sciences Po. Paris pour tenir une conférence de presse7, en particulier devant les élèves de l’école de journalisme. Le choix n’était pas anodin, puisqu’à ce moment-là Google s’est présenté en grand défenseur de la liberté d’expression (par un ensemble d’outils, de type reverse-proxy que la firme est prête à proposer aux journalistes pour mener leurs investigations), en pourvoyeur de moyens efficaces pour lutter contre le terrorisme, en proposant à qui veut l’entendre des partenariats avec les éditeurs, et de manière générale en s’investissant dans l’innovation numérique en France (voir le partenariat Numa / Google). Tout cela démontre, s’il en était encore besoin, à quel point la firme Google (et Alphabet en général) est capable de proposer une offre si globale qu’elle couvre les fonctions de l’État : en réalité, à Paris lors de cette conférence, alors que paradoxalement elle se tenait dans les locaux où étudient ceux qui demain sont censés remplir des fonctions régaliennes, Sundar Pichai ne s’adressait pas aux autorités de l’État mais aux entreprises (éditeurs) pour leur proposer des instruments qui garantissent leurs libertés. Avec comme sous-entendu : vous évoluez dans un pays dont la liberté d’expression est l’un des fleurons, mais votre gouvernement n’est pas capable de vous le garantir mieux que nous, donc adhérez à Google. Les domaines de la santé, des systèmes d’informations et l’éducation en sont pas exempts de cette offre « numérique ».

Du côté du secteur public, le meilleur moyen de ne pas perdre la face est de monter dans le train suivant l’adage « Puisque ces mystères nous dépassent, feignons d’en être l’organisateur ». Par exemple, si Google et Facebook ont une telle puissance capable de mener efficacement une lutte, au moins médiatique, contre le terrorisme, à l’instar de leurs campagnes de propagande8, il faut créer des accords de collaboration entre l’État et ces firmes9, quitte à les faire passer comme une exigence gouvernementale (mais quel État ne perdrait pas la face devant le poids financier des GAFAM ?).

… Et tout cela crée un marché de la gouvernance dans lequel on ne compte plus les millions d’investissement des GAFAM. Ainsi, la gouvernance est un marché pour Microsoft, qui lance un Office 2015 spécial « secteur public », ou, mieux, qui sait admirablement se situer dans les appels d’offre en promouvant des solutions pour tous les besoins d’organisation de l’État. Par exemple, la présentation des activités de Microsoft dans le secteur public sur son site comporte ces items :

  • Stimulez la transformation numérique du secteur public
  • Optimisez l’administration publique
  • Transformez des services du secteur public
  • Améliorez l’efficacité des employés du secteur public
  • Mobilisez les citoyens

Microsoft dans le secteur public

Microsoft Office pour le secteur public

D’aucuns diraient que ce que font les GAFAM, c’est proposer un nouveau modèle social. Par exemple dans une enquête percutante sur les entreprises de la Silicon Valley, Philippe Vion-Dury définit ce nouveau modèle comme « politiquement technocratique, économiquement libéral, culturellement libertaire, le tout nimbé de messianisme typiquement américain »10. Et il a entièrement raison, sauf qu’il ne s’agit pas d’un modèle social, c’est justement le contraire, c’est un modèle de gouvernance sans politique, qui considère le social comme la juxtaposition d’utilisateurs et de groupes d’utilisateurs. Comme le montre l’offre de Microsoft, si cette firme est capable de fournir un service propre à « mobiliser les citoyens  » et si en même temps, grâce à ce même fournisseur, vous avez les outils pour transformer des services du secteur public, quel besoin y aurait-il de voter, de persuader, de discuter ? si tous les avis des citoyens sont analysés et surtout anticipés par les big datas, et si les seuls outils efficaces de l’organisation publique résident dans l’offre des GAFAM, quel besoin y aurait-il de parler de démocratie  ?

En réalité, comme on va le voir, tout cette nouvelle configuration du capitalisme de surveillance n’est pas seulement rendue possible par la puissance novatrice des monopoles du numérique. C’est peut-être un biais : penser que leur puissance d’innovation est telle qu’aucune offre concurrente ne peut exister. En fait, même si l’offre était moindre, elle n’en serait pas moins adoptée car tout réside dans la capacité de la décision publique à déterminer la nécessité d’adopter ou non les services des GAFAM. C’est l’aménagement d’un terrain favorable qui permet à l’offre de la gouvernance numérique d’être proposée. Ce terrain, c’est la décision par l’expertise.


“Work-buy-consume-die”, par Mika Raento, sous licence CC BY 2.0
(trad. : « Participez à l’hilarante aventure d’une vie : travaillez, achetez, consommez, mourez. »)

L’accueil favorable au capitalisme de surveillance

Dans son livre The united states of Google11, Götz Haman fait un compte-rendu d’une conférence durant laquelle interviennent Eric Schmidt, alors président du conseil d’administration de Google, et son collègue Jared Cohen. Ces derniers ont écrit un ouvrage (The New Digital Age) qu’ils présentent dans les grandes lignes. Götz Haman le résume en ces termes : « Aux yeux de Google, les États sont dépassés. Ils n’ont rien qui permette de résoudre les problèmes du XXIe siècle, tels le changement climatique, la pauvreté, l’accès à la santé. Seules les inventions techniques peuvent mener vers le Salut, affirment Schmidt et son camarade Cohen. »

Une fois cette idéologie — celle du capitalisme de surveillance12 — évoquée, il faut s’interroger sur la raison pour laquelle les États renvoient cette image d’impuissance. En fait, les sociétés occidentales modernes ont tellement accru leur consommation de services que l’offre est devenue surpuissante, à tel point, comme le montre Shoshanna Zuboff, que les utilisateurs eux-mêmes sont devenus à la fois les pourvoyeurs de matière première (les données) et les consommateurs. Or, si nous nous plaçons dans une conception de la société comme un unique marché où les relations sociales peuvent être modelées par l’offre de services (ce qui se cristallise aujourd’hui par ce qu’on nomme dans l’expression-valise « Uberisation de la société »), ce qui relève de la décision publique ne peut être motivé que par l’analyse de ce qu’il y a de mieux pour ce marché, c’est-à-dire le calcul de rentabilité, de rendement, d’efficacité… d’utilité. Or cette analyse ne peut être à son tour fournie par une idéologie visionnaire, une utopie ou simplement l’imaginaire politique : seule l’expertise de l’état du monde pour ce qu’il est à un instant T permet de justifier l’action publique. Il faut donc passer du concept de gouvernement politique au concept de gouvernance par les instruments. Et ces instruments doivent reposer sur les GAFAM.

Pour comprendre au mieux ce que c’est que gouverner par les instruments, il faut faire un petit détour conceptuel.

L’expertise et les instruments

Prenons un exemple. La situation politique qu’a connue l’Italie après novembre 2011 pourrait à bien des égards se comparer avec la récente élection en France d’Emmanuel Macron et les élections législatives qui ont suivi. En effet, après le gouvernement de Silvio Berlusconi, la présidence italienne a nommé Mario Monti pour former un gouvernement dont les membres sont essentiellement reconnus pour leurs compétences techniques appliquées en situation de crise économique. La raison du soutien populaire à cette nomination pour le moins discutable (M. Monti a été nommé sénateur à vie, reconnaissance habituellement réservée aux anciens présidents de République Italienne) réside surtout dans le désaveu de la casta, c’est-à-dire le système des partis qui a dominé la vie politique italienne depuis maintes années et qui n’a pas réussi à endiguer les effets de la crise financière de 2008. Si bien que le gouvernement de Mario Monti peut être qualifié de « gouvernement des experts », non pas un gouvernement technocratique noyé dans le fatras administratif des normes et des procédures, mais un gouvernement à l’image de Mario Monti lui-même, ex-commissaire européen au long cours, motivé par la nécessité technique de résoudre la crise en coopération avec l’Union Européenne. Pour reprendre les termes de l’historien Peppino Ortoleva, à propos de ce gouvernement dans l’étude de cas qu’il consacre à l’Italie13 en 2012 :

Le « gouvernement des experts » se présente d’un côté comme le gouvernement de l’objectivité et des chiffres, celui qui peut rendre compte à l’Union européenne et au système financier international, et d’un autre côté comme le premier gouvernement indépendant des partis.

Peppino Ortoleva conclut alors que cet exemple italien ne représente que les prémices pour d’autres gouvernements du même acabit dans d’autres pays, avec tous les questionnements que cela suppose en termes de débat politique et démocratique : si en effet la décision publique n’est mue que par la nécessité (ici la crise financière et la réponse aux injonctions de la Commission européenne) quelle place peut encore tenir le débat démocratique et l’autonomie décisionnaire des peuples ?

En son temps déjà le « There is no alternative » de Margaret Thatcher imposait par la force des séries de réformes au nom de la nécessité et de l’expertise économiques. On ne compte plus, en Europe, les gouvernements qui nomment des groupes d’expertise, conseils et autres comités censés répondre aux questions techniques que pose l’environnement économique changeant, en particulier en situation de crise.

Cette expertise a souvent été confondue avec la technocratie, à l’instar de l’ouvrage de Vincent Dubois et Delphine Dulong publié en 2000, La question technocratique14. Lorsqu’en effet la décision publique se justifie exclusivement par la nécessité, cela signifie que cette dernière est définie en fonction d’une certaine compréhension de l’environnement socio-économique. Par exemple, si l’on part du principe que la seule réponse à la crise financière est la réduction des dépenses publiques, les technocrates inventeront les instruments pour rendre opérationnelle la décision publique, les experts identifieront les méthodes et l’expertise justifiera les décisions (on remet en cause un avis issu d’une estimation de ce que devrait être le monde, mais pas celui issu d’un calcul d’expert).

La technocratie comme l’expertise se situent hors des partis, mais la technocratie concerne surtout l’organisation du gouvernement. Elle répond souvent aux contraintes de centralisation de la décision publique. Elle crée des instruments de surveillance, de contrôle, de gestion, etc. capables de permettre à un gouvernement d’imposer, par exemple, une transformation économique du service public. L’illustration convaincante est le gouvernement Thatcher, qui dès 1979 a mis en place plusieurs instruments de contrôle visant à libéraliser le secteur public en cassant les pratiques locales et en imposant un système concurrentiel. Ce faisant, il démontrait aussi que le choix des instruments suppose aussi des choix d’exercice du pouvoir, tels ceux guidés par la croyance en la supériorité des mécanismes de marché pour organiser l’économie15.

Gouverner par l’expertise ne signifie donc pas que le gouvernement manque de compétences en son sein pour prendre les (bonnes ou mauvaises) décisions publiques. Les technocrates existent et sont eux aussi des experts. En revanche, l’expertise permet surtout de justifier les choix, les stratégies publiques, en interprétant le monde comme un environnement qui contraint ces choix, sans alternative.

En parlant d’alternative, justement, on peut s’interroger sur celles qui relèvent de la société civile et portées tant bien que mal à la connaissance du gouvernement. La question du logiciel libre est, là encore, un bon exemple.

En novembre 2016, Framasoft publiait un billet retentissant intitulé « Pourquoi Framasoft n’ira plus prendre le thé au ministère de l’Éducation Nationale ». La raison de ce billet est la prise de conscience qu’après plus de treize ans d’efforts de sensibilisation au logiciel libre envers les autorités publiques, et en particulier l’Éducation Nationale, Framasoft ne pouvait plus dépenser de l’énergie à coopérer avec une telle institution si celle-ci finissait fatalement par signer contrats sur contrats avec Microsoft ou Google. En fait, le raisonnement va plus loin et j’y reviendrai plus tard dans ce texte. Mais il faut comprendre que ce à quoi Framasoft s’est confronté est exactement ce gouvernement par l’expertise. En effet, les communautés du logiciel libre n’apportent une expertise que dans la mesure où elles proposent de changer de modèle : récupérer une autonomie numérique en développant des compétences et des initiatives qui visent à atteindre un fonctionnement idéal (des données protégées, des solutions informatiques modulables, une contribution collective au code, etc.). Or, ce que le gouvernement attend de l’expertise, ce n’est pas un but à atteindre, c’est savoir comment adapter l’organisation au modèle existant, c’est-à-dire celui du marché.

Dans le cadre des élections législatives, l’infatigable association APRIL (« promouvoir et défendre le logiciel libre ») lance sa campagne de promotion de la priorité au logiciel libre dans l’administration publique. À chaque fois, la campagne connaît un certain succès et des députés s’engagent réellement dans cette cause qu’ils plaident même à l’intérieur de l’Assemblée Nationale. Sous le gouvernement de F. Hollande, on a entendu des députés comme Christian Paul ou Isabelle Attard avancer les arguments les plus pertinents et sans ménager leurs efforts, convaincus de l’intérêt du Libre. À leur image, il serait faux de dire que la sphère politique est toute entière hermétique au logiciel libre et aux équilibres numériques et économiques qu’il porte en lui. Peine perdue ? À voir les contrats passés entre le gouvernement et les GAFAM, c’est un constat qu’on ne peut pas écarter et sans doute au profit d’une autre forme de mobilisation, celle du peuple lui-même, car lui seul est capable de porter une alternative là où justement la politique a cédé la place : dans la décision publique.

La rencontre entre la conception du marché comme seule organisation gouvernementale des rapports sociaux et de l’expertise qui détermine les contextes et les nécessités de la prise de décision a permis l’émergence d’un terrain favorable à l’État-GAFAM. Pour s’en convaincre il suffit de faire un tour du côté de ce qu’on a appelé la « modernisation de l’État ».

Les firmes à la gouvernance numérique

Anciennement la Direction des Systèmes d’Information (DSI), la DINSIC (Direction Interministérielle du Numérique et du Système d’Information et de Communication) définit les stratégies et pilote les structures informationnelles de l’État français. Elle prend notamment part au mouvement de « modernisation » de l’État. Ce mouvement est en réalité une cristallisation de l’activité de réforme autour de l’informatisation commencée dans les années 1980. Cette activité de réforme a généré des compétences et assez d’expertise pour être institutionnalisée (DRB, DGME, aujourd’hui DIATP — Direction interministérielle pour l’accompagnement des transformations publiques). On se perd facilement à travers les acronymes, les ministères de rattachement, les changements de noms au rythme des fusions des services entre eux. Néanmoins, le concept même de réforme n’a pas évolué depuis les grandes réformes des années 1950 : il faut toujours adapter le fonctionnement des administrations publiques au monde qui change, en particulier le numérique.

La différence, aujourd’hui, c’est que cette adaptation ne se fait pas en fonction de stratégies politiques, mais en fonction d’un cadre de productivité, dont on dit qu’il est un « contrat de performance » ; cette performance étant évaluée par des outils de contrôle : augmenter le rendement de l’administration en « rationalisant » les effectifs, automatiser les services publics (par exemple déclarer ses impôts en ligne, payer ses amendes en lignes, etc.), expertiser (accompagner) les besoins des systèmes d’informations selon les offres du marché, limiter les instances en adaptant des méthodes agiles de prise de décision basées sur des outils numériques de l’analyse de data, maîtrise des coûts….

C’est que nous dit en substance la Synthèse présentant le Cadre stratégique commun du système d’information de l’Etat, c’est-à-dire la feuille de route de la DINSIC. Dans une section intitulée « Pourquoi se transformer est une nécessite ? », on trouve :

Continuer à faire évoluer les systèmes d’information est nécessaire pour répondre aux enjeux publics de demain : il s’agit d’un outil de production de l’administration, qui doit délivrer des services plus performants aux usagers, faciliter et accompagner les réformes de l’État, rendre possible les politiques publiques transverses à plusieurs administrations, s’intégrer dans une dimension européenne.

Cette feuille de route concerne en fait deux grandes orientations : l’amélioration de l’organisation interne aux institutions gouvernementales et les interfaces avec les citoyens. Il est flagrant de constater que, pour ce qui concerne la dimension interne, certains projets que l’on trouve mentionnés dans le Panorama des grands projets SI de l’Etat font appel à des solutions open source et les opérateurs sont publics, notamment par souci d’efficacité, comme c’est le cas, par exemple pour le projet VITAM, relatif à l’archivage. En revanche, lorsqu’il s’agit des relations avec les citoyens-utilisateurs, c’est-à-dires les « usagers », ce sont des entreprises comme Microsoft qui entrent en jeu et se substituent à l’État, comme c’est le cas par exemple du grand projet France Connect, dont Microsoft France est partenaire.

En effet, France Connect est une plateforme centralisée visant à permettre aux citoyens d’effectuer des démarches en ligne (pour les particuliers, pour les entreprises, etc.). Pour permettre aux collectivités et aux institutions qui mettent en place une « offre » de démarche en ligne, Microsoft propose en open source des « kit de démarrage », c’est à dire des modèles, qui vont permettre à ces administrations d’offrir ces services aux usagers. En d’autres termes, c’est chaque collectivité ou administration qui va devenir fournisseur de service, dans un contexte de développement technique mutualisé (d’où l’intérêt ici de l’open source). Ce faisant, l’État n’agit plus comme maître d’œuvre, ni même comme arbitre : c’est Microsoft qui se charge d’orchestrer (par les outils techniques choisis, et ce n’est jamais neutre) un marché de l’offre de services dont les acteurs sont les collectivités et administrations. De là, il est tout à fait possible d’imaginer une concurrence, par exemple entre des collectivités comme les mairies, entre celles qui auront une telle offre de services permettant d’attirer des contribuables et des entreprises sur son territoire, et celles qui resteront coincées dans les procédures administratives réputées archaïques.

Microsoft : contribuer à FranceConnect

En se plaçant ainsi non plus en prestataire de produits mais en tuteur, Microsoft organise le marché de l’offre de service public numérique. Mais la firme va beaucoup plus loin, car elle bénéficie désormais d’une grande expérience, reconnue, en matière de service public. Ainsi, lorsqu’il s’agit d’anticiper les besoins et les changements, elle est non seulement à la pointe de l’expertise mais aussi fortement enracinée dans les processus de la décision publique. Sur le site Econocom en 2015, l’interview de Raphaël Mastier16, directeur du pôle Santé de Microsoft France, est éloquent sur ce point. Partant du principe que « historiquement le numérique n’a pas été considéré comme stratégique dans le monde hospitalier », Microsoft propose des outils « d’analyse et de pilotage », et même l’utilisation de l’analyse prédictive des big data pour anticiper les temps d’attentes aux urgences : « grâce au machine learning, il sera possible de s’organiser beaucoup plus efficacement ». Avec de tels arguments, en effet, qui irait à l’encontre de l’expérience microsoftienne dans les services publics si c’est un gage d’efficacité ? on comprend mieux alors, dans le monde hospitalier, l’accord-cadre CAIH-Microsoft qui consolide durablement le marché Microsoft avec les hôpitaux.

Au-delà de ces exemples, on voit bien que cette nouvelle forme de gouvernance à la Big Other rend ces instruments légitimes car ils produisent le marché et donc l’organisation sociale. Cette transformation de l’État est parfaitement assumée par les autorités, arguant par exemple dans un billet sur gouvernement.fr intitulé « Le numérique : instrument de la transformation de l’État », en faveur de l’allégement des procédures, de la dématérialisation, de la mise à disposition des bases de données (qui va les valoriser ?), etc. En somme autant d’arguments dont il est impossible de nier l’intérêt collectif et qui font, en règle générale, l’objet d’un consensus.

Le groupe canadien CGI, l’un des leaders mondiaux en technologies et gestion de l’information, œuvre aussi en France, notamment en partenariat avec l’UGAP (Union des Groupements d’Achats Publics). Sur son blog, dans un Billet du 2 mai 201717, CGI résume très bien le discours dominant de l’action publique dans ce domaine (et donc l’intérêt de son offre de services), en trois points :

  1. Réduire les coûts. Le sous-entendu consiste à affirmer que si l’État organise seul sa transformation numérique, le budget sera trop conséquent. Ce qui reste encore à prouver au vu des montants en jeu dans les accords de partenariat entre l’État et les firmes, et la nature des contrats (on peut souligner les clauses concernant les mises à jour chez Microsoft) ;
  2. Le secteur public accuse un retard numérique. C’est l’argument qui justifie la délégation du numérique sur le marché, ainsi que l’urgence des décisions, et qui, par effet de bord, contrevient à la souveraineté numérique de l’État.
  3. Il faut améliorer « l’expérience citoyen ». C’est-à-dire que l’objectif est de transformer tous les citoyens en utilisateurs de services publics numériques et, comme on l’a vu plus haut, organiser une offre concurrentielle de services entre les institutions et les collectivités.

Du côté des décideurs publics, les choix et les décisions se justifient sur un mode Thatchérien (il n’y a pas d’alternative). Lorsqu’une alternative est proposée, tel le logiciel libre, tout le jeu consiste à donner une image politique positive pour ensuite orienter la stratégie différemment.

Sur ce point, l’exemple de Framasoft est éloquent et c’est quelque chose qui n’a pas forcément été perçu lors de la publication de la déclaration « Pourquoi Framasoft n’ira plus prendre le thé…» (citée précédemment). Il s’agit de l’utilisation de l’alternative libriste pour légitimer l’appel à une offre concurrentielle sur le marché des firmes. En effet, les personnels de l’Éducation Nationale utilisent massivement les services que Framasoft propose dans le cadre de sa campagne « Degooglisons Internet ». Or, l’institution pourrait très bien, sur le modèle promu par Framasoft, installer ces mêmes services, et ainsi offrir ces solutions pour un usage généralisé dans les écoles, collèges et lycées. C’est justement le but de la campagne de Framasoft que de proposer une vaste démonstration pour que des organisations retrouvent leur autonomie numérique. Les contacts que Framasoft a noué à ce propos avec différentes instances de l’Éducation Nationale se résumaient finalement soit à ce que Framasoft et ses bénévoles proposent un service à la carte dont l’ambition est bien loin d’une offre de service à l’échelle institutionnelle, soit participe à quelques comités d’expertise sur le numérique à l’école. L’idée sous-jacente est que l’Éducation Nationale ne peut faire autrement que de demander à des prestataires de mettre en place une offre numérique clé en main et onéreuse, alors même que Framasoft propose tous ses services au grand public avec des moyens financiers et humains ridiculement petits.

Dès lors, après la signature du partenariat entre le MEN et Microsoft, le message a été clairement formulé à Framasoft (et aux communautés du Libre en général), par un Tweet de la Ministre Najat Vallaud-Belkacem exprimant en substance la « neutralité technologique » du ministère (ce qui justifie donc le choix de Microsoft comme objectivement la meilleure offre du marché) et l’idée que les « éditeurs de logiciels libres » devraient proposer eux aussi leurs solutions, c’est-à-dire entrer sur le marché concurrentiel. Cette distorsion dans la compréhension de ce que sont les alternatives libres (non pas un produit mais un engagement) a été confirmée à plusieurs reprises par la suite : les solutions libres et leurs usages à l’Éducation Nationale peuvent être utilisées pour « mettre en tension » le marché et négocier des tarifs avec les firmes comme Microsoft, ou du moins servir d’épouvantail (dont on peut s’interroger sur l’efficacité réelle devant la puissance promotionnelle et lobbyiste des firmes en question).

On peut conclure de cette histoire que si la décision publique tient à ce point à discréditer les solutions alternatives qui échappent au marché des monopoles, c’est qu’une idéologie est à l’œuvre qui empêche toute forme d’initiative qui embarquerait le gouvernement dans une dynamique différente. Elle peut par exemple placer les décideurs devant une incapacité structurelle18 de choisir des alternatives proposant des logiciels libres, invoquant par exemple le droit des marchés publics voire la Constitution, alors que l’exclusion du logiciel libre n’est pas réglementaire19.

Ministre de l’Éducation Nationale et Microsoft

L’idéologie de Silicon

En février 2017, quelques jours à peine après l’élection de Donald Trump à présidence des États-Unis, le PDG de Facebook, Mark Zuckerberg, publie sur son blog un manifeste20 remarquable à l’encontre de la politique isolationniste et réactionnaire du nouveau président. Il cite notamment tous les outils que Facebook déploie au service des utilisateurs et montre combien ils sont les vecteurs d’une grande communauté mondiale unie et solidaire. Tous les concepts de la cohésion sociale y passent, de la solidarité à la liberté de l’information, c’est-à-dire ce que le gouvernement est, aux yeux de Zuckerberg, incapable de garantir correctement à ses citoyens, et ce que les partisans de Trump en particulier menacent ouvertement.

Au moins, si les idées de Mark Zuckerberg semblent pertinentes aux yeux des détracteurs de Donald Trump, on peut néanmoins s’interroger sur l’idéologie à laquelle se rattache, de son côté, le PDG de Facebook. En réalité, pour lui, Donald Trump est la démonstration évidente que l’État ne devrait occuper ni l’espace social ni l’espace économique et que seul le marché et l’offre numérique sont en mesure d’intégrer les relations sociales.

Cette idéologie a déjà été illustrée par Fred Tuner, dans son ouvrage Aux sources de l’utopie numérique21. À propos de ce livre, j’écrivais en 201622 :

(…) Fred Turner montre comment les mouvements communautaires de contre-culture ont soit échoué par désillusion, soit se sont recentrés (surtout dans les années 1980) autour de techno-valeurs, en particulier portées par des leaders charismatiques géniaux à la manière de Steve Jobs un peu plus tard. L’idée dominante est que la revendication politique a échoué à bâtir un monde meilleur ; c’est en apportant des solutions techniques que nous serons capables de résoudre nos problèmes.

Cette analyse un peu rapide passe sous silence la principale clé de lecture de Fred Tuner : l’émergence de nouveaux modes d’organisation économique du travail, en particulier le freelance et la collaboration en réseau. Comme je l’ai montré, le mouvement de la contre-culture californienne des années 1970 a permis la création de nouvelles pratiques d’échanges numériques utilisant les réseaux existants, comme le projet Community Memory, c’est-à-dire des utopies de solidarité, d’égalité et de liberté d’information dans une Amérique en proie au doute et à l’autoritarisme, notamment au sortir de la Guerre du Vietnam. Mais ce faisant, les années 1980, elles, ont développé à partir de ces idéaux la vision d’un monde où, en réaction à un État conservateur et disciplinaire, ce dernier se trouverait dépossédé de ses prérogatives de régulation, au profit de l’autonomie des citoyens dans leurs choix économiques et leurs coopérations. C’est l’avènement des principes du libertarisme grâce aux outils numériques. Et ce que montre Fred Turner, c’est que ce mouvement contre-culturel a ainsi paradoxalement préparé le terrain aux politiques libérales de dérégulation économique des années 1980-1990. C’est la volonté de réduire au strict minimum le rôle de l’État, garant des libertés individuelles, afin de permettre aux individus d’exercer leurs droits de propriété (sur leurs biens et sur eux-mêmes) dans un ordre social qui se définit uniquement comme un marché. À ce titre, pour ce qu’il est devenu, ce libertarisme est une résurgence radicale du libéralisme à la Hayek (la société démocratique libérale est un marché concurrentiel) doublé d’une conception utilitaire des individus et de leurs actions.

Néanmoins, tels ne sont pas exactement les principes du libertarisme, mais ceux-ci ayant cours dans une économie libérale, ils ne peuvent qu’aboutir à des modèles économiques basés sur une forme de collaboration dérégulée, anti-étatique, puisque la forme du marché, ici, consiste à dresser la liberté des échanges et de la propriété contre un État dont les principes du droit sont vécus comme arbitrairement interventionnistes. Les concepts tels la solidarité, l’égalité, la justice sont remplacés par l’utilité, le choix, le droit.

Un exemple intéressant de ce renversement concernant le droit, est celui du droit de la concurrence appliqué à la question de la neutralité des plateformes, des réseaux, etc. Regardons les plateformes de service. Pourquoi assistons-nous à une forme de schizophrénie entre une Commission européenne pour qui la neutralité d’internet et des plateformes est une condition d’ouverture de l’économie numérique et la bataille contre cette même neutralité appliquée aux individus censés être libres de disposer de leurs données et les protéger, notamment grâce au chiffrement ? Certes, les mesures de lutte contre le terrorisme justifient de s’interroger sur la pertinence d’une neutralité absolue (s’interroger seulement, car le chiffrement ne devrait jamais être remis en cause), mais la question est surtout de savoir quel est le rôle de l’État dans une économie numérique ouverte reposant sur la neutralité d’Internet et des plateformes. Dès lors, nous avons d’un côté la nécessité que l’État puisse intervenir sur la circulation de l’information dans un contexte de saisie juridique et de l’autre celle d’une volontaire absence du Droit dans le marché numérique.

Pour preuve, on peut citer le président de l’Autorité de la concurrence en France, Bruno Lassere, auditionné à l’Assemblée Nationale le 7 juillet 201523. Ce dernier cite le Droit de la Concurrence et ses applications comme un instrument de lutte contre les distorsions du marché, comme les monopoles à l’image de Google/Alphabet. Mais d’un autre côté, le Droit de la Concurrence est surtout vu comme une solution d’auto-régulation dans le contexte de la neutralité des plates-formes :

(…) Les entreprises peuvent prendre des engagements par lesquels elles remédient elles-mêmes à certains dysfonctionnements. Il me semble important que certains abus soient corrigés à l’intérieur du marché et non pas forcément sur intervention législative ou régulatrice. C’est ainsi que Booking, Expedia et HRS se sont engagées à lever la plupart des clauses de parité tarifaire qui interdisent une véritable mise en compétition de ces plateformes de réservation hôtelières. Comment fonctionnent ces clauses ? Si un hôtel propose à Booking douze nuitées au prix de 100 euros la chambre, il ne peut offrir de meilleures conditions – en disponibilité ou en tarif – aux autres plateformes. Il ne peut pas non plus pratiquer un prix différent à ses clients directs. Les engagements signés pour lever ces contraintes sont gagnants-gagnants : ils respectent le modèle économique des plateformes, et donc l’incitation à investir et à innover, tout en rétablissant plus de liberté de négociation. Les hôtels pourront désormais mettre les plateformes en concurrence.

Sur ce point, il ne faut pas s’interroger sur le mécanisme de concurrence qu’il s’agit de promouvoir mais sur l’implication d’une régulation systématique de l’économie numérique par le Droit de la Concurrence. Ainsi le rapport Numérique et libertés présenté Christian Paul et Christiane Féral-Schuhl, propose un long développement sur la question des données personnelles mais cite cette partie de l’audition de Bruno Lasserre à propos du Droit de la Concurrence sans revenir sur la conception selon laquelle l’alpha et l’omega du Droit consiste à aménager un environnement concurrentiel « sain » à l’intérieur duquel les mécanismes de concurrence suffisent à eux-seuls à appliquer des principes de loyauté, d’équité ou d’égalité.

Cette absence de questionnement politique sur le rôle du Droit dans un marché où la concentration des services abouti à des monopoles finit par produire immanquablement une forme d’autonomie absolue de ces monopoles dans les mécanismes concurrentiels, entre une concurrence acceptable et une concurrence non-souhaitable. Tel est par exemple l’objet de multiples pactes passés entre les grandes multinationales du numérique, ainsi entre Microsoft et AOL, entre AOL / Yahoo et Microsoft, entre Intertrust et Microsoft, entre Apple et Google (pacte géant), entre Microsoft et Android, l’accord entre IBM et Apple en 1991 qui a lancé une autre vague d’accords du côté de Microsoft tout en définissant finalement l’informatique des années 1990, etc.

La liste de tels accords peut donner le tournis à n’importe quel juriste au vu de leurs implications en termes de Droit, surtout lorsqu’ils sont déclinés à de multiples niveaux nationaux. L’essentiel est de retenir que ce sont ces accords entre monopoles qui définissent non seulement le marché mais aussi toutes nos relations avec le numérique, à tel point que c’est sur le même modèle qu’agit le politique aujourd’hui.

Ainsi, face à la puissance des GAFAM et consorts, les gouvernements se placent en situation de demandeurs. Pour prendre un exemple récent, à propos de la lutte anti-terroriste en France, le gouvernement ne fait pas que déléguer une partie de ses prérogatives (qui pourraient consister à mettre en place lui-même un système anti-propagande efficace), mais se repose sur la bonne volonté des Géants, comme c’est le cas de l’accord avec Google, Facebook, Microsoft et Twitter, conclu par le Ministre Bernard Cazeneuve, se rendant lui-même en Californie en février 2015. On peut citer, dans un autre registre, celui de la maîtrise des coûts, l’accord-cadre CAIH-Microsoft cité plus haut, qui finalement ne fait qu’entériner la mainmise de Microsoft sur l’organisation hospitalière, et par extension à de multiples secteurs de la santé.

Certes, on peut arguer que ce type d’accord entre un gouvernement et des firmes est nécessaire dans la mesure où ce sont les opérateurs les mieux placés pour contribuer à une surveillance efficace des réseaux ou modéliser les échanges d’information. Cependant, on note aussi que de tels accords relèvent du principe de transfert du pouvoir du politique aux acteurs numériques. Tel est la thèse que synthétise Mark Zuckerberg dans son plaidoyer de février 2017. Elle est acceptée à de multiples niveaux de la décision et de l’action publique.

C’est par une analyse du rôle et de l’emploi du Droit aujourd’hui, en particulier dans ce contexte où ce sont les firmes qui définissent le droit (par exemple à travers leurs accords de loyauté) que Alain Supiot démontre comment le gouvernement par les nombres, c’est-à-dire ce mode de gouvernement par le marché (celui des instruments, de l’expertise, de la mesure et du contrôle) et non plus par le Droit, est en fait l’avènement du Big Other de Shoshanna Zuboff, c’est-à-dire un monde où ce n’est plus le Droit qui règle l’organisation sociale, mais c’est le contrat entre les individus et les différentes offres du marché. Alain Supiot l’exprime en deux phrases24 :

Référée à un nouvel objet fétiche – non plus l’horloge, mais l’ordinateur –, la gouvernance par les nombres vise à établir un ordre qui serait capable de s’autoréguler, rendant superflue toute référence à des lois qui le surplomberaient. Un ordre peuplé de particules contractantes et régi par le calcul d’utilité, tel est l’avenir radieux promis par l’ultralibéralisme, tout entier fondé sur ce que Karl Polanyi a appelé le solipsisme économique.

Le rêve de Mark Zuckerberg et, avec lui, les grands monopoles du numérique, c’est de pouvoir considérer l’État lui-même comme un opérateur économique. C’est aussi ce que les tenants new public management défendent : appliquer à la gestion de l’État les mêmes règles que l’économie privée. De cette manière, ce sont les acteurs privés qui peuvent alors prendre en charge ce qui était du domaine de l’incalculable, c’est-à-dire ce que le débat politique est normalement censé orienter mais qui finit par être approprié par des mécanismes privés : la protection de l’environnement, la gestion de l’état-civil, l’organisation de la santé, la lutte contre le terrorisme, la régulation du travail, etc.

GAFAM : We <3 your Data

Conclusion : l’État est-il soluble dans les GAFAM ?

Nous ne perdons pas seulement notre souveraineté numérique mais nous changeons de souveraineté. Pour appréhender ce changement, on ne peut pas se limiter à pointer les monopoles, les effets de la concentration des services numériques et l’exploitation des big data. Il faut aussi se questionner sur la réception de l’idéologie issue à la fois de l’ultra-libéralisme et du renversement social qu’impliquent les techniques numériques à l’épreuve du politique. Le terrain favorable à ce renversement est depuis longtemps prêt, c’est l’avènement de la gouvernance par les instruments (par les nombres, pour reprendre Alain Supiot). Dès lors que la décision publique est remplacée par la technique, cette dernière est soumise à une certaine idéologie du progrès, celle construite par les firmes et structurée par leur marché.

Qu’on ne s’y méprenne pas : la transformation progressive de la gouvernance et cette idéologie-silicone sont l’objet d’une convergence plus que d’un enchaînement logique et intentionnel. La convergence a des causes multiples, de la crise financière en passant par la formation des décideurs, les conjonctures politiques… autant de potentielles opportunités par lesquelles des besoins nouveaux structurels et sociaux sont nés sans pour autant trouver dans la décision publique de quoi les combler, si bien que l’ingéniosité des GAFAM a su configurer un marché où les solutions s’imposent d’elles-mêmes, par nécessité.

Le constat est particulièrement sombre. Reste-t-il malgré tout une possibilité à la fois politique et technologique capable de contrer ce renversement ? Elle réside évidemment dans le modèle du logiciel libre. Premièrement parce qu’il renoue technique et Droit (par le droit des licences, avant tout), établit des chaînes de confiance là où seules des procédures régulent les contrats, ne construit pas une communauté mondiale uniforme mais des groupes sociaux en interaction impliqués dans des processus de décision, induit une diversité numérique et de nouveaux équilibres juridiques. Deuxièmement parce qu’il suppose des apprentissages à la fois techniques et politiques et qu’il est possible par l’éducation populaire de diffuser les pratiques et les connaissances pour qu’elles s’imposent à leur tour non pas sur le marché mais sur l’économie, non pas sur la gouvernance mais dans le débat public.

 

 


  1. Xavier De La Porte, « Start-up ou Etat-plateforme : Macron a des idées du 17e siècle », Chroniques La Vie Numérique, France Culture, 19/06/2017.
  2. C’est ce que montre, d’un point de vue sociologique Corinne Delmas, dans Sociologie politique de l’expertise, Paris : La Découverte, 2011. Alain Supiot, dans La gouvernance par les nombres (cité plus loin), choisit quant à lui une approche avec les clés de lecture du Droit.
  3. Voir Friedrich Hayek, La route de la servitude, Paris : PUF, (réed.) 2013.
  4. Voir Karl Polanyi, La Grande Transformation, Paris : Gallimard, 2009.
  5. Christophe Masutti, « du software au soft power », dans : Tristan Nitot, Nina Cercy (dir.), Numérique : reprendre le contrôle, Lyon : Framasoft, 2016, pp. 99-107.
  6. Francis Fukuyama, La Fin de l’Histoire et le dernier homme, Paris : Flammarion, 1992.
  7. Corentin Durand, « ‘L’ADN de la France, c’est la liberté de la presse’, clame le patron de Google », Numerama, 26/02/2016.
  8. Les Échos, « Google intensifie sa lutte contre la propagande terroriste », 19/06/2017.
  9. Sandrine Cassini, « Terrorisme : accord entre la France et les géants du Net », Les Echos, 23/04/2015.
  10. Philippe Vion-Dury, La nouvelle servitude volontaire, Enquête sur le projet politique de la Silicon Valley, Editions FYP, 2016.
  11. Götz Hamman, The United States of Google, Paris : Premier Parallèle, 2015.
  12. On pourrait ici affirmer que ce qui est en jeu ici est le solutionnisme technologique, tel que le critique Evgeny Morozov. Certes, c’est aussi ce que Götz Haman démontre : à vouloir adopter des solutions web-centrées et du data mining pour mécaniser les interactions sociales, cela revient à les privatiser par les GAFAM. Mais ce que je souhaite montrer ici, c’est que la racine du capitalisme de surveillance est une idéologie dont le solutionnisme technologique n’est qu’une résurgence (un rhizome, pour filer la métaphore végétale). Le phénomène qu’il nous faut comprendre, c’est que l’avènement du capitalisme de surveillance n’est pas dû uniquement à cette tendance solutionniste, mais il est le résultat d’une convergence entre des renversements idéologiques (fin du libéralisme classique et dénaturation du néo-libéralisme), des nouvelles organisations (du travail, de la société, du droit), des innovations technologiques (le web, l’extraction et l’exploitation des données), de l’abandon du politique. On peut néanmoins lire avec ces clés le remarquable ouvrage de Evgeny Morozov, Pour tout résoudre cliquez ici : L’aberration du solutionnisme technologique, Paris : FYP éditions, 2014.
  13. Peppino Ortoleva, « Qu’est-ce qu’un gouvernement d’experts ? Le cas italien », dans : Hermès, 64/3, 2012, pp. 137-144.
  14. Vincent Dubois et Delphine Dulong, La question technocratique. De l’invention d’une figure aux transformations de l’action publique, Strasbourg : Presses Universitaires de Strasbourg, 2000.
  15. Pierre Lascoumes et Patrick Le Galès (dir.), Gouverner par les instruments, Paris : Les Presses de Sciences Po., 2004, chap. 6, pp. 237 sq.
  16. « Raphaël Mastier, Microsoft France : le secteur hospitalier doit industrialiser sa modernisation numérique », Econocom, 29/05/2015.
  17. « Services aux citoyens, simplification, innovation : les trois axes stratégiques du secteur public », CGI : Blog De la Suite dans les Idées, 02/05/2017.
  18. Ariane Beky, « Loi numérique : les amendements sur le logiciel libre divisent », Silicon.fr, 14/01/2016.
  19. Marc Rees, « La justice annule un marché public excluant le logiciel libre », Next Inpact, 10/01/2011.
  20. Mark Zuckerberg, « Building Global Community », Facebook.com, 16/02/2017.
  21. Fred Tuner, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture. Stewart Brand, un homme d’influence, Caen : C&F Éditions, 2013.
  22. Christophe Masutti, « Les nouveaux Léviathans I — Histoire d’une conversion capitaliste », Framablog, 04/07/2016.
  23. Compte-rendu de l’audition deBruno Lasserre, président de l’Autorité de la concurrence, sur la régulation et la loyauté des plateformes numériques, devant la Commission de réflexion et de propositions sur le droit et les libertés à l’âge du numérique, Mardi 7 juillet 2015 (lien).
  24. Alain Supiot, La gouvernance par les nombres. Cours au Collège de France (2012-2014), Paris : Fayard, 2015, p. 206.



Surveillons la surve://ance

La revue de presse de Jonas@framasoft, qui paraît quand il a le temps. Épisode No 2/n

Effacer n’est pas supprimer : votre historique de Safari demeure longtemps dans iCloud

(Source : Forbes)

Si vous pensez que la suppression de votre historique de navigation sur votre iPhone ou Mac va faire disparaître définitivement vos habitudes en ligne, vous vous trompez. Lourdement. Selon le PDG d’Elcomsoft qui commercialise un outil d’extraction des données du iPhone, Apple stocke l’historique de navigation de Safari dans le iCloud, en remontant à plus d’un an, peut-être bien davantage, même lorsque l’utilisateur a demandé qu’il soit effacé de la mémoire.

Jay Stanley, spécialiste de l’analyse des politiques de confidentialité à l’ACLU (Union américaine pour les libertés civiles), dit que les entreprises doivent être vigilantes et suivre les bonnes pratiques en détruisant vraiment les données des utilisateurs qui le demandent.

Il rappelle : « l’historique de navigation est un ensemble de données extrêmement sensibles. Elles révèlent les centres d’intérêt des personnes, ce qui les préoccupe, un grand nombre des pensées qui les traversent, ainsi que des informations sur leur santé et leur sexualité ».

L’article se termine par une mise à jour rassurante : Apple semble avoir corrigé le problème dans la dernière version de son OS. Cependant il est conseillé aux utilisateurs soucieux de leurs données sensibles de désactiver la synchronisation de Safari avec  iCloud.

Vos comptes Gmail espionnés légalement

(source : Papergeek)

La justice vient de statuer sur les données stockées sur les serveurs de Google, dont celles du très populaire service de messagerie Gmail. Elle a donc décidé de forcer la firme à divulguer les données de n’importe lequel de ses utilisateurs quelle que soit la nationalité, que vous résidiez ou non aux États-Unis. Même si les données en question se trouvent sur des serveurs en dehors du territoire des États-Unis.

« Nersac, un poste optique ». Détail d’une carte postale française de 1910. Domaine public, image procurée par Signal mirror.

Cyber-harcèlement d’état ?

(source : The New York Times)

Au Mexique, les partisans d’une taxe sur les sodas, comme des nutritionnistes ou responsables de la santé publique, sont victimes de messages électroniques inquiétants ou menaçants. La taxe est destinée à réduire la consommation de boissons sucrées et donc l’obésité, mais elle se heurte évidemment aux pressions des géants voisins des boissons gazeuses, pressions relayées semble-t-il par le gouvernement mexicain lui-même.

Les liens envoyés étaient accompagnés d’une forme invasive de logiciels espions développée par NSO Group, un cyber-distributeur israélien qui vend ses outils d’espionnage exclusivement aux gouvernements et qui a des contrats avec plusieurs agences à l’intérieur du Mexique, comme le révèlent des fuites publiées l’an dernier par le New York Times.

NSO Group et les dizaines d’autres « espiogiciels » commerciaux qui sont apparus autour du globe au cours de la dernière décennie opèrent dans un marché largement non réglementé. Les fabricants de ces logiciels espions comme NSO Group, Hacking Team en Italie et Gamma Group en Grande-Bretagne assurent qu’ils vendent des outils uniquement aux gouvernements pour les enquêtes criminelles et terroristes.

Mais les services gouvernementaux ont toute latitude pour décider qui ils veulent on non pirater avec des outils d’espionnage qui peuvent tout pister de leur cible : tous les appels téléphoniques, les textos, les courriels, les frappes au clavier, la localisation, chaque son et chaque image.

Jonas rejeté par la baleine. Enluminure de la Bible de Jean XXII. École française du XIVe siècle – Domaine public (via Wikimédia Commons)




Chroniques du Léviathan

La revue de presse de Jonas@framasoft, qui paraît quand il a le temps

 

« Un cerveau de substitution »

Dans une interview sur les chances qu’a Qwant de rivaliser avec le moteur de recherche de Google, Éric Léandri, co-fondateur de Qwant, déclare :

Vous devez penser à l’Internet non seulement comme un moyen de communication, mais de plus en plus comme à un cerveau de substitution. Les choses qui auraient été gardées dans les limites impénétrables de votre propre esprit, ou dans le sanctuaire de votre maison, sont maintenant envoyées sur des serveurs pour que le monde ou quelques entreprises les voient. Tout ce que nous faisons est de plus en plus stocké et peut être récupéré sur demande.

 

« Votre historique de navigation suffit à dévoiler votre identité »

D’après un article de The Atlantic, une équipe de chercheurs de Stanford et Princeton a développé un système qui peut connecter votre profil Twitter avec votre nom et votre identité, en examinant seulement votre historique de recherche.

Cela signifie que conserver la confidentialité tout en utilisant Twitter est impossible sans renoncer à ce qui constitue le marqueur du réseau social : sa nature publique et gratuite pour tous.

L’article explique comment l’expérience a été menée et mentionne au passage quelles parades on peut éventuellement utiliser : Privacy Badger et Ghostery
Mais voici la fin de l’article :

Le conseil de sagesse qu’on nous donne généralement est qu’il faut être prudent avec ce que l’on partage. Mais ici, nous montrons que vous pouvez être dés-anonymisé simplement en naviguant et en suivant des comptes, même si vous ne partagez rien.

 

 « Une fois vos informations stockées, on peut les modifier et en faire ce qu’on veut »

Dans l’hebdomadaire italien La Repubblica, la journaliste Stefania Maurizi interviewe le lanceur d’alerte William Binney. Celui-ci évoque entre autres un programme pour la NSA nommé ThinThread, qu’il avait développé avec son équipe et qui permettait de cibler avec précision la surveillance en visant les activités délictueuses, tout en laissant de côté les données privées.

Quelques extraits de la conversation :

Stefania Maurizi — Après le 11 septembre, la NSA a détourné votre système, supprimé les dispositifs protégeant la vie privée et a utilisé ThinThread pour espionner la population tout entière ?
William Binney — La première chose qu’ils ont faite a été le programme « Stellar Wind » qui visait l’espionnage domestique (…) ils ont supprimé trois fonctionnalités de ThinThread dont l’une était la protection de la vie privée. Au lieu de prendre seulement les données pertinentes ou celles qui étaient très probablement pertinentes, ils ont absolument tout pris et ils ont étendu la surveillance à l’échelle de la planète.
SM — Nous avons constaté dans les seize dernière années que la surveillance de la NSA avait échoué à prévenir des attaques terroristes. Pensez-vous que ce n’est qu’une question de temps avant que la NSA ne soit capable de le faire effectivement, ou bien qu’ils n’en auront jamais les capacités ?
WB — Je pense qu’ils sont condamnés à l’échec, parce qu’ils sont enfermés dans la conviction qu’ils doivent tout collecter (…) Ils sont très bons pour collecter des données, mais ils n’ont fait aucun progrès pour essayer de savoir ce qu’ils peuvent avoir dans les données qu’ils ont collectées.[…]
Ce genre de pouvoir ne devrait pas exister pour aucun gouvernement, parce qu’il crée vraiment un état totalitaire. C’est comme la Stasi dopée aux amphétamines ; au lieu de détenir des dossiers avec des documents sur tout le monde, ils archivent tout ce que vous faites de façon électronique, si bien que le jeu d’informations est beaucoup plus complet, à jour et exploitable, et ils peuvent le manipuler, et faire de vous tout ce qu’ils veulent […]
SM — Donc le problème n’est pas seulement la collecte, mais aussi la manipulation des données ?
WB — Oui. une fois qu’on a stocké les informations, on peut les modifier et en faire ce que l’on veut.

Léviathan dans la fresque « Le Jugement dernier » de Giacomo Rossignolo – CC-BY-SA




Les anciens Léviathans II — Internet. Pour un contre-ordre social

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?

Cet article est une re-publication sur le framablog, car ce texte s’inscrit dans une série de réflexions.

Vous avez raté les épisodes précédents ?

De la légitimité

Michel Foucault, disparu il y a trente ans, proposait d’approcher les grandes questions du monde à travers le rapport entre savoir et pouvoir. Cette méthode a l’avantage de contextualiser le discours que l’on est en train d’analyser : quels discours permettent d’exercer quels pouvoirs ? Et quels pouvoirs sont censés induire quelles contraintes et en vertu de quels discours ? Dans un de ses plus célèbres ouvrages, Surveiller et punir[1], Foucault démontre les mécanismes qui permettent de passer de la démonstration publique du pouvoir d’un seul, le monarque qui commande l’exécution publique des peines, à la normativité morale et physique imposée par le contrôle, jusqu’à l’auto-censure. Ce n’est plus le pouvoir qui est isolé dans la forteresse de l’autorité absolue, mais c’est l’individu qui exerce lui-même sa propre coercition. Ainsi, Surveiller et punir n’est pas un livre sur la prison mais sur la conformation de nos rapports sociaux à la fin du XXe siècle.

 

 

Deux autres auteurs et œuvres pas du tout importants. Du tout, du tout.
Deux autres auteurs et œuvres pas du tout importants. Du tout, du tout.

 

Les modèles économiques ont suivi cet ordre des choses : puisque la société est individualiste, c’est à l’individu que les discours doivent s’adresser. La plupart des modèles économiques qui préexistent à l’apparition de services sur Internet furent considérés, au début du XXIe siècle, comme les seuls capables de générer des bénéfices, de l’innovation et du bien-être social. L’exercice de la contrainte consistait à susciter le consentement des individus-utilisateurs dans un rapport qui, du moins le croyait-on, proposait une hiérarchie entre d’un côté les producteurs de contenus et services et, de l’autre côté, les utilisateurs. Il n’en était rien : les utilisateurs eux-mêmes étaient supposés produire des contenus œuvrant ainsi à la normalisation des rapports numériques où les créateurs exerçaient leur propre contrainte, c’est-à-dire accepter le dévoilement de leur vie privée (leur identité) en guise de tribut à l’expression de leurs idées, de leurs envies, de leurs besoins, de leurs rêves. Que n’avait-on pensé plus tôt au spectaculaire déploiement de la surveillance de masse focalisant non plus sur les actes, mais sur les éléments qui peuvent les déclencher ? Le commerce autant que l’État cherche à renseigner tout comportement prédictible dans la mesure où, pour l’un il permet de spéculer et pour l’autre il permet de planifier l’exercice du pouvoir. La société prédictible est ainsi devenue la force normalisatrice en fonction de laquelle tout discours et tout pouvoir s’exerce désormais (mais pas exclusivement) à travers l’organe de communication le plus puissant qui soit : Internet. L’affaire Snowden n’a fait que focaliser sur l’un de ses aspects relatif aux questions des défenses nationales. Mais l’aspect le plus important est que, comme le dit si bien Eben Moglen dans une conférence donnée à Berlin en 2012[2], « nous n’avons pas créé l’anonymat lorsque nous avons inventé Internet. »

Depuis le milieu des années 1980, les méthodes de collaboration dans la création de logiciels libres montraient que l’innovation devait être collective pour être assimilée et partagée par le plus grand nombre. La philosophie du Libre s’opposait à la nucléarisation sociale et proposait un modèle où, par la mise en réseau, le bien-être social pouvait émerger de la contribution volontaire de tous adhérant à des objectifs communs d’améliorations logicielles, techniques, sociales. Les créations non-logicielles de tout type ont fini par suivre le même chemin à travers l’extension des licences à des œuvres non logicielles. Les campagnes de financement collaboratif, en particulier lorsqu’elles visent à financer des projets sous licence libre, démontrent que dans un seul et même mouvement, il est possible à la fois de valider l’impact social du projet (par l’adhésion du nombre de donateurs) et assurer son développement. Pour reprendre Eben Moglen, ce n’est pas l’anonymat qui manque à Internet, c’est la possibilité de structurer une société de la collaboration qui échappe aux modèles anciens et à la coercition de droit privé qu’ils impliquent. C’est un changement de pouvoir qui est à l’œuvre et contre lequel toute réaction sera nécessairement celle de la punition : on comprend mieux l’arrivée plus ou moins subtile d’organes gouvernementaux et inter-gouvernementaux visant à sanctionner toute incartade qui soit effectivement condamnable en vertu du droit mais aussi à rigidifier les conditions d’arrivée des nouveaux modèles économiques et structurels qui contrecarrent les intérêts (individuels eux aussi, par définition) de quelques-uns. Nous ne sommes pas non plus à l’abri des resquilleurs et du libre-washing cherchant, sous couvert de sympathie, à rétablir une hiérarchie de contrôle.

Dans sa Lettre aux barbus[3], le 5 juin 2014, Laurent Chemla vise juste : le principe selon lequel « la sécurité globale (serait) la somme des sécurités individuelles » implique que la surveillance de masse (rendue possible, par exemple, grâce à notre consentement envers les services gratuits dont nous disposons sur Internet) provoque un déséquilibre entre d’une part ceux qui exercent le pouvoir et en ont les moyens et les connaissances, et d’autre part ceux sur qui s’exerce le pouvoir et qui demeurent les utilisateurs de l’organe même de l’exercice de ce pouvoir. Cette double contrainte n’est soluble qu’à la condition de cesser d’utiliser des outils centralisés et surtout s’en donner les moyens en « (imaginant) des outils qui créent le besoin plutôt que des outils qui répondent à des usages existants ». C’est-à-dire qu’il relève de la responsabilité de ceux qui détiennent des portions de savoir (les barbus, caricature des libristes) de proposer au plus grand nombre de nouveaux outils capables de rétablir l’équilibre et donc de contrecarrer l’exercice illégitime du pouvoir.

Une affaire de compétences

Par bien des aspects, le logiciel libre a transformé la vie politique. En premier lieu parce que les licences libres ont bouleversé les modèles[4] économiques et culturels hérités d’un régime de monopole. En second lieu, parce que les développements de logiciels libres n’impliquent pas de hiérarchie entre l’utilisateur et le concepteur et, dans ce contexte, et puisque le logiciel libre est aussi le support de la production de créations et d’informations, il implique des pratiques démocratiques de décision et de liberté d’expression. C’est en ce sens que la culture libre a souvent été qualifiée de « culture alternative » ou « contre-culture » parce qu’elle s’oppose assez frontalement avec les contraintes et les usages qui imposent à l’utilisateur une fenêtre minuscule pour échanger sa liberté contre des droits d’utilisation.

Contrairement à ce que l’on pouvait croire il y a seulement une dizaine d’années, tout le monde est en mesure de comprendre le paradoxe qu’il y a lorsque, pour pouvoir avoir le droit de communiquer avec la terre entière et 2 amis, vous devez auparavant céder vos droits et votre image à une entreprise comme Facebook. Il en est de même avec les formats de fichiers dont les limites ont vite été admises par le grand public qui ne comprenait et ne comprend toujours pas en vertu de quelle loi universelle le document écrit il y a 20 ans n’est aujourd’hui plus lisible avec le logiciel qui porte le même nom depuis cette époque. Les organisations libristes telles la Free Software Foundation[5], L’Electronic Frontier Foundation[6], l’April[7], l’Aful[8], Framasoft[9] et bien d’autres à travers le monde ont œuvré pour la promotion des formats ouverts et de l’interopérabilité à tel point que la décision publique a dû agir en devenant, la plupart du temps assez mollement, un organe de promotion de ces formats. Bien sûr, l’enjeu pour le secteur public est celui de la manipulation de données sensibles dont il faut assurer une certaine pérennité, mais il est aussi politique puisque le rapport entre les administrés et les organes de l’État doit se faire sans donner à une entreprise privée l’exclusivité des conditions de diffusion de l’information.

Extrait de l'expolibre de l'APRIL
Extrait de l’expolibre de l’APRIL

 

Les acteurs associatifs du Libre, sans se positionner en lobbies (alors même que les lobbies privés sont financièrement bien plus équipés) et en œuvrant auprès du public en donnant la possibilité à celui-ci d’agir concrètement, ont montré que la société civile est capable d’expertise dans ce domaine. Néanmoins, un obstacle de taille est encore à franchir : celui de donner les moyens techniques de rendre utilisables les solutions alternatives permettant une émancipation durable de la société. Peine perdue ? On pourrait le croire, alors que des instances comme le CNNum (Conseil National du Numérique) ont tendance à se résigner[10] et penser que les GAFA (Google, Apple, Facebook et Amazon) seraient des autorités incontournables, tout comme la soumission des internautes à cette nouvelle forme de féodalité serait irrémédiable.

Pour ce qui concerne la visibilité, on ne peut pas nier les efforts souvent exceptionnels engagés par les associations et fondations de tout poil visant à promouvoir le Libre et ses usages auprès du large public. Tout récemment, la Free Software Foundation a publié un site web multilingue exclusivement consacré à la question de la sécurité des données dans l’usage des courriels. Intitulé Email Self Defense[11], ce guide explique, étape par étape, la méthode pour chiffrer efficacement ses courriels avec des logiciels libres. Ce type de démarche est en réalité un symptôme, mais il n’est pas seulement celui d’une réaction face aux récentes affaires d’espionnage planétaire via Internet.

Pour reprendre l’idée de Foucault énoncée ci-dessus, le contexte de l’espionnage de masse est aujourd’hui tel qu’il laisse la place à un autre discours : celui de la nécessité de déployer de manière autonome des infrastructures propres à l’apprentissage et à l’usage des logiciels libres en fonction des besoins des populations. Auparavant, il était en effet aisé de susciter l’adhésion aux principes du logiciel libre sans pour autant déployer de nouveaux usages et sans un appui politique concret et courageux (comme les logiciels libres à l’école, dans les administrations, etc.). Aujourd’hui, non seulement les principes sont socialement intégrés mais de nouveaux usages ont fait leur apparition tout en restant prisonniers des systèmes en place. C’est ce que soulève très justement un article récent de Cory Doctorow[12] en citant une étude à propos de l’usage d’Internet chez les jeunes gens. Par exemple, une part non négligeable d’entre eux suppriment puis réactivent au besoin leurs comptes Facebook de manière à protéger leurs données et leur identité. Pour Doctorow, être « natifs du numérique » ne signifie nullement avoir un sens inné des bons usages sur Internet, en revanche leur sens de la confidentialité (et la créativité dont il est fait preuve pour la sauvegarder) est contrecarré par le fait que « Facebook rend extrêmement difficile toute tentative de protection de notre vie privée » et que, de manière plus générale, « les outils propices à la vie privée tendent à être peu pratiques ». Le sous-entendu est évident : même si l’installation logicielle est de plus en plus aisée, tout le monde n’est capable d’installer chez soi des solutions appropriées comme un serveur de courriel chiffré.

Que faire ?

Le diagnostic posé, que pouvons-nous faire ? Le domaine associatif a besoin d’argent. C’est un fait, d’ailleurs remarqué par le gouvernement français, qui avait fait de l’engagement associatif la grande « cause nationale de l’année 2014 ». Cette action[13] a au moins le mérite de valoriser l’économie sociale et solidaire, ainsi que le bénévolat. Les associations libristes sont déjà dans une dynamique similaire depuis un long moment, et parfois s’essoufflent… En revanche, il faut des investissements de taille pour avoir la possibilité de soutenir des infrastructures libres dédiées au public et répondant à ses usages numériques. Ces investissements sont difficiles pour au moins deux raisons :

  • la première réside dans le fait que les associations ont pour cela besoin de dons en argent. Les bonnes volontés ne suffisent pas et la monnaie disponible dans les seules communautés libristes est à ce jour en quantité insuffisante compte tenu des nombreuses sollicitations ;
  • la seconde découle de la première : il faut lancer un mouvement de financements participatifs ou des campagnes de dons ciblées de manière à susciter l’adhésion du grand public et proposer des solutions adaptées aux usages.

Pour cela, la première difficulté sera de lutter contre la gratuité. Aussi paradoxal que cela puisse paraître, la gratuité (relative) des services privateurs possède une dimension attractive si puissante qu’elle élude presque totalement l’existence des solutions libres ou non libres qui, elles, sont payantes. Pour rester dans le domaine de la correspondance, il est très difficile aujourd’hui de faire comprendre à Monsieur Dupont qu’il peut choisir un hébergeur de courriel payant, même au prix « participatif » d’1 euro par mois. En effet, Monsieur Dupont peut aujourd’hui utiliser, au choix : le serveur de courriel de son employeur, le serveur de courriel de son fournisseur d’accès à Internet, les serveurs de chez Google, Yahoo et autres fournisseurs disponibles très rapidement sur Internet. Dans l’ensemble, ces solutions sont relativement efficaces, simples d’utilisation, et ne nécessitent pas de dépenses supplémentaires. Autant d’arguments qui permettent d’ignorer la question de la confidentialité des courriels qui peuvent être lus et/ou analysés par son employeur, son fournisseur d’accès, des sociétés tierces…

Pourtant des solutions libres, payantes et respectueuses des libertés, existent depuis longtemps. C’est le cas de Sud-Ouest.org[14], une plate-forme d’hébergement mail à prix libre. Ou encore l’association Lautre.net[15], qui propose une solution d’hébergement de site web, mais aussi une adresse courriel, la possibilité de partager ses documents via FTP, la création de listes de discussion, etc. Pour vivre, elle propose une participation financière à la gestion de son infrastructure, quoi de plus normal ?

Aujourd’hui, il est de la responsabilité des associations libristes de multiplier ce genre de solutions. Cependant, pour dégager l’obstacle de la contrepartie financière systématique, il est possible d’ouvrir gratuitement des services au plus grand nombre en comptant exclusivement sur la participation de quelques-uns (mais les plus nombreux possible). En d’autres termes, il s’agit de mutualiser à la fois les plates-formes et les moyens financiers. Cela ne rend pas pour autant les offres gratuites, simplement le coût total est réparti socialement tant en unités de monnaie qu’en contributions de compétences. Pour cela, il faut savoir convaincre un public déjà largement refroidi par les pratiques des géants du web et qui perd confiance.

Framasoft propose des solutions

Parmi les nombreux projets de Framasoft, il en est un, plus généraliste, qui porte exclusivement sur les moyens techniques (logiciels et matériels) de l’émancipation du web. Il vise à renouer avec les principes qui ont guidé (en des temps désormais très anciens) la création d’Internet, à savoir : un Internet libre, décentralisé (ou démocratique), éthique et solidaire (l.d.e.s.).

Framasoft n’a cependant pas le monopole de ces principes l.d.e.s., loin s’en faut, en particulier parce que les acteurs du Libre œuvrent tous à l’adoption de ces principes. Mais Framasoft compte désormais jouer un rôle d’interface. À l’instar d’un Google qui rachète des start-up pour installer leurs solutions à son compte et constituer son nuage, Framasoft se propose depuis 2010, d’héberger des solutions libres pour les ouvrir gratuitement à tout public. C’est ainsi que par exemple, des particuliers, des syndicats, des associations et des entreprises utilisent les instances Framapad et Framadate. Il s’agit du logiciel Etherpad, un système de traitement de texte collaboratif, et d’un système de sondage issu de l’Université de Strasbourg (Studs) permettant de convenir d’une date de réunion ou créer un questionnaire. Des milliers d’utilisateurs ont déjà bénéficié de ces applications en ligne ainsi que d’autres, qui sont listées sur Framalab.org[16].

Depuis le début de l’année 2014, Framasoft a entamé une stratégie qui, jusqu’à présent est apparue comme un iceberg aux yeux du public. Pour la partie émergée, nous avons tout d’abord commencé par rompre radicalement les ponts avec les outils que nous avions tendance à utiliser par pure facilité. Comme nous l’avions annoncé lors de la campagne de don 2013, nous avons quitté les services de Google pour nos listes de discussion et nos analyses statistiques. Nous avons choisi d’installer une instance Bluemind, ouvert un serveur Sympa, mis en place Piwik ; quant à la publicité et les contenus embarqués, nous pouvons désormais nous enorgueillir d’assurer à tous nos visiteurs que nous ne nourrissons plus la base de données de Google. À l’échelle du réseau Framasoft, ces efforts ont été très importants et ont nécessité des compétences et une organisation technique dont jusque là nous ne disposions pas.

L'état de la Dégooglisation en octobre 2015...
L’état de la Dégooglisation en octobre 2015…

 

Nous ne souhaitons pas nous arrêter là. La face immergée de l’iceberg est en réalité le déploiement sans précédent de plusieurs services ouverts. Ces services ne sont pas seulement proposés, ils sont accompagnés d’une pédagogie visant à montrer comment[17] installer des instances similaires pour soi-même ou pour son organisation. Nous y attachons d’autant plus d’importance que l’objectif n’est pas de commettre l’erreur de proposer des alternatives centralisées mais d’essaimer au maximum les solutions proposées.

Au mois de juin, nous avons lancé une campagne de financement participatif afin d’améliorer Etherpad (sur lequel est basé notre service Framapad) en travaillant sur un plugin baptisé Mypads : il s’agit d’ouvrir des instances privées, collaboratives ou non, et les regrouper à l’envi, ce qui permettra in fine de proposer une alternative sérieuse à Google Docs. À l’heure où j’écris ces lignes, la campagne est une pleine réussite et le déploiement de Mypads (ainsi que sa mise à disposition pour toute instance Etherpad) est prévue pour le dernier trimestre 2014. Nous avons de même comblé les utilisateurs de Framindmap, notre créateur en ligne de carte heuristiques, en leur donnant une dimension collaborative avec Wisemapping, une solution plus complète.

Au mois de juillet, nous avons lancé Framasphère[18], une instance Diaspora* dont l’objectif est de proposer (avec Diaspora-fr[19]) une alternative à Facebook en l’ouvrant cette fois au maximum en direction des personnes extérieures au monde libriste. Nous espérons pouvoir attirer ainsi l’attention sur le fait qu’aujourd’hui, les réseaux sociaux doivent afficher clairement une éthique respectueuse des libertés et des droits, ce que nous pouvons garantir de notre côté.

Enfin, après l’été 2014, nous comptons de même offrir aux utilisateurs un moteur de recherche (Framasearx) et d’ici 2015, si tout va bien, un diaporama en ligne, un service de visioconférence, des services de partage de fichiers anonymes et chiffrés, et puis… et puis…

Aurons-nous les moyens techniques et financiers de supporter la charge ? J’aimerais me contenter de dire que nous avons la prétention de faire ainsi œuvre publique et que nous devons réussir parce qu’Internet a aujourd’hui besoin de davantage de zones libres et partagées. Mais cela ne suffit pas. D’après les derniers calculs, si l’on compare en termes de serveurs, de chiffre d’affaires et d’employés, Framasoft est environ 38.000 fois plus petit que Google[20]. Or, nous n’avons pas peur, nous ne sommes pas résignés, et nous avons nous aussi une vision au long terme pour changer le monde[21]. Nous savons qu’une population de plus en plus importante (presque majoritaire, en fait) adhère aux mêmes principes que ceux du modèle économique, technique et éthique que nous proposons. C’est à la société civile de se mobiliser et nous allons développer un espace d’expression de ces besoins avec les moyens financiers de 200 mètres d’autoroute en équivalent fonds publics. Dans les mois et les années qui viennent, nous exposerons ensemble des méthodes et des exemples concrets pour améliorer Internet. Nous aider et vous investir, c’est rendre possible le passage de la résistance à la réalisation.

Ce document est placé sous Licence Art Libre 1.3 (Document version 1.0)
Paru initialement dans Linux Pratique n°85 Septembre/Octobre 2014, avec leur aimable autorisation.

Notes

[1] Michel Foucault, Surveiller et punir. Naissance de la prison, Paris : Gallimard, 1975; http://fr.wikipedia.org/wiki/Surveiller_et_punir

[2] Eben Moglen, « Why Freedom of Thought Requires Free Media and Why Free Media Require Free Technology », Re:Publica Conference, 02 mai 2012, Berlin; http://12.re-publica.de/panel/why-freedom-of-thought-requires-free-media-and-why-free-media-require-free-technology/

[3] Laurent Chemla, « Lettre aux barbus », Mediapart, 05/06/2014; http://blogs.mediapart.fr/blog/laurent-chemla/050614/lettre-aux-barbus

[4] Benjamin Jean, Option libre. Du bon usage des licences libres, Paris : Framasoft/Framabook, 2011; http://framabook.org/option-libre-du-bon-usage-des-licences-libres

[5] La FSF se donne pour mission mondiale la promotion du logiciel libre et la défense des utilisateurs; http://www.fsf.org/

[6] L’objectif de l’EFF est de défendre la liberté d’expression sur Internet, ce qui implique l’utilisation des logiciels libres; http://www.eff.org

[7] April. Promouvoir et défendre le logiciel libre; http://www.april.org

[8] Association Francophone des Utilisateurs de Logiciels Libres; https://aful.org

[9] Framasoft, La route est longue mais la voie est libre; http://framasoft.org

[10] Voir à ce sujet l’analyse du dernier rapport du CNNum sur « la neutralité des plateformes », par Stéphane Bortzmeyer; http://www.bortzmeyer.org/neutralite-plateformes.html

[11] Autodéfense courriel; https://emailselfdefense.fsf.org/fr/.

[12] Cory Doctorow, « Vous êtes “natif du numérique” ? – Ce n’est pas si grave, mais… », trad. fr. sur Framablog, le 6 juin 2014; https://framablog.org/index.php/post/2014/06/05/vous-etes-natifs-num%C3%A9riques-pas-grave-mais

[13] Sera-t-elle efficace ? c’est une autre question

[14] Plateforme libre d’hébergement mail à prix libre; https://www.sud-ouest.org

[15] L’Autre Net, hébergeur associatif autogéré; http://www.lautre.net

[16] Le laboratoire des projets Framasoft; https://framalab.org

[17] On peut voir ce tutoriel d’installation de Wisemapping comme exemple de promotion de la décentralisation; http://framacloud.org/cultiver-son-jardin/installation-de-wisemapping/

[18] Un réseau social libre, respectueux et décentralisé; https://framasphere.org

[19] Noeud du réseau Diaspora*, hébergé en France chez OVH; https://diaspora-fr.org/

[20] Voir au sujet de la dégooglisation d’Internet la conférence de Pierre-Yves Gosset lors des Rencontres Mondiales du Logiciel Libre, juillet 2014, Montpellier; http://video.rmll.info/videos/quelles-alternatives-a-google-retours-sur-lexperience-framacloud

[21] Cette vision du monde vaut bien celle de Google, qui faisait l’objet de la Une de Courrier International du mois de mai 2014. http://www.courrierinternational.com/article/2014/05/27/google-maitre-du-futur.