Publicité ciblée en ligne : rien ne changera tant que…

AdContrarian (en français, à peu près « Poil à gratter de la pub ») est le titre du blog de Bob Hoffman et ce choix  dit assez combien ce journaliste notoire aux U.S.A s’évertue à « mettre mal à l’aise les marketeux » qu’il connaît bien et ne se lasse pas de les fustiger sans prendre de gants…

Dans sa newsletter de février que les bénévoles de Framalang ont traduit pour vous, il fait preuve d’un certain pessimisme par rapport au RGPD et à sa transposition dans les réglements étatsuniens, tant les acteurs de la publicité ciblée, Google et autres, ont peu de difficultés à contourner les lois ou à payer, même si le ciblage publicitaire est déclaré illégal…

Source : Special Edition : It’s all illegal

Traduction Framalang : Aliénor, Claire, goofy, Guestr, jums, Susy

On tient un scoop : tout est illégal !

par Bob Hoffman

L’intégralité de la publicité en ligne en Europe repose sur un pistage illégal.

Tel a été le verdict, en février dernier, du bras armé chargé du respect du RGPD (Règlement Général sur la Protection des Données).
Mardi 2 février 2022, les autorités chargées de la protection des données de l’Union européenne ont statué sur l’illégalité des « fenêtres popup qui sollicitent le consentement », ces affreuses notifications qui vous demandent dans un charabia incompréhensible d’accepter des cookies à chaque fois que vous arrivez sur un site web. Déroulons toute l’histoire depuis le début.

Il y a presque cinq ans, l’Union européenne a voté pour l’application du RGPD dont l’objectif était de protéger la vie privée des citoyens contre les abus de l’industrie de la collecte de données en ligne. Ce RGPD fixe certaines normes pour la collecte et l’utilisation des données, y compris pour les activités des agences publicitaires en ligne.

Pour se conformer au RGPD, les publicitaires ont demandé à leur regroupement industriel, la malhonnête et peu recommandable Interactive Advertising Bureau (ou IAB) Europe, d’imaginer un classique du genre, le « Cadre de transparence et de consentement » (TCF), qui selon eux permettait aux annonceurs de ne pas se conformer au RGPD. Le TCF est une justification bidon de ces stupides fenêtres de consentement.

Cette semaine, l’autorité de protection des données a jugé que le TCF c’est des grosses conneries et que c’est illégal. Ils ont jugé que le TCF :
• ne conserve pas les données personnelles de façon sécurisée, comme l’exige le RGPD ;
• ne recueille pas correctement le consentement des personnes ;
• n’a pas défini un « intérêt légitime » légalement valide pour la collecte de ces informations ;
• échoue à être transparent sur ce qui est fait de ces données personnelles ;
• échoue à veiller à ce que ces données soient traitées en accord avec les lignes directrices du RGPD ;
• échoue à respecter les critères du RGPD de « protection des données dès la conception ».

À part ça, c’est absolument super.

Chapeau à l’ICCL (Conseil irlandais pour les libertés civiles) pour avoir porté cette grosse affaire devant les instances européennes. Et un prix Nobel de quelque chose pour Johnny Ryan qui veille sans relâche sur les droits à la vie privée au nom de nous tous. On peut voir Johnny Ryan parler aux infos de ce jugement.

Question suivante : qu’est-ce que ça va changer pour le secteur de la publicité ciblée ? Comme nous le savons, ce secteur fait régulièrement un doigt d’honneur aux régulateurs et fait absolument tout ce qui lui chante. Les régulateurs pensent qu’ils gèrent les choses, mais leur incompétence pathétique et leur couardise ont permis au secteur de la publicité ciblée d’en faire voir de toutes les couleurs aux régulateurs et au public, depuis l’instauration du RGPD. Une conséquence de ce jugement est que Google et tous les autres acteurs du secteur de la publicité ciblée en ligne sont sommés de brûler toutes les données qu’ils ont collectées illégalement. Google se conformera à ça quand les réfrigérateurs auront des ailes.

L’IAB Europe a maintenant six mois pour corriger l’illégalité flagrante de leur TCF absurde. Que vont-ils faire ? À mon avis, ils vont pondre une autre magnifique bouse qui va prendre des années à contester, pendant que les publicitaires continueront d’entuber joyeusement le public. Comme d’habitude, j’espère avoir tort.

Le secteur de la publicité ciblée, en particulier Google et Amazon, amasse beaucoup trop d’argent pour en avoir quoi que ce soit à faire des amendes de pacotille que les régulateurs leur distribuent pour leurs activités criminelles. Pour eux, ce sont juste des frais de fonctionnement. Facebook n’essaie même pas de se soumettre au TCF, ils n’ont de comptes à rendre à personne.

Rien ne changera tant que personne n’aura été envoyé en prison.

Perspective locale

L’ironie dans tout ça, c’est que juste au moment où l’IAB étatsunienne est sur le point de spammer le monde entier avec sa version du TCF, les régulateurs de l’UE l’ont détruite.

Un peu de contexte…

Ici, aux États-Unis, il n’y a pas de loi contre quoi que ce soit. L’entité la plus proche que nous possédons pour réguler ce secteur corrompu de la publicité ciblée en ligne est appelée Loi de protection du consommateur en Californie (ou CCPA en anglais, California Consumer Protection Act). Elle est largement inspirée par le RGPD et aussi loin que remontent les mémoires, elle n’a jamais protégé qui que ce soit de quoi que ce soit (elle sera remplacée l’année prochaine par une autre bouillie de lettres appelée CPRA).
L’IAB étatsunienne a repris la formule illégale du TCF de leur branche Europe et l’a maladroitement transposée à la CCPA. Ils ont aussi convaincu les clowns, les escrocs et les collaborateurs de l’ANA, de la 4As (respectivement « Association of National Advertisers » et « American Association of Advertising Agencies » [des associations américaines de publicitaires, NdT]) et de grandes marques d’implémenter le TCF maintenant discrédité sous un nouveau nom foireux, « Global Privacy Platform » (Plateforme globale de la vie privée). Ouais, c’est ça.

Vue d’ensemble : L’arrogance des secteurs de la tech et du marketing aux États-Unis est tellement énorme que les actions des régulateurs n’ont quasi aucun poids. Quel sera l’effet le plus probable du jugement de cette semaine sur l’abus des données aux États-Unis ? En comptant à rebours, qu’est-ce qui vient après zéro ?
Ai-je déjà mentionné que rien ne changera tant que personne ne sera envoyé en prison ?

Comédie-ballet

La danse des régulateurs et du secteur de la publicité ciblée n’est rien d’autre qu’une performance artistique : les régulateurs portent plainte, les escrocs paient une petite amende, et tout le monde retourne à ses petites affaires.

Tout individu doté d’un cerveau fonctionnel peut comprendre qu’un secteur de la publicité ciblée basé sur du pistage est un racket criminel aux proportions gigantesques. C’est une vaste escroquerie planétaire, un crime organisé à l’échelle mondiale auquel participent quasi toutes les grandes entreprises, les organisations commerciales les plus réputées et l’ensemble des secteurs de la publicité, du marketing et des médias en ligne. Même l’IAB a reconnu avoir indiqué à la Commission européenne que les achats automatiques basés sur des enchères en temps réel sont « incompatibles avec le consentement prévu par le RGPD ».
Mais trop de personnes se font trop d’argent.
Rien ne changera tant que personne… ooooh, laissez tomber.

Si vous souhaitez vous abonner à la newsletter de Bob Hoffman (en anglais) ou simplement consulter les numéros précédents c’est par ici https://www.bobhoffmanswebsite.com/newsletters




Développeurs, développeuses, nettoyez le Web !

Voici la traduction d’une nouvelle initiative d’Aral Balkan intitulée : Clean up the web! : et si on débarrassait les pages web de leurs nuisances intrusives ?

En termes parfois fleuris (mais il a de bonnes raisons de hausser le ton) il invite toutes les personnes qui font du développement web à agir pour en finir avec la soumission aux traqueurs des GAFAM. Pour une fois, ce n’est pas seulement aux internautes de se méfier de toutes parts en faisant des choix éclairés, mais aussi à celles et ceux qui élaborent les pages web de faire face à leurs responsabilités, selon lui…

Traduction Framalang : Aliénor, ellébore, goofy, mo.

Nettoyons le Web !

par Aral Balkan

Développeurs, développeuses, c’est le moment de choisir votre camp :
voulez-vous contribuer à débarrasser le Web du pistage hostile à la confidentialité, ou bien allez-vous en être complices ?

Que puis-je faire ?

🚮️ Supprimer les scripts tiers de Google, Facebook, etc.

À commencer par Google Analytics (un des pisteurs les plus répandus dans le monde), YouTube videos, Facebook login widgets, etc.

Ces scripts permettent à des éleveurs de moutons numériques comme Google et Facebook de pister les utilisatrices d’un site à l’autre sur tout le Web. Si vous les incorporez à votre site, vous êtes complice en permettant ce pistage par des traqueurs.

Et oui, ça inclut aussi ces saloperies de Google AMP.

🚮️ Envoyer balader Google et son FLoC !

Face à la pression montante des mécontents, Google a annoncé qu’il allait à terme bloquer les traqueurs tiers dans son navigateur Chrome. Ça a l’air bien non ? Et ça l’est, jusqu’à ce que l’on entende que l’alternative proposée est de faire en sorte que Chrome lui-même traque les gens sur tous les sites qu’ils visitent…sauf si les sites lui demandent de ne pas le faire, en incluant le header suivant dans leur réponse :

Permissions-Policy: interest-cohort=()

Bon, maintenant, si vous préférez qu’on vous explique à quel point c’est un coup tordu…

Aucune page web au monde ne devrait avoir à supplier Google : « s’il vous plaît, monsieur, ne violez pas la vie privée de la personne qui visite mon site » mais c’est exactement ce que Google nous oblige à faire avec sa nouvelle initiative d’apprentissage fédéré des cohortes (FLoC).

Si jamais vous avez du mal à retenir le nom, n’oubliez pas que « flock » veut dire « troupeau » en anglais, comme dans « troupeau de moutons, » parce que c’est clairement l’image qu’ils se font de nous chez Google s’ils pensent qu’on va accepter cette saloperie.

Donc c’est à nous, les développeurs, de coller ce header dans tous les serveurs web (comme nginx, Caddy, etc.), tous les outils web (comme WordPress, Wix, etc.)… bref dans tout ce qui, aujourd’hui, implique une réponse web à une requête, partout dans le monde.

Notre petit serveur web, Site.js, l’a déjà activé par défaut.

Ça a pris cinq minutes à mettre en place.

Vous pouvez le faire.

Pour en savoir plus sur le FLoC de Google vous pouvez lire cet article du Framablog (en français) et cet article de l’EFF (en anglais).

Si jamais il y a des politiciens qui ont les yeux ouverts en ce 21e siècle et qui ne sont pas trop occupés à se frotter les mains ou à saliver à l’idée de fricoter, voire de se faire embaucher par Google et Facebook, c’est peut-être le moment de faire attention et de faire votre putain de taf pour changer.

🚮️ Arrêter d’utiliser Chrome et conseiller aux autres d’en faire autant, si ça leur est possible.

Rappelons qui est le méchant ici : c’est Google (Alphabet, Inc.), pas les gens qui pour de multiples raisons pourraient être obligés d’utiliser le navigateur web de Google (par exemple, ils ne savent pas forcément comment télécharger et installer un nouveau navigateur, ou peuvent être obligés de l’utiliser au travail, etc.)

Donc, attention de ne pas vous retrouver à blâmer la victime, mais faites comprendre aux gens quel est le problème avec Google (« c’est une ferme industrielle pour les êtres humains ») et conseillez-leur d’utiliser, s’ils le peuvent, un navigateur différent.

Malheureusement, dans l’état actuel des choses, il n’y a pas de navigateur parfait. Firefox, par exemple, est une option viable mais il ne faut pas oublier que Mozilla n’existe que parce que Google les rémunère à peu près un demi-milliard de dollars par an pour en faire le moteur de recherche par défaut sur leur navigateur. Dans le même ordre d’idées, Safari est une bonne option sur Apple mais n’oublions pas que même Apple laisse Google violer notre vie privée en échange de quelques milliards (à la différence de Mozilla, Apple n’a pas besoin de cet argent pour survivre, mais ce qui est sûr c’est qu’ils veulent en profiter.) Brave pourrait sembler le choix le plus judicieux jusqu’à ce qu’on se rende compte que le business model de Brave repose sur la vente de votre attention. Sous Linux, GNOME Web est un bon choix mais ne perdez pas de vue que Google a payé pour être membre à part entière du Comité consultatif de GNOME

C’est décourageant de voir les tentacules de ce foutu monstre marin s’étendre partout et s’il a jamais été temps de créer une organisation indépendante financée par des fonds publics pour mettre au point un navigateur sans cochonnerie, c’est le moment.

🚮️ Protégez-vous et montrez aux autres comment en faire autant

Même si les bloqueurs de traqueurs sont en train de perdre au jeu du chat et de la souris (cf. par exemple FLoC ci-dessus), ils restent encore utiles pour protéger la vie privée des gens. Nous en proposons un qui s’appelle Better Blocker à la Small Technology Foundation. Nous recommandons également l’excellente extension uBlock Origin. (Et nous proposons une version des règles de blocage de Better que vous pouvez utiliser sur UBlock Origin.)

🚮️ Découvrir et utiliser des solutions alternatives.

Apprenez à connaître et à utiliser les alternatives. Les sites suivant sont des mines de ressources :

🚮️ Passez le mot !

Pointez vers cette page avec les hashtags #CleanUpTheWeb et#FlocOffGoogle.

🚮️ Choisissez un autre business model

En fin de compte, on peut résumer les choses ainsi : si votre business model est fondé sur le pistage et le profilage des gens, vous faites partie du problème.

Les mecs de la tech dans la Silicon Valley vous diront qu’il n’y a pas d’autre façon de faire de la technologie que la leur.

C’est faux.

Ils vous diront que votre « aventure extraordinaire » commence par une startup financée par des business angels et du capital risque et qu’elle se termine soit quand vous êtes racheté par un Google ou un Facebook, soit quand vous en devenez un vous-même. Licornes et compagnie…

Vous pouvez créer de petites entreprises durables. Vous pouvez créer des coopératives. Vous pouvez créer des associations à but non lucratif, comme nous.

Et au sein de ces structures alternatives qui n’ont pas l’obsession de tout savoir sur tout le monde ni de générer de la croissance infinie avec des ressources finies, vous pouvez produire des outils qui font ce qui est dit sur l’étiquette et rien d’autre.

Si vous vous demandez ce qui vous rend heureux, est-ce que ce n’est pas ça, par hasard ?

Est-ce que vous voulez devenir milliardaire ? Est-ce que vous avez envie de traquer, de profiler, de manipuler les gens ? Ou est-ce que vous avec juste envie de faire de belles choses qui améliorent la vie des gens et rendent le monde plus équitable et plus sympa ?

Nous faisons le pari que vous préférez la seconde solution.

Si vous manquez d’inspiration, allez voir ce qui se fait chez Plausible, par exemple, et comment c’est fait, ou chez HEY, Basecamp, elementary OS, Owncast, Pine64, StarLabs, Purism, ou ce à quoi nous travaillons avec Site.js et le Small Web… vous n’êtes pas les seuls à dire non aux conneries de la Silicon Valley

Là où ils voient grand, voyons petit.

Parce que small is beautiful.

Vous avez aimé ? Soutenez-nous avec un don !

La Small Technology Foundation est une petite structure indépendante sans but lucratif.

On existe en partie grâce au soutien de gens comme vous. Si vous partagez notre vision et désirez soutenir notre travail, faites une don aujourd’hui et aidez-nous à continuer à exister.

Copyright © 2021-present Small Technology Foundation. Ground Floor, 71 Lower Baggot Street, D02 P593, Dublin, Ireland. All content on this site is licensed under Creative Commons Attribution 4.0 International.Our privacy policy is “we exist to protect your privacy.”View source.

 




Google chante le requiem pour les cookies, mais le grand chœur du pistage résonnera encore

Google va cesser de nous pister avec des cookies tiers ! Une bonne nouvelle, oui mais… Regardons le projet d’un peu plus près avec un article de l’EFF.

La presse en ligne s’en est fait largement l’écho : par exemple siecledigital, generation-nt ou lemonde. Et de nombreux articles citent un éminent responsable du tout-puissant Google :

Chrome a annoncé son intention de supprimer la prise en charge des cookies tiers et que nous avons travaillé avec l’ensemble du secteur sur le Privacy Sandbox afin de mettre au point des innovations qui protègent l’anonymat tout en fournissant des résultats aux annonceurs et aux éditeurs. Malgré cela, nous continuons à recevoir des questions pour savoir si Google va rejoindre d’autres acteurs du secteur des technologies publicitaires qui prévoient de remplacer les cookies tiers par d’autres identifiants de niveau utilisateur. Aujourd’hui, nous précisons qu’une fois les cookies tiers supprimés, nous ne créerons pas d’identifiants alternatifs pour suivre les individus lors de leur navigation sur le Web et nous ne les utiliserons pas dans nos produits.

David Temkin, Director of Product Management, Ads Privacy and Trust (source)

« Pas d’identifiants alternatifs » voilà de quoi nous réjouir : serait-ce la fin d’une époque ?

Comme d’habitude avec Google, il faut se demander où est l’arnaque lucrative. Car il semble bien que le Béhémoth du numérique n’ait pas du tout renoncé à son modèle économique qui est la vente de publicité.

Dans cet article de l’Electronic Frontier Foundation, que vous a traduit l’équipe de Framalang, il va être question d’un projet déjà entamé de Google dont l’acronyme est FLoC, c’est-à-dire Federated Learning of Cohorts. Vous le trouverez ici traduit AFC pour « Apprentissage Fédéré de Cohorte » (voir l’article de Wikipédia Apprentissage fédéré).

Pour l’essentiel, ce dispositif donnerait au navigateur Chrome la possibilité de créer des groupes de milliers d’utilisateurs ayant des habitudes de navigation similaires et permettrait aux annonceurs de cibler ces « cohortes ».


Article original sur le blog de l’Electronic Frontier Foundation : Google’s FLoC is a terrible idea.

Traduction Framalang : amostra, audionuma, Fabrice, goofy, jums, Mannik, mo, amostra, serici, Wisi_eu

Le FLoC de Google est une très mauvaise idée

par Bennett Cyphers

Les cookies tiers se meurent, mais Google essaie de créer leur remplaçant.

Personne ne devrait pleurer la disparition des cookies tels que nous les connaissons aujourd’hui. Pendant plus de deux décennies, les cookies tiers ont été la pierre angulaire d’une obscure et sordide industrie de surveillance publicitaire sur le Web, brassant plusieurs milliards de dollars ; l’abandon progressif des cookies de pistage et autres identifiants tiers persistants tarde à arriver. Néanmoins, si les bases de l’industrie publicitaire évoluent, ses acteurs les plus importants sont déterminés à retomber sur leurs pieds.

Google veut être en première ligne pour remplacer les cookies tiers par un ensemble de technologies permettant de diffuser des annonces ciblées sur Internet. Et certaines de ses propositions laissent penser que les critiques envers le capitalisme de surveillance n’ont pas été entendues. Cet article se concentrera sur l’une de ces propositions : l’Apprentissage Fédéré de Cohorte (AFC, ou FLoC en anglais), qui est peut-être la plus ambitieuse – et potentiellement la plus dangereuse de toutes.

L’AFC est conçu comme une nouvelle manière pour votre navigateur d’établir votre profil, ce que les pisteurs tiers faisaient jusqu’à maintenant, c’est-à-dire en retravaillant votre historique de navigation récent pour le traduire en une catégorie comportementale qui sera ensuite partagée avec les sites web et les annonceurs. Cette technologie permettra d’éviter les risques sur la vie privée que posent les cookies tiers, mais elle en créera de nouveaux par la même occasion. Une solution qui peut également exacerber les pires attaques sur la vie privée posées par les publicités comportementales, comme une discrimination accrue et un ciblage prédateur.

La réponse de Google aux défenseurs de la vie privée a été de prétendre que le monde de demain avec l’AFC (et d’autres composants inclus dans le « bac à sable de la vie privée » sera meilleur que celui d’aujourd’hui, dans lequel les marchands de données et les géants de la tech pistent et profilent en toute impunité. Mais cette perspective attractive repose sur le présupposé fallacieux que nous devrions choisir entre « le pistage à l’ancienne » et le « nouveau pistage ». Au lieu de réinventer la roue à espionner la vie privée, ne pourrait-on pas imaginer un monde meilleur débarrassé des problèmes surabondants de la publicité ciblée ?

Nous sommes à la croisée des chemins. L’ère des cookies tiers, peut-être la plus grande erreur du Web, est derrière nous et deux futurs possibles nous attendent.

Dans l’un d’entre eux, c’est aux utilisateurs et utilisatrices que revient le choix des informations à partager avec chacun des sites avec lesquels il ou elle interagit. Plus besoin de s’inquiéter du fait que notre historique de navigation puisse être utilisé contre nous-mêmes, ou employé pour nous manipuler, lors de l’ouverture d’un nouvel onglet.

Dans l’autre, le comportement de chacune et chacun est répercuté de site en site, au moyen d’une étiquette, invisible à première vue mais riche de significations pour celles et ceux qui y ont accès. L’historique de navigation récent, concentré en quelques bits, est « démocratisé » et partagé avec les dizaines d’interprètes anonymes qui sont partie prenante des pages web. Les utilisatrices et utilisateurs commencent chaque interaction avec une confession : voici ce que j’ai fait cette semaine, tenez-en compte.

Les utilisatrices et les personnes engagées dans la défense des droits numériques doivent rejeter l’AFC et les autres tentatives malvenues de réinventer le ciblage comportemental. Nous exhortons Google à abandonner cette pratique et à orienter ses efforts vers la construction d’un Web réellement favorable aux utilisateurs.

Qu’est-ce que l’AFC ?

En 2019, Google présentait son bac à sable de la vie privée qui correspond à sa vision du futur de la confidentialité sur le Web. Le point central de ce projet est un ensemble de protocoles, dépourvus de cookies, conçus pour couvrir la multitude de cas d’usage que les cookies tiers fournissent actuellement aux annonceurs. Google a soumis ses propositions au W3C, l’organisme qui forge les normes du Web, où elles ont été principalement examinées par le groupe de commerce publicitaire sur le Web, un organisme essentiellement composé de marchands de technologie publicitaire. Dans les mois qui ont suivi, Google et d’autres publicitaires ont proposé des dizaines de standards techniques portant des noms d’oiseaux : pigeon, tourterelle, moineau, cygne, francolin, pélican, perroquet… et ainsi de suite ; c’est très sérieux ! Chacune de ces propositions aviaires a pour objectif de remplacer différentes fonctionnalités de l’écosystème publicitaire qui sont pour l’instant assurées par les cookies.

L’AFC est conçu pour aider les annonceurs à améliorer le ciblage comportemental sans l’aide des cookies tiers. Un navigateur ayant ce système activé collecterait les informations sur les habitudes de navigation de son utilisatrice et les utiliserait pour les affecter à une « cohorte » ou à un groupe. Les utilisateurs qui ont des habitudes de navigations similaires – reste à définir le mot « similaire » – seront regroupés dans une même cohorte. Chaque navigateur partagera un identifiant de cohorte, indiquant le groupe d’appartenance, avec les sites web et les annonceurs. D’après la proposition, chaque cohorte devrait contenir au moins plusieurs milliers d’utilisatrices et utilisateurs (ce n’est cependant pas une garantie).

Si cela vous semble complexe, imaginez ceci : votre identifiant AFC sera comme un court résumé de votre activité récente sur le Web.

La démonstration de faisabilité de Google utilisait les noms de domaines des sites visités comme base pour grouper les personnes. Puis un algorithme du nom de SimHash permettait de créer les groupes. Il peut tourner localement sur la machine de tout un chacun, il n’y a donc pas besoin d’un serveur central qui collecte les données comportementales. Toutefois, un serveur administrateur central pourrait jouer un rôle dans la mise en œuvre des garanties de confidentialité. Afin d’éviter qu’une cohorte soit trop petite (c’est à dire trop caractéristique), Google propose qu’un acteur central puisse compter le nombre de personnes dans chaque cohorte. Si certaines sont trop petites, elles pourront être fusionnées avec d’autres cohortes similaires, jusqu’à ce qu’elles représentent suffisamment d’utilisateurs.

Pour que l’AFC soit utile aux publicitaires, une cohorte d’utilisateurs ou utilisatrices devra forcément dévoiler des informations sur leur comportement.

Selon la proposition formulée par Google, la plupart des spécifications sont déjà à l’étude. Le projet de spécification prévoit que l’identification d’une cohorte sera accessible via JavaScript, mais on ne peut pas savoir clairement s’il y aura des restrictions, qui pourra y accéder ou si l’identifiant de l’utilisateur sera partagé par d’autres moyens. L’AFC pourra constituer des groupes basés sur l’URL ou le contenu d’une page au lieu des noms domaines ; également utiliser une synergie de « système apprentissage » (comme le sous-entend l’appellation AFC) afin de créer des regroupements plutôt que de se baser sur l’algorithme de SimHash. Le nombre total de cohortes possibles n’est pas clair non plus. Le test de Google utilise une cohorte d’utilisateurs avec des identifiants sur 8 bits, ce qui suppose qu’il devrait y avoir une limite de 256 cohortes possibles. En pratique, ce nombre pourrait être bien supérieur ; c’est ce que suggère la documentation en évoquant une « cohorte d’utilisateurs en 16 bits comprenant 4 caractères hexadécimaux ». Plus les cohortes seront nombreuses, plus elles seront spécialisées – plus les identifiants de cohortes seront longs, plus les annonceurs en apprendront sur les intérêts de chaque utilisatrice et auront de facilité pour cibler leur empreinte numérique.

Mais si l’un des points est déjà clair c’est le facteur temps. Les cohortes AFC seront réévaluées chaque semaine, en utilisant chaque fois les données recueillies lors de la navigation de la semaine précédente.
Ceci rendra les cohortes d’utilisateurs moins utiles comme identifiants à long terme, mais les rendra plus intrusives sur les comportements des utilisatrices dans la durée.

De nouveaux problèmes pour la vie privée.

L’AFC fait partie d’un ensemble qui a pour but d’apporter de la publicité ciblée dans un futur où la vie privée serait préservée. Cependant la conception même de cette technique implique le partage de nouvelles données avec les annonceurs. Sans surprise, ceci crée et ajoute des risques concernant la donnée privée.

Le Traçage par reconnaissance d’ID.

Le premier enjeu, c’est le pistage des navigateurs, une pratique qui consiste à collecter de multiples données distinctes afin de créer un identifiant unique, personnalisé et stable lié à un navigateur en particulier. Le projet Cover Your Tracks (Masquer Vos Traces) de l’Electronic Frontier Foundation (EFF) montre comment ce procédé fonctionne : pour faire simple, plus votre navigateur paraît se comporter ou agir différemment des autres, plus il est facile d’en identifier l’empreinte unique.

Google a promis que la grande majorité des cohortes AFC comprendrait chacune des milliers d’utilisatrices, et qu’ainsi on ne pourra vous distinguer parmi le millier de personnes qui vous ressemblent. Mais rien que cela offre un avantage évident aux pisteurs. Si un pistage commence avec votre cohorte, il doit seulement identifier votre navigateur parmi le millier d’autres (au lieu de plusieurs centaines de millions). En termes de théorie de l’information, les cohortes contiendront quelques bits d’entropie jusqu’à 8, selon la preuve de faisabilité. Cette information est d’autant plus éloquente sachant qu’il est peu probable qu’elle soit corrélée avec d’autres informations exposées par le navigateur. Cela va rendre la tâche encore plus facile aux traqueurs de rassembler une empreinte unique pour les utilisateurs de l’AFC.

Google a admis que c’est un défi et s’est engagé à le résoudre dans le cadre d’un plan plus large, le « Budget vie privée »  qui doit régler le problème du pistage par l’empreinte numérique sur le long terme. Un but admirable en soi, et une proposition qui va dans le bon sens ! Mais selon la Foire Aux Questions, le plan est « une première proposition, et n’a pas encore d’implémentation dans un navigateur ». En attendant, Google a commencé à tester l’AFC dès ce mois de mars.

Le pistage par l’empreinte numérique est évidemment difficile à arrêter. Des navigateurs comme Safari et Tor se sont engagés dans une longue bataille d’usure contre les pisteurs, sacrifiant une grande partie de leurs fonctionnalités afin de réduire la surface des attaques par traçage. La limitation du pistage implique généralement des coupes ou des restrictions sur certaines sources d’entropie non nécessaires. Il ne faut pas que Google crée de nouveaux risques d’être tracé tant que les problèmes liés aux risques existants subsistent.

L’exposition croisée

Un second problème est moins facile à expliquer : la technologie va partager de nouvelles données personnelles avec des pisteurs qui peuvent déjà identifier des utilisatrices. Pour que l’AFC soit utile aux publicitaires, une cohorte devra nécessairement dévoiler des informations comportementales.

La page Github du projet aborde ce sujet de manière très directe :

Cette API démocratise les accès à certaines informations sur l’historique de navigation général des personnes (et, de fait, leurs intérêts principaux) à tous les sites qui le demandent… Les sites qui connaissent les Données à Caractère Personnel (c’est-à-dire lorsqu’une personne s’authentifie avec son adresse courriel) peuvent enregistrer et exposer leur cohorte. Cela implique que les informations sur les intérêts individuels peuvent éventuellement être rendues publiques.

Comme décrit précédemment, les cohortes AFC ne devraient pas fonctionner en tant qu’identifiant intrinsèque. Cependant, toute entreprise capable d’identifier un utilisateur d’une manière ou d’une autre – par exemple en offrant les services « identifiez-vous via Google » à différents sites internet – seront à même de relier les informations qu’elle apprend de l’AFC avec le profil de l’utilisateur.

Deux catégories d’informations peuvent alors être exposées :

1. Des informations précises sur l’historique de navigation. Les pisteurs pourraient mettre en place une rétro-ingénierie sur l’algorithme d’assignation des cohortes pour savoir si une utilisatrice qui appartient à une cohorte spécifique a probablement ou certainement visité des sites spécifiques.
2. Des informations générales relatives à la démographie ou aux centres d’intérêts. Par exemple, une cohorte particulière pourrait sur-représenter des personnes jeunes, de sexe féminin, ou noires ; une autre cohorte des personnes d’âge moyen votant Républicain ; une troisième des jeunes LGBTQ+, etc.

Cela veut dire que chaque site que vous visitez se fera une bonne idée de quel type de personne vous êtes dès le premier contact avec ledit site, sans avoir à se donner la peine de vous suivre sur le Net. De plus, comme votre cohorte sera mise à jour au cours du temps, les sites sur lesquels vous êtes identifié⋅e⋅s pourront aussi suivre l’évolution des changements de votre navigation. Souvenez-vous, une cohorte AFC n’est ni plus ni moins qu’un résumé de votre activité récente de navigation.

Vous devriez pourtant avoir le droit de présenter différents aspects de votre identité dans différents contextes. Si vous visitez un site pour des informations médicales, vous pourriez lui faire confiance en ce qui concerne les informations sur votre santé, mais il n’y a pas de raison qu’il ait besoin de connaître votre orientation politique. De même, si vous visitez un site de vente au détail, ce dernier n’a pas besoin de savoir si vous vous êtes renseigné⋅e récemment sur un traitement pour la dépression. L’AFC érode la séparation des contextes et, au contraire, présente le même résumé comportemental à tous ceux avec qui vous interagissez.

Au-delà de la vie privée

L’AFC est conçu pour éviter une menace spécifique : le profilage individuel qui est permis aujourd’hui par le croisement des identifiants contextuels. Le but de l’AFC et des autres propositions est d’éviter de laisser aux pisteurs l’accès à des informations qu’ils peuvent lier à des gens en particulier. Alors que, comme nous l’avons montré, cette technologie pourrait aider les pisteurs dans de nombreux contextes. Mais même si Google est capable de retravailler sur ses conceptions et de prévenir certains risques, les maux de la publicité ciblée ne se limitent pas aux violations de la vie privée. L’objectif même de l’AFC est en contradiction avec d’autres libertés individuelles.

Pouvoir cibler c’est pouvoir discriminer. Par définition, les publicités ciblées autorisent les annonceurs à atteindre certains types de personnes et à en exclure d’autres. Un système de ciblage peut être utilisé pour décider qui pourra consulter une annonce d’emploi ou une offre pour un prêt immobilier aussi facilement qu’il le fait pour promouvoir des chaussures.

Au fur et à mesure des années, les rouages de la publicité ciblée ont souvent été utilisés pour l’exploitation, la discrimination et pour nuire. La capacité de cibler des personnes en fonction de l’ethnie, la religion, le genre, l’âge ou la compétence permet des publicités discriminatoires pour l’emploi, le logement ou le crédit. Le ciblage qui repose sur l’historique du crédit – ou des caractéristiques systématiquement associées – permet de la publicité prédatrice pour des prêts à haut taux d’intérêt. Le ciblage basé sur la démographie, la localisation et l’affiliation politique aide les fournisseurs de désinformation politique et la suppression des votants. Tous les types de ciblage comportementaux augmentent les risques d’abus de confiance.

Au lieu de réinventer la roue du pistage, nous devrions imaginer un monde sans les nombreux problèmes posés par les publicités ciblées.

Google, Facebook et beaucoup d’autres plateformes sont en train de restreindre certains usages sur de leur système de ciblage. Par exemple, Google propose de limiter la capacité des annonceurs de cibler les utilisatrices selon des « catégories de centres d’intérêt à caractère sensible ». Cependant, régulièrement ces tentatives tournent court, les grands acteurs pouvant facilement trouver des compromis et contourner les « plateformes à usage restreint » grâce à certaines manières de cibler ou certains types de publicité.

Même un imaginant un contrôle total sur quelles informations peuvent être utilisées pour cibler quelles personnes, les plateformes demeurent trop souvent incapables d’empêcher les usages abusifs de leur technologie. Or l’AFC utilisera un algorithme non supervisé pour créer ses propres cohortes. Autrement dit, personne n’aura un contrôle direct sur la façon dont les gens seront regroupés.
Idéalement (selon les annonceurs), les cohortes permettront de créer des regroupements qui pourront avoir des comportements et des intérêts communs. Mais le comportement en ligne est déterminé par toutes sortes de critères sensibles : démographiques comme le genre, le groupe ethnique, l’âge ou le revenu ; selon les traits de personnalités du « Big 5 »; et même la santé mentale. Ceci laisse à penser que l’AFC regroupera aussi des utilisateurs parmi n’importe quel de ces axes.
L’AFC pourra aussi directement rediriger l’utilisatrice et sa cohorte vers des sites internet qui traitent l’abus de substances prohibées, de difficultés financières ou encore d’assistance aux victimes d’un traumatisme.

Google a proposé de superviser les résultats du système pour analyser toute corrélation avec ces catégories sensibles. Si l’on découvre qu’une cohorte spécifique est étroitement liée à un groupe spécifique protégé, le serveur d’administration pourra choisir de nouveaux paramètres pour l’algorithme et demander aux navigateurs des utilisateurs concernés de se constituer en un autre groupe.

Cette solution semble à la fois orwellienne et digne de Sisyphe. Pour pouvoir analyser comment les groupes AFC seront associés à des catégories sensibles, Google devra mener des enquêtes gigantesques en utilisant des données sur les utilisatrices : genre, race, religion, âge, état de santé, situation financière. Chaque fois que Google trouvera qu’une cohorte est associée trop fortement à l’un de ces facteurs, il faudra reconfigurer l’ensemble de l’algorithme et essayer à nouveau, en espérant qu’aucune autre « catégorie sensible » ne sera impliquée dans la nouvelle version. Il s’agit d’une variante bien plus compliquée d’un problème que Google s’efforce déjà de tenter de résoudre, avec de fréquents échecs.

Dans un monde numérique doté de l’AFC, il pourrait être plus difficile de cibler directement les utilisatrices en fonction de leur âge, genre ou revenu. Mais ce ne serait pas impossible. Certains pisteurs qui ont accès à des informations secondaires sur les utilisateurs seront capables de déduire ce que signifient les groupes AFC, c’est-à-dire quelles catégories de personnes appartiennent à une cohorte, à force d’observations et d’expérimentations. Ceux qui seront déterminés à le faire auront la possibilité de la discrimination. Pire, les plateformes auront encore plus de mal qu’aujourd’hui à contrôler ces pratiques. Les publicitaires animés de mauvaises intentions pourront être dans un déni crédible puisque, après tout, ils ne cibleront pas directement des catégories protégées, ils viseront seulement les individus en fonction de leur comportement. Et l’ensemble du système sera encore plus opaque pour les utilisatrices et les régulateurs.

deux guitaristes : l'un acoustoique à gauche chante : cookies c'est fini, dire que c'était la source de mes premiers revenus… (sur l'air de Capri c'est fini). L'autre à droite, guitare électrique dit : "et maintenant un peu de Floc and roll".
Avec Google les instruments changent, mais c’est toujours la même musique…

Google, ne faites pas ça, s’il vous plaît

Nous nous sommes déjà prononcés sur l’AFC et son lot de propositions initiales lorsque tout cela a été présenté pour la première fois, en décrivant l’AFC comme une technologie « contraire à la vie privée ». Nous avons espéré que les processus de vérification des standards mettraient l’accent sur les défauts de base de l’AFC et inciteraient Google à renoncer à son projet. Bien entendu, plusieurs problèmes soulevés sur leur GitHub officiel exposaient exactement les mêmes préoccupations que les nôtres. Et pourtant, Google a poursuivi le développement de son système, sans pratiquement rien changer de fondamental. Ils ont commencé à déployer leur discours sur l’AFC auprès des publicitaires, en vantant le remplacement du ciblage basé sur les cookies par l’AFC « avec une efficacité de 95 % ». Et à partir de la version 89 de Chrome, depuis le 2 mars, la technologie est déployée pour un galop d’essai. Une petite fraction d’utilisateurs de Chrome – ce qui fait tout de même plusieurs millions – a été assignée aux tests de cette nouvelle technologie.

Ne vous y trompez pas, si Google poursuit encore son projet d’implémenter l’AFC dans Chrome, il donnera probablement à chacun les « options » nécessaires. Le système laissera probablement le choix par défaut aux publicitaires qui en tireront bénéfice, mais sera imposé par défaut aux utilisateurs qui en seront affectés. Google se glorifiera certainement de ce pas en avant vers « la transparence et le contrôle par l’utilisateur », en sachant pertinemment que l’énorme majorité de ceux-ci ne comprendront pas comment fonctionne l’AFC et que très peu d’entre eux choisiront de désactiver cette fonctionnalité. L’entreprise se félicitera elle-même d’avoir initié une nouvelle ère de confidentialité sur le Web, débarrassée des vilains cookies tiers, cette même technologie que Google a contribué à développer bien au-delà de sa date limite, engrangeant des milliards de dollars au passage.

Ce n’est pas une fatalité. Les parties les plus importantes du bac-à-sable de la confidentialité comme l’abandon des identificateurs tiers ou la lutte contre le pistage des empreintes numériques vont réellement améliorer le Web. Google peut choisir de démanteler le vieil échafaudage de surveillance sans le remplacer par une nouveauté nuisible.

Nous rejetons vigoureusement le devenir de l’AFC. Ce n’est pas le monde que nous voulons, ni celui que méritent les utilisatrices. Google a besoin de tirer des leçons pertinentes de l’époque du pistage par des tiers et doit concevoir son navigateur pour l’activité de ses utilisateurs et utilisatrices, pas pour les publicitaires.

Remarque : nous avons contacté Google pour vérifier certains éléments exposés dans ce billet ainsi que pour demander davantage d’informations sur le test initial en cours. Nous n’avons reçu aucune réponse à ce jour.




Détruire le capitalisme de surveillance (3)

Voici une troisième partie de l’essai que consacre Cory Doctorow au capitalisme de surveillance (parcourir sur le blog les épisodes précédents – parcourir les trois premiers épisodes en PDF : doctorow-1-2-3). Il s’attache ici à démonter les mécanismes utilisés par les Gafam pour lutter contre nos facultés à échapper aux messages publicitaires, mais aussi pour faire croire aux publicitaires que leurs techniques sont magiquement efficaces. Il insiste également sur la quasi-impunité dont bénéficient jusqu’à présent les géants de la Tech…

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Traduction Framalang :  Claire, Fabrice, Gangsoleil, Goofy, Jums, Laure, Retrodev

Si les données sont le nouvel or noir, alors les forages du capitalisme de surveillance ont des fuites

par Cory Doctorow

La faculté d’adaptation des internautes explique l’une des caractéristiques les plus alarmantes du capitalisme de surveillance : son insatiable appétit de données et l’expansion infinie de sa capacité à collecter des données au travers de la diffusion de capteurs, de la surveillance en ligne, et de l’acquisition de flux de données de tiers.

Zuboff étudie ce phénomène et conclut que les données doivent valoir très cher si le capitalisme de surveillance en est aussi friand (selon ses termes : « Tout comme le capitalisme industriel était motivé par l’intensification continue des moyens de production, le capitalisme de surveillance et ses acteurs sont maintenant enfermés dans l’intensification continue des moyens de modification comportementale et dans la collecte des instruments de pouvoir. »). Et si cet appétit vorace venait du fait que ces données ont une demi-vie très courte, puisque les gens s’habituent très vite aux nouvelles techniques de persuasion fondées sur les données au point que les entreprises sont engagées dans un bras de fer sans fin avec notre système limbique ? Et si c’était une course de la Reine rouge d’Alice dans laquelle il faut courir de plus en plus vite collecter de plus en plus de données, pour conserver la même place ?

Bien sûr, toutes les techniques de persuasion des géants de la tech travaillent de concert les unes avec les autres, et la collecte de données est utile au-delà de la simple tromperie comportementale.

Si une personne veut vous recruter pour acheter un réfrigérateur ou participer à un pogrom, elle peut utiliser le profilage et le ciblage pour envoyer des messages à des gens avec lesquels elle estime avoir de bonnes perspectives commerciales. Ces messages eux-mêmes peuvent être mensongers et promouvoir des thèmes que vous ne connaissez pas bien (la sécurité alimentaire, l’efficacité énergétique, l’eugénisme ou des affirmations historiques sur la supériorité raciale). Elle peut recourir à l’optimisation des moteurs de recherche ou à des armées de faux critiques et commentateurs ou bien encore au placement payant pour dominer le discours afin que toute recherche d’informations complémentaires vous ramène à ses messages. Enfin, elle peut affiner les différents discours en utilisant l’apprentissage machine et d’autres techniques afin de déterminer quel type de discours convient le mieux à quelqu’un comme vous.

Chacune des phases de ce processus bénéficie de la surveillance : plus ils possèdent de données sur vous, plus leur profilage est précis et plus ils peuvent vous cibler avec des messages spécifiques. Pensez à la façon dont vous vendriez un réfrigérateur si vous saviez que la garantie de celui de votre client potentiel venait d’expirer et qu’il allait percevoir un remboursement d’impôts le mois suivant.

De plus, plus ils ont de données, mieux ils peuvent élaborer des messages trompeurs. Si je sais que vous aimez la généalogie, je n’essaierai pas de vous refourguer des thèses pseudo-scientifiques sur les différences génétiques entre les « races », et je m’en tiendrai plutôt aux conspirationnistes habituels du « grand remplacement ».

Facebook vous aide aussi à localiser les gens qui ont les mêmes opinions odieuses ou antisociales que vous. Il permet de trouver d’autres personnes avec qui porter des torches enflammées dans les rues de Charlottesville déguisé en Confédéré. Il peut vous aider à trouver d’autres personnes qui veulent rejoindre votre milice et aller à la frontière pour terroriser les migrants illégaux. Il peut vous aider à trouver d’autres personnes qui pensent aussi que les vaccins sont un poison et que la Terre est plate.

La publicité ciblée profite en réalité uniquement à ceux qui défendent des causes socialement inacceptables car elle est invisible. Le racisme est présent sur toute la planète, et il y a peu d’endroits où les racistes, et seulement eux, se réunissent. C’est une situation similaire à celle de la vente de réfrigérateurs là où les clients potentiels sont dispersés géographiquement, et où il y a peu d’endroits où vous pouvez acheter un encart publicitaire qui sera principalement vu par des acheteurs de frigo. Mais acheter un frigo est acceptable socialement, tandis qu’être un nazi ne l’est pas, donc quand vous achetez un panneau publicitaire ou quand vous faites de la pub dans la rubrique sports d’un journal pour vendre votre frigo, le seul risque c’est que votre publicité soit vue par beaucoup de gens qui ne veulent pas de frigo, et vous aurez jeté votre argent par la fenêtre.

Mais même si vous vouliez faire de la pub pour votre mouvement nazi sur un panneau publicitaire, à la télé en première partie de soirée ou dans les petites annonces de la rubrique sports, vous auriez du mal à trouver quelqu’un qui serait prêt à vous vendre de l’espace pour votre publicité, en partie parce qu’il ne serait pas d’accord avec vos idées, et aussi parce qu’il aurait peur des retombées négatives (boycott, mauvaise image, etc.) de la part de ceux qui ne partagent pas vos opinions.

Ce problème disparaît avec les publicités ciblées : sur Internet, les encarts de publicité peuvent être personnalisés, ce qui veut dire que vous pouvez acheter des publicités qui ne seront montrées qu’à ceux qui semblent être des nazis et pas à ceux qui les haïssent. Quand un slogan raciste est diffusé à quelqu’un qui hait le racisme, il en résulte certaines conséquences, et la plateforme ou la publication peut faire l’objet d’une dénonciation publique ou privée de la part de personnes outrées. Mais la nature des risques encourus par l’acheteur de publicités en ligne est bien différente des risques encourus par un éditeur ou un propriétaire de panneaux publicitaires classiques qui pourrait vouloir publier une pub nazie.

Les publicités en ligne sont placées par des algorithmes qui servent d’intermédiaires entre un écosystème diversifié de plateformes publicitaires en libre-service où chacun peut acheter une annonce. Ainsi, les slogans nazis qui s’immiscent sur votre site web préféré ne doivent pas être vus comme une atteinte à la morale mais plutôt comme le raté d’un fournisseur de publicité lointain. Lorsqu’un éditeur reçoit une plainte pour une publicité gênante diffusée sur un de ses sites, il peut engager une procédure pour bloquer la diffusion de cette publicité. Mais les nazis pourraient acheter une publicité légèrement différente auprès d’un autre intermédiaire qui diffuse aussi sur ce site. Quoi qu’il en soit, les internautes comprennent de plus en plus que quand une publicité s’affiche sur leur écran, il est probable que l’annonceur n’a pas choisi l’éditeur du site et que l’éditeur n’a pas la moindre idée de qui sont ses annonceurs.
Ces couches d’indétermination entre les annonceurs et les éditeurs tiennent lieu de tampon moral : il y a aujourd’hui un large consensus moral selon lequel les éditeurs ne devraient pas être tenus pour responsables des publicités qui apparaissent sur leurs pages car ils ne choisissent pas directement de les y placer. C’est ainsi que les nazis peuvent surmonter d’importants obstacles pour organiser leur mouvement.

Les données entretiennent une relation complexe avec la domination. La capacité à espionner vos clients peut vous alerter sur leurs préférences pour vos concurrents directs et vous permettre par la même occasion de prendre l’ascendant sur eux.

Mais surtout, si vous pouvez dominer l’espace informationnel tout en collectant des données, alors vous renforcez d’autres stratégies trompeuses, car il devient plus difficile d’échapper à la toile de tromperie que vous tissez. Ce ne sont pas les données elles-mêmes mais la domination, c’est-à-dire le fait d’atteindre, à terme, une position de monopole, qui rend ces stratégies viables, car la domination monopolistique prive votre cible de toute alternative.

Si vous êtes un nazi qui veut s’assurer que ses cibles voient en priorité des informations trompeuses, qui vont se confirmer à mesure que les recherches se poursuivent, vous pouvez améliorer vos chances en leur suggérant des mots-clefs à travers vos communications initiales. Vous n’avez pas besoin de vous positionner sur les dix premiers résultats de la recherche décourager électeurs de voter si vous pouvez convaincre vos cibles de n’utiliser que les mots clefs voter fraud (fraude électorale), qui retourneront des résultats de recherche très différents.

Les capitalistes de la surveillance sont comme des illusionnistes qui affirment que leur extraordinaire connaissance des comportements humains leur permet de deviner le mot que vous avez noté sur un bout de papier plié et placé dans votre poche, alors qu’en réalité ils s’appuient sur des complices, des caméras cachées, des tours de passe-passe et de leur mémoire développée pour vous bluffer.

Ou peut-être sont-ils des comme des artistes de la drague, cette secte misogyne qui promet d’aider les hommes maladroits à coucher avec des femmes en leur apprenant quelques rudiments de programmation neurolinguistique, des techniques de communication non verbale et des stratégies de manipulation psychologique telles que le « negging », qui consiste à faire des commentaires dévalorisant aux femmes pour réduire leur amour-propre et susciter leur intérêt.

Certains dragueurs parviennent peut-être à convaincre des femmes de les suivre, mais ce n’est pas parce que ces hommes ont découvert comment court-circuiter l’esprit critique des femmes. Le « succès » des dragueurs vient plutôt du fait qu’ils sont tombés sur des femmes qui n’étaient pas en état d’exprimer leur consentement, des femmes contraintes, des femmes en état d’ébriété, des femmes animées d’une pulsion autodestructrice et de quelques femmes qui, bien que sobres et disposant de toutes leurs facultés, n’ont pas immédiatement compris qu’elles fréquentaient des hommes horribles mais qui ont corrigé cette erreur dès qu’elles l’ont pu.

Les dragueurs se figurent qu’ils ont découvert une formule secrète qui court-circuite les facultés critiques des femmes, mais ce n’est pas le cas. La plupart des stratégies qu’ils déploient, comme le negging, sont devenues des sujets de plaisanteries (tout comme les gens plaisantent à propos des mauvaises campagnes publicitaires) et il est fort probable que ceux qui mettent en pratique ces stratégies avec les femmes ont de fortes chances d’être aussitôt démasqués, jetés et considérés comme de gros losers.

Les dragueurs sont la preuve que les gens peuvent croire qu’ils ont développé un système de contrôle de l’esprit même s’il ne marche pas. Ils s’appuient simplement sur le fait qu’une technique qui fonctionne une fois sur un million peut finir par se révéler payante si vous l’essayez un million de fois. Ils considèrent qu’ils ont juste mal appliqué la technique les autres 999 999 fois et se jurent de faire mieux la prochaine fois. Seul un groupe de personnes trouve ces histoires de dragueurs convaincantes, les aspirants dragueurs, que l’anxiété et l’insécurité rend vulnérables aux escrocs et aux cinglés qui les persuadent que, s’ils payent leur mentorat et suivent leurs instructions, ils réussiront un jour. Les dragueurs considèrent que, s’ils ne parviennent pas à séduire les femmes, c’est parce qu’ils ne sont pas de bons dragueurs, et non parce que les techniques de drague sont du grand n’importe quoi. Les dragueurs ne parviennent pas à se vendre auprès des femmes, mais ils sont bien meilleurs pour se vendre auprès des hommes qui payent pour apprendre leurs prétendues techniques de séduction.

« Je sais que la moitié des sommes que je dépense en publicité l’est en pure perte mais je ne sais pas de quelle moitié il s’agit. » déplorait John Wanamaker, pionnier des grands magasins.

Le fait que Wanamaker considérait que la moitié seulement de ses dépenses publicitaires avait été gaspillée témoigne de la capacité de persuasion des cadres commerciaux, qui sont bien meilleurs pour convaincre de potentiels clients d’acheter leurs services que pour convaincre le grand public d’acheter les produits de leurs clients.

Qu’est-ce que Facebook ?

On considère Facebook comme l’origine de tous nos fléaux actuels, et il n’est pas difficile de comprendre pourquoi. Certaines entreprises technologiques cherchent à enfermer leurs utilisateurs mais font leur beurre en gardant le monopole sur l’accès aux applications pour leurs appareils et en abusant largement sur leurs tarifs plutôt qu’en espionnant leurs clients (c’est le cas d’Apple). D’autres ne cherchent pas à enfermer leurs utilisateurs et utilisatrices parce que ces entreprises ont bien compris comment les espionner où qu’ils soient et quoi qu’elles fassent, et elles gagnent de l’argent avec cette surveillance (Google). Seul Facebook, parmi les géants de la tech, fait reposer son business à la fois sur le verrouillage de ses utilisateurs et leur espionnage constant.

Le type de surveillance qu’exerce Facebook est véritablement sans équivalent dans le monde occidental. Bien que Facebook s’efforce de se rendre le moins visible possible sur le Web public, en masquant ce qui s’y passe aux yeux des gens qui ne sont pas connectés à Facebook, l’entreprise a disposé des pièges sur la totalité du Web avec des outils de surveillance, sous forme de boutons « J’aime » que les producteurs de contenus insèrent sur leur site pour doper leur profil Facebook. L’entreprise crée également diverses bibliothèques logicielles et autres bouts de code à l’attention des développeurs qui fonctionnent comme des mouchards sur les pages où on les utilise (journaux parcourus, sites de rencontres, forums…), transmettant à Facebook des informations sur les visiteurs du site.

Les géants de la tech peuvent surveiller, non seulement parce qu’ils font de la tech mais aussi parce que ce sont des géants.

Facebook offre des outils du même genre aux développeurs d’applications, si bien que les applications que vous utilisez, que ce soit des jeux, des applis pétomanes, des services d’évaluation des entreprises ou du suivi scolaire enverront des informations sur vos activités à Facebook même si vous n’avez pas de compte Facebook, et même si vous n’utilisez ni ne téléchargez aucune application Facebook. Et par-dessus le marché, Facebook achète des données à des tiers pour connaître les habitudes d’achat, la géolocalisation, l’utilisation de cartes de fidélité, les transactions bancaires, etc., puis croise ces données avec les dossiers constitués d’après les activités sur Facebook, avec les applications et sur le Web général.

S’il est simple d’intégrer des éléments web dans Facebook – faire un lien vers un article de presse, par exemple – les produits de Facebook ne peuvent en général pas être intégrés sur le Web. Vous pouvez inclure un tweet dans une publication Facebook, mais si vous intégrez une publication Facebook dans un tweet, tout ce que vous obtiendrez est un lien vers Facebook qui vous demande de vous authentifier avant d’y accéder. Facebook a eu recours à des contre-mesures techniques et légales radicales pour que ses concurrents ne puissent pas donner la possibilité à leurs utilisateurs d’intégrer des fragments de Facebook dans des services rivaux, ou de créer des interfaces alternatives qui fusionneraient votre messagerie Facebook avec celle des autres services que vous utilisez.

Et Facebook est incroyablement populaire, avec 2,3 milliards d’utilisateurs annoncés (même si beaucoup considèrent que ce nombre est exagéré). Facebook a été utilisé pour organiser des pogroms génocidaires, des émeutes racistes, des mouvements antivaccins, des théories de la Terre plate et la carrière politique des autocrates les plus horribles et les plus autoritaires au monde. Des choses réellement alarmantes se produisent dans le monde et Facebook est impliqué dans bon nombre d’entre elles, il est donc assez facile de conclure que ces choses sont le résultat du système de contrôle mental de Facebook, mis à disposition de toute personne prête à y dépenser quelques dollars.

Pour comprendre le rôle joué par Facebook dans l’élaboration et la mobilisation des mouvements nuisibles à la société, nous devons comprendre la double nature de Facebook.

Parce qu’il a beaucoup d’utilisateurs et beaucoup de données sur ces utilisateurs, l’outil Facebook est très efficace pour identifier des personnes avec des caractéristiques difficiles à trouver, le genre de caractéristiques qui sont suffisamment bien disséminées dans la population pour que les publicitaires aient toujours eu du mal à les atteindre de manière rentable.

Revenons aux réfrigérateurs. La plupart d’entre nous ne remplaçons notre gros électro-ménager qu’un petit nombre de fois dans nos vies. Si vous êtes un fabricant ou un vendeur de réfrigérateurs, il n’y a que ces brèves fenêtres temporelles dans la vie des consommateurs au cours desquelles ils réfléchissent à un achat, et vous devez trouver un moyen pour les atteindre. Toute personne ayant déjà enregistré un changement de titre de propriété après l’achat d’une maison a pu constater que les fabricants d’électroménager s’efforcent avec l’énergie du désespoir d’atteindre quiconque pourrait la moindre chance d’être à la recherche d’un nouveau frigo.

Facebook rend la recherche d’acheteurs de réfrigérateurs beaucoup plus facile. Il permet de cibler des publicités à destination des personnes ayant enregistré l’achat d’une nouvelle maison, des personnes qui ont cherché des conseils pour l’achat de réfrigérateurs, de personnes qui se sont plaintes du dysfonctionnement de leur frigo, ou n’importe quelle combinaison de celles-ci. Il peut même cibler des personnes qui ont récemment acheté d’autres équipements de cuisine, en faisant l’hypothèse que quelqu’un venant de remplacer son four et son lave-vaisselle pourrait être d’humeur à acheter un frigo. La grande majorité des personnes qui sont ciblées par ces publicités ne seront pas à la recherche d’un nouveau frigo mais – et c’est le point crucial – le pourcentage de personnes à la recherche de frigo que ces publicités atteignent est bien plus élevé que celui du groupe atteint par les techniques traditionnelles de ciblage marketing hors-ligne.

Facebook rend également beaucoup plus simple le fait de trouver des personnes qui ont la même maladie rare que vous, ce qui aurait été peut-être impossible avant, le plus proche compagnon d’infortune pouvant se trouver à des centaines de kilomètres. Il rend plus simple de retrouver des personnes qui sont allées dans le même lycée que vous, bien que des décennies se soient écoulées et que vos anciens camarades se soient disséminés aux quatre coins de la planète.

Facebook rend également beaucoup plus simple de trouver des personnes ayant les mêmes opinions politiques minoritaires que vous. Si vous avez toujours eu une affinité secrète pour le socialisme, sans jamais oser la formuler à voix haute de peur de vous aliéner vos voisins, Facebook peut vous aider à découvrir d’autres personnes qui pensent la même chose que vous (et cela pourrait vous démontrer que votre affinité est plus commune que vous ne l’auriez imaginée). Il peut rendre plus facile de trouver des personnes qui ont la même identité sexuelle que vous. Et, à nouveau, il peut vous aider à comprendre que ce que vous considériez comme un secret honteux qui ne regarde que vous est en réalité un trait répandu, vous donnant ainsi le réconfort et le courage nécessaire pour en parler à vos proches.

Tout cela constitue un dilemme pour Facebook : le ciblage rend les publicités de la plateforme plus efficaces que les publicités traditionnelles, mais il permet également aux annonceurs de savoir précisément à quel point leurs publicités sont efficaces. Si les annonceurs sont satisfaits d’apprendre que les publicités de Facebook sont plus efficaces que celles de systèmes au ciblage moins perfectionné, les annonceurs peuvent aussi voir que, dans presque tous les cas, les personnes qui voient leurs publicités les ignorent. Ou alors, tout au mieux, que leurs publicités ne fonctionnent qu’à un niveau inconscient, créant des effets nébuleux impossibles à quantifier comme la « reconnaissance de marque ». Cela signifie que le prix par publicité est très réduit dans la quasi-totalité des cas.

Pour ne rien arranger, beaucoup de groupes Facebook n’hébergent que très peu de discussions. Votre équipe de football locale, les personnes qui ont la même maladie rare que vous et ceux dont vous partagez l’orientation politique peuvent échanger des rafales de messages dans les moments critiques forts mais, dans la vie de tous les jours, il n’y a pas grand-chose à raconter à vos anciens camarades de lycée et autres collectionneurs de vignettes de football.

S’il n’y avait que des discussions « saines », Facebook ne générerait pas assez de trafic pour vendre des publicités et amasser ainsi les sommes nécessaires pour continuellement se développer en rachetant ses concurrents, tout en reversant de coquettes sommes à ses investisseurs.

Facebook doit donc augmenter le trafic tout en détournant ses propres forums de discussion : chaque fois que l’algorithme de Facebook injecte de la matière à polémiques dans un groupe – brûlots politiques, théories du complot, faits-divers révoltants – il peut détourner l’objectif initial de ce groupe avec des discussions affligeantes et gonfler ainsi artificiellement ces échanges en les transformant en interminables disputes agressives et improductives. Facebook est optimisé pour l’engagement, pas pour le bonheur, et il se trouve que les systèmes automatisés sont plutôt performants pour trouver des choses qui vont mettre les gens en colère.

Facebook peut modifier notre comportement mais seulement en suivant quelques modalités ordinaires. Tout d’abord, il peut vous enfermer avec vos amis et votre famille pour que vous passiez votre temps à vérifier sans cesse sur Facebook ce qu’ils sont en train de faire. Ensuite, il peut vous mettre en colère ou vous angoisser. Il peut vous forcer à choisir entre être constamment interrompu par des mises à jour, un processus qui vous déconcentre et vous empêche de réfléchir, et rester indéfiniment en contact avec vos amis. Il s’agit donc d’une forme de contrôle mental très limitée, qui ne peut nous rendre que furieux, déprimés et angoissés.

C’est pourquoi les systèmes de ciblage de Facebook – autant ceux qu’il montre aux annonceurs que ceux qui permettent aux utilisateurs de trouver des personnes qui partagent les mêmes centres d’intérêt – sont si modernes, souples et faciles à utiliser, tandis que ses forums de discussion ont des fonctionnalités qui paraissent inchangées depuis le milieu des années 2000. Si Facebook offrait à ses utilisateurs un système de lecture de messages tout aussi souple et sophistiqué, ceux-ci pourraient se défendre contre les gros titres polémiques sur Donald Trump qui leur font saigner des yeux.

Plus vous passez de temps sur Facebook, plus il a de pubs à vous montrer. Comme les publicités sur Facebook ne marchent qu’une fois sur mille, leur solution est de tenter de multiplier par mille le temps que vous y passez. Au lieu de considérer Facebook comme une entreprise qui a trouvé un moyen de vous montrer la bonne publicité en obtenant de vous exactement ce que veulent les annonceurs publicitaires, considérez que c’est une entreprise qui sait parfaitement comment vous noyer dans un torrent permanent de controverses, même si elles vous rendent malheureux, de sorte que vous passiez tellement de temps sur le site que vous finissiez par voir au moins une pub qui va fonctionner pour vous.

Les monopoles et le droit au futur

Mme Zuboff et ceux qui la suivent sont particulièrement alarmés par l’influence de la surveillance des entreprises sur nos décisions. Cette influence nous prive de ce qu’elle appelle poétiquement « le droit au futur », c’est-à-dire le droit de décider par vous-même de ce que vous ferez à l’avenir.

Il est vrai que la publicité peut faire pencher la balance d’une manière ou d’une autre : lorsque vous envisagez d’acheter un frigo, une publicité pour un frigo qui vient juste à point peut mettre fin tout de suite à vos recherches. Mais Zuboff accorde un poids énorme et injustifié au pouvoir de persuasion des techniques d’influence basées sur la surveillance. La plupart d’entre elles ne fonctionnent pas très bien, et celles qui le font ne fonctionneront pas très longtemps. Les concepteurs de ces outils sont persuadés qu’ils les affineront un jour pour en faire des systèmes de contrôle total, mais on peut difficilement les considérer comme des observateurs sans parti-pris, et les risques que leurs rêves se réalisent sont très limités. En revanche, Zuboff est plutôt optimiste quant aux quarante années de pratiques antitrust laxistes qui ont permis à une poignée d’entreprises de dominer le Web, inaugurant une ère de l’information avec, comme l’a fait remarquer quelqu’un sur Twitter, cinq portails web géants remplis chacun de captures d’écran des quatre autres.

Cependant, si l’on doit s’inquiéter parce qu’on risque de perdre le droit de choisir nous-mêmes de quoi sera fait notre avenir, alors les préjudices tangibles et immédiats devraient être au cœur de nos débats sur les politiques technologiques, et non les préjudices potentiels décrit par Zuboff.

Commençons avec la « gestion des droits numériques ». En 1998, Bill Clinton promulgue le Digital Millennium Copyright Act (DMCA). Cette loi complexe comporte de nombreuses clauses controversées, mais aucune ne l’est plus que la section 1201, la règle « anti-contournement ».

Il s’agit d’une interdiction générale de modifier les systèmes qui limitent l’accès aux œuvres protégées par le copyright. L’interdiction est si stricte qu’elle interdit de retirer le verrou de copyright même si aucune violation de copyright n’a eut lieu. C’est dans la conception même du texte : les activités, que l’article 1201 du DMCA vise à interdire, ne sont pas des violations du copyright ; il s’agit plutôt d’activités légales qui contrarient les plans commerciaux des fabricants.

Par exemple, la première application majeure de la section 1201 a visé les lecteurs de DVD comme moyen de faire respecter le codage par « région » intégré dans ces appareils. Le DVD-CCA, l’organisme qui a normalisé les DVD et les lecteurs de DVD, a divisé le monde en six régions et a précisé que les lecteurs de DVD doivent vérifier chaque disque pour déterminer dans quelles régions il est autorisé à être lu. Les lecteurs de DVD devaient avoir leur propre région correspondante (un lecteur de DVD acheté aux États-Unis serait de la région 1, tandis qu’un lecteur acheté en Inde serait de la région 5). Si le lecteur et la région du disque correspondent, le lecteur lira le disque ; sinon, il le rejettera.

Pourtant, regarder un DVD acheté légalement dans un autre pays que celui dans lequel vous vous situez n’est pas une violation de copyright – bien au contraire. Les lois du copyright n’imposent qu’une seule obligation aux consommateurs de films : vous devez aller dans un magasin, trouver un DVD autorisé, et payer le prix demandé. Si vous faites cela – et rien de plus – tout ira bien.

Le fait qu’un studio de cinéma veuille faire payer les Indiens moins cher que les Américains, ou sortir un film plus tard en Australie qu’au Royaume-Uni n’a rien à voir avec les lois sur le copyright. Une fois que vous avez légalement acquis un DVD, ce n’est pas une violation du copyright que de le regarder depuis l’endroit où vous vous trouvez.

Donc les producteurs de DVD et de lecteurs de disques ne pourraient pas employer les accusations de complicité de violations du copyright pour punir les producteurs de lecteurs lisant des disques de n’importe quelle région, ou les ateliers de réparation qui ont modifié les lecteurs pour vous laisser regarder des disques achetés hors de votre région, ou encore les développeurs de logiciels qui ont créé des programmes pour vous aider à le faire.
C’est là que la section 1201 du DCMA entre en jeu : en interdisant de toucher aux contrôles d’accès, la loi a donné aux producteurs et aux ayants droit la possibilité de poursuivre en justice leurs concurrents qui produisent des produits supérieurs avec des caractéristiques très demandées par le marché (en l’occurrence, des lecteurs de disques sans restriction de région).

C’est une arnaque ignoble contre les consommateurs, mais, avec le temps, le champ de la section 1201 s’est étendu pour inclure toute une constellation grandissante d’appareils et de services, car certains producteurs malins ont compris un certain nombre de choses :

  • Tout appareil doté d’un logiciel contient une « œuvre protégée par copyright » (le logiciel en question).
  • Un appareil peut être conçu pour pouvoir reconfigurer son logiciel et contourner le « moyen de contrôle d’accès à une œuvre protégée par copyright », un délit d’après la section 1201.
  • Par conséquent, les entreprises peuvent contrôler le comportement de leurs consommateurs après qu’ils ont rapporté leurs achats à la maison. Elles peuvent en effet concevoir des produits pour que toutes les utilisations interdites demandent des modifications qui tombent sous le coup de la section 1201.

Cette section devient alors un moyen pour tout fabricant de contraindre ses clients à agir au profit de leurs actionnaires plutôt que dans l’intérêt des clients.
Cela se manifeste de nombreuses façons : une nouvelle génération d’imprimantes à jet d’encre utilisant des contre-mesures qui empêchent l’utilisation d’encre d’autres marques et qui ne peuvent être contournées sans risques juridiques, ou des systèmes similaires dans les tracteurs qui empêchent les réparateurs d’échanger les pièces du fabricant, car elles ne sont pas reconnues par le système du tracteur tant qu’un code de déverrouillage du fabricant n’est pas saisi.

Plus proches des particuliers, les iPhones d’Apple utilisent ces mesures pour empêcher à la fois les services de tierce partie et l’installation de logiciels tiers. Cela permet à Apple, et non à l’acheteur de l’iPhone, de décider quand celui-ci est irréparable et doit être réduit en pièces et jeté en déchetterie (l’entreprise Apple est connue pour sa politique écologiquement catastrophique qui consiste à détruire les vieux appareils électroniques plutôt que de permettre leur recyclage pour en récupérer les pièces). C’est un pouvoir très utile à exercer, surtout à la lumière de l’avertissement du PDG Tim Cook aux investisseurs en janvier 2019 : les profits de la société sont en danger si les clients choisissent de conserver leur téléphone plutôt que de le remplacer.
L’utilisation par Apple de verrous de copyright lui permet également d’établir un monopole sur la manière dont ses clients achètent des logiciels pour leurs téléphones. Les conditions commerciales de l’App Store garantissent à Apple une part de tous les revenus générés par les applications qui y sont vendues, ce qui signifie qu’Apple gagne de l’argent lorsque vous achetez une application dans son magasin et continue à gagner de l’argent chaque fois que vous achetez quelque chose en utilisant cette application. Cette situation retombe au final sur les développeurs de logiciels, qui doivent soit facturer plus cher, soit accepter des profits moindres sur leurs produits.

Il est important de comprendre que l’utilisation par Apple des verrous de copyright lui donne le pouvoir de prendre des décisions éditoriales sur les applications que vous pouvez ou ne pouvez pas installer sur votre propre appareil. Apple a utilisé ce pouvoir pour rejeter les dictionnaires qui contiennent des mots obscènes ; ou pour limiter certains discours politiques, en particulier les applications qui diffusent des propos politiques controversés, comme cette application qui vous avertit chaque fois qu’un drone américain tue quelqu’un quelque part dans le monde ; ou pour s’opposer à un jeu qui commente le conflit israélo-palestinien.

Apple justifie souvent son pouvoir monopolistique sur l’installation de logiciels au nom de la sécurité, en arguant que le contrôle des applications de sa boutique lui permet de protéger ses utilisateurs contre les applications qui contiennent du code qui surveille les utilisateurs. Mais ce pouvoir est à double tranchant. En Chine, le gouvernement a ordonné à Apple d’interdire la vente d’outils de protection de vie privée, comme les VPN, à l’exception de ceux dans lesquels des failles de sécurité ont délibérément été introduites pour permettre à l’État chinois d’écouter les utilisateurs. Étant donné qu’Apple utilise des contre-mesures technologiques – avec des mesures de protection légales – pour empêcher les clients d’installer des applications non autorisées, les propriétaires chinois d’iPhone ne peuvent pas facilement (ou légalement) se connecter à des VPN qui les protégeraient de l’espionnage de l’État chinois.

Zuboff décrit le capitalisme de surveillance comme un « capitalisme voyou ». Les théoriciens du capitalisme prétendent que sa vertu est d’agréger des informations relatives aux décisions des consommateurs, produisant ainsi des marchés efficaces. Le prétendu pouvoir du capitalisme de surveillance, de priver ses victimes de leur libre‑arbitre grâce à des campagnes d’influence surchargées de calculs, signifie que nos marchés n’agrègent plus les décisions des consommateurs parce que nous, les clients, ne décidons plus – nous sommes aux ordres des rayons de contrôle mental du capitalisme de surveillance.

Si notre problème c’est que les marchés cessent de fonctionner lorsque les consommateurs ne peuvent plus faire de choix, alors les verrous du copyright devraient nous préoccuper au moins autant que les campagnes d’influence. Une campagne d’influence peut vous pousser à acheter une certaine marque de téléphone, mais les verrous du copyright sur ce téléphone déterminent où vous pouvez l’utiliser, quelles applications peuvent fonctionner dessus et quand vous devez le jeter plutôt que le réparer.

Le classement des résultats de recherche et le droit au futur

Les marchés sont parfois présentés comme une sorte de formule magique : en découvrant des informations qui pourraient rester cachées mais sont transmises par le libre choix des consommateurs, les connaissances locales de ces derniers sont intégrées dans un système auto‑correcteur qui améliore les correspondances entre les résultats – de manière plus efficace que ce qu’un ordinateur pourrait calculer. Mais les monopoles sont incompatibles avec ce processus. Lorsque vous n’avez qu’un seul magasin d’applications, c’est le propriétaire du magasin, et non le consommateur, qui décide de l’éventail des choix. Comme l’a dit un jour Boss Tweed « peu importe qui gagne les élections, du moment que c’est moi qui fais les nominations ». Un marché monopolistique est une élection dont les candidats sont choisis par le monopole.

Ce trucage des votes est rendu plus toxique par l’existence de monopoles sur le classement des résultats. La part de marché de Google dans le domaine de la recherche est d’environ 90 %. Lorsque l’algorithme de classement de Google place dans son top 10 un résultat pour un terme de recherche populaire, cela détermine le comportement de millions de personnes. Si la réponse de Google à la question « Les vaccins sont-ils dangereux ? » est une page qui réfute les théories du complot anti-vax, alors une partie non négligeable du grand public apprendra que les vaccins sont sûrs. Si, en revanche, Google envoie ces personnes sur un site qui met en avant les conspirations anti-vax, une part non-négligeable de ces millions de personnes ressortira convaincue que les vaccins sont dangereux.

L’algorithme de Google est souvent détourné pour fournir de la désinformation comme principal résultat de recherche. Mais dans ces cas-là, Google ne persuade pas les gens de changer d’avis, il ne fait que présenter quelque chose de faux comme une vérité alors même que l’utilisateur n’a aucune raison d’en douter.

C’est vrai peu importe que la recherche porte sur « Les vaccins sont-ils dangereux ? » ou bien sur « meilleurs restaurants près de chez moi ». La plupart des utilisateurs ne regarderont jamais au-delà de la première page de résultats de recherche, et lorsque l’écrasante majorité des gens utilisent le même moteur de recherche, l’algorithme de classement utilisé par ce moteur de recherche aura déterminé une myriade de conséquences (adopter ou non un enfant, se faire opérer du cancer, où dîner, où déménager, où postuler pour un emploi) dans une proportion qui dépasse largement les résultats comportementaux dictés par les techniques de persuasion algorithmiques.

Beaucoup des questions que nous posons aux moteurs de recherche n’ont pas de réponses empiriquement correctes : « Où pourrais-je dîner ? » n’est pas une question objective. Même les questions qui ont des réponses objectives (« Les vaccins sont-ils dangereux ? ») n’ont pas de source empiriquement supérieure pour ces réponses. De nombreuses pages confirment l’innocuité des vaccins, alors laquelle afficher en premier ? Selon les règles de la concurrence, les consommateurs peuvent choisir parmi de nombreux moteurs de recherche et s’en tenir à celui dont le verdict algorithmique leur convient le mieux, mais en cas de monopole, nos réponses proviennent toutes du même endroit.

La domination de Google dans le domaine de la recherche n’est pas une simple question de mérite : pour atteindre sa position dominante, l’entreprise a utilisé de nombreuses tactiques qui auraient été interdites en vertu des normes antitrust classiques d’avant l’ère Reagan. Après tout, il s’agit d’une entreprise qui a développé deux produits majeurs : un très bon moteur de recherche et un assez bon clone de Hotmail. Tous ses autres grands succès, Android, YouTube, Google Maps, etc., ont été obtenus grâce à l’acquisition d’un concurrent naissant. De nombreuses branches clés de l’entreprise, comme la technologie publicitaire DoubleClick, violent le principe historique de séparation structurelle de la concurrence, qui interdisait aux entreprises de posséder des filiales en concurrence avec leurs clients. Les chemins de fer, par exemple, se sont vus interdire la possession de sociétés de fret qui auraient concurrencé les affréteurs dont ils transportent le fret.

Si nous craignons que les entreprises géantes ne détournent les marchés en privant les consommateurs de leur capacité à faire librement leurs choix, alors une application rigoureuse de la législation antitrust semble être un excellent remède. Si nous avions refusé à Google le droit d’effectuer ses nombreuses fusions, nous lui aurions probablement aussi refusé sa domination totale dans le domaine de la recherche. Sans cette domination, les théories, préjugés et erreurs (et le bon jugement aussi) des ingénieurs de recherche et des chefs de produits de Google n’auraient pas eu un effet aussi disproportionné sur le choix des consommateurs..

Cela vaut pour beaucoup d’autres entreprises. Amazon, l’entreprise type du capitalisme de surveillance, est évidemment l’outil dominant pour la recherche sur Amazon, bien que de nombreuses personnes arrivent sur Amazon après des recherches sur Google ou des messages sur Facebook. Évidemment, Amazon contrôle la recherche sur Amazon. Cela signifie que les choix éditoriaux et intéressés d’Amazon, comme la promotion de ses propres marques par rapport aux produits concurrents de ses vendeurs, ainsi que ses théories, ses préjugés et ses erreurs, déterminent une grande partie de ce que nous achetons sur Amazon. Et comme Amazon est le détaillant dominant du commerce électronique en dehors de la Chine et qu’elle a atteint cette domination en rachetant à la fois de grands rivaux et des concurrents naissants au mépris des règles antitrust historiques, nous pouvons reprocher à ce monopole de priver les consommateurs de leur droit à l’avenir et de leur capacité à façonner les marchés en faisant des choix raisonnés.

Tous les monopoles ne sont pas des capitalistes de surveillance, mais cela ne signifie pas qu’ils ne sont pas capables de façonner les choix des consommateurs de multiples façons. Zuboff fait l’éloge d’Apple pour son App Store et son iTunes Store, en insistant sur le fait qu’afficher le prix des fonctionnalités de ses plateformes était une recette secrète pour résister à la surveillance et ainsi créer de nouveaux marchés. Mais Apple est le seul détaillant autorisé à vendre sur ses plateformes, et c’est le deuxième plus grand vendeur d’appareils mobiles au monde. Les éditeurs de logiciels indépendants qui vendent sur le marché d’Apple accusent l’entreprise des mêmes vices de surveillance qu’Amazon et autres grands détaillants : espionner ses clients pour trouver de nouveaux produits lucratifs à lancer, utiliser efficacement les éditeurs de logiciels indépendants comme des prospecteurs de marché libre, puis les forcer à quitter tous les marchés qu’ils découvrent.

Avec l’utilisation des verrous de copyright, les clients qui possèdent un iPhone ne sont pas légalement autorisés à changer de distributeurs d’applications. Apple, évidemment, est la seule entité qui peut décider de la manière dont elle classe les résultats de recherche sur son store. Ces décisions garantissent que certaines applications sont souvent installées (parce qu’elles apparaissent dès la première page) et d’autres ne le sont jamais (parce qu’elles apparaissent sur la millionième page). Les décisions d’Apple en matière de classement des résultats de recherche ont un impact bien plus important sur les comportements des consommateurs que les campagnes d’influence des robots publicitaires du capitalisme de surveillance.

 

Les monopoles ont les moyens d’endormir les chiens de garde

Les idéologues du marché les plus fanatiques sont les seuls à penser que les marchés peuvent s’autoréguler sans contrôle de l’État. Pour rester honnêtes, les marchés ont besoin de chiens de garde : régulateurs, législateurs et autres représentants du contrôle démocratique. Lorsque ces chiens de garde s’endorment sur la tâche, les marchés cessent d’agréger les choix des consommateurs parce que ces choix sont limités par des activités illégitimes et trompeuses dont les entreprises peuvent se servir sans risques parce que personne ne leur demande des comptes.

Mais ce type de tutelle réglementaire a un coût élevé. Dans les secteurs concurrentiels, où la concurrence passe son temps à grappiller les marges des autres, les entreprises individuelles n’ont pas les excédents de capitaux nécessaires pour faire pression efficacement en faveur de lois et de réglementations qui serviraient leurs objectifs.

Beaucoup des préjudices causés par le capitalisme de surveillance sont le résultat d’une réglementation trop faible ou même inexistante. Ces vides réglementaires viennent du pouvoir des monopoles qui peuvent s’opposer à une réglementation plus stricte et adapter la réglementation existante pour continuer à exercer leurs activités telles quelles.

Voici un exemple : quand les entreprises collectent trop de données et les conservent trop longtemps, elles courent un risque accru de subir une fuite de données. En effet, vous ne pouvez pas divulguer des données que vous n’avez jamais collectées, et une fois que vous avez supprimé toutes les copies de ces données, vous ne pouvez plus risquer de les fuiter. Depuis plus d’une décennie, nous assistons à un festival ininterrompu de fuites de données de plus en plus graves, plus effrayantes les unes que les autres de par l’ampleur des violations et la sensibilité des données concernées.

Mais les entreprises persistent malgré tout à moissonner et conserver en trop grand nombre nos données pour trois raisons :

1. Elles sont enfermées dans cette course aux armements émotionnels (évoquée plus haut) avec notre capacité à renforcer nos systèmes de défense attentionnelle pour résister à leurs nouvelles techniques de persuasion. Elles sont également enfermées dans une course à l’armement avec leurs concurrents pour trouver de nouvelles façons de cibler les gens. Dès qu’elles découvrent un point faible dans nos défenses attentionnelles (une façon contre-intuitive et non évidente de cibler les acheteurs potentiels de réfrigérateurs), le public commence à prendre conscience de la tactique, et leurs concurrents s’y mettent également, hâtant le jour où tous les acheteurs potentiels de réfrigérateurs auront été initiés à cette tactique.

2. Elles souscrivent à cette belle croyance qu’est le capitalisme de surveillance. Les données sont peu coûteuses à agréger et à stocker, et les partisans, tout comme les opposants, du capitalisme de surveillance ont assuré aux managers et concepteurs de produits que si vous collectez suffisamment de données, vous pourrez pratiquer la sorcellerie du marketing pour contrôler les esprits ce qui fera grimper vos ventes. Même si vous ne savez pas comment tirer profit de ces données, quelqu’un d’autre finira par vous proposer de vous les acheter pour essayer. C’est la marque de toutes les bulles économiques : acquérir un bien en supposant que quelqu’un d’autre vous l’achètera à un prix plus élevé que celui que vous avez payé, souvent pour le vendre à quelqu’un d’autre à un prix encore plus élevé.

3. Les sanctions pour fuite de données sont négligeables. La plupart des pays limitent ces pénalités aux dommages réels, ce qui signifie que les consommateurs dont les données ont fuité doivent prouver qu’ils ont subi un préjudice financier réel pour obtenir réparation. En 2014, Home Depot a révélé qu’ils avaient perdu les données des cartes de crédit de 53 millions de ses clients, mais a réglé l’affaire en payant ces clients environ 0,34 $ chacun – et un tiers de ces 0,34 $ n’a même pas été payé en espèces. Cette réparation s’est matérialisée sous la forme d’un crédit pour se procurer un service de contrôle de crédit largement inefficace.

Mais les dégâts causés par les fuites sont beaucoup plus importants que ce que peuvent traiter ces règles sur les dommages réels. Les voleurs d’identité et les fraudeurs sont rusés et infiniment inventifs. Toutes les grandes fuites de données de notre époque sont continuellement recombinées, les ensembles de données sont fusionnés et exploités pour trouver de nouvelles façons de s’en prendre aux propriétaires de ces données. Toute politique raisonnable, fondée sur des preuves, de la dissuasion et de l’indemnisation des violations ne se limiterait pas aux dommages réels, mais permettrait plutôt aux utilisateurs de réclamer compensation pour ces préjudices à venir.

Quoi qu’il en soit, même les réglementations les plus ambitieuses sur la protection de la vie privée, telles que le règlement général de l’UE sur la protection des données, sont loin de prendre en compte les conséquences négatives de la collecte et de la conservation excessives et désinvoltes des données par les plateformes, et les sanctions qu’elles prévoient ne sont pas appliquées de façon assez agressive par ceux qui doivent les appliquer.

Cette tolérance, ou indifférence, à l’égard de la collecte et de la conservation excessives des données peut être attribuée en partie à la puissance de lobbying des plateformes. Ces plateformes sont si rentables qu’elles peuvent facilement se permettre de détourner des sommes gigantesques pour lutter contre tout changement réel – c’est-à-dire un changement qui les obligerait à internaliser les coûts de leurs activités de surveillance.
Et puis il y a la surveillance d’État, que l’histoire du capitalisme de surveillance rejette comme une relique d’une autre époque où la grande inquiétude était d’être emprisonné pour un discours subversif, et non de voir son libre‑arbitre dépouillé par l’apprentissage machine.

Mais la surveillance d’État et la surveillance privée sont intimement liées. Comme nous l’avons vu lorsque Apple a été enrôlé par le gouvernement chinois comme collaborateur majeur de la surveillance d’État. La seule manière abordable et efficace de mener une surveillance de masse à l’échelle pratiquée par les États modernes, qu’ils soient « libres » ou autocratiques, est de mettre sous leur coupe les services commerciaux.

Toute limitation stricte du capitalisme de surveillance paralyserait la capacité de surveillance d’État, qu’il s’agisse de l’utilisation de Google comme outil de localisation par les forces de l’ordre locales aux États-Unis ou du suivi des médias sociaux par le Département de la sécurité intérieure pour constituer des dossiers sur les participants aux manifestations contre la politique de séparation des familles des services de l’immigration et des douanes (ICE).

Sans Palantir, Amazon, Google et autres grands entrepreneurs technologiques, les flics états-uniens ne pourraient pas espionner la population noire comme ils le font, l’ICE ne pourrait pas gérer la mise en cage des enfants à la frontière américaine et les systèmes d’aides sociales des États ne pourraient pas purger leurs listes en déguisant la cruauté en empirisme et en prétendant que les personnes pauvres et vulnérables n’ont pas droit à une aide. On peut attribuer à cette relation symbiotique une partie de la réticence des États à prendre des mesures significatives pour réduire la surveillance. Il n’y a pas de surveillance d’État de masse sans surveillance commerciale de masse.

Le monopole est la clé du projet de surveillance massive d’État. Il est vrai que les petites entreprises technologiques sont susceptibles d’être moins bien défendues que les grandes, dont les experts en sécurité font partie des meilleurs dans leur domaine, elles disposent également d’énormes ressources pour sécuriser et surveiller leurs systèmes contre les intrusions. Mais les petites entreprises ont également moins à protéger : moins d’utilisateurs, des données plus fragmentées sur un plus grand nombre de systèmes et qui doivent être demandées une par une par les acteurs étatiques.

Un secteur technologique centralisé qui travaille avec les autorités est un allié beaucoup plus puissant dans le projet de surveillance massive d’État qu’un secteur fragmenté composé d’acteurs plus petits. Le secteur technologique états-unien est suffisamment petit pour que tous ses cadres supérieurs se retrouvent autour d’une seule table de conférence dans la Trump Tower en 2017, peu après l’inauguration de l’immeuble. La plupart de ses plus gros acteurs candidatent pour remporter le JEDI, le contrat à 10 milliards de dollars du Pentagone pour mettre en place une infrastructure de défense commune dans le cloud. Comme d’autres industries fortement concentrées, les géants de la tech font pantoufler leurs employés clés dans le service public. Ils les envoient servir au Ministère de la Défense et à la Maison Blanche, puis engagent des cadres et des officiers supérieurs de l’ex-Pentagone et de l’ex-DOD pour travailler dans leurs propres services de relations avec les gouvernements.

Ils ont même de bons arguments pour ça : après tout, quand il n’existe que quatre ou cinq grandes entreprises dans un secteur industriel, toute personne qualifiée pour contrôler la réglementation de ces entreprises a occupé un poste de direction dans au moins deux d’entre elles. De même, lorsqu’il n’y a que cinq entreprises dans un secteur, toute personne qualifiée pour occuper un poste de direction dans l’une d’entre elles travaille par définition dans l’une des autres.

 

(à suivre… )




Laurent Chemla propose : exigeons des GAFAM l’interopérabilité

« Il est évidemment plus qu’urgent de réguler les GAFAM pour leur imposer l’interopérabilité. » écrit Laurent Chemla. Diable, il n’y va pas de main morte, le « précurseur dans le domaine d’Internet » selon sa page Wikipédia.

Nous reproduisons ici avec son accord l’article qu’il vient de publier sur son blog parce qu’il nous paraît tout à fait intéressant et qu’il est susceptible de provoquer le débat : d’aucuns trouveront sa proposition nécessaire pour franchir une étape dans la lutte contre des Léviathans numériques et le consentement à la captivité. D’autres estimeront peut-être que sa conception a de bien faibles chances de se concrétiser : est-il encore temps de réguler les Gafam ?

Nous souhaitons que s’ouvre ici (ou sur son blog bien sûr) la discussion. Comme toujours sur le Framablog, les commentaires sont ouverts mais modérés.

Interopérabilitay

« Interopérabilité » : ce mot m’ennuie. Il est moche, et beaucoup trop long.

Pourtant il est la source même d’Internet. Quasiment sa définition, au moins sémantique puisqu’il s’agit de faire dialoguer entre eux des systèmes d’information d’origines variées mais partageant au sein d’un unique réseau de réseaux la même « lingua franca » : TCP/IP et sa cohorte de services (ftp, http, smtp et tant d’autres) définis par des standards communs. Des machines « interopérables », donc.

Faisons avec.

L’interopérabilité, donc, est ce qui a fait le succès d’Internet, et du Web. Vous pouvez vous connecter sur n’importe quel site Web, installé sur n’importe quel serveur, quelle que soit sa marque et son système d’exploitation, depuis votre propre ordinateur, quelle que soit sa marque, son système d’exploitation, et le navigateur installé dessus.

Avant ça existaient les silos. Compuserve, AOL, The Microsoft Network en étaient les derniers représentants, dinosaures communautaires enterrés par la comète Internet. Leur volonté d’enfermer le public dans des espaces fermés, contrôlés, proposant tant bien que mal tous les services à la fois, fut ridiculisée par la décentralisation du Net.

Ici vous ne pouviez échanger qu’avec les clients du même réseau, utilisant le même outil imposé par le vendeur (« pour votre sécurité »), là vous pouviez choisir votre logiciel de mail, et écrire à n’importe qui n’importe où. Interopérabilité.

Ici vous pouviez publier vos humeurs, dans un format limité et imposé par la plateforme (« pour votre sécurité »), là vous pouviez installer n’importe quel « serveur web » de votre choix et y publier librement des pages accessibles depuis n’importe quel navigateur. Interopérabilité.

Bref. Le choix était évident, Internet a gagné.

Il a gagné, et puis… Et puis, selon un schéma désormais compris de tous, le modèle économique « gratuité contre publicité » a envahi le Web, en créant – une acquisition après l’autre, un accaparement de nos données après l’autre – de nouveaux géants qui, peu à peu, se sont refermés sur eux-mêmes (« pour votre sécurité »).

Il fut un temps où vous pouviez écrire à un utilisateur de Facebook Messenger depuis n’importe quel client, hors Facebook, respectant le standard (en l’occurrence l’API) défini par Facebook. Et puis Facebook a arrêté cette fonctionnalité. Il fut un temps où vous pouviez développer votre propre client Twitter, qui affichait ses timelines avec d’autres règles que celles de l’application officielle, pourvu qu’il utilise le standard (encore une API) défini par Twitter. Et puis Twitter a limité cette fonctionnalité. De nos jours, il devient même difficile d’envoyer un simple email à un utilisateur de Gmail si l’on utilise pas soi-même Gmail, tant Google impose de nouvelles règles (« pour votre sécurité ») à ce qui était, avant, un standard universel.

On comprend bien les raisons de cette re-centralisation : tout utilisateur désormais captif devra passer davantage de temps devant les publicités, imposées pour pouvoir utiliser tel ou tel service fermé. Et il devra – pour continuer d’utiliser ce service – fournir toujours davantage de ses données personnelles permettant d’affiner son profil et de vendre plus cher les espaces publicitaires. Renforçant ainsi toujours plus les trésoreries et le pouvoir de ces géants centralisateurs, qui ainsi peuvent aisément acquérir ou asphyxier tout nouveau wanabee concurrent, et ainsi de suite.

C’est un cercle vertueux (pour les GAFAM) et vicieux (pour nos vies privées et nos démocraties), mais c’est surtout un cercle « normal » : dès lors que rien n’impose l’interopérabilité, alors – pour peu que vous soyez devenu assez gros pour vous en passer – vous n’avez plus aucun intérêt à donner accès à d’autres aux données qui vous ont fait roi. Et vous abandonnez alors le modèle qui a permis votre existence au profit d’un modèle qui permet votre croissance. Infinie.

Imaginez, par exemple, qu’à l’époque des cassettes vidéo (respectant le standard VHS) un fabricant de magnétoscopes ait dominé à ce point le marché qu’on ait pu dire qu’il n’en existait virtuellement pas d’autres : il aurait évidemment modifié ce standard à son profit, en interdisant par exemple l’utilisation de cassettes d’autres marques que la sienne (« pour votre sécurité »), de manière à garantir dans le temps sa domination. C’est un comportement « normal », dans un monde libéral et capitaliste. Et c’est pour limiter ce comportement « normal » que les sociétés inventent des régulations (standards imposés, règles de concurrence, lois et règlements).

Et il est évidemment plus qu’urgent de réguler les GAFAM pour leur imposer l’interopérabilité.

Nous devons pouvoir, de nouveau, écrire depuis n’importe quel logiciel de messagerie à un utilisateur de Facebook Messenger, pourvu qu’on respecte le standard défini par Facebook, comme nous devons écrire à n’importe quel utilisateur de Signal en respectant le standard de chiffrement de Signal. Il n’est pas question d’imposer à Signal (ou à Facebook) un autre standard que celui qu’il a choisi (ce qui empêcherait toute innovation), pourvu que le standard choisi soit public, et libre d’utilisation. Mais il est question de contraindre Facebook à (ré)ouvrir ses API pour permettre aux utilisateurs d’autres services d’interagir de nouveau avec ses propres utilisateurs.

Au passage, ce point soulève une problématique incidente : l’identité. Si je peux écrire à un utilisateur de Messenger, celui-ci doit pouvoir me répondre depuis Messenger. Or Messenger ne permet d’écrire qu’aux autres utilisateurs de Messenger, identifiés par Facebook selon ses propres critères qu’il n’est pas question de lui imposer (il a le droit de ne vouloir admettre que des utilisateurs affichant leur « identité réelle », par exemple : ce choix est le sien, comme il a le droit de limiter les fonctionnalités de Messenger pour lui interdire d’écrire à d’autres : ce choix est aussi le sien).

Il est donc cohérent d’affirmer que – pour pouvoir écrire à un utilisateur de Messenger depuis un autre outil – il faut avoir soi-même un compte Messenger. Il est donc logique de dire que pour pouvoir lire ma timeline Twitter avec l’outil de mon choix, je dois avoir un compte Twitter. Il est donc évident que pour accéder à mon historique d’achat Amazon, je dois avoir un compte Amazon, etc.

capture d’écran, discussion sur Twitter
capture d’écran, discussion avec L. Chemla sur Twitter. cliquez sur cette vignette pour agrandir l’image

L’obligation d’avoir une identité reconnue par le service auquel on accède, c’est sans doute le prix à payer pour l’interopérabilité, dans ce cas (et – au passage – c’est parce que la Quadrature du Net a décidé d’ignorer cette évidence que j’ai choisi de quitter l’association).

Ce qui ne doit évidemment pas nous obliger à utiliser Messenger, Amazon ou Twitter pour accéder à ces comptes: l’interopérabilité doit d’accéder à nos contacts et à nos données depuis l’outil de notre choix, grâce à l’ouverture obligatoire des API, pourvu qu’on dispose d’une identité respectant les standards du service qui stocke ces données.

On pourrait résumer ce nouveau type de régulation avec cette phrase simple :

« si ce sont MES données, alors je dois pouvoir y accéder avec l’outil de MON choix ».

Je dois pouvoir lire ma timeline Twitter depuis l’outil de mon choix (et y publier, si évidemment j’y ai un compte, pour que les autres utilisateurs de Twitter puissent s’y abonner).

Je dois pouvoir consulter mon historique d’achats chez Amazon avec l’outil de mon choix.

Je dois pouvoir écrire à (et lire les réponses de) mes contacts Facebook avec l’outil de mon choix.

Il y aura, évidemment, des résistances.

On nous dira (« pour votre sécurité ») que c’est dangereux, parce que nos données personnelles ne seront plus aussi bien protégées, dispersées parmi tellement de services décentralisés et piratables. Mais je préfère qu’une partie de mes données soit moins bien protégée (ce qui reste à démontrer) plutôt que de savoir qu’une entreprise privée puisse vendre (ou perdre) la totalité de ce qui est MA vie.

On nous dira que c’est « excessivement agressif pour le modèle économique des grandes plateformes », alors qu’évidemment c’est justement le modèle économique des grandes plateformes qui est excessivement agressif pour nos vies privées et nos démocraties, d’une part, et que d’autre part l’interopérabilité ne modifie en rien ce modèle économique : dès lors qu’elles stockent toujours une partie de nos données elles restent (hélas) en capacité de les vendre et/ou de les utiliser pour « éduquer » leurs IA. Tout au plus constateront-elles un manque-à-gagner comptable, mais ne gagnent-elles pas déjà largement assez ?

À ce jour, l’interopérabilité s’impose comme la seule solution réaliste pour limiter le pouvoir de nuisance de ces géants, et pour rétablir un peu de concurrence et de décentralisation dans un réseau qui, sinon, n’a plus d’autre raison d’être autre chose qu’un simple moyen d’accéder à ces nouveaux silos (qu’ils devraient donc financer, eux, plutôt que les factures de nos FAI).

À ce jour, l’ARCEP, la Quadrature du Net (même mal), l’EFF, le Sénat, et même l’Europe (Margrethe Vestager s’est elle-même déclarée en faveur de cette idée) se sont déclarés pour une obligation d’intéropérabilité. C’est la suite logique (et fonctionnelle) du RGPD.

Qu’est-ce qu’on attend ?

Édit. de Laurent suite à la publication de l’article sur son blog

Suite à ce billet des discussions sur Twitter et Mastodon, indépendamment, m’ont amené à préciser ceci : prenons par exemple mamot.fr (l’instance Mastodon de la Quadrature) et gab.ai (l’instance Mastodon de la fachosphère). Mamot.fr, comme nombre d’autres instances, a refusé de se fédérer avec Gab. C’est son droit. En conséquence, les utilisateurs de Gab ne peuvent pas poster sur Mamot, et inversement.

Pour autant, les deux sont bel et bien interopérables, et pour cause : elles utilisent le même logiciel. Gab pourrait parfaitement développer un bout de code pour permettre à ses utilisateurs de publier sur Mamot, pour peu qu’ils s’y soient identifiés (via une OAuth, pour les techniciens) prouvant ainsi qu’ils en acceptent les CGU.

Ce qu’elles ne sont pas, c’est interconnectées : il n’est pas possible de publier sur l’une en s’identifiant sur l’autre, et inversement.

Je crois qu’au fond, les tenants de l’idée qu’on devrait pouvoir publier n’importe quoi n’importe où, sans identification supplémentaire, confondent largement ces deux notions d’interconnexion et d’interopérabilité. Et c’est fort dommage, parce que ça brouille le message de tous.

 

Pour aller plus loin dans la technique, vous pouvez aussi lire cette réponse de Laurent dans les commentaires de NextINpact.




D’autres technologies pour répondre à l’urgence de la personne ?

« Ce dont nous avons besoin, c’est le contraire de la Big Tech. Nous avons besoin de Small Tech – des outils de tous les jours conçus pour augmenter le bien-être humain, et non les profits des entreprises. »

Ce n’est pas une théorie complotiste : le profilage et la vente de données privées font, depuis des années, partie intégrante du modèle économique de la plupart des entreprises du numérique. Dans cet article traduit par Framalang, Aral Balkan (auquel nous faisons régulièrement écho) suggère qu’il est urgent de s’éloigner de ce modèle qui repose sur les résultats financiers pour gagner en indépendance et explique pourquoi c’est important pour chacun d’entre nous.

 

Article original : In 2020 and beyond, the battle to save personhood and democracy requires a radical overhaul of mainstream technology

Traduction Framalang : FranBAG, goofy, wisi_eu, gangsoleil, Khrys – Mise en forme :

En 2020 et au-delà, la bataille pour sauver l’identité individuelle et la démocratie exigera une révision radicale des technologies dominantes

par Aral Balkan

Un jeune garçon pilotant un canot sur un lac, durant les grands incendies australiens. Crédit photo: Allison Marion.

 

Alors que nous entrons dans une nouvelle décennie, l’humanité est confrontée à plusieurs urgences existentielles :

  1. L’urgence climatique1
  2. L’urgence démocratique
  3. L’urgence de la personne

Grâce à Greta Thunberg, nous parlons sans aucun doute de la première. La question de savoir si nous allons vraiment faire quelque chose à ce sujet, bien sûr, fait l’objet d’un débat.2

De même, grâce à la montée de l’extrême droite dans le monde entier sous la forme de (entre autres) Trump aux États-Unis, Johnson au Royaume-Uni, Bolsonaro au Brésil, Orban en Hongrie et Erdoğan en Turquie, nous parlons également de la seconde, y compris du rôle de la propagande (ou « infox ») et des médias sociaux dans sa propagation.

Celle sur laquelle nous sommes les plus désemparé·e·s et partagé·e·s, c’est la troisième, même si toutes les autres en découlent et en sont les symptômes. C’est l’urgence sans nom. Enfin, jusqu’à présent.

L’urgence de la personne

On ne peut pas comprendre « l’urgence de la personne » sans comprendre le rôle que la technologie de réseau et numérique grand public joue dans sa perpétuation.

Votre télé ne vous regardait pas, YouTube si.

La technologie traditionnelle – non numérique, pas en réseau – était un moyen de diffusion à sens unique. C’est la seule chose qu’un livre imprimé sur la presse Gutenberg et votre téléviseur analogique avaient en commun.

Autrefois, quand vous lisiez un journal, le journal ne vous lisait pas aussi. Lorsque vous regardiez la télévision, votre téléviseur ne vous regardait pas aussi (à moins que vous n’ayez spécifiquement permis à une société de mesure d’audience, comme Nielsen, d’attacher un audimètre à votre téléviseur).

Aujourd’hui, lorsque vous lisez le journal The Guardian en ligne, The Guardian – et plus de deux douzaines d’autres parties tierces, y compris la Nielsen susmentionnée – vous lit également. Quand vous regardez YouTube, YouTube vous regarde aussi.

Il ne s’agit pas d’une théorie de la conspiration farfelue, mais simplement du modèle d’affaires de la technologie actuelle. J’appelle ce modèle d’affaires « l’élevage d’êtres humains ». C’est une partie du système socio-économique, dont nous faisons partie, que Shoshana Zuboff appelle le capitalisme de surveillance.3

Et pis encore : Alphabet Inc, qui possède Google et YouTube, ne se contente pas de vous observer lorsque vous utilisez un de leurs services, mais vous suit également sur le Web lorsque vous allez de site en site. À lui seul, Google a les yeux sur 70 à 80 % du Web.
Mais ils ne s’arrêtent pas là non plus. Les exploitants d’êtres humains achètent également des données auprès de courtiers en données, partagent ces données avec d’autres exploitants et savent même quand vous utilisez votre carte de crédit dans les magasins ayant pignon sur rue. Et ils combinent toutes ces informations pour créer des profils de vous-même, constamment analysés, mis à jour et améliorés.

Nous pouvons considérer ces profils comme des simulations de nous-mêmes. Ils contiennent des aspects de nous-mêmes. Ils peuvent être (et sont) utilisés comme des approximations de nous-mêmes. Ils contiennent des informations extrêmement sensibles et intimes sur nous. Mais nous ne les possédons pas, ce sont les exploitants qui les possèdent.

Il n’est pas exagéré de dire qu’au sein de ce système, nous ne sommes pas en pleine possession de nous-mêmes. Dans un tel système, où même nos pensées risquent d’être lues par des entreprises, notre identité et le concept même d’autodétermination sont mis en danger.

Nous sommes sur le point de régresser du statut d’être humain à celui de propriété, piratés par une porte dérobée numérique et en réseau, dont nous continuons à nier l’existence à nos risques et périls. Les conditions préalables à une société libre sont soumises à notre compréhension de cette réalité fondamentale.
Si nous nous prolongeons en utilisant la technologie, nous devons étendre le champ d’application légal des droits de l’homme pour inclure ce « Moi » prolongé.

Si nous ne pouvons définir correctement les limites d’une personne, comment pouvons-nous espérer protéger les personnes ou l’identité d’une personne à l’ère des réseaux numériques ?

Aujourd’hui, nous sommes des êtres fragmentés. Les limites de notre être ne s’arrêtent pas à nos frontières biologiques. Certains aspects de notre être vivent sur des morceaux de silicium qui peuvent se trouver à des milliers de kilomètres de nous.

Il est impératif que nous reconnaissions que les limites du moi à l’ère des réseaux numériques ont transcendé les limites biologiques de nos corps physiques et que cette nouvelle limite – le « Moi » prolongé ; la totalité fragmentée du moi – constitue notre nouvelle peau numérique et que son intégrité doit être protégée par les droits de l’homme.

Si nous ne faisons pas cela, nous sommes condamné·e·s à nous agiter à la surface du problème, en apportant ce qui n’est rien d’autre que des changements cosmétiques à un système qui évolue rapidement vers un nouveau type d’esclavage.

C’est l’urgence de la personne.

Un remaniement radical de la technologie grand public

Si nous voulons nous attaquer à l’urgence de la personne, il ne faudra rien de moins qu’un remaniement radical des technologies grand public.

Nous devons d’abord comprendre que si réglementer les exploitants d’humains et les capitalistes de la surveillance est important pour réduire leurs préjudices, cette réglementation constitue une lutte difficile contre la corruption institutionnelle et n’entraînera pas, par elle-même, l’émergence miraculeuse d’une infrastructure technologique radicalement différente. Et cette dernière est la seule chose qui puisse s’attaquer à l’urgence de l’identité humaine.

Imaginez un monde différent.

Faites-moi le plaisir d’imaginer ceci une seconde : disons que votre nom est Jane Smith et que je veux vous parler. Je vais sur jane.smith.net.eu et je demande à vous suivre. Qui suis-je ? Je suis aral.balkan.net.eu. Vous me permettez de vous suivre et nous commençons à discuter… en privé.

Imaginez encore que nous puissions créer des groupes – peut-être pour l’école où vont nos enfants ou pour notre quartier. Dans un tel système, nous possédons et contrôlons tou·te·s notre propre espace sur Internet. Nous pouvons faire toutes les choses que vous pouvez faire sur Facebook aujourd’hui, tout aussi facilement, mais sans Facebook au milieu pour nous surveiller et nous exploiter.

Ce dont nous avons besoin, c’est d’un système en pair à pair qui établisse une passerelle avec le réseau mondial existant.

Ce dont nous avons besoin, c’est le contraire de la « Big Tech » (industrie des technologies). Nous avons besoin de « Small Tech » (technologie à petite échelle) – des outils de tous les jours pour les gens ordinaires, conçus pour augmenter le bien-être humain, et non les profits des entreprises.

Étapes concrètes

À la Small Technology Foundation, Laura et moi avons déjà commencé à construire certains des éléments fondamentaux d’un pont possible entre le capitalisme de surveillance et un avenir radicalement démocratique, entre pairs. Et nous continuerons à travailler sur les autres composantes cette année et au-delà. Mais il y a des mesures pratiques que nous pouvons tou·te·s prendre pour aider à faire avancer les choses dans cette direction.

Voici quelques suggestions pratiques pour différents groupes :

Les gens ordinaires

1. Ne vous culpabilisez pas, vous êtes les victimes. Quand 99,99999 % de tous les investissements technologiques vont aux « exploitants d’humains », ne laissez personne vous dire que vous devriez vous sentir mal d’avoir été obligé·e·s d’utiliser leurs services par manque d’alternatives.

2. Cela dit, il existe des alternatives. Cherchez-les. Utilisez-les. Soutenez les gens qui les fabriquent.

3. Prenez conscience que ce problème existe. Appelez des responsables et défendez ceux qui le font. À tout le moins, n’écartez pas les préoccupations et les efforts de ceux et celles d’entre nous qui tentent de faire quelque chose à ce sujet.

Les développeurs

1. Cessez d’intégrer les dispositifs de surveillance d’entreprises comme Google et Facebook dans vos sites Web et vos applications. Cessez d’exposer les gens qui utilisent vos services au capitalisme de surveillance.

2. Commencez à rechercher d’autres moyens de financer et de construire des technologies qui ne suivent pas le modèle toxique de la Silicon Valley.

3. Laissez tomber la « croissance » comme mesure de votre succès. Construisez des outils que les individus possèdent et contrôlent, et non votre entreprise ou organisation. Créez des applications Web pour utilisateur unique (dont chaque personne sera l’unique propriétaire). Soutenez des plateformes libres (comme dans liberté) et décentralisées (sans nager dans les eaux troubles de la blockchain).

L’Union Européenne

1. Cessez d’investir dans les start-ups et d’agir comme un Département de recherche et développement officieux de la Silicon Valley et investissez plutôt dans les « stayups » (entreprises durables, PME ou micro-entreprises matures).

2. Créez un domaine de premier niveau (DPN) non commercial ouvert à tous, où chacun peut enregistrer un nom de domaine (avec un certificat Let’s Encrypt automatique) pour un coût nul avec un seul « appel API ».

3. Appuyez-vous sur l’étape précédente pour offrir à chaque citoyen·ne de l’Union Européenne, payé par l’argent du contribuable européen, un serveur privé virtuel de base, doté de ressources de base pour héberger un nœud actif 24h/24 dans un système pair-à-pair qui le détacherait des Google et des Facebook du monde entier et créerait de nouvelles possibilités pour les gens de communiquer en privé ainsi que d’exprimer leur volonté politique de manière décentralisée.

Et, généralement, il est alors temps pour chacun·e d’entre nous de choisir un camp.

Le camp que vous choisissez décidera si nous vivons en tant que personnes ou en tant que produits. Le côté que vous choisissez décidera si nous vivons dans une démocratie ou sous le capitalisme.

Démocratie ou capitalisme ? Choisissez.

Si, comme moi, vous avez grandi dans les années 80, vous avez probablement accepté sans réfléchir la maxime néolibérale selon laquelle la démocratie et le capitalisme vont de pair. C’est l’un des plus grands mensonges jamais propagés. La démocratie et le capitalisme sont diamétralement opposés.

Vous ne pouvez pas avoir une démocratie fonctionnelle et des milliardaires et des intérêts corporatifs de billions de dollars et la machinerie de désinformation et d’exploitation des Big Tech de la Silicon Valley. Ce que nous voyons, c’est le choc du capitalisme et de la démocratie, et le capitalisme est en train de gagner.

Avons-nous déjà passé ce tournant ? Je ne sais pas. Peut-être. Mais on ne peut pas penser comme ça.

Personnellement, je vais continuer à travailler pour apporter des changements là où je pense pouvoir être efficace : en créant une infrastructure technologique alternative pour soutenir les libertés individuelles et la démocratie.

L’humanité a déjà mis en place l’infrastructure du techno-fascisme. Nous avons déjà créé (et nous sommes toujours en train de créer) des éléments panoptiques. Tout ce que les fascistes ont à faire, c’est d’emménager et de prendre les commandes. Et ils le feront démocratiquement, avant de détruire la démocratie, tout comme Hitler l’a fait.

Et si vous pensez que «les années 30 et 40 c’était quelque chose», rappelez-vous que les outils les plus avancés pour amplifier les idéologies destructrices de l’époque étaient moins puissants que les ordinateurs que vous avez dans vos poches aujourd’hui. Aujourd’hui, nous avons le « Machine Learning » (Apprentissage machine) et sommes sur le point de débloquer l’informatique quantique.

Nous devons nous assurer que les années 2030 ne reproduisent pas les années 1930. Car nos systèmes centralisés avancés de saisie, de classification et de prévision des données, plus une centaine d’années d’augmentation exponentielle de la puissance de traitement (notez que je n’utilise pas le mot « progrès »), signifient que les années 2030 seront exponentiellement pires.

Qui que vous soyez, où que vous soyez, nous avons un ennemi commun : l’Internationale nationaliste. Les problèmes de notre temps dépassent les frontières nationales. Les solutions le doivent également. Les systèmes que nous construisons doivent être à la fois locaux et mondiaux. Le réseau que nous devons construire est un réseau de solidarité.

Nous avons créé le présent. Nous allons créer le futur. Travaillons ensemble pour faire en sorte que cet avenir soit celui dans lequel nous voulons vivre nous-mêmes.


Discours d’Aral Balkan au Parlement européen, fin 2019, lors de la rencontre sur l’avenir de la réglementation de l’Internet.  Merci à la Quadrature du Net et à sa chaîne PeerTube.

 





C’est Qwant qu’on va où ?

L’actualité récente de Qwant était mouvementée, mais il nous a semblé qu’au-delà des polémiques c’était le bon moment pour faire le point avec Qwant, ses projets et ses valeurs.

Si comme moi vous étiez un peu distrait⋅e et en étiez resté⋅e à Qwant-le-moteur-de-recherche, vous allez peut-être partager ma surprise : en fouinant un peu, on trouve tout un archipel de services, certains déjà en place et disponibles, d’autres en phase expérimentale, d’autres encore en couveuse dans le labo.

Voyons un peu avec Tristan Nitot, Vice-président Advocacy de Qwant, de quoi il retourne et si le principe affiché de respecter la vie privée des utilisateurs et utilisatrices demeure une ligne directrice pour les applications qui arrivent.

Tristan Nitot, autoporttrait juillet 2019
Tristan Nitot, autoportrait (licence CC-BY)

Bonjour Tristan, tu es toujours content de travailler pour Qwant malgré les périodes de turbulence ?
Oui, bien sûr ! Je reviens un peu en arrière : début 2018, j’ai déjeuné avec un ancien collègue de chez Mozilla, David Scravaglieri, qui travaillait chez Qwant. Il m’a parlé de tous les projets en logiciel libre qu’il lançait chez Qwant en tant que directeur de la recherche. C’est ce qui m’a convaincu de postuler chez Qwant.

J’étais déjà fan de l’approche liée au respect de la vie privée et à la volonté de faire un moteur de recherche européen, mais là, en plus, Qwant se préparait à faire du logiciel libre, j’étais conquis. À peine arrivé au dessert, j’envoie un texto au président, Eric Léandri pour savoir quand il m’embauchait. Sa réponse fut immédiate : « Quand tu veux ! ». J’étais aux anges de pouvoir travailler sur des projets qui rassemblent mes deux casquettes, à savoir vie privée et logiciel libre.

Depuis, 18 mois ont passé, les équipes n’ont pas chômé et les premiers produits arrivent en version Alpha puis Bêta. C’est un moment très excitant !

Récemment, Qwant a proposé Maps en version Bêta… Vous comptez vraiment rivaliser avec Google Maps ? Parce que moi j’aime bien Street View par exemple, est-ce que c’est une fonctionnalité qui viendra un jour pour Qwant Maps ?

Rivaliser avec les géants américains du capitalisme de surveillance n’est pas facile, justement parce qu’on cherche un autre modèle, respectueux de la vie privée. En plus, ils ont des budgets incroyables, parce que le capitalisme de surveillance est extrêmement lucratif. Plutôt que d’essayer de trouver des financements comparables, on change les règles du jeu et on se rapproche de l’écosystème libre OpenStreetMap, qu’on pourrait décrire comme le Wikipédia de la donnée géographique. C’est une base de données géographiques contenant des données et des logiciels sous licence libre, créée par des bénévoles autour desquels viennent aussi des entreprises pour former ensemble un écosystème. Qwant fait partie de cet écosystème.
En ce qui concerne les fonctionnalités futures, c’est difficile d’être précis, mais il y a plein de choses que nous pouvons mettre en place grâce à l’écosystème OSM. On a déjà ajouté le calcul d’itinéraires il y a quelques mois, et on pourrait se reposer sur Mapillary pour avoir des images façon StreetView, mais libres !

Dis donc, en comparant 2 cartes du même endroit, on voit que Qwant Maps a encore des progrès à faire en précision ! Pourquoi est-ce que Qwant Maps ne reprend pas l’intégralité d’Open Street Maps ?

vue du centre de la ville de La Riche avec la requête "médiathèque la Riche" par OpenStreetMap
vue du centre de la ville de La Riche avec la requête « médiathèque la Riche » par OpenStreetMap

vue du centre de la ville de La Riche avec la requête "médiathèque la Riche" par QwantMaps. La médiathèque est clairement et mieux signalée visuellement (efficacité) mais la carte est moins détaillée (précision) que la version OSM
vue du centre de la ville de La Riche avec la requête « médiathèque la Riche » par QwantMaps

 

En fait, OSM montre énormément de détails et on a choisi d’en avoir un peu moins mais plus utilisables. On a deux sources de données pour les points d’intérêt (POI) : Pages Jaunes, avec qui on a un contrat commercial et OSM. On n’affiche qu’un seul jeu de POI à un instant t, en fonction de ce que tu as recherché.

Quand tu choisis par exemple « Restaurants » ou « Banques », sans le savoir tu fais une recherche sur les POI Pages Jaunes. Donc tu as un fond de carte OSM avec des POI Pages Jaunes, qui sont moins riches que ceux d’OSM mais plus directement lisibles.

Bon d’accord, Qwant Maps utilise les données d’OSM, c’est tant mieux, mais alors vous vampirisez du travail bénévole et libre ? Quelle est la nature du deal avec OSM ?

au bas d el arcehrceh "tour eiffel" se trouve le lien vers Open Street MapsNon, bien sûr, Qwant n’a pas vocation à vampiriser l’écosystème OSM : nous voulons au contraire être un citoyen modèle d’OSM. Nous utilisons les données et logiciels d’OSM conformément à leur licence. Il n’y a donc pas vraiment de deal, juste un respect des licences dans la forme et dans l’esprit. Par exemple, on met un lien qui propose aux utilisateurs de Qwant Maps d’apprendre à utiliser et contribuer à OSM. En ce qui concerne les logiciels libres nécessaires au fonctionnement d’OSM, on les utilise et on y contribue, par exemple avec les projets Mimirsbrunn, Kartotherian et Idunn. Mes collègues ont écrit un billet de blog à ce sujet.

Nous avons aussi participé à la réunion annuelle d’OSM, State Of the Map (SOTM) à Montpellier le 14 juin dernier, où j’étais invité à parler justement des relations entre les entreprises comme Qwant et les projets libres de communs numériques comme OSM. Les mauvais exemples ne manquent pas, avec Apple qui, avec Safari et Webkit, a sabordé le projet Konqueror de navigateur libre, ou Google qui reprend de la data de Wikipédia mais ne met pas de lien sur comment y contribuer (alors que Qwant le fait). Chez Qwant, on vise à être en symbiose avec les projets libres qu’on utilise et auxquels on contribue.

Google Maps a commencé à monétiser les emplois de sa cartographie, est-ce qu’un jour Qwant Maps va être payant ?

En réalité, Google Maps est toujours gratuit pour les particuliers (approche B2C Business to consumer). Pour les organisations ou entreprises qui veulent mettre une carte sur leur site web (modèle B2B Business to business), Google Maps a longtemps été gratuit avant de devenir brutalement payant, une fois qu’il a éliminé tous ses concurrents commerciaux. Il apparaît assez clairement que Google a fait preuve de dumping.

Pour le moment, chez Qwant, il n’y a pas d’offre B2B. Le jour où il y en aura une, j’espère que le un coût associé sera beaucoup plus raisonnable que chez Google, qui prend vraiment ses clients pour des vaches à lait. Je comprends qu’il faille financer le service qui a un coût, mais là, c’est exagéré !

Quand j’utilise Qwant Maps, est-ce que je suis pisté par des traqueurs ? J’imagine et j’espère que non, mais qu’est-ce que Qwant Maps « récolte » et « garde » de moi et de ma connexion si je lui demande où se trouve Bure avec ses opposants à l’enfouissement de déchets nucléaires ? Quelles garanties m’offre Qwant Maps de la confidentialité de mes recherches en cartographie ?

C’est un principe fort chez Qwant : on ne veut pas collecter de données personnelles. Bien sûr, à un instant donné, le serveur doit disposer à la fois de la requête (quelle zone de la carte est demandée, à quelle échelle) et l’adresse IP qui la demande. L’adresse IP pourrait permettre de retrouver qui fait quelle recherche, et Qwant veut empêcher cela. C’est pourquoi l’adresse IP est salée  et hachée  aussitôt que possible et c’est le résultat qui est stocké. Ainsi, il est impossible de faire machine arrière et de retrouver quelle adresse IP a fait quelle recherche sur la carte. C’est cette méthode qui est utilisée dans Qwant Search pour empêcher de savoir qui a recherché quoi dans le moteur de recherche.

Est-ce que ça veut dire qu’on perd aussi le relatif confort d’avoir un historique utile de ses recherches cartographiques ou générales ? Si je veux gagner en confidentialité, j’accepte de perdre en confort ?
Effectivement, Qwant ne veut rien savoir sur la personne qui recherche, ce qui implique qu’on ne peut pas personnaliser les résultats, ni au niveau des recherches Web ni au niveau cartographique : pour une recherche donnée, chaque utilisateur reçoit les mêmes résultats que tout le monde.

Ça peut être un problème pour certaines personnes, qui aimeraient bien disposer de personnalisation. Mais Qwant n’a pas dit son dernier mot : c’est exactement pour ça que nous avons fait « Masq by Qwant ». Masq, c’est une application Web en logiciel libre qui permet de stocker localement dans le navigateur (en LocalStorage)4 et de façon chiffrée des données pour la personnalisation de l’expérience utilisateur. Masq est encore en Alpha et il ne permet pour l’instant que de stocker (localement !) ses favoris cartographiques. À terme, nous voulons que les différents services de Qwant utilisent Masq pour faire de la personnalisation respectueuse de la vie privée.

formulaire d’enregistrement de compte masq, avec de nombreux critères nécessaires pour le mot de passe
Ouverture d’un compte Masq.

Ah bon alors c’est fini le cloud, on met tout sur sa machine locale ? Et si on vient fouiner dans mon appareil alors ? N’importe quel intrus peut voir mes données personnelles stockées ?

Effectivement, tes données étant chiffrées, et comme tu es le seul à disposer du mot de passe, c’est ta responsabilité de conserver précieusement ledit mot de passe. Quant à la sauvegarde des données, tu as bien pensé à faire une sauvegarde, non ? 😉

Ah mais vous avez aussi un projet de reconnaissance d’images ? Comment ça marche ? Et à quoi ça peut être utile ?
C’est le résultat du travail de chercheurs de Qwant Research, une intelligence artificielle (plus concrètement un réseau de neurones) qu’on a entraînée avec Pytorch sur des serveurs spécialisés DGX-1 en vue de proposer des images similaires à celles que tu décris ou que tu téléverses.

copie d’écran de Qwant Qiss (recherche d’images)
On peut chercher une image ou bien « déposer une image » pour en trouver de similaires.

 Ah tiens j’ai essayé un peu, ça donne effectivement des résultats rigolos : si on cherche des saucisses, on a aussi des carottes, des crevettes et des dents…

C’est encore imparfait comme tu le soulignes, et c’est bien pour ça que ça n’est pas encore un produit en production ! On compte utiliser cette technologie de pointe pour la future version de notre moteur de recherche d’images.

Comment je fais pour signaler à l’IA qu’elle s’est plantée sur telle ou telle image ? C’est prévu de faire collaborer les bêta-testeurs ? Est-ce que Qwant accueille les contributions bénévoles ou militantes ?
Il est prévu d’ajouter un bouton pour que les utilisateurs puissent valider ou invalider une image par rapport à une description. Pour des projets de plus en plus nombreux, Qwant produit du logiciel libre et donc publie le code. Par exemple pour la recherche d’image, c’est sur https://github.com/QwantResearch/text-image-similarity. Les autres projets sont hébergés sur les dépôts https://github.com/QwantResearch : les contributions au code (Pull requests) et les descriptions de bugs (issues) sont les bienvenus !

Bon je vois que Qwant a l’ambition de couvrir autant de domaines que Google ? C’est pas un peu hégémonique tout ça ? On se croirait dans Dégooglisons Internet !

 

Effectivement, nos utilisateurs attendent de Qwant tout un univers de services. La recherche est pour nous une tête de pont, mais on travaille à de nouveaux services. Certains sont des moteurs de recherche spécialisés comme Qwant Junior, pour les enfants de 6 à 12 ans (pas de pornographie, de drogues, d’incitation à la haine ou à la violence).

Comment c’est calculé, les épineuses questions de résultats de recherche ou non avec Qwant Junior ? Ça doit être compliqué de filtrer…

échec de rceherche avec Qwant Junior : un petit dino dit "oups, je n’ai pas trouvé de résultats qui te conviennent"
Qwant Junior ne montre pas d’images de sexe masculin, tant mieux/tant pis ?

Nous avons des équipes qui gèrent cela et s’assurent que les sujets sont abordables par les enfants de 6 à 12 ans, qui sont notre cible pour Junior.
Ça n’est pas facile effectivement, mais nous pensons que c’est important. C’est une idée qui nous est venue au lendemain des attentats du Bataclan où trop d’images choquantes étaient publiées par les moteurs de recherche. C’était insupportable pour les enfants. Et puis Junior, comme je le disais, n’a pas vocation à afficher de publicité ni à capturer de données personnelles. C’est aussi pour cela que Qwant Junior est très utilisé dans les écoles, où il donne visiblement satisfaction aux enseignants et enseignantes.

Mais euh… « filtrer » les résultats, c’est le job d’un moteur de recherche ?

Il y a deux questions en fait. Pour un moteur de recherche pour enfants, ça me parait légitime de proposer aux parents un moteur qui ne propose pas de contenus choquants. Qwant Junior n’a pas vocation à être neutre : c’est un service éditorialisé qui fait remonter des contenus à valeur pédagogique pour les enfants. C’est aux parents de décider s’ils l’utilisent ou pas.
Pour un moteur de recherche généraliste revanche, la question est plutôt d’être neutre dans l’affichage des résultats, dans les limites de la loi.

Tiens vous avez même des trucs comme Causes qui propose de reverser l’argent des clics publicitaires à de bonnes causes ? Pour cela il faut désactiver les bloqueurs de pub auxquels nous sommes si attachés, ça va pas plaire aux antipubs…

En ce qui concerne Qwant Causes, c’est le moteur de recherche Qwant mais avec un peu plus de publicité. Et quand tu cliques dessus, cela rapporte de l’argent qui est donné à des associations que tu choisis. C’est une façon de donner à ces associations en faisant des recherches. Bien sûr si tu veux utiliser un bloqueur de pub, c’est autorisé chez Qwant, mais ça n’a pas de sens pour Qwant Causes, c’est pour ça qu’un message d’explication est affiché.

Est-ce que tous ces services sont là pour durer ou bien seront-ils fermés au bout d’un moment s’ils sont trop peu employés, pas rentables, etc. ?

Tous les services n’ont pas vocation à être rentables. Par exemple, il n’y a pas de pub sur Qwant Junior, parce que les enfants y sont déjà trop exposés. Mais Qwant reste une entreprise qui a vocation à générer de l’argent et à rémunérer ses actionnaires, donc la rentabilité est pour elle une chose importante. Et il y a encore de la marge pour concurrencer les dizaines de services proposés par Framasoft et les CHATONS 😉

Est-ce que Qwant est capable de dire combien de personnes utilisent ses services ? Qwant publie-t-elle des statistiques de fréquentation ?
Non. D’abord, on n’identifie pas nos utilisateurs, donc c’est impossible de les compter : on peut compter le nombre de recherches qui sont faites, mais pas par combien de personnes. Et c’est très bien comme ça ! Tout ce que je peux dire, c’est que le nombre de requêtes évolue très rapidement : on fait le point en comité de direction chaque semaine, et nous battons presque à chaque fois un nouveau record !

Bon venons-en aux questions que se posent souvent nos lecteurs et lectrices : Qwant et ses multiples services, c’est libre, open source, ça dépend ?

Non, tout n’est pas en logiciel libre chez Qwant, mais si tu vas sur les dépôts de Qwant et Qwant Research tu verras qu’il y a déjà plein de choses qui sont sous licence libre, y compris des choses stratégiques comme Graphee (calcul de graphe du Web) ou Mermoz (robot d’indexation du moteur). Et puis les nouveaux projets comme Qwant Maps et Masq y sont aussi.

La publicité est une source de revenus dans votre modèle économique, ou bien vous vendez des services à des entreprises ou institutions ? Qwant renonce à un modèle économique lucratif qui a fait les choux gras de Google, mais alors comment gagner de l’argent ?
Oui, Qwant facture aussi des services à des institutions dans le domaine de l’open data par exemple, mais l’essentiel du revenu vient de la publicité contextuelle, à ne pas confondre avec la publicité ciblée telle que faite par les géants américains du Web. C’est très différent.
La publicité ciblée, c’est quand tu sais tout de la personne (ses goûts, ses habitudes, ses déplacements, ses amis, son niveau de revenu, ses recherches web, son historique de navigation, et d’autres choses bien plus indiscrètes telles que ses opinions politiques, son orientation sexuelle ou religieuse, etc.). Alors tu vends à des annonceurs le droit de toucher avec de la pub des personnes qui sont ciblées. C’est le modèle des géants américains.
Qwant, pour sa part, ne veut pas collecter de données personnelles venant de ses utilisateurs. Tu as sûrement remarqué que quand tu vas sur Qwant.com la première fois, il n’y a pas de bannière « acceptez nos cookies ». C’est normal, nous ne déposons pas de cookies quand tu fais une recherche Qwant !

Personnane de Geektionerd : "Qwant avance, ta vie privée ne recule pas". intrelocuteur l’air sceptique fait : mmmmmh…
L’équipe Qwant’Comm en plein brainstorming…

Quand tu fais une recherche, Qwant te donne une réponse qui est la même pour tout le monde. Tu fais une recherche sur « Soupe à la tomate » ? On te donne les résultats et en même temps on voit avec les annonceurs qui est intéressé par ces mots-clés. On ignore tout de toi, ton identité ou ton niveau de revenu. Tout ce qu’on sait, c’est que tu as cherché « soupe à la tomate ». Et c’est ainsi que tu te retrouves avec de la pub pour du Gaspacho ou des ustensiles de cuisine. La publicité vaut un peu moins cher que chez nos concurrents, mais les gens cliquent dessus plus souvent. Au final, ça permet de financer les services et d’en inventer de nouveaux tout en respectant la vie privée des utilisateurs et de proposer une alternative aux services américains gourmands en données personnelles. On pourrait croire que ça ne rapporte pas assez, pourtant c’était le modèle commercial de Google jusqu’en 2006, où il a basculé dans la collecte massive de données personnelles…

Dans quelle mesure Qwant s’inscrit-il dans la reconquête de la souveraineté européenne contre la domination des géants US du Web ?
Effectivement, parmi les deux choses qui différencient Qwant de ses concurrents, il y a la non-collecte de données personnelles et le fait qu’il est français et à vocation européenne. Il y a un truc qui me dérange terriblement dans le numérique actuel, c’est que l’Europe est en train de devenir une colonie numérique des USA et peut-être à terme de la Chine. Or, le numérique est essentiel dans nos vies. Il les transforme ! Ces outils ne sont pas neutres, ils sont le reflet des valeurs de ceux qui les produisent.

Aux USA, les gens sont considérés comme des consommateurs : tout est à vendre à ou à acheter. En Europe, c’est différent. Ça n’est pas un hasard si la CNIL est née en France, si le RGPD est européen : on a conscience de l’enjeu des données personnelles sur la citoyenneté, sur la liberté des gens. Pour moi, que Qwant soit européen, c’est très important.

Merci d’avoir accepté de répondre à nos questions. Comme c’est la tradition de nos interviews, on te laisse le mot de la fin…

Je soutiens Framasoft depuis toujours ou presque, parce que je sais que ce qui y est fait est vraiment important : plus de libre, moins d’hégémonie des suspects habituels, plus de logiciel libre, plus de valeur dans les services proposés.
J’ai l’impression d’avoir avec Qwant une organisation différente par nature (c’est une société, avec des actionnaires), mais avec des objectifs finalement assez proches : fournir des services éthiques, respectueux de la vie pivée, plus proches des gens et de leurs valeurs, tout en contribuant au logiciel libre. C’est ce que j’ai tenté de faire chez Mozilla pendant 17 ans, et maintenant chez Qwant. Alors, je sais que toutes les organisations ne sont pas parfaites, et Qwant ne fait pas exception à la règle. En tout cas, chez Qwant on fait du mieux qu’on peut !

Vive l’Internet libre et ceux qui œuvrent à le mettre en place et à le défendre !

De Gaulle au balcon de Québec, bras en V, image de 1967 détournée en "Vive l’Internet Libre !" en rouge
D’après une image d’archive, De Gaulle s’adressant aux Québecois en 1967 (© Rare Historical Photos)

 




Nous sommes déjà des cyborgs mais nous pouvons reprendre le contrôle

Avec un certain sens de la formule, Aral Balkan allie la sévérité des critiques et l’audace des propositions. Selon lui nos corps « augmentés » depuis longtemps font de nous des sujets de la surveillance généralisée maintenant que nos vies sont sous l’emprise démultipliée du numérique.

Selon lui, il nous reste cependant des perspectives et des pistes pour retrouver la maîtrise de notre « soi », mais elles impliquent, comme on le devine bien, une remise en cause politique de nos rapports aux GAFAM, une tout autre stratégie d’incitation aux entreprises du numérique de la part de la Communauté européenne, le financement d’alternatives éthiques, etc.

Ce qui suit est la version française d’un article qu’a écrit Aral pour le numéro 32 du magazine de la Kulturstiftung des Bundes (Fondation pour la culture de la République fédérale d’Allemagne). Vous pouvez également lire la version allemande.

Article original en anglais : Slavery 2.0 and how to avoid it : a practical guide for cyborgs

Traduction Framalang : goofy, jums, Fifi, MO, FranBAG, Radical Mass

L’esclavage 2.0 et comment y échapper : guide pratique pour les cyborgs.

par Aral Balkan

Il est très probable que vous soyez un cyborg et que vous ne le sachiez même pas.

Vous avez un smartphone ?
Vous êtes un cyborg.
Vous utilisez un ordinateur ? Ou le Web ?
Cyborg !

En règle générale, si vous utilisez une technologie numérique et connectée aujourd’hui, vous êtes un cyborg. Pas besoin de vous faire greffer des microprocesseurs, ni de ressembler à Robocop. Vous êtes un cyborg parce qu’en utilisant des technologies vous augmentez vos capacités biologiques.

À la lecture de cette définition, vous pourriez marquer un temps d’arrêt : « Mais attendez, les êtres humains font ça depuis bien avant l’arrivée des technologies numériques ». Et vous auriez raison.

Nous étions des cyborgs bien avant que le premier bug ne vienne se glisser dans le premier tube électronique à vide du premier ordinateur central.

Galilée et sa lunette, tableau de Justus Sustermans, image via Wikimedia Commons (Public Domain]

L’homme des cavernes qui brandissait une lance et allumait un feu était le cyborg originel. Galilée contemplant les cieux avec son télescope était à la fois un homme de la Renaissance et un cyborg. Lorsque vous mettez vos lentilles de contact le matin, vous êtes un cyborg.

Tout au long de notre histoire en tant qu’espèce, la technologie a amélioré nos sens. Elle nous a permis une meilleure maîtrise et un meilleur contrôle sur nos propres vies et sur le monde qui nous entoure. Mais la technologie a tout autant été utilisée pour nous opprimer et nous exploiter, comme peut en témoigner quiconque a vu un jour de près le canon du fusil de l’oppresseur.

« La technologie », d’après la première loi de la technologie de Melvin Kranzberg, « n’est ni bonne ni mauvaise, mais elle n’est pas neutre non plus. »

Qu’est-ce qui détermine alors si la technologie améliore notre bien-être, les droits humains et la démocratie ou bien les dégrade ? Qu’est-ce qui distingue les bonnes technologies des mauvaises ? Et, tant qu’on y est, qu’est-ce qui différencie la lunette de Galilée et vos lentilles de contact Google et Facebook ? Et en quoi est-ce important de se considérer ou non comme des cyborgs ?

Nous devons tous essayer de bien appréhender les réponses à ces questions. Sinon, le prix à payer pourrait être très élevé. Il ne s’agit pas de simples questions technologiques. Il s’agit de questions cruciales sur ce que signifie être une personne à l’ère du numérique et des réseaux. La façon dont nous choisirons d’y répondre aura un impact fondamental sur notre bien-être, tant individuellement que collectivement. Les réponses que nous choisirons détermineront la nature de nos sociétés, et à long terme pourraient influencer la survie de notre espèce.

Propriété et maîtrise du « soi » à l’ère numérique et connectée

Imaginez : vous êtes dans un monde où on vous attribue dès la naissance un appareil qui vous observe, vous écoute et vous suit dès cet instant. Et qui peut aussi lire vos pensées.

Au fil des ans, cet appareil enregistre la moindre de vos réflexions, chaque mot, chaque mouvement et chaque échange. Il envoie toutes ces informations vous concernant à un puissant ordinateur central appartenant à une multinationale. À partir de là, les multiples facettes de votre personnalité sont collectionnées par des algorithmes pour créer un avatar numérique de votre personne. La multinationale utilise votre avatar comme substitut numérique pour manipuler votre comportement.

Votre avatar numérique a une valeur inestimable. C’est tout ce qui fait de vous qui vous êtes (à l’exception de votre corps de chair et d’os). La multinationale se rend compte qu’elle n’a pas besoin de disposer de votre corps pour vous posséder. Les esprits critiques appellent ce système l’Esclavage 2.0.

À longueur de journée, la multinationale fait subir des tests à votre avatar. Qu’est-ce que vous aimez ? Qu’est-ce qui vous rend heureux ? Ou triste ? Qu’est-ce qui vous fait peur ? Qui aimez-vous ? Qu’allez-vous faire cet après-midi ? Elle utilise les déductions de ces tests pour vous amener à faire ce qu’elle veut. Par exemple, acheter cette nouvelle robe ou alors voter pour telle personnalité politique.

La multinationale a une politique. Elle doit continuer à survivre, croître et prospérer. Elle ne peut pas être gênée par des lois. Elle doit influencer le débat politique. Heureusement, chacun des politiciens actuels a reçu le même appareil que vous à la naissance. Ainsi, la multinationale dispose aussi de leur avatar numérique, ce qui l’aide beaucoup à parvenir à ses fins.

Ceci étant dit, la multinationale n’est pas infaillible. Elle peut toujours faire des erreurs. Elle pourrait de façon erronée déduire, d’après vos pensées, paroles et actions, que vous êtes un terroriste alors que ce n’est pas le cas. Quand la multinationale tombe juste, votre avatar numérique est un outil d’une valeur incalculable pour influencer votre comportement. Et quand elle se plante, ça peut vous valoir la prison.
Dans les deux cas, c’est vous qui perdez !

Ça ressemble à de la science-fiction cyberpunk dystopique, non ?

Remplacez « multinationale » par « Silicon Valley ». Remplacez « puissant ordinateur central » par « cloud ». Remplacez « appareil » par « votre smartphone, l’assistant de votre smart home, votre smart city et votre smart ceci-cela, etc. ».

Bienvenue sur Terre, de nos jours ou à peu près.

Le capitalisme de surveillance

Nous vivons dans un monde où une poignée de multinationales ont un accès illimité et continu aux détails les plus intimes de nos vies. Leurs appareils, qui nous observent, nous écoutent et nous pistent, que nous portons sur nous, dans nos maisons, sur le Web et (de plus en plus) sur nos trottoirs et dans nos rues. Ce ne sont pas des outils dont nous sommes maîtres. Ce sont les yeux et les oreilles d’un système socio-techno-économique que Shoshana Zuboff appelle « le capitalisme de surveillance ».

Tout comme dans notre fiction cyberpunk dystopique, les barons voleurs de la Silicon Valley ne se contentent pas de regarder et d’écouter. Par exemple, Facebook a annoncé à sa conférence de développeurs en 2017 qu’ils avaient attelé 60 ingénieurs à littéralement lire dans votre esprit5.

J’ai demandé plus haut ce qui sépare la lunette de Galilée de vos lentilles de contact produites par Facebook, Google ou d’autres capitalistes de surveillance. Comprendre la réponse à cette question est crucial pour saisir à quel point le concept même de personnalité est menacé par le capitalisme de surveillance.

Lorsque Galilée utilisait son télescope, lui seul voyait ce qu’il voyait et lui seul savait ce qu’il regardait. Il en va de même lorsque vous portez vos lentilles de contact. Si Galilée avait acheté son télescope chez Facebook, Facebook Inc. aurait enregistré tout ce qu’il voyait. De manière analogue, si vous allez achetez vos lentilles de contact chez Google, des caméras y seront intégrées et Alphabet Inc. verra tout ce que vous voyez. (Google ne fabrique pas encore de telles lentilles, mais a déposé un brevet6 pour les protéger. En attendant, si vous êtes impatient, Snapchat fait des lunettes à caméras intégrées.)

Lorsque vous rédigez votre journal intime au crayon, ni le crayon ni votre journal ne savent ce que vous avez écrit. Lorsque vous écrivez vos réflexions dans des Google Docs, Google en connaît chaque mot.

Quand vous envoyez une lettre à un ami par courrier postal, la Poste ne sait pas ce que vous avez écrit. C’est un délit pour un tiers d’ouvrir votre enveloppe. Quand vous postez un message instantané sur Facebook Messenger, Facebook en connaît chaque mot.

Si vous vous identifiez sur Google Play avec votre smartphone Android, chacun de vos mouvements et de vos échanges sera méticuleusement répertorié, envoyé à Google, enregistré pour toujours, analysé et utilisé contre vous au tribunal du capitalisme de surveillance.

On avait l’habitude de lire les journaux. Aujourd’hui, ce sont eux qui nous lisent. Quand vous regardez YouTube, YouTube vous regarde aussi.

Vous voyez l’idée.

À moins que nous (en tant qu’individus) n’ayons notre technologie sous contrôle, alors « smart » n’est qu’un euphémisme pour « surveillance ». Un smartphone est un mouchard, une maison intelligente est une salle d’interrogatoire et une ville intelligente est un dispositif panoptique.

Google, Facebook et les autres capitalistes de surveillance sont des fermes industrielles pour êtres humains. Ils gagnent des milliards en vous mettant en batterie pour vous faire pondre des données et exploitent cette connaissance de votre intimité pour vous manipuler votre comportement.

Ce sont des scanners d’être humains. Ils ont pour vocation de vous numériser, de conserver cette copie numérique et de l’utiliser comme avatar pour gagner encore plus en taille et en puissance.

Nous devons comprendre que ces multinationales ne sont pas des anomalies. Elles sont la norme. Elles sont le courant dominant. Le courant dominant de la technologie aujourd’hui est un débordement toxique du capitalisme américain de connivence qui menace d’engloutir toute la planète. Nous ne sommes pas vraiment à l’abri de ses retombées ici en Europe.

Nos politiciens se laissent facilement envoûter par les millions dépensés par ces multinationales pour abreuver les lobbies de Bruxelles. Ils sont charmés par la sagesse de la Singularity University (qui n’est pas une université). Et pendant ce temps-là, nos écoles entassent des Chromebooks pour nos enfants. On baisse nos taxes, pour ne pas handicaper indûment les capitalistes de surveillance, au cas où ils voudraient se commander une autre Guinness. Et les penseurs de nos politiques, institutionnellement corrompus, sont trop occupés à organiser des conférences sur la protection des données – dont les allocutions sont rédigées par Google et Facebook – pour protéger nos intérêts. Je le sais car j’ai participé à l’une d’elles l’an passé. L’orateur de Facebook quittait tout juste son boulot à la CNIL, la commission française chargée de la protection des données, réputée pour la beauté et l’efficacité de ses chaises musicales.

Il faut que ça change.

Je suis de plus en plus convaincu que si un changement doit venir, il viendra de l’Europe.

La Silicon Valley ne va pas résoudre le problème qu’elle a créé. Principalement parce que des entreprises comme Google ou Facebook ne voient pas leurs milliards de bénéfices comme un problème. Le capitalisme de surveillance n’est pas déstabilisé par ses propres critères de succès. Ça va comme sur des roulettes pour les entreprises comme Google et Facebook. Elles se marrent bien en allant à la banque, riant au visage des législateurs, dont les amendes cocasses excèdent à peine un jour ou deux de leur revenu. D’aucuns diraient que « passible d’amende » signifie « légal pour les riches ». C’est peu de le dire lorsqu’il s’agit de réglementer des multinationales qui brassent des milliers de milliards de dollars.

De manière analogue, le capital-risque ne va pas investir dans des solutions qui mettraient à mal le business immensément lucratif qu’il a contribué à financer.

Alors quand vous voyez passer des projets comme le soi-disant Center for Humane Technology, avec des investisseurs-risques et des ex-employés de Google aux commandes, posez-vous quelques questions. Et gardez-en quelques-unes pour les organisations qui prétendent créer des alternatives éthiques alors qu’elles sont financées par les acteurs du capitalisme de surveillance. Mozilla, par exemple, accepte chaque année des centaines de millions de dollars de Google7. Au total, elle les a délestés de plus d’un milliard de dollars. Vous êtes content de lui confier la réalisation d’alternatives éthiques ?

Si nous voulons tracer une autre voie en Europe, il faut financer et bâtir notre technologie autrement. Ayons le courage de nous éloigner de nos amis d’outre-Atlantique. Ayons l’aplomb de dire à la Silicon Valley et à ses lobbyistes que nous n’achetons pas ce qu’ils vendent.

Et nous devons asseoir tout ceci sur de solides fondations légales en matière de droits de l’homme. J’ai dit « droits de l’homme » ? Je voulais dire droits des cyborgs.

Les droits des cyborgs sont des droits de l’homme

La crise juridique des droits de l’homme que nous rencontrons nous ramène au fond à ce que nous appelons « humain ».

Traditionnellement, on trace les limites de la personne humaine à nos frontières biologiques. En outre, notre système légal et judiciaire tend à protéger l’intégrité de ces frontières et, par là, la dignité de la personne. Nous appelons ce système le droit international des droits de l’Homme.

Malheureusement, la définition de la personne n’est plus adaptée pour nous protéger complètement à l’ère du numérique et des réseaux.

Dans cette nouvelle ère, nous étendons nos capacités biologiques par des technologies numériques et en réseau. Nous prolongeons nos intellects et nos personnes par la technologie moderne. C’est pour ça que nous devons étendre notre concept des limites de la personne jusqu’à inclure les technologies qui nous prolongent. En étendant la définition de la personne, on s’assure que les droits de l’homme couvrent et donc protègent la personne dans son ensemble à l’ère du numérique et des réseaux.

« Cyborg-gal-avi » par Pandora Popstar/Lainy Voom, licence CC BY-NC-SA 2.0

En tant que cyborgs, nous sommes des êtres fragmentaires. Des parties de nous vivent dans nos téléphones, d’autres quelque part sur un serveur, d’autres dans un PC portable. C’est la somme totale de tous ces fragments qui compose l’intégralité de la personne à l’ère du numérique et des réseaux.

Les droits des cyborgs sont donc les droits de l’homme tels qu’appliqués à la personne cybernétique. Ce dont nous n’avons pas besoin, c’est d’un ensemble de « droits numériques » – probablement revus à la baisse. C’est pourquoi, la Déclaration universelle des droits cybernétiques n’est pas un document autonome, mais un addendum à la Déclaration universelle des droits de l’Homme.

La protection constitutionnelle des droits cybernétiques étant un but à long terme, il ne faut pas attendre un changement constitutionnel pour agir. Nous pouvons et devons commencer à nous protéger en créant des alternatives éthiques aux technologies grand public.

Pour des technologies éthiques

Une technologie éthique est un outil que vous possédez et que vous contrôlez. C’est un outil conçu pour vous rendre la vie plus facile et plus clémente. C’est un outil qui renforce vos capacités et améliore votre vie. C’est un outil qui agit dans votre intérêt – et jamais à votre détriment.

Une technologie non éthique est au contraire un outil aux mains de multinationales et de gouvernements. Elle sert leurs intérêts aux dépens des vôtres. C’est un miroir aux alouettes conçu pour capter votre attention, vous rendre dépendant, pister chacun de vos mouvements et vous profiler. C’est une ferme industrielle déguisée en parc récréatif.

La technologie non éthique est nuisible pour les êtres humains, le bien-être et la démocratie.

Semer de meilleures graines

La technologie éthique ne pousse pas sur des arbres, il faut la financer. La façon de la financer a de l’importance.
La technologie non éthique est financée par le capital risque. Le capital risque n’investit pas dans une entreprise, il investit dans la vente de l’entreprise. Il investit aussi dans des affaires très risquées. Un investisseur risque de la Silicon Valley va investir, disons, 5 millions de dollars dans 10 start-ups différentes, en sachant que 9 d’entre elles vont capoter. Alors il (c’est habituellement un « lui/il ») a besoin que la 10e soit une licorne à un milliard de dollars pour que ça lui rapporte 5 à 10 fois l’argent investi (Ce n’est même pas son argent, mais celui de ses clients.). Le seul modèle d’affaires que nous connaissions dans les nouvelles technologies qui atteigne une croissance pareille est la mise en batterie des gens. L’esclavage a bien payé.
L’esclavage 2.0 paie bien aussi.

Pas étonnant qu’un système qui attache autant de valeur à un mode de croissance de type prolifération cancéreuse ait engendré des tumeurs telles que Google et Facebook. Ce qui est stupéfiant, c’est que nous semblions célébrer ces tumeurs au lieu de soigner le patient. Et plus déconcertant encore, nous nous montrons obstinément déterminés à nous inoculer la même maladie ici en Europe.

Changeons de direction.

Finançons des alternatives éthiques

À partir des biens communs

Pour le bien commun.

Oui, cela signifie avec nos impôts. C’est en quelque sorte ce pour quoi ils existent (pour mettre en place des infrastructures partagées et destinées au bien commun qui font progresser le bien-être de nos populations et nos sociétés). Si le mot « impôt » vous effraie ou sonne trop vieux jeu, remplacez-le simplement par « financement participatif obligatoire » ou « philanthropie démocratisée ».

Financer une technologie éthique à partir des biens communs ne signifie pas que nous laissions aux gouvernements le pouvoir de concevoir, posséder ou contrôler nos technologies. Pas plus que de nationaliser des entreprises comme Google et Facebook. Démantelons-les ! Bien sûr. Régulons-les ! Évidemment. Mettons en œuvre absolument tout ce qui est susceptible de limiter autant que possible leurs abus.

Ne remplaçons pas un Big Brother par un autre.

À l’inverse, investissons dans de nombreuses et petites organisations, indépendantes et sans but lucratif, et chargeons-les de concevoir les alternatives éthiques. Dans le même temps, mettons-les en compétition les unes avec les autres. Prenons ce que nous savons qui fonctionne dans la Silicon Valley (de petites organisations travaillant de manière itérative, entrant en compétition, et qui échouent rapidement) et retirons ce qui y est toxique : le capital risque, la croissance exponentielle, et les sorties de capitaux.

À la place des startups, lançons des entreprises durables, des stayups en Europe.

À la place de sociétés qui n’ont comme possibilités que d’échouer vite ou devenir des tumeurs malignes, finançons des organisations qui ne pourront qu’échouer vite ou devenir des fournisseurs durables de bien social.

Lorsque j’ai fait part de ce projet au Parlement européen, il y a plusieurs années, celui-ci a fait la sourde oreille. Il n’est pas encore trop tard pour s’y mettre. Mais à chaque fois que nous repoussons l’échéance, le capitalisme de surveillance s’enchevêtre plus profondément encore dans le tissu de nos vies.

Nous devons surmonter ce manque d’imagination et fonder notre infrastructure technologique sur les meilleurs principes que l’humanité ait établis : les droits de l’homme, la justice sociale et la démocratie.

Aujourd’hui, l’UE se comporte comme un département de recherche et développement bénévole pour la Silicon Valley. Nous finançons des startups qui, si elles sont performantes, seront vendues à des sociétés de la Silicon Valley. Si elles échouent, le contribuable européen réglera la note. C’est de la folie.

La Communauté Européenne doit mettre fin au financement des startups et au contraire investir dans les stayups. Qu’elle investisse 5 millions d’euros dans dix entreprises durables pour chaque secteur où nous voulons des alternatives éthiques. À la différence des startups, lorsque les entreprises durables sont performantes, elles ne nous échappent pas. Elles ne peuvent être achetées par Google ou Facebook. Elles restent des entités non lucratives, soutenables, européennes, œuvrant à produire de la technologie en tant que bien social.

En outre, le financement d’une entreprise durable doit être soumis à une spécification stricte sur la nature de la technologie qu’elle va concevoir. Les biens produits grâce aux financements publics doivent être des biens publics. La Free Software Foundation Europe sensibilise actuellement l’opinion sur ces problématiques à travers sa campagne « argent public, code public ». Cependant, nous devons aller au-delà de  l’open source pour stipuler que la technologie créée par des entreprises durables doit être non seulement dans le domaine public, mais également qu’elle ne peut en être retirée. Dans le cas des logiciels et du matériel, cela signifie l’utilisation de licences copyleft. Une licence copyleft implique que si vous créez à partir d’une technologie publique, vous avez l’obligation de la partager à l’identique. Les licences share-alike, de partage à l’identique, sont essentielles pour que nos efforts ne soient pas récupérés pour enjoliver la privatisation et pour éviter une tragédie des communs. Des corporations aux poches sans fond ne devraient jamais avoir la possibilité de prendre ce que nous créons avec des deniers publics, habiller tout ça de quelques millions d’investissement et ne plus partager le résultat amélioré.

En fin de compte, il faut préciser que les technologies produites par des entreprises stayups sont des technologies pair-à-pair. Vos données doivent rester sur des appareils que vous possédez et contrôlez. Et lorsque vous communiquez, vous devez le faire en direct (sans intervention d’un « homme du milieu », comme Google ou Facebook). Là où ce n’est techniquement pas possible, toute donnée privée sous le contrôle d’une tierce partie (par exemple un hébergeur web) doit être chiffrée de bout à bout et vous seul devriez en détenir la clé d’accès.

Même sans le moindre investissement significatif dans la technologie éthique, de petits groupes travaillent déjà à des alternatives. Mastodon, une alternative à Twitter fédérée et éthique, a été créée par une seule personne d’à peine vingt ans. Quelques personnes ont collaboré pour créer un projet du nom de Dat qui pourrait être la base d’un web décentralisé. Depuis plus de dix ans, des bénévoles font tourner un système de nom de domaine alternatif non commercial appelé OpenNIC8 qui pourrait permettre à chacun d’avoir sa propre place sur le Web…

Si ces graines germent sans la moindre assistance, imaginez ce qui serait à notre portée si on commençait réellement à les arroser et à en planter de nouvelles. En investissant dans des stayups, nous pouvons entamer un virage fondamental vers la technologie éthique en Europe.

Nous pouvons construire un pont de là où nous sommes vers là où nous voulons aller.

D’un monde où les multinationales nous possèdent par procuration à un monde où nous n’appartenons qu’à nous-mêmes.

D’un monde où nous finissons toujours par être la propriété d’autrui à un monde où nous demeurons des personnes en tant que telles.

Du capitalisme de surveillance à la pairocratie.