1

Google et son robot pipoteur(*), selon Doctorow

Source de commentaires alarmants ou sarcastiques, les robots conversationnels qui reposent sur l’apprentissage automatique ne provoquent pas seulement l’intérêt du grand public, mais font l’objet d’une course de vitesse chez les GAFAM.

Tout récemment, peut-être pour ne pas être à la traîne derrière Microsoft qui veut adjoindre un chatbot à son moteur de recherche Bing, voilà que Google annonce sa ferme résolution d’en faire autant. Dans l’article traduit pour vous par framalang, Cory Doctorow met en perspective cette décision qui lui semble absurde en rappelant les échecs de Google qui a rarement réussi à créer quoi que ce soit…

(*) Merci à Clochix dont nous adoptons dans notre titre la suggestion.

Article original : Google’s chatbot panic

Traduction Framalang : Fabrice, goofy, jums, Henri-Paul, Sysy, wisi_eu,

L’assistant conversationnel de Google en panique

par Cory Doctorow

 

Photo Jonathan Worth CC-BY-SA

 

 

Il n’y a rien d’étonnant à ce que Microsoft décide que l’avenir de la recherche en ligne ne soit plus fondé sur les liens dans une page web, mais de là à la remplacer par des longs paragraphes fleuris écrits dans un chatbot qui se trouve être souvent mensonger… — et en plus Google est d’accord avec ce concept.

Microsoft n’a rien à perdre. Il a dépensé des milliards pour Bing, un moteur de recherche que personne n’utilise volontairement. Alors, sait-on jamais, essayer quelque chose d’aussi stupide pourrait marcher. Mais pourquoi Google, qui monopolise plus de 90 % des parts des moteurs de recherche dans le monde, saute-t-il dans le même bateau que Microsoft ?

le long d'un mur de brique rouge sur lequel est suspendu un personnage ovoïde au visage très inquiet (Humpty-Dumpty le gros œuf), deux silhouettes jumelles (Tweedle-dee et Tweedle-dum les personnages de De l'autre côté du_miroir de Lewis Carroll) représentent avec leur logo sur le ventre Bing et google, chacun d'eaux a une tête qui évoque le robot Hal de 2001, à savoir une lueur rouge sur fond noir qui fait penser à un œil.

Il y a un délicieux fil à dérouler sur Mastodon, écrit par Dan Hon, qui compare les interfaces de recherche merdiques de Bing et Google à Tweedledee et Tweedledum :

https://mamot.fr/@danhon@dan.mastohon.com/109832788458972865

Devant la maison, Alice tomba sur deux étranges personnages, tous deux étaient des moteurs de recherche.
— moi, c’est Google-E, se présenta celui qui était entièrement recouvert de publicités
— et moi, c’est Bingle-Dum, fit l’autre, le plus petit des deux, et il fit la grimace comme s’il avait moins de visiteurs et moins d’occasions de mener des conversations que l’autre.
— je vous connais, répondit Alice, vous allez me soumettre une énigme ? Peut-être que l’un de vous dit la vérité et que l’autre ment ?
— Oh non, fit Bingle-Dum
— Nous mentons tous les deux, ajouta Google-E

Mais voilà le meilleur :

— Cette situation est vraiment intolérable, si vous mentez tous les deux.

— mais nous mentons de façon très convaincante, précisa Bingle-Dum

— D’accord, merci bien. Dans ce cas, comment puis-je vous faire jamais confiance ni / confiance à l’un ni/ou à l’autre ? Dans ce cas, comment puis-je faire confiance à l’un d’entre vous ?

Google-E et Bingle-Dum se tournèrent l’un vers l’autre et haussèrent les épaules.

La recherche par chatbot est une très mauvaise idée, surtout à un moment où le Web est prompt à se remplir de vastes montagnes de conneries générées via l’intelligence artificielle, comme des jacassements statiques de perroquets aléatoires :

La stratégie du chatbot de Google ne devrait pas consister à ajouter plus de délires à Internet, mais plutôt à essayer de trouver comment exclure (ou, au moins, vérifier) les absurdités des spammeurs et des escrocs du référencement.

Et pourtant, Google est à fond dans les chatbots, son PDG a ordonné à tout le monde de déployer des assistants conversationnels dans chaque recoin de l’univers Google. Pourquoi diable est-ce que l’entreprise court après Microsoft pour savoir qui sera le premier à décevoir des espérances démesurées ?

J’ai publié une théorie dans The Atlantic, sous le titre « Comment Google a épuisé toutes ses idées », dans lequel j’étudie la théorie de la compétition pour expliquer l’insécurité croissante de Google, un complexe d’anxiété qui touche l’entreprise quasiment depuis sa création:

L’idée de base : il y a 25 ans, les fondateurs de Google ont eu une idée extraordinaire — un meilleur moyen de faire des recherches. Les marchés financiers ont inondé l’entreprise en liquidités, et elle a engagé les meilleurs, les personnes les plus brillantes et les plus créatives qu’elle pouvait trouver, mais cela a créé une culture d’entreprise qui était incapable de capitaliser sur leurs idées.

Tous les produits que Google a créés en interne, à part son clone de Hotmail, sont morts. Certains de ces produits étaient bons, certains horribles, mais cela n’avait aucune importance. Google, une entreprise qui promouvait la culture du baby-foot et la fantaisie de l’usine Willy Wonka [NdT: dans Charlie et la chocolaterie, de Roald Dahl], était totalement incapable d’innover.

Toutes les réussites de Google, hormis son moteur de recherche et gmail, viennent d’une acquisition : mobile, technologie publicitaire, vidéos, infogérance de serveurs, docs, agenda, cartes, tout ce que vous voulez. L’entreprise souhaite plus que tout être une société qui « fabrique des choses », mais en réalité elle « achète des choses ». Bien sûr, ils sont très bons pour rendre ces produits opérationnels et à les faire « passer à l’échelle », mais ce sont les enjeux de n’importe quel monopole :

La dissonance cognitive d’un « génie créatif » autoproclamé, dont le véritable génie est de dépenser l’argent des autres pour acheter les produits des autres, et de s’en attribuer le mérite, pousse les gens à faire des choses vraiment stupides (comme tout utilisateur de Twitter peut en témoigner).
Google a longtemps montré cette pathologie. Au milieu des années 2000 – après que Google a chassé Yahoo en Chine et qu’il a commencé à censurer ses résultats de recherche, puis collaboré à la surveillance d’État — nous avions l’habitude de dire que le moyen d’amener Google à faire quelque chose de stupide et d’autodestructeur était d’amener Yahoo à le faire en premier lieu.

C’était toute une époque. Yahoo était désespéré et échouait, devenant un cimetière d’acquisitions prometteuses qui étaient dépecées et qu’on laissait se vider de leur sang, laissées à l’abandon sur l’Internet public, alors que les princes duellistes de la haute direction de Yahoo se donnaient des coups de poignard dans le dos comme dans un jeu de rôle genre les Médicis, pour savoir lequel saboterait le mieux l’autre. Aller en Chine fut un acte de désespoir après l’humiliation pour l’entreprise que fut le moteur de recherche largement supérieur de Google. Regarder Google copier les manœuvres idiotes de Yahoo était stupéfiant.

C’était déconcertant, à l’époque. Mais à mesure que le temps passait, Google copiait servilement d’autres rivaux et révélait ainsi une certaine pathologie d’insécurité. L’entreprise échouait de manière récurrente à créer son réseau « social », et comme Facebook prenait toujours plus de parts de marché dans la publicité, Google faisait tout pour le concurrencer. L’entreprise fit de l’intégration de Google Plus un « indictateur1 de performance » dans chaque division, et le résultat était une agrégation étrange de fonctionnalités « sociales » défaillantes dans chaque produit Google — produits sur lesquels des milliards d’utilisateurs se reposaient pour des opérations sensibles, qui devenaient tout à coup polluées avec des boutons sociaux qui n’avaient aucun sens.

La débâcle de G+ fut à peine croyable : certaines fonctionnalités et leur intégration étaient excellentes, et donc logiquement utilisées, mais elles subissaient l’ombrage des incohérences insistantes de la hiérarchie de Google pour en faire une entreprise orientée réseaux sociaux. Quand G+ est mort, il a totalement implosé, et les parties utiles de G+ sur lesquelles les gens se reposaient ont disparu avec les parties aberrantes.

Pour toutes celles et ceux qui ont vécu la tragi-comédie de G+, le virage de Google vers Bard, l’interface chatbot pour les résultats du moteur de recherche, semble tristement familier. C’est vraiment le moment « Mourir en héros ou vivre assez longtemps pour devenir un méchant ». Microsoft, le monopole qui n’a pas pu tuer la jeune pousse Google à cause de son expérience traumatisante des lois antitrust, est passé d’une entreprise qui créait et développait des produits à une entreprise d’acquisitions et d’opérations, et Google est juste derrière elle.

Pour la seule année dernière, Google a viré 12 000 personnes pour satisfaire un « investisseur activiste » privé. La même année, l’entreprise a racheté 70 milliards de dollars en actions, ce qui lui permet de dégager suffisamment de capitaux pour payer les salaires de ses 12 000 « Googleurs » pendant les 27 prochaines années. Google est une société financière avec une activité secondaire dans la publicité en ligne. C’est une nécessité : lorsque votre seul moyen de croissance passe par l’accès aux marchés financiers pour financer des acquisitions anticoncurrentielles, vous ne pouvez pas vous permettre d’énerver les dieux de l’argent, même si vous avez une structure à « double pouvoir » qui permet aux fondateurs de l’emporter au vote contre tous les autres actionnaires :

https://abc.xyz/investor/founders-letters/2004-ipo-letter/

ChatGPT et ses clones cochent toutes les cases d’une mode technologique, et sont les dignes héritiers de la dernière saison du Web3 et des pics des cryptomonnaies. Une des critiques les plus claires et les plus inspirantes des chatbots vient de l’écrivain de science-fiction Ted Chiang, dont la critique déjà culte est intitulée « ChatGPT est un une image JPEG floue du Web » :

https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web

Chiang souligne une différence essentielle entre les résultats de ChatGPT et ceux des humains : le premier jet d’un auteur humain est souvent une idée originale, mal exprimée, alors que le mieux que ChatGPT puisse espérer est une idée non originale, exprimée avec compétence. ChatGPT est parfaitement positionné pour améliorer la soupe de référencement que des légions de travailleurs mal payés produisent dans le but de grimper dans les résultats de recherche de Google.

En mentionnant l’article de Chiang dans l’épisode du podcast « This Machine Kills », Jathan Sadowski perce de manière experte la bulle de la hype ChatGPT4, qui soutient que la prochaine version du chatbot sera si étonnante que toute critique de la technologie actuelle en deviendra obsolète.

Sadowski note que les ingénieurs d’OpenAI font tout leur possible pour s’assurer que la prochaine version ne sera pas entraînée sur les résultats de ChatGPT3. Cela en dit long : si un grand modèle de langage peut produire du matériel aussi bon qu’un texte produit par un humain, alors pourquoi les résultats issus de ChatGPT3 ne peuvent-ils pas être utilisés pour créer ChatGPT4 ?

Sadowski utilise une expression géniale pour décrire le problème :  « une IA des Habsbourg ». De même que la consanguinité royale a produit une génération de prétendus surhommes incapables de se reproduire, l’alimentation d’un nouveau modèle par le flux de sortie du modèle précédent produira une spirale infernale toujours pire d’absurdités qui finira par disparaître dans son propre trou du cul.

 

Crédit image (modifiée) : Cryteria, CC BY 3.0




De la pub ? Où ça ?

Nous, les geeks, nous bloquons les pubs et nous n’y pensons plus.

Le choc est d’autant plus grand quand nous devons utiliser l’ordinateur de quelqu’un d’autre.

« Mais comment faites-vous pour supporter une telle nuisance ? » avons-nous envie de hurler.
Eh bien, c’est simple : quand on ne sait pas s’en protéger, on vit avec le vacarme.
Et la majorité des gens que nous côtoyons doivent subir cet incessant bruit de fond publicitaire.

Cet article a pour ambition de recenser les méthodes pour s’éviter l’agression publicitaire sur Internet.
Partagez-le, commentez-le, augmentez-le ! C’est libre.

 

Sur mobile

Un bon conseil au passage : arrêtez d’appeler «téléphone» le parallélépipède que vous promenez partout et qui est plus puissant qu’un PC d’il y a cinq ans. Vous vous rendrez compte que la plupart du temps il vous sert à plein d’autres choses qu’à téléphoner. C’est un ordinateur à part entière, qui sait à tout moment où vous êtes et ce que vous faites. C’est un bon copain très serviable mais c’est aussi un super espion.

L’appeler «ordiphone» ou «smartphone» si vous aimez les anglicismes, c’est déjà prendre conscience de ses capacités.

Sur Android

Fuyez les applications

Utilisez le navigateur et pas les applications (Fennec sur F-droid ou Firefox sur le Play Store/Apple Store).

Pourquoi ?

Le navigateur peut filtrer correctement les cookies, recevoir des réglages de confidentialité plus fins, embarquer des extensions protectrices.

Les applications, elles, sont là pour capter un maximum de données et vous garder en ligne autant que possible. Même si elles ont des réglages de confidentialité, vous ne serez jamais en mesure de vérifier que ces réglages fonctionnent, puisque le code des applications est fermé.

Le navigateur Firefox (ou Fennec, donc) est un logiciel libre dont le code peut être validé par des experts.

Privilégiez les versions web mobiles lorsque c’est possible, et épinglez le site : ça ressemble à une appli mais ça prend moins de place !

Extensions et réglages

  • Installer uBlock Origin dans votre navigateur, c’est le service minimum pour être un peu tranquille.
  • Choisir «standard» voire « stricte » comme «Protection renforcée» dans les paramètres du navigateur.

Si vous voulez des applis quand même (après tout, c’est ça aussi, la liberté)

Renseignez-vous sur leur propension à vous espionner grâce aux travaux de l’excellente association française Exodus Privacy dont on ne dira jamais assez de bien.

 

Installez un autre magasin d’application pour y trouver des apps moins invasives.

Allez chercher l’apk de F-droid, le «magasin d’applications» soutenu par la Free Software Foundation (https://f-droid.org/fr/) et dites à votre Android qu’il peut lui faire confiance.

Attention, toutefois : certaines applis ne sont pas mûres, n’installez pas n’importe quoi.

 

Youtube sans pub

  • NewPipe sur F-droid

 Twitter sans Twitter

  • Fritter

Twitch sans Twitch

  • Twire

Reddit sans…

  • RedReader

 

Et pensez aux réseaux sociaux alternatifs comme Mastodon.

S’éviter les appels de télémarketing

L’application Yet Another Call Blocker consulte une liste noire collaborative à chaque appel avant de le laisser passer. C’est un casse-pied qui veut vous parler de votre CPF ? Votre téléphone ne sonne même pas, l’indésirable est détecté et viré sans vous déranger. S’il ne l’est pas vous le signalez et tout le monde est désormais protégé.

Copie d'écran de la page de présentation de l'application <em>Yen Another Call Blocker</em>

 

Filtrer le trafic Internet

Utilisez des DNS publics qui incluent un filtrage, ou des solutions locales.

C’est quoi un DNS ?

Les «serveurs de noms de domaine» transforment un domaine (une adresse à peu près intelligible pour nous comme framasoft.org) en adresse utilisable par une machine sur Internet («2a01:4f8:141:3421::212»). Partie mise à jour grâce au commentaire de Stéphane Bortzmeyer.

 

Pourquoi ça marche ?

Si vous donnez une fausse adresse à la machine, la pub n’arrive plus ! Un peu comme si vous mettiez une fausse boite aux lettres reliée directement à votre poubelle à la disposition des personnes qui distribuent des prospectus dans votre quartier.

Vous libérez même de la bande passante sur votre réseau et du temps de calcul à l’affichage des sites puisque votre appareil ne télécharge même pas les contenus publicitaires, qui pèsent généralement lourd dans une page web (images, vidéo).

  • dns.adguard.com
  • adblock.doh.mullvad.net
  • Blocklists locales via intégration VPN
  • Blokada (à la portée de tout le monde !)
  • TrackerControl (sur F-droid, assez didactique)
  • personalDNSFilter

Copie d’écran du réglage «DNS privé» sur Android. Un nom d »hôte personnalisé est saisi (ici dns.adguard.com).

 

Gérer les permissions aux applications

Les Android récents permettent par exemple d’autoriser une permission ponctuellement.

 

Si vous avez encore un compte Google

Réglez-le pour limiter la surveillance. Le mieux, c’est encore de ne pas en avoir.

On a l’impression que c’est obligatoire quand on configure un nouvel ordiphone (tout est fait pour vous donner cette impression, c’est ce qu’on appelle une interface déloyale, en anglais dark pattern), mais on peut passer cette étape ! Il suffit de cliquer sur «ignorer».

Configurer le compte Google pour désactiver le ciblage publicitaire : https://web.archive.org/web/20210224202916/https://sautenuage.com/de-vie-privee-sur-android-sans-rien-installer/

Dégoogliser son ordiphone

Vous pouvez parfaitement utiliser un Android sans la surcouche propriétaire de Google ou du fabricant, en installant par exemple Lineage OS ou /e/ OS de Murena.

Attention, «flasher» son engin est une opération délicate, vous risquez de le «briquer», c’est-à-dire de le transformer en presse-papier un peu cher.

Ne le faites pas si vous n’êtes pas à l’aise.

 

Cerise sur le gâteau : débarrassé de la surcouche Google, votre ordiphone sera plus véloce, moins poussif, et tiendra mieux la batterie ! Une bonne façon de faire durer le matériel (le mien va fêter ses huit ans !).

 

Autre solution pour un matériel qui dure : l’acheter en reconditionné sur https://murena.com/fr/

Il aura été configuré par des pros. Murena s’engage sur la protection de votre vie privée.

 

Sur iOS

Apple se targue de protéger vos données. Mais il y a au moins une entreprise qui y accède : Apple !

Et puis la firme a beau… frimer (on ne s’interdit pas les jeux de mots faciles, chez Framasoft), elle est quand même soumises aux lois liberticides américaines.

 

Gérer qui a accès aux permissions spécifiques

  • Consulter la section « Confidentialité de l’app » des fiches AppStore

 

Sur un ordinateur

Utiliser un navigateur bienveillant, la base : Firefox et rien d’autre

Avec Firefox, dans les Préférences, aller à l’onglet « vie privée et sécurité » : plusieurs trucs sont à régler pour se garantir un peu de tranquillité.

accès en trois clics aux paramètres de Firefox (capture d'écran) Édition > Paramètres > Vie privée et sécurité

Firefox : paramètres contre le pistage
Firefox prévoit trois réglages de protection de la vie privée : standard, stricte, ou personnalisée. La protection standard est suffisante pour la plupart des usages, mais vous pouvez pousser la vôtre en mode « strict ». Ne vous ennuyez pas avec le réglage personnalisé si vous n’y comprenez rien.

 

Vous pouvez paramétrer Firefox pour qu’il envoie un signal « ne pas me pister » (Do Not Track en anglais, vous le verrez abrégé en DNT parfois) et pour supprimer les cookies à intervalle régulier, sachant que vous pouvez instaurer des exceptions sur les sites auxquels vous faites confiance.

 

Firefox vous demande votre accord pour collecter des données anonymisées sur votre usage du logiciel. Vous pouvez refuser. En revanche sur la partie Sécurité, cochez tout.

 

 

copie d'écran des paramètres de chiffrement de Firefox
Le protocole HTTPS permet de chiffrer les relations entre le navigateur et le serveur, ce qui signifie qu’une personne qui intercepte le flux ne peut pas le lire (c’est le fameux petit cadenas dont vous entendez souvent parler). Mais ce n’est pas parce que la liaison est chiffrée que le site est un site de confiance. En gros ça garantit que l’enveloppe est fermée, pas que l’enveloppe ne contient pas des saloperies.

 

Les extensions que vous pouvez installer :

  • uBlock Origin
  • Privacy Badger
  • SponsorBlock
  • Privacy Redirect
  • Cookie Autodelete
  • Umatrix
  • Decentraleyes

Ne le faites pas sans comprendre ! Lisez la documentation.

 

Youtube sans pub

  • Invidious
  • Piped (plus récent, efficace)
  • FreeTube

Twitter sans Twitter

  • Nitter

 

DNS de filtrage, fichier hosts customisé

Comment ça marche ?

Les publicités ne sont généralement pas hébergées sur le serveur du site que vous consultez. Elles sont sur un autre site et téléchargées à la volée. En filtrant via le DNS, on dit à l’ordi d’aller chercher les pubs dans un «trou noir informatique». Le fichier «hosts» de votre système peut lister des adresses de sites et les rediriger vers un espace inexistant de votre ordinateur. En gros on truque l’annuaire ; votre navigateur ne trouve pas les publicités, il ne les affiche pas. Simple et efficace. Ce qui est drôle, c’est que le concepteur du site ne sait pas que vous naviguez sans voir ses pubs. 🙂

 

pi-hole

À installer sur  un nano-ordinateur RaspberryPi dont l’un des spécialistes est français, cocorico, ou un ordinateur recyclé,  pi-hole bloque la publicité et les pisteurs sur tout le réseau. Tout ce qui se connecte à votre box est débarrassé de la publicité et des mouchards !

 

Attention toutefois, en faisant ça vous contrevenez pour votre PC à un des principes d’Internet : la neutralité des tuyaux. Vous ne verrez plus rien en provenance du site tiers dont le trafic est bloqué. En général, ce sont des régies publicitaires, donc on peut choisir de s’en moquer, mais il faut le savoir.

Au pire vous verrez un espace blanc marqué « publicité », au mieux la page se réorganisera et seul le contenu issu du site d’origine apparaîtra.

Mode Expert : changez de système d’exploitation

Une méthode radicale (mais qui n’exclut pas la plupart des autres mentionnées ci-dessus) : passez à un système libre, qui ne trichera pas avec vous pour vous imposer des pubs sous prétexte de vous tenir au courant de l’actualité (oui, Windows, on te voit !).

Les différentes distributions GNU/Linux qui existent sont désormais faciles à installer et à utiliser.

La plupart des geeks installent désormais une Ubuntu ou une Linux Mint sur les ordinateurs familiaux au lieu de réparer le Windows qui plante sans cesse et qui s’encrasse avec le temps. Le changement n’est pas si difficile pour les «clients», qui souvent n’utilisent leur ordinateur que pour aller sur Internet gérer leur courrier et leurs réseaux sociaux (et croyez-nous c’est l’expérience qui parle !). Vérifiez quand même que Papy ou Tantine n’a pas une appli fétiche qui ne tourne que sous Windows et installez un double-démarrage par sécurité.

Au pire si quelqu’un fait une bêtise ça se dépanne à distance dans la majorité des cas (avec par exemple le logiciel AnyDesk qui n’est pas libre mais dont le fonctionnement est compréhensible par le moins dégourdi des cousins).

Mise à jour : on nous signale dans les commentaires une alternative libre et légère à AnyDesk : DWAgent via https://dwservice.net

Si vous ne comprenez pas certains mots du paragraphe ci-dessus, ne vous lancez pas, ou faites-vous aider par une personne compétente.

Difficile de vous conseiller une «distro» plutôt qu’une autre sans déclencher une guerre de chapelles dans les commentaires (on recherche ici la simplicité et l’accessibilité), mais pour détailler les deux citées plus haut :

  • Ubuntu est de plus en plus gangrenée par des choix discutables, mais elle dispose d’une solide base documentaire en français, est stable et conçue pour plaire au plus grand nombre. Debian, sur laquelle Ubuntu est basée, est plus stricte dans ses choix, pas forcément adaptée aux personnes qui débutent.
  • Linux Mint est jolie et fonctionne bien.

Si vous le faites pour «libérer» une relation, installez-lui une distribution que vous connaissez bien, pour pouvoir la guider en cas de besoin.

 

Oui mais la pub

Vous tomberez parfois sur des encarts qui vous culpabiliseront : «notre site ne vit que de la publicité, c’est le prix à payer si vous voulez avoir du contenu de qualité, nos enfants ont faim à cause de vous, vous mettez en danger nos emplois», etc.

Alors, deux-trois trucs à ce sujet :

  • La dérive (c’en est une) devient proprement insupportable, par exemple dans Youtube. Créateurs, créatrices de contenus, si la pub vous fait vivre, travaillez avec des gens sérieux qui proposent des contenus en lien avec votre site et qui n’espionnent pas les internautes. Bref, c’est pas nous qu’on a commencé, nous ne faisons que nous défendre.
  • D’autres modèles économiques existent, mais les pratiques des sites depuis des années ont instauré un fonctionnement «apparemment gratuit» des contenus avec des pubs insidieuses et imposées. Un média qui vit de la publicité peut-il sortir un scoop à charge contre son principal annonceur ? Figurez-vous qu’avant Internet les gens achetaient le journal (incroyable), voire avaient des abonnements. Maintenant qu’on se rebiffe ça couine. Fallait peut-être y penser avant ?
  • Du contenu de qualité, vraiment ? Vous voulez qu’on en parle, mesdames et messieurs les pros du putaclic ? Ce qu’on voit de plus en plus, ce sont des internautes qui doivent choisir entre accepter les cookies ou renoncer à un site, et qui finalement se disent que le contenu ne leur est pas si indispensable que ça.

 

Copie d'écran d'un article annonçant le décès de la chienne de Paul Pogba. Le fait qu'il s'agit de son Yorkshire n'est révélé qu'en toute fin du texte qui joue sur l'ambiguïté en parlant de "princesse".
Source : https://news.ohmymag.com Avouez que ça vous a démangé de cliquer !

 

 

Pour aller plus loin

  • SebSauvage est un gars bien

Seb est un passionné qui compile depuis des années des astuces sur son site. Abonnez-vous ! (y’a pas de pub)

https://sebsauvage.net/wiki/doku.php?id=dns-blocklist

https://sebsauvage.net/wiki/doku.php?id=dnsfilter

  • Le site Bloque la Pub porte bien son nom.

https://bloquelapub.net/

  • Articles précédents sur la publicité dans le Framablog

Ne plus supporter la pub sur le Web

Non, je ne veux pas télécharger votre &@µ$# d’application !

Résistons à la pub sur Internet #bloquelapubnet




Publicité ciblée en ligne : rien ne changera tant que…

AdContrarian (en français, à peu près « Poil à gratter de la pub ») est le titre du blog de Bob Hoffman et ce choix  dit assez combien ce journaliste notoire aux U.S.A s’évertue à « mettre mal à l’aise les marketeux » qu’il connaît bien et ne se lasse pas de les fustiger sans prendre de gants…

Dans sa newsletter de février que les bénévoles de Framalang ont traduit pour vous, il fait preuve d’un certain pessimisme par rapport au RGPD et à sa transposition dans les réglements étatsuniens, tant les acteurs de la publicité ciblée, Google et autres, ont peu de difficultés à contourner les lois ou à payer, même si le ciblage publicitaire est déclaré illégal…

Source : Special Edition : It’s all illegal

Traduction Framalang : Aliénor, Claire, goofy, Guestr, jums, Susy

On tient un scoop : tout est illégal !

par Bob Hoffman

L’intégralité de la publicité en ligne en Europe repose sur un pistage illégal.

Tel a été le verdict, en février dernier, du bras armé chargé du respect du RGPD (Règlement Général sur la Protection des Données).
Mardi 2 février 2022, les autorités chargées de la protection des données de l’Union européenne ont statué sur l’illégalité des « fenêtres popup qui sollicitent le consentement », ces affreuses notifications qui vous demandent dans un charabia incompréhensible d’accepter des cookies à chaque fois que vous arrivez sur un site web. Déroulons toute l’histoire depuis le début.

Il y a presque cinq ans, l’Union européenne a voté pour l’application du RGPD dont l’objectif était de protéger la vie privée des citoyens contre les abus de l’industrie de la collecte de données en ligne. Ce RGPD fixe certaines normes pour la collecte et l’utilisation des données, y compris pour les activités des agences publicitaires en ligne.

Pour se conformer au RGPD, les publicitaires ont demandé à leur regroupement industriel, la malhonnête et peu recommandable Interactive Advertising Bureau (ou IAB) Europe, d’imaginer un classique du genre, le « Cadre de transparence et de consentement » (TCF), qui selon eux permettait aux annonceurs de ne pas se conformer au RGPD. Le TCF est une justification bidon de ces stupides fenêtres de consentement.

Cette semaine, l’autorité de protection des données a jugé que le TCF c’est des grosses conneries et que c’est illégal. Ils ont jugé que le TCF :
• ne conserve pas les données personnelles de façon sécurisée, comme l’exige le RGPD ;
• ne recueille pas correctement le consentement des personnes ;
• n’a pas défini un « intérêt légitime » légalement valide pour la collecte de ces informations ;
• échoue à être transparent sur ce qui est fait de ces données personnelles ;
• échoue à veiller à ce que ces données soient traitées en accord avec les lignes directrices du RGPD ;
• échoue à respecter les critères du RGPD de « protection des données dès la conception ».

À part ça, c’est absolument super.

Chapeau à l’ICCL (Conseil irlandais pour les libertés civiles) pour avoir porté cette grosse affaire devant les instances européennes. Et un prix Nobel de quelque chose pour Johnny Ryan qui veille sans relâche sur les droits à la vie privée au nom de nous tous. On peut voir Johnny Ryan parler aux infos de ce jugement.

Question suivante : qu’est-ce que ça va changer pour le secteur de la publicité ciblée ? Comme nous le savons, ce secteur fait régulièrement un doigt d’honneur aux régulateurs et fait absolument tout ce qui lui chante. Les régulateurs pensent qu’ils gèrent les choses, mais leur incompétence pathétique et leur couardise ont permis au secteur de la publicité ciblée d’en faire voir de toutes les couleurs aux régulateurs et au public, depuis l’instauration du RGPD. Une conséquence de ce jugement est que Google et tous les autres acteurs du secteur de la publicité ciblée en ligne sont sommés de brûler toutes les données qu’ils ont collectées illégalement. Google se conformera à ça quand les réfrigérateurs auront des ailes.

L’IAB Europe a maintenant six mois pour corriger l’illégalité flagrante de leur TCF absurde. Que vont-ils faire ? À mon avis, ils vont pondre une autre magnifique bouse qui va prendre des années à contester, pendant que les publicitaires continueront d’entuber joyeusement le public. Comme d’habitude, j’espère avoir tort.

Le secteur de la publicité ciblée, en particulier Google et Amazon, amasse beaucoup trop d’argent pour en avoir quoi que ce soit à faire des amendes de pacotille que les régulateurs leur distribuent pour leurs activités criminelles. Pour eux, ce sont juste des frais de fonctionnement. Facebook n’essaie même pas de se soumettre au TCF, ils n’ont de comptes à rendre à personne.

Rien ne changera tant que personne n’aura été envoyé en prison.

Perspective locale

L’ironie dans tout ça, c’est que juste au moment où l’IAB étatsunienne est sur le point de spammer le monde entier avec sa version du TCF, les régulateurs de l’UE l’ont détruite.

Un peu de contexte…

Ici, aux États-Unis, il n’y a pas de loi contre quoi que ce soit. L’entité la plus proche que nous possédons pour réguler ce secteur corrompu de la publicité ciblée en ligne est appelée Loi de protection du consommateur en Californie (ou CCPA en anglais, California Consumer Protection Act). Elle est largement inspirée par le RGPD et aussi loin que remontent les mémoires, elle n’a jamais protégé qui que ce soit de quoi que ce soit (elle sera remplacée l’année prochaine par une autre bouillie de lettres appelée CPRA).
L’IAB étatsunienne a repris la formule illégale du TCF de leur branche Europe et l’a maladroitement transposée à la CCPA. Ils ont aussi convaincu les clowns, les escrocs et les collaborateurs de l’ANA, de la 4As (respectivement « Association of National Advertisers » et « American Association of Advertising Agencies » [des associations américaines de publicitaires, NdT]) et de grandes marques d’implémenter le TCF maintenant discrédité sous un nouveau nom foireux, « Global Privacy Platform » (Plateforme globale de la vie privée). Ouais, c’est ça.

Vue d’ensemble : L’arrogance des secteurs de la tech et du marketing aux États-Unis est tellement énorme que les actions des régulateurs n’ont quasi aucun poids. Quel sera l’effet le plus probable du jugement de cette semaine sur l’abus des données aux États-Unis ? En comptant à rebours, qu’est-ce qui vient après zéro ?
Ai-je déjà mentionné que rien ne changera tant que personne ne sera envoyé en prison ?

Comédie-ballet

La danse des régulateurs et du secteur de la publicité ciblée n’est rien d’autre qu’une performance artistique : les régulateurs portent plainte, les escrocs paient une petite amende, et tout le monde retourne à ses petites affaires.

Tout individu doté d’un cerveau fonctionnel peut comprendre qu’un secteur de la publicité ciblée basé sur du pistage est un racket criminel aux proportions gigantesques. C’est une vaste escroquerie planétaire, un crime organisé à l’échelle mondiale auquel participent quasi toutes les grandes entreprises, les organisations commerciales les plus réputées et l’ensemble des secteurs de la publicité, du marketing et des médias en ligne. Même l’IAB a reconnu avoir indiqué à la Commission européenne que les achats automatiques basés sur des enchères en temps réel sont « incompatibles avec le consentement prévu par le RGPD ».
Mais trop de personnes se font trop d’argent.
Rien ne changera tant que personne… ooooh, laissez tomber.

Si vous souhaitez vous abonner à la newsletter de Bob Hoffman (en anglais) ou simplement consulter les numéros précédents c’est par ici https://www.bobhoffmanswebsite.com/newsletters




Détestons Facebook, mais pour de bonnes raisons…

Même si Facebook Meta s’est efforcé de démentir rapidement, la nouvelle a eu le temps de recueillir un beau succès : ne serait-ce qu’envisager de priver l’Europe de Facebook et Instagram a semblé une si plaisante perspective que beaucoup sur les rézosocios ont crié « chiche ! » ou » bon débarras » en assortissant les messages ironiques d’une quantité de mèmes.
C’est l’occasion pour Aral Balkan, qui se réjouit d’un tel rejet implicite de facebook, d’examiner les bonnes raisons de renoncer non seulement à Facebook, mais aussi à toutes sortes de services qui nous asservissent. Tous jouent la même partition, celle du capitalisme de surveillance prédateur de nos données.
Dans ce bref article traduit par Framalang, il invite aussi à adopter des solutions alternatives plus respectueuses de l’humain et de la démocratie.

Article original : Everyone Hates Facebook (but this is more than just about Facebook)
Traduction Framalang : Bromind, Claire, Fabrice, goofy, Julien, mo, Sysy

Tout le monde déteste Facebook (mais le problème n’est pas seulement Facebook)

par Aral Balkan

— Mark Zuckerberg et son équipe envisagent de fermer Facebook et Instagram en Europe si Meta ne peut pas traiter les données des Européens sur des serveurs américains.

(source)

« C’est alors que mon fil Twitter a pris feu avec une rare unanimité, la gauche et la droite, les riches et les pauvres, les bien portants et les malades, tous d’accord et acquiesçant pour répondre oui, mais oui, allez-y, faites-le. »

Adam Dalliance, sur Twitter

Bon, c’est désormais officiel, tout le monde déteste Facebook.
Mais les raisons de cette détestation ont leur importance. Il en va de même pour ce que nous voulons en faire.

D’autres bonnes raisons de détester Facebook et les éleveurs d’humains, dans ma conférence : The Camera Panopticon

De bonnes raisons pour détester Facebook :

De mauvaises raisons pour détester Facebook :

  • Parce qu’il ne censure pas ce que votre gouvernement souhaite qu’il censure ;
  • Parce qu’il a censuré votre néonazi préféré ;
  • Parce que vous souhaitez créer le prochain Facebook en étant aussi malveillant qu’eux, mais qu’ils sont en travers de votre chemin (on parle bien de vous, les investisseurs en capital risque et les startups, on vous a vus).

Nous sommes donc toutes et tous d’accord pour dire que Facebook est un problème.
Certains pour de bonnes raisons, d’autres pour de mauvaises raisons…
Mais il ne s’agit pas que de Facebook : cela concerne toute société qui utilise le même modèle économique que Facebook.
Ce modèle économique que j’appelle « un élevage d’humains ».
Il s’agit donc également de Google. Et de Snapchat. Et de TikTok. Et aussi de… et de… ad nauseam. Car tel est le modèle économique utilisé aujourd’hui par les technologies grand public.

Nous avons donc un plus gros problème, systémique, sur les bras (youpi !). Et tout le monde semble avoir une idée ou une autre sur la façon dont nous devrions agir différemment à l’avenir.

D’autres mauvaises raisons encore

  • Recréer Facebook, mais en Europe ;
  • Recréer Facebook, mais avec ce pu*in de web3 ;
  • Obliger Facebook à partager ses données avec d’autres éleveurs d’humains afin que davantage d’éleveurs d’humains puissent partager vos données (essayez de répéter ça cinq fois, pour voir)

Eh oui, c’est exactement l’actuelle stratégie de canard sans tête de la Commission européenne, vu que ses membres sont incapables de voir au-delà des marchés et de l’antitrust.

D’autres bonnes raisons encore


Regardez mon intervention au Parlement européen dans laquelle je résume le problème et propose une solution.

  • Soutenir les actuelles alternatives fédérées non commerciales (le « fediverse »), dans lesquelles existent déjà des alternatives viables à Twitter, YouTube et Instagram  ;
  • Soutenir les actuelles alternatives individuelles et non commerciales pour les personnes, comme Owncast pour la diffusion de vidéos en ligne ;
  • Soutenir la recherche et le développement du Small web — un Web non commercial, à échelle humaine, fait d’espaces d’espaces détenus et contrôlés par des individus, et non par des entreprises.

Regardez les enregistrements de Small is Beautiful, l’émission mensuelle de la Small Technology Foundation, pour en savoir plus à propos de mes travaux sur le Small Web.
Détester Facebook, c’est très bien, mais surtout n’oublions pas qu’il n’est pas seulement question de Facebook. Il s’agit plus largement d’élevage d’humains.

Si Facebook disparaît demain mais qu’un autre Facebook le remplace, nous n’aurons rien gagné au change.
Alors, je vous en prie, assurons-nous de bien comprendre les différences entre les diverses alternatives et choisissons celles qui aboutiront à un progrès significatif dans la protection de l’identité individuelle et de la démocratie.
(Un indice ? Regardez l’intention qui est derrière l’organisation. Est-ce que son but, c’est de gagner des milliards de dollars ou de protéger les droits humains et la démocratie ? Et oui, peu importe ce que les capitalistes vous diront, les deux buts sont diamétralement opposés et mutuellement exclusifs.)


Si vous avez aimé cet article, vous pouvez soutenir la fondation de son auteur, Small Technology, qui est petite, indépendante, et à but non-lucratif.

Le but de cette fondation de 2 personnes est de protéger les personnes et la démocratie à l’ère numérique.




Apple veut protéger les enfants mais met en danger le chiffrement

Apple vient de subir un tir de barrage nourri de la part des défenseurs de la vie privée alors que ce géant du numérique semble animé des intentions les plus louables…

Qui oserait contester un dispositif destiné à éradiquer les contenus incitant à des abus sexuels sur les enfants ? Après tout, les autres géants du numérique, Google et Microsoft entre autres, ont déjà des outils de détection pour ces contenus (voir ici et )… Alors comment se fait-il que la lettre ouverte que nous traduisons ici ait réuni en quelques heures autant de signatures d’organisations comme d’individus, dont Edward Snowden ?

Deux raisons au moins.

D’abord, Apple a construit sa réputation de protecteur intransigeant de la vie privée au point d’en faire un cheval de bataille de sa communication : « Ce qui se passe dans votre iPhone reste sur votre iPhone ». Souvenons-nous aussi qu’en février 2016 Apple a fermement résisté aux pressions du FBI et de la NSA qui exigeaient que l’entreprise fournisse un logiciel de déchiffrement des échanges chiffrés (un bon résumé par ici). La surprise et la déception sont donc grandes à l’égard d’un géant qui il y a quelques années à peine co-signait une lettre contre la loi anti-chiffrement que des sénateurs états-uniens voulaient faire passer.

Mais surtout, et c’est sans doute plus grave, Apple risque selon les experts de mettre en péril le chiffrement de bout en bout. Alors oui, on entend déjà les libristes ricaner doucement que c’est bien fait pour les zélateurs inconditionnels d’Apple et qu’ils n’ont qu’à renoncer à leur dispendieuse assuétude… mais peu nous importe ici. Le dispositif envisagé par Apple aura forcément des répercussions sur l’ensemble de l’industrie numérique qui ne mettra que quelques mois pour lui emboîter le pas, et en fin de compte, toute personne qui souhaite protéger sa vie privée sera potentiellement exposée aux risques que mentionnent les personnalités citées dans cette lettre ouverte…

 

Lettre ouverte contre la technologie de l’analyse du contenu d’Apple qui porte atteinte à la vie privée

Source : https://appleprivacyletter.com/

Des experts en sécurité et en protection de la vie privée, des spécialistes en cryptographie, des chercheurs, des professeurs, des experts juridiques et des utilisateurs d’Apple dénoncent le projet lancé par Apple qui va saper la vie privée des utilisateurs et le chiffrement de bout en bout.

Cher Apple,

Le 5 août 2021, Apple a annoncé de nouvelles mesures technologiques censées s’appliquer à la quasi-totalité de ses appareils sous le prétexte affiché de « Protections étendues pour les enfants ».

Bien que l’exploitation des enfants soit un problème sérieux, et que les efforts pour la combattre relèvent incontestablement d’intentions louables, la proposition d’Apple introduit une porte dérobée qui menace de saper les protections fondamentales de la vie privée pour tous les utilisateurs de produits Apple.

La technologie que se propose d’employer Apple fonctionne par la surveillance permanente des photos enregistrées ou partagées sur l’iPhone, l’iPad ou le Mac. Un système détecte si un certain nombre de photos répréhensibles sont repérées dans le stockage iCloud et alerte les autorités. Un autre système avertit les parents d’un enfant si iMessage est utilisé pour envoyer ou recevoir des photos qu’un algorithme d’apprentissage automatique considère comme contenant de la nudité.

Comme les deux vérifications sont effectuées sur l’appareil de l’utilisatrice, elles ont le potentiel de contourner tout chiffrement de bout en bout qui permettrait de protéger la vie privée de chaque utilisateur.

Dès l’annonce d’Apple, des experts du monde entier ont tiré la sonnette d’alarme car les dispositifs proposés par Apple pourraient transformer chaque iPhone en un appareil qui analyse en permanence toutes les photos et tous les messages qui y passent pour signaler tout contenu répréhensible aux forces de l’ordre, ce qui crée ainsi un précédent où nos appareils personnels deviennent un nouvel outil radical de surveillance invasive, avec très peu de garde-fous pour empêcher d’éventuels abus et une expansion déraisonnable du champ de la surveillance.

L’Electronic Frontier Foundation a déclaré « Apple ouvre la porte à des abus plus importants » :

« Il est impossible de construire un système d’analyse côté client qui ne puisse être utilisé que pour les images sexuellement explicites envoyées ou reçues par des enfants. En conséquence, même un effort bien intentionné pour construire un tel système va rompre les promesses fondamentales du chiffrement de la messagerie elle-même et ouvrira la porte à des abus plus importants […] Ce n’est pas une pente glissante ; c’est un système entièrement construit qui n’attend qu’une pression extérieure pour apporter le plus petit changement. »

Le Center for Democracy and Technology a déclaré qu’il était « profondément préoccupé par les changements projetés par Apple qui créent en réalité de nouveaux risques pour les enfants et tous les utilisateurs et utilisatrices, et qui représentent un tournant important par rapport aux protocoles de confidentialité et de sécurité établis de longue date » :

« Apple remplace son système de messagerie chiffrée de bout en bout, conforme aux normes de l’industrie, par une infrastructure de surveillance et de censure, qui sera vulnérable aux abus et à la dérive, non seulement aux États-Unis, mais dans le monde entier », déclare Greg Nojeim, codirecteur du projet Sécurité et surveillance de la CDT. « Apple devrait abandonner ces changements et rétablir la confiance de ses utilisateurs dans la sécurité et l’intégrité de leurs données sur les appareils et services Apple. »

Le Dr. Carmela Troncoso, experte en recherche sur la sécurité et la vie privée et professeur à l’EPFL à Lausanne, en Suisse, a déclaré que « le nouveau système de détection d’Apple pour les contenus d’abus sexuel sur les enfants est promu sous le prétexte de la protection de l’enfance et de la vie privée, mais il s’agit d’une étape décisive vers une surveillance systématique et un contrôle généralisé ».

Matthew D. Green, un autre grand spécialiste de la recherche sur la sécurité et la vie privée et professeur à l’université Johns Hopkins de Baltimore, dans le Maryland, a déclaré :

« Hier encore, nous nous dirigions peu à peu vers un avenir où de moins en moins d’informations devaient être contrôlées et examinées par quelqu’un d’autre que nous-mêmes. Pour la première fois depuis les années 1990, nous récupérions notre vie privée. Mais aujourd’hui, nous allons dans une autre direction […] La pression va venir du Royaume-Uni, des États-Unis, de l’Inde, de la Chine. Je suis terrifié à l’idée de ce à quoi cela va ressembler. Pourquoi Apple voudrait-elle dire au monde entier : « Hé, nous avons cet outil » ?

Sarah Jamie Lewis, directrice exécutive de l’Open Privacy Research Society, a lancé cet avertissement :

« Si Apple réussit à introduire cet outil, combien de temps pensez-vous qu’il faudra avant que l’on attende la même chose des autres fournisseurs ? Avant que les applications qui ne le font pas ne soient interdites par des murs de protection ? Avant que cela ne soit inscrit dans la loi ? Combien de temps pensez-vous qu’il faudra avant que la base des données concernées soit étendue pour inclure les contenus « terroristes » ? « les contenus « préjudiciables mais légaux » ? « la censure spécifique d’un État ? »

Le Dr Nadim Kobeissi, chercheur sur les questions de sécurité et de confidentialité, a averti :

« Apple vend des iPhones sans FaceTime en Arabie saoudite, car la réglementation locale interdit les appels téléphoniques chiffrés. Ce n’est qu’un exemple parmi tant d’autres où Apple s’est plié aux pressions locales. Que se passera-t-il lorsque la réglementation locale en Arabie Saoudite exigera que les messages soient scannés non pas pour des abus sexuels sur des enfants, mais pour homosexualité ou pour offenses à la monarchie ? »

La déclaration de l’Electronic Frontier Foundation sur la question va dans le même sens que les inquiétudes exposées ci-dessus et donne des exemples supplémentaires sur la façon dont la technologie proposée par Apple pourrait conduire à des abus généralisés :

« Prenez l’exemple de l’Inde, où des règlements récemment adoptés prévoient des obligations dangereuses pour les plateformes d’identifier l’origine des messages et d’analyser préalablement les contenus. En Éthiopie, de nouvelles lois exigeant le retrait des contenus de « désinformation » sous 24 heures peuvent s’appliquer aux services de messagerie. Et de nombreux autres pays – souvent ceux dont le gouvernement est autoritaire – ont adopté des lois comparables. Les changements projetés par Apple permettraient de procéder à ces filtrages, retraits et signalements dans sa messagerie chiffrée de bout en bout. Les cas d’abus sont faciles à imaginer : les gouvernements qui interdisent l’homosexualité pourraient exiger que l’algorithme de classement soit formé pour restreindre le contenu LGBTQ+ apparent, ou bien un régime autoritaire pourrait exiger que le qu’il soit capable de repérer les images satiriques populaires ou les tracts contestataires. »

En outre, l’Electronic Frontier Foundation souligne qu’elle a déjà constaté cette dérive de mission :

« L’une des technologies conçues à l’origine pour scanner et hacher les images d’abus sexuels sur les enfants a été réutilisée pour créer une base de données de contenus « terroristes » à laquelle les entreprises peuvent contribuer et accéder dans l’objectif d’interdire ces contenus. Cette base de données, gérée par le Global Internet Forum to Counter Terrorism (GIFCT), ne fait l’objet d’aucune surveillance externe, malgré les appels lancés par la société civile. »

Des défauts de conception fondamentaux de l’approche proposée par Apple ont été soulignés par des experts, ils affirment que « Apple peut de façon routinière utiliser différents ensembles de données d’empreintes numériques pour chaque utilisatrice. Pour un utilisateur, il pourrait s’agir d’abus d’enfants, pour un autre, d’une catégorie beaucoup plus large », ce qui permet un pistage sélectif du contenu pour des utilisateurs ciblés.

Le type de technologie qu’Apple propose pour ses mesures de protection des enfants dépend d’une infrastructure extensible qui ne peut pas être contrôlée ou limitée techniquement. Les experts ont averti à plusieurs reprises que le problème n’est pas seulement la protection de la vie privée, mais aussi le manque de responsabilité de l’entreprise, les obstacles techniques au développement, le manque d’analyse ou même de prise en considération du potentiel d’erreurs et de faux positifs.

Kendra Albert, juriste à la Harvard Law School’s Cyberlaw Clinic, a averti que « ces mesures de « protection de l’enfance » vont faire que les enfants homosexuels seront mis à la porte de leur maison, battus ou pire encore », […] Je sais juste (je le dis maintenant) que ces algorithmes d’apprentissage automatique vont signaler les photos de transition. Bonne chance pour envoyer une photo de vous à vos amis si vous avez des « tétons d’aspect féminin » ».

Ce que nous demandons

Nous, les soussignés, demandons :

  1. L’arrêt immédiat du déploiement par Apple de sa technologie de surveillance du contenu proposée.
  2. Une déclaration d’Apple réaffirmant son engagement en faveur du chiffrement de bout en bout et de la protection de la vie privée des utilisateurs.

La voie que choisit aujourd’hui Apple menace de saper des décennies de travail effectué par des spécialistes en technologies numériques, par des universitaires et des militants en faveur de mesures strictes de préservation de la vie privée, pour qu’elles deviennent la norme pour une majorité d’appareils électroniques grand public et de cas d’usage. Nous demandons à Apple de reconsidérer son déploiement technologique, de peur qu’il ne nuise à cet important travail.

–> Signer la lettre sur GitHub

–> Liste des signataires à ce jour




Google chante le requiem pour les cookies, mais le grand chœur du pistage résonnera encore

Google va cesser de nous pister avec des cookies tiers ! Une bonne nouvelle, oui mais… Regardons le projet d’un peu plus près avec un article de l’EFF.

La presse en ligne s’en est fait largement l’écho : par exemple siecledigital, generation-nt ou lemonde. Et de nombreux articles citent un éminent responsable du tout-puissant Google :

Chrome a annoncé son intention de supprimer la prise en charge des cookies tiers et que nous avons travaillé avec l’ensemble du secteur sur le Privacy Sandbox afin de mettre au point des innovations qui protègent l’anonymat tout en fournissant des résultats aux annonceurs et aux éditeurs. Malgré cela, nous continuons à recevoir des questions pour savoir si Google va rejoindre d’autres acteurs du secteur des technologies publicitaires qui prévoient de remplacer les cookies tiers par d’autres identifiants de niveau utilisateur. Aujourd’hui, nous précisons qu’une fois les cookies tiers supprimés, nous ne créerons pas d’identifiants alternatifs pour suivre les individus lors de leur navigation sur le Web et nous ne les utiliserons pas dans nos produits.

David Temkin, Director of Product Management, Ads Privacy and Trust (source)

« Pas d’identifiants alternatifs » voilà de quoi nous réjouir : serait-ce la fin d’une époque ?

Comme d’habitude avec Google, il faut se demander où est l’arnaque lucrative. Car il semble bien que le Béhémoth du numérique n’ait pas du tout renoncé à son modèle économique qui est la vente de publicité.

Dans cet article de l’Electronic Frontier Foundation, que vous a traduit l’équipe de Framalang, il va être question d’un projet déjà entamé de Google dont l’acronyme est FLoC, c’est-à-dire Federated Learning of Cohorts. Vous le trouverez ici traduit AFC pour « Apprentissage Fédéré de Cohorte » (voir l’article de Wikipédia Apprentissage fédéré).

Pour l’essentiel, ce dispositif donnerait au navigateur Chrome la possibilité de créer des groupes de milliers d’utilisateurs ayant des habitudes de navigation similaires et permettrait aux annonceurs de cibler ces « cohortes ».


Article original sur le blog de l’Electronic Frontier Foundation : Google’s FLoC is a terrible idea.

Traduction Framalang : amostra, audionuma, Fabrice, goofy, jums, Mannik, mo, amostra, serici, Wisi_eu

Le FLoC de Google est une très mauvaise idée

par Bennett Cyphers

Les cookies tiers se meurent, mais Google essaie de créer leur remplaçant.

Personne ne devrait pleurer la disparition des cookies tels que nous les connaissons aujourd’hui. Pendant plus de deux décennies, les cookies tiers ont été la pierre angulaire d’une obscure et sordide industrie de surveillance publicitaire sur le Web, brassant plusieurs milliards de dollars ; l’abandon progressif des cookies de pistage et autres identifiants tiers persistants tarde à arriver. Néanmoins, si les bases de l’industrie publicitaire évoluent, ses acteurs les plus importants sont déterminés à retomber sur leurs pieds.

Google veut être en première ligne pour remplacer les cookies tiers par un ensemble de technologies permettant de diffuser des annonces ciblées sur Internet. Et certaines de ses propositions laissent penser que les critiques envers le capitalisme de surveillance n’ont pas été entendues. Cet article se concentrera sur l’une de ces propositions : l’Apprentissage Fédéré de Cohorte (AFC, ou FLoC en anglais), qui est peut-être la plus ambitieuse – et potentiellement la plus dangereuse de toutes.

L’AFC est conçu comme une nouvelle manière pour votre navigateur d’établir votre profil, ce que les pisteurs tiers faisaient jusqu’à maintenant, c’est-à-dire en retravaillant votre historique de navigation récent pour le traduire en une catégorie comportementale qui sera ensuite partagée avec les sites web et les annonceurs. Cette technologie permettra d’éviter les risques sur la vie privée que posent les cookies tiers, mais elle en créera de nouveaux par la même occasion. Une solution qui peut également exacerber les pires attaques sur la vie privée posées par les publicités comportementales, comme une discrimination accrue et un ciblage prédateur.

La réponse de Google aux défenseurs de la vie privée a été de prétendre que le monde de demain avec l’AFC (et d’autres composants inclus dans le « bac à sable de la vie privée » sera meilleur que celui d’aujourd’hui, dans lequel les marchands de données et les géants de la tech pistent et profilent en toute impunité. Mais cette perspective attractive repose sur le présupposé fallacieux que nous devrions choisir entre « le pistage à l’ancienne » et le « nouveau pistage ». Au lieu de réinventer la roue à espionner la vie privée, ne pourrait-on pas imaginer un monde meilleur débarrassé des problèmes surabondants de la publicité ciblée ?

Nous sommes à la croisée des chemins. L’ère des cookies tiers, peut-être la plus grande erreur du Web, est derrière nous et deux futurs possibles nous attendent.

Dans l’un d’entre eux, c’est aux utilisateurs et utilisatrices que revient le choix des informations à partager avec chacun des sites avec lesquels il ou elle interagit. Plus besoin de s’inquiéter du fait que notre historique de navigation puisse être utilisé contre nous-mêmes, ou employé pour nous manipuler, lors de l’ouverture d’un nouvel onglet.

Dans l’autre, le comportement de chacune et chacun est répercuté de site en site, au moyen d’une étiquette, invisible à première vue mais riche de significations pour celles et ceux qui y ont accès. L’historique de navigation récent, concentré en quelques bits, est « démocratisé » et partagé avec les dizaines d’interprètes anonymes qui sont partie prenante des pages web. Les utilisatrices et utilisateurs commencent chaque interaction avec une confession : voici ce que j’ai fait cette semaine, tenez-en compte.

Les utilisatrices et les personnes engagées dans la défense des droits numériques doivent rejeter l’AFC et les autres tentatives malvenues de réinventer le ciblage comportemental. Nous exhortons Google à abandonner cette pratique et à orienter ses efforts vers la construction d’un Web réellement favorable aux utilisateurs.

Qu’est-ce que l’AFC ?

En 2019, Google présentait son bac à sable de la vie privée qui correspond à sa vision du futur de la confidentialité sur le Web. Le point central de ce projet est un ensemble de protocoles, dépourvus de cookies, conçus pour couvrir la multitude de cas d’usage que les cookies tiers fournissent actuellement aux annonceurs. Google a soumis ses propositions au W3C, l’organisme qui forge les normes du Web, où elles ont été principalement examinées par le groupe de commerce publicitaire sur le Web, un organisme essentiellement composé de marchands de technologie publicitaire. Dans les mois qui ont suivi, Google et d’autres publicitaires ont proposé des dizaines de standards techniques portant des noms d’oiseaux : pigeon, tourterelle, moineau, cygne, francolin, pélican, perroquet… et ainsi de suite ; c’est très sérieux ! Chacune de ces propositions aviaires a pour objectif de remplacer différentes fonctionnalités de l’écosystème publicitaire qui sont pour l’instant assurées par les cookies.

L’AFC est conçu pour aider les annonceurs à améliorer le ciblage comportemental sans l’aide des cookies tiers. Un navigateur ayant ce système activé collecterait les informations sur les habitudes de navigation de son utilisatrice et les utiliserait pour les affecter à une « cohorte » ou à un groupe. Les utilisateurs qui ont des habitudes de navigations similaires – reste à définir le mot « similaire » – seront regroupés dans une même cohorte. Chaque navigateur partagera un identifiant de cohorte, indiquant le groupe d’appartenance, avec les sites web et les annonceurs. D’après la proposition, chaque cohorte devrait contenir au moins plusieurs milliers d’utilisatrices et utilisateurs (ce n’est cependant pas une garantie).

Si cela vous semble complexe, imaginez ceci : votre identifiant AFC sera comme un court résumé de votre activité récente sur le Web.

La démonstration de faisabilité de Google utilisait les noms de domaines des sites visités comme base pour grouper les personnes. Puis un algorithme du nom de SimHash permettait de créer les groupes. Il peut tourner localement sur la machine de tout un chacun, il n’y a donc pas besoin d’un serveur central qui collecte les données comportementales. Toutefois, un serveur administrateur central pourrait jouer un rôle dans la mise en œuvre des garanties de confidentialité. Afin d’éviter qu’une cohorte soit trop petite (c’est à dire trop caractéristique), Google propose qu’un acteur central puisse compter le nombre de personnes dans chaque cohorte. Si certaines sont trop petites, elles pourront être fusionnées avec d’autres cohortes similaires, jusqu’à ce qu’elles représentent suffisamment d’utilisateurs.

Pour que l’AFC soit utile aux publicitaires, une cohorte d’utilisateurs ou utilisatrices devra forcément dévoiler des informations sur leur comportement.

Selon la proposition formulée par Google, la plupart des spécifications sont déjà à l’étude. Le projet de spécification prévoit que l’identification d’une cohorte sera accessible via JavaScript, mais on ne peut pas savoir clairement s’il y aura des restrictions, qui pourra y accéder ou si l’identifiant de l’utilisateur sera partagé par d’autres moyens. L’AFC pourra constituer des groupes basés sur l’URL ou le contenu d’une page au lieu des noms domaines ; également utiliser une synergie de « système apprentissage » (comme le sous-entend l’appellation AFC) afin de créer des regroupements plutôt que de se baser sur l’algorithme de SimHash. Le nombre total de cohortes possibles n’est pas clair non plus. Le test de Google utilise une cohorte d’utilisateurs avec des identifiants sur 8 bits, ce qui suppose qu’il devrait y avoir une limite de 256 cohortes possibles. En pratique, ce nombre pourrait être bien supérieur ; c’est ce que suggère la documentation en évoquant une « cohorte d’utilisateurs en 16 bits comprenant 4 caractères hexadécimaux ». Plus les cohortes seront nombreuses, plus elles seront spécialisées – plus les identifiants de cohortes seront longs, plus les annonceurs en apprendront sur les intérêts de chaque utilisatrice et auront de facilité pour cibler leur empreinte numérique.

Mais si l’un des points est déjà clair c’est le facteur temps. Les cohortes AFC seront réévaluées chaque semaine, en utilisant chaque fois les données recueillies lors de la navigation de la semaine précédente.
Ceci rendra les cohortes d’utilisateurs moins utiles comme identifiants à long terme, mais les rendra plus intrusives sur les comportements des utilisatrices dans la durée.

De nouveaux problèmes pour la vie privée.

L’AFC fait partie d’un ensemble qui a pour but d’apporter de la publicité ciblée dans un futur où la vie privée serait préservée. Cependant la conception même de cette technique implique le partage de nouvelles données avec les annonceurs. Sans surprise, ceci crée et ajoute des risques concernant la donnée privée.

Le Traçage par reconnaissance d’ID.

Le premier enjeu, c’est le pistage des navigateurs, une pratique qui consiste à collecter de multiples données distinctes afin de créer un identifiant unique, personnalisé et stable lié à un navigateur en particulier. Le projet Cover Your Tracks (Masquer Vos Traces) de l’Electronic Frontier Foundation (EFF) montre comment ce procédé fonctionne : pour faire simple, plus votre navigateur paraît se comporter ou agir différemment des autres, plus il est facile d’en identifier l’empreinte unique.

Google a promis que la grande majorité des cohortes AFC comprendrait chacune des milliers d’utilisatrices, et qu’ainsi on ne pourra vous distinguer parmi le millier de personnes qui vous ressemblent. Mais rien que cela offre un avantage évident aux pisteurs. Si un pistage commence avec votre cohorte, il doit seulement identifier votre navigateur parmi le millier d’autres (au lieu de plusieurs centaines de millions). En termes de théorie de l’information, les cohortes contiendront quelques bits d’entropie jusqu’à 8, selon la preuve de faisabilité. Cette information est d’autant plus éloquente sachant qu’il est peu probable qu’elle soit corrélée avec d’autres informations exposées par le navigateur. Cela va rendre la tâche encore plus facile aux traqueurs de rassembler une empreinte unique pour les utilisateurs de l’AFC.

Google a admis que c’est un défi et s’est engagé à le résoudre dans le cadre d’un plan plus large, le « Budget vie privée »  qui doit régler le problème du pistage par l’empreinte numérique sur le long terme. Un but admirable en soi, et une proposition qui va dans le bon sens ! Mais selon la Foire Aux Questions, le plan est « une première proposition, et n’a pas encore d’implémentation dans un navigateur ». En attendant, Google a commencé à tester l’AFC dès ce mois de mars.

Le pistage par l’empreinte numérique est évidemment difficile à arrêter. Des navigateurs comme Safari et Tor se sont engagés dans une longue bataille d’usure contre les pisteurs, sacrifiant une grande partie de leurs fonctionnalités afin de réduire la surface des attaques par traçage. La limitation du pistage implique généralement des coupes ou des restrictions sur certaines sources d’entropie non nécessaires. Il ne faut pas que Google crée de nouveaux risques d’être tracé tant que les problèmes liés aux risques existants subsistent.

L’exposition croisée

Un second problème est moins facile à expliquer : la technologie va partager de nouvelles données personnelles avec des pisteurs qui peuvent déjà identifier des utilisatrices. Pour que l’AFC soit utile aux publicitaires, une cohorte devra nécessairement dévoiler des informations comportementales.

La page Github du projet aborde ce sujet de manière très directe :

Cette API démocratise les accès à certaines informations sur l’historique de navigation général des personnes (et, de fait, leurs intérêts principaux) à tous les sites qui le demandent… Les sites qui connaissent les Données à Caractère Personnel (c’est-à-dire lorsqu’une personne s’authentifie avec son adresse courriel) peuvent enregistrer et exposer leur cohorte. Cela implique que les informations sur les intérêts individuels peuvent éventuellement être rendues publiques.

Comme décrit précédemment, les cohortes AFC ne devraient pas fonctionner en tant qu’identifiant intrinsèque. Cependant, toute entreprise capable d’identifier un utilisateur d’une manière ou d’une autre – par exemple en offrant les services « identifiez-vous via Google » à différents sites internet – seront à même de relier les informations qu’elle apprend de l’AFC avec le profil de l’utilisateur.

Deux catégories d’informations peuvent alors être exposées :

1. Des informations précises sur l’historique de navigation. Les pisteurs pourraient mettre en place une rétro-ingénierie sur l’algorithme d’assignation des cohortes pour savoir si une utilisatrice qui appartient à une cohorte spécifique a probablement ou certainement visité des sites spécifiques.
2. Des informations générales relatives à la démographie ou aux centres d’intérêts. Par exemple, une cohorte particulière pourrait sur-représenter des personnes jeunes, de sexe féminin, ou noires ; une autre cohorte des personnes d’âge moyen votant Républicain ; une troisième des jeunes LGBTQ+, etc.

Cela veut dire que chaque site que vous visitez se fera une bonne idée de quel type de personne vous êtes dès le premier contact avec ledit site, sans avoir à se donner la peine de vous suivre sur le Net. De plus, comme votre cohorte sera mise à jour au cours du temps, les sites sur lesquels vous êtes identifié⋅e⋅s pourront aussi suivre l’évolution des changements de votre navigation. Souvenez-vous, une cohorte AFC n’est ni plus ni moins qu’un résumé de votre activité récente de navigation.

Vous devriez pourtant avoir le droit de présenter différents aspects de votre identité dans différents contextes. Si vous visitez un site pour des informations médicales, vous pourriez lui faire confiance en ce qui concerne les informations sur votre santé, mais il n’y a pas de raison qu’il ait besoin de connaître votre orientation politique. De même, si vous visitez un site de vente au détail, ce dernier n’a pas besoin de savoir si vous vous êtes renseigné⋅e récemment sur un traitement pour la dépression. L’AFC érode la séparation des contextes et, au contraire, présente le même résumé comportemental à tous ceux avec qui vous interagissez.

Au-delà de la vie privée

L’AFC est conçu pour éviter une menace spécifique : le profilage individuel qui est permis aujourd’hui par le croisement des identifiants contextuels. Le but de l’AFC et des autres propositions est d’éviter de laisser aux pisteurs l’accès à des informations qu’ils peuvent lier à des gens en particulier. Alors que, comme nous l’avons montré, cette technologie pourrait aider les pisteurs dans de nombreux contextes. Mais même si Google est capable de retravailler sur ses conceptions et de prévenir certains risques, les maux de la publicité ciblée ne se limitent pas aux violations de la vie privée. L’objectif même de l’AFC est en contradiction avec d’autres libertés individuelles.

Pouvoir cibler c’est pouvoir discriminer. Par définition, les publicités ciblées autorisent les annonceurs à atteindre certains types de personnes et à en exclure d’autres. Un système de ciblage peut être utilisé pour décider qui pourra consulter une annonce d’emploi ou une offre pour un prêt immobilier aussi facilement qu’il le fait pour promouvoir des chaussures.

Au fur et à mesure des années, les rouages de la publicité ciblée ont souvent été utilisés pour l’exploitation, la discrimination et pour nuire. La capacité de cibler des personnes en fonction de l’ethnie, la religion, le genre, l’âge ou la compétence permet des publicités discriminatoires pour l’emploi, le logement ou le crédit. Le ciblage qui repose sur l’historique du crédit – ou des caractéristiques systématiquement associées – permet de la publicité prédatrice pour des prêts à haut taux d’intérêt. Le ciblage basé sur la démographie, la localisation et l’affiliation politique aide les fournisseurs de désinformation politique et la suppression des votants. Tous les types de ciblage comportementaux augmentent les risques d’abus de confiance.

Au lieu de réinventer la roue du pistage, nous devrions imaginer un monde sans les nombreux problèmes posés par les publicités ciblées.

Google, Facebook et beaucoup d’autres plateformes sont en train de restreindre certains usages sur de leur système de ciblage. Par exemple, Google propose de limiter la capacité des annonceurs de cibler les utilisatrices selon des « catégories de centres d’intérêt à caractère sensible ». Cependant, régulièrement ces tentatives tournent court, les grands acteurs pouvant facilement trouver des compromis et contourner les « plateformes à usage restreint » grâce à certaines manières de cibler ou certains types de publicité.

Même un imaginant un contrôle total sur quelles informations peuvent être utilisées pour cibler quelles personnes, les plateformes demeurent trop souvent incapables d’empêcher les usages abusifs de leur technologie. Or l’AFC utilisera un algorithme non supervisé pour créer ses propres cohortes. Autrement dit, personne n’aura un contrôle direct sur la façon dont les gens seront regroupés.
Idéalement (selon les annonceurs), les cohortes permettront de créer des regroupements qui pourront avoir des comportements et des intérêts communs. Mais le comportement en ligne est déterminé par toutes sortes de critères sensibles : démographiques comme le genre, le groupe ethnique, l’âge ou le revenu ; selon les traits de personnalités du « Big 5 »; et même la santé mentale. Ceci laisse à penser que l’AFC regroupera aussi des utilisateurs parmi n’importe quel de ces axes.
L’AFC pourra aussi directement rediriger l’utilisatrice et sa cohorte vers des sites internet qui traitent l’abus de substances prohibées, de difficultés financières ou encore d’assistance aux victimes d’un traumatisme.

Google a proposé de superviser les résultats du système pour analyser toute corrélation avec ces catégories sensibles. Si l’on découvre qu’une cohorte spécifique est étroitement liée à un groupe spécifique protégé, le serveur d’administration pourra choisir de nouveaux paramètres pour l’algorithme et demander aux navigateurs des utilisateurs concernés de se constituer en un autre groupe.

Cette solution semble à la fois orwellienne et digne de Sisyphe. Pour pouvoir analyser comment les groupes AFC seront associés à des catégories sensibles, Google devra mener des enquêtes gigantesques en utilisant des données sur les utilisatrices : genre, race, religion, âge, état de santé, situation financière. Chaque fois que Google trouvera qu’une cohorte est associée trop fortement à l’un de ces facteurs, il faudra reconfigurer l’ensemble de l’algorithme et essayer à nouveau, en espérant qu’aucune autre « catégorie sensible » ne sera impliquée dans la nouvelle version. Il s’agit d’une variante bien plus compliquée d’un problème que Google s’efforce déjà de tenter de résoudre, avec de fréquents échecs.

Dans un monde numérique doté de l’AFC, il pourrait être plus difficile de cibler directement les utilisatrices en fonction de leur âge, genre ou revenu. Mais ce ne serait pas impossible. Certains pisteurs qui ont accès à des informations secondaires sur les utilisateurs seront capables de déduire ce que signifient les groupes AFC, c’est-à-dire quelles catégories de personnes appartiennent à une cohorte, à force d’observations et d’expérimentations. Ceux qui seront déterminés à le faire auront la possibilité de la discrimination. Pire, les plateformes auront encore plus de mal qu’aujourd’hui à contrôler ces pratiques. Les publicitaires animés de mauvaises intentions pourront être dans un déni crédible puisque, après tout, ils ne cibleront pas directement des catégories protégées, ils viseront seulement les individus en fonction de leur comportement. Et l’ensemble du système sera encore plus opaque pour les utilisatrices et les régulateurs.

deux guitaristes : l'un acoustoique à gauche chante : cookies c'est fini, dire que c'était la source de mes premiers revenus… (sur l'air de Capri c'est fini). L'autre à droite, guitare électrique dit : "et maintenant un peu de Floc and roll".
Avec Google les instruments changent, mais c’est toujours la même musique…

Google, ne faites pas ça, s’il vous plaît

Nous nous sommes déjà prononcés sur l’AFC et son lot de propositions initiales lorsque tout cela a été présenté pour la première fois, en décrivant l’AFC comme une technologie « contraire à la vie privée ». Nous avons espéré que les processus de vérification des standards mettraient l’accent sur les défauts de base de l’AFC et inciteraient Google à renoncer à son projet. Bien entendu, plusieurs problèmes soulevés sur leur GitHub officiel exposaient exactement les mêmes préoccupations que les nôtres. Et pourtant, Google a poursuivi le développement de son système, sans pratiquement rien changer de fondamental. Ils ont commencé à déployer leur discours sur l’AFC auprès des publicitaires, en vantant le remplacement du ciblage basé sur les cookies par l’AFC « avec une efficacité de 95 % ». Et à partir de la version 89 de Chrome, depuis le 2 mars, la technologie est déployée pour un galop d’essai. Une petite fraction d’utilisateurs de Chrome – ce qui fait tout de même plusieurs millions – a été assignée aux tests de cette nouvelle technologie.

Ne vous y trompez pas, si Google poursuit encore son projet d’implémenter l’AFC dans Chrome, il donnera probablement à chacun les « options » nécessaires. Le système laissera probablement le choix par défaut aux publicitaires qui en tireront bénéfice, mais sera imposé par défaut aux utilisateurs qui en seront affectés. Google se glorifiera certainement de ce pas en avant vers « la transparence et le contrôle par l’utilisateur », en sachant pertinemment que l’énorme majorité de ceux-ci ne comprendront pas comment fonctionne l’AFC et que très peu d’entre eux choisiront de désactiver cette fonctionnalité. L’entreprise se félicitera elle-même d’avoir initié une nouvelle ère de confidentialité sur le Web, débarrassée des vilains cookies tiers, cette même technologie que Google a contribué à développer bien au-delà de sa date limite, engrangeant des milliards de dollars au passage.

Ce n’est pas une fatalité. Les parties les plus importantes du bac-à-sable de la confidentialité comme l’abandon des identificateurs tiers ou la lutte contre le pistage des empreintes numériques vont réellement améliorer le Web. Google peut choisir de démanteler le vieil échafaudage de surveillance sans le remplacer par une nouveauté nuisible.

Nous rejetons vigoureusement le devenir de l’AFC. Ce n’est pas le monde que nous voulons, ni celui que méritent les utilisatrices. Google a besoin de tirer des leçons pertinentes de l’époque du pistage par des tiers et doit concevoir son navigateur pour l’activité de ses utilisateurs et utilisatrices, pas pour les publicitaires.

Remarque : nous avons contacté Google pour vérifier certains éléments exposés dans ce billet ainsi que pour demander davantage d’informations sur le test initial en cours. Nous n’avons reçu aucune réponse à ce jour.




Détruire le capitalisme de surveillance – 5

Voici la cinquième partie de l’essai que consacre Cory Doctorow au capitalisme de surveillance (parcourir sur le blog les épisodes précédents – parcourir les cinq premiers épisodes en un seul PDF de 50 pages ).

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Traduction Framalang : Claire, Fabrice, goofy, Jums, Susyl, anonymes

Dignité et sanctuaire

Quand bien même nous exercerions un contrôle démocratique sur nos États et les forcerions à arrêter de piller les silos de données comportementales du capitalisme de surveillance, ce dernier continuera à nous maltraiter. Nous vivons une époque parfaitement éclairée par Zuboff. Son chapitre sur le sanctuaire – ce sentiment de ne pas être observé – est une magnifique ode à l’introspection, au calme, à la pleine conscience et à la tranquillité.

Quand nous sommes observé⋅e, quelque chose change. N’importe quel parent sait ce que cela signifie. Vous pouvez lever la tête de votre bouquin (ou plus vraisemblablement de votre téléphone) et observer votre enfant dans un état profond de réalisation de soi et d’épanouissement, un instant où il est en train d’apprendre quelque chose à la limite de ses capacités, qui demande une concentration intense. Pendant un court laps de temps, vous êtes sidéré⋅e, et vous observez ce moment rare et beau de concentration qui se déroule devant vos yeux, et puis votre enfant lève la tête, vous voit le regarder, et ce moment s’évanouit. Pour grandir, vous devez être vous-même et donner à voir votre moi authentique, c’est à ce moment que vous devenez vulnérable, tel un bernard-l’hermite entre deux coquilles.

Cette partie de vous, tendre et fragile, que vous exposez au monde dans ces moments-là, est bien trop délicate pour être révélée à autrui, pas même à une personne à laquelle vous faites autant confiance qu’un enfant à ses parents.

À l’ère numérique, notre moi authentique est inextricablement mêlé à de notre vie en ligne. Votre historique de recherche est un enregistrement en continu des questions que vous vous posez. Votre historique de géolocalisation est un registre des endroits que vous cherchiez et des expériences que vous avez vécues en ces lieux. Votre réseau social révèle les différentes facettes de votre personnalité ainsi que les gens avec qui vous êtes en contact.

Être observé pendant ces activités, c’est perdre le sanctuaire de votre moi authentique. Mais il y a une autre manière pour le capitalisme de surveillance de nous dérober notre capacité d’être véritablement nous-même : nous rendre anxieux. Ce capitalisme de surveillance n’est pas vraiment un rayon de contrôle mental, pas besoin de ça pour rendre quelqu’un anxieux. Après tout, l’anxiété est le synonyme d’agitation, et pour qu’une personne se sente agitée, il n’y a pas vraiment besoin de la secouer. Il suffit d’aiguillonner et de piquer et de notifier et de bourdonner autour et de bombarder de manière intermittente et juste assez aléatoire pour que notre système limbique ne puisse jamais vraiment s’y habituer.

Nos appareils et nos services sont polyvalents dans le sens où ils peuvent connecter n’importe quoi ou n’importe qui à n’importe quoi ou à n’importe qui d’autre, et peuvent aussi exécuter n’importe quel programme. Cela signifie que ces rectangles de distractions dans nos poches détiennent nos plus précieux moments avec nos proches, tout comme les communications les plus urgentes et les plus sensibles (de « je suis en retard, peux-tu aller chercher les gamins ? » jusqu’à « mauvaise nouvelle du docteur, il faut qu’on parle TOUT DE SUITE »), mais aussi les pubs pour les frigos et les messages de recrutement nazis.

À toute heure du jour ou de la nuit, nos poches sonnent, font voler en éclat notre concentration, détruisent le fragile maillage de nos réflexions quand nous avons besoin de penser des situations difficiles. Si vous enfermiez quelqu’un dans une cellule et que vous l’agitiez de la sorte, on appellerait ça de la torture par privation de sommeil, et ce serait considéré comme un crime de guerre par la Convention de Genève.

Affliger les affligés

Les effets de la surveillance sur notre capacité à être nous-mêmes ne sont pas les mêmes pour tout le monde. Certain⋅e⋅s d’entre nous ont la chance de vivre à une époque et dans un lieu où tous les faits les plus importants de leur vie sont socialement acceptés et peuvent être exposés au grand jour sans en craindre les conséquences sociales.

Mais pour beaucoup d’entre nous, ce n’est pas le cas. Rappelez-vous que, d’aussi loin qu’on s’en souvienne, de nombreuses façons d’être, considérées aujourd’hui comme socialement acceptables, ont donné lieu à de terribles condamnations sociales, voire à des peines d’emprisonnement. Si vous avez 65 ans, vous avez connu une époque où les personnes vivant dans des « sociétés libres » pouvaient être emprisonnées ou punies pour s’être livrées à des pratiques homosexuelles, pour être tombées amoureuses d’une personne dont la peau était d’une couleur différente de la leur, ou pour avoir fumé de l’herbe.

Aujourd’hui, non seulement ces pratiques sont dépénalisées dans une grande partie du monde, mais en plus, elles sont considérées comme normales, et les anciennes prohibitions sont alors vues comme des vestiges d’un passé honteux et regrettable.

Comment sommes-nous passés de la prohibition à la normalisation ? Par une activité privée et personnelle : les personnes dont l’homosexualité étaient secrète ou qui fumaient de l’herbe en secret, ou qui aimaient quelqu’un d’une couleur de peau différente de la leur en secret, étaient susceptibles de représailles si elles dévoilaient leur moi authentique. On les empêchait de défendre leur droit à exister dans le monde et à être en accord avec elles-mêmes. Mais grâce à la sphère privée, ces personnes pouvaient former des liens forts avec leurs amis et leurs proches qui ne partageaient pas leurs manières de vivre mal vues par la société. Elles avaient des conversations privées dans lesquelles elles se dévoilaient, elles révélaient leur moi authentique à leurs proches, puis les ralliaient à leur cause au fil des conversations.

Le droit de choisir le moment et la manière d’aborder ces conversations a joué un rôle fondamental dans le renversement des normes. C’est une chose de faire son coming out à son père au cours d’une sortie de pêche à l’écart du monde, c’en est une autre de tout déballer pendant le repas de Noël, en présence de son oncle raciste sur Facebook prêt à faire une scène.

Sans sphère privée, il est possible qu’aucun de ces changements n’aurait eu lieu et que les personnes qui en ont bénéficié auraient subi une condamnation sociale pour avoir fait leur coming out face à un monde hostile ou alors elles n’auraient jamais pu révéler leur moi authentique aux personnes qu’elles aiment.

Et donc, à moins que vous ne pensiez que notre société ait atteint la perfection sociale – et que vos petits-enfants vous demanderont dans 50 ans de leur raconter comment, en 2020, toutes les injustices ont été réparées et qu’il n’y avait plus eu de changement à apporter –, vous devez vous attendre à ce qu’en ce moment même figurent parmi vos proches des personnes, dont le bonheur est indissociable du vôtre, et dont le cœur abrite un secret qui les empêche toujours de dévoiler leur moi authentique en votre présence. Ces personnes souffrent et emporteront leur chagrin secret dans leur tombe, et la source de ce chagrin, ce sera les relations faussées qu’elles entretenaient avec vous.

Une sphère privée est nécessaire au progrès humain.

Toute donnée collectée et conservée finit par fuiter

L’absence de vie privée peut empêcher les personnes vulnérables d’exprimer leur moi authentique et limiter nos actions en nous privant d’un sanctuaire. Mais il existe un autre risque, encouru par tous et pas seulement par les personnes détenant un secret : la criminalité.

Les informations d’identification personnelle présentent un intérêt très limité pour contrôler l’esprit des gens, mais le vol d’identité – terme fourre-tout pour désigner toute une série de pratiques délictueuses graves, susceptibles de détruire vos finances, de compromettre votre intégrité personnelle, de ruiner votre réputation, voire de vous exposer à un danger physique – est en pleine expansion.

Les attaquants ne se limitent pas à utiliser des données issues de l’intrusion dans une seule et même source.

De nombreux services ont subi des violations qui ont révélé des noms, des adresses, des numéros de téléphone, des mots de passe, des préférences sexuelles, des résultats scolaires, des réalisations professionnelles, des démêlés avec la justice, des informations familiales, des données génétiques, des empreintes digitales et autres données biométriques, des habitudes de lecture, des historiques de recherche, des goûts littéraires, des pseudonymes et autres données sensibles. Les attaquants peuvent fusionner les données provenant de ces violations pour constituer des dossiers très détaillés sur des sujets choisis au hasard, puis utiliser certaines parties des données pour commettre divers délits.

Les attaquants peuvent, par exemple, utiliser des combinaisons de noms d’utilisateur et de mots de passe dérobés pour détourner des flottes entières de véhicules commerciaux équipés de systèmes de repérage GPS et d’immobilisation antivol, ou pour détourner des babyphones afin de terroriser les tout-petits en diffusant du contenu audio pornographique. Les attaquants utilisent les données divulguées pour tromper les opérateurs téléphoniques afin qu’ils leur communiquent votre numéro de téléphone, puis ils interceptent des codes d’authentification à deux facteurs par SMS pour pirater votre courrier électronique, votre compte bancaire ou vos portefeuilles de crypto-monnaie.

Les attaquants rivalisent de créativité pour trouver des moyens de transformer les données divulguées en armes. Ces données sont généralement utilisées pour pénétrer dans les entreprises afin d’accéder à davantage de données.

Tout comme les espions, les fraudeurs en ligne dépendent entièrement des entreprises qui collectent et conservent nos données à outrance. Les agences d’espionnage paient voire intimident parfois des entreprises pour avoir accès à leurs données, elles peuvent aussi se comporter comme des délinquants et dérober du contenu de bases de données d’entreprises.

La collecte excessive de données entraîne de graves conséquences sociales, depuis la destruction de notre moi authentique jusqu’au recul du progrès social, de la surveillance de l’État à une épidémie de cybercriminalité. La surveillance commerciale est également une aubaine pour les personnes qui organisent des campagnes d’influence, mais c’est le cadet de nos soucis.

L’exceptionnalisme technologique critique reste un exceptionnalisme technologique

Les géants de la tech ont longtemps pratiqué un exceptionnalisme technologique : cette idée selon laquelle ils ne devraient pas être soumis aux lois et aux normes du commun des mortels. Des devises comme celle de Facebook « Move fast and break things » [avancer vite et casser des choses, NdT] ont provoqué un mépris compréhensible envers ces entreprises à la rhétorique égoïste.

L’exceptionnalisme technologique nous a tous mis dans le pétrin. Il est donc assez ironique et affligeant de voir les critiques des géants de la tech commettre le même péché.

Les géants de la tech ne forment pas un « capitalisme voyou » qui ne peut être guéri par les remèdes traditionnels anti-monopole que sont le démantèlement des trusts (forcer les entreprises à se défaire des concurrents qu’elles ont acquis) et l’interdiction des fusions monopolistiques et autres tactiques anticoncurrentielles. Les géants de la tech n’ont pas le pouvoir d’utiliser l’apprentissage machine pour influencer notre comportement de manière si approfondie que les marchés perdent la capacité de punir les mauvais acteurs et de récompenser les concurrents vertueux. Les géants de la tech n’ont pas de rayon de contrôle mental qui réécrit les règles, si c’était le cas, nous devrions nous débarrasser de notre vieille boîte à outils.

Cela fait des siècles que des gens prétendent avoir mis au point ce rayon de contrôle mental et cela s’est toujours avéré être une arnaque, même si parfois les escrocs se sont également arnaqués entre eux.

Depuis des générations, le secteur de la publicité améliore constamment sa capacité à vendre des services publicitaires aux entreprises, tout en ne réalisant que des gains marginaux sur la vente des produits de ces entreprises. La complainte de John Wanamaker selon laquelle « La moitié de l’argent que je dépense en publicité est gaspillée, mais je ne sais pas quelle moitié » témoigne du triomphe des directeurs de la publicité qui ont réussi à convaincre Wanamaker que la moitié seulement de ce qu’il dépense était gaspillée.

L’industrie technologique a fait d’énormes progrès dans la capacité à convaincre les entreprises qu’elles sont douées pour la publicité, alors que leurs améliorations réelles en matière de publicité, par opposition au ciblage, ont été plutôt modestes. La vogue de l’apprentissage machine – et l’invocation mystique de l’« intelligence artificielle » comme synonyme de techniques d’inférence statistique directe – a considérablement renforcé l’efficacité du discours commercial des géants de la tech, car les spécialistes du marketing ont exploité le manque de connaissance technique des clients potentiels pour s’en tirer avec énormément de promesses et peu de résultats.

Il est tentant de penser que si les entreprises sont prêtes à déverser des milliards dans un projet, celui-ci doit être bon. Pourtant, il arrive souvent que cette règle empirique nous fasse faire fausse route. Par exemple, on n’a pratiquement jamais entendu dire que les fonds d’investissement surpassent les simples fonds indiciels, et les investisseurs qui confient leur argent à des gestionnaires de fonds experts s’en sortent généralement moins bien que ceux qui confient leur épargne à des fonds indiciels. Mais les fonds gérés représentent toujours la majorité de l’argent investi sur les marchés, et ils sont soutenus par certains des investisseurs les plus riches et les plus pointus du monde. Leur vote de confiance dans un secteur aussi peu performant est une belle leçon sur le rôle de la chance dans l’accumulation de richesses, et non un signe que les fonds de placement sont une bonne affaire.

Les affirmations du système de contrôle mental des géants de la tech laissent à penser que cette pratique est une arnaque. Par exemple, avec le recours aux traits de personnalité des « cinq grands » comme principal moyen d’influencer les gens, même si cette théorie des cinq grands n’est étayée par aucune étude à grande échelle évaluée par des pairs, et qu’elle est surtout l’apanage des baratineurs en marketing et des psychologues pop.

Le matériel promotionnel des géants de la tech prétend aussi que leurs algorithmes peuvent effectuer avec précision une « analyse des sentiments » ou détecter l’humeur des gens à partir de leurs « micro-expressions », mais il s’agit là d’affirmations marketing et non scientifiques. Ces méthodes n’ont pas été testées par des scientifiques indépendants, et lorsqu’elles l’ont été, elles se sont révélées très insuffisantes. Les micro-expressions sont particulièrement suspectes car il a été démontré que les entreprises spécialisées dans la formation de personnes pour les détecter sont moins performantes que si on laissait faire le hasard.

Les géants de la tech ont été si efficaces pour commercialiser leurs soi-disant super-pouvoirs qu’il est facile de croire qu’elles peuvent commercialiser tout le reste avec la même habileté, mais c’est une erreur de croire au baratin du marketing. Aucune déclaration d’une entreprise sur la qualité de ses produits n’est évidemment impartiale. Le fait que nous nous méfions de tout ce que disent les géants de la tech sur le traitement des données, le respect des lois sur la protection de la vie privée, etc. est tout à fait légitime, car pourquoi goberions-nous la littérature marketing comme s’il s’agissait d’une vérité d’évangile ? Les géants de la tech mentent sur à peu près tout, y compris sur le fonctionnement de leurs systèmes de persuasion alimentés par l’apprentissage automatique.

Ce scepticisme devrait imprégner toutes nos évaluations des géants de la tech et de leurs capacités supposées, y compris à la lecture attentive de leurs brevets. Zuboff confère à ces brevets une importance énorme, en soulignant que Google a revendiqué de nouvelles capacités de persuasion dans ses dépôts de brevets. Ces affirmations sont doublement suspectes : d’abord parce qu’elles sont très intéressées, et ensuite parce que le brevet lui-même est notoirement une invitation à l’exagération.

Les demandes de brevet prennent la forme d’une série de revendications et vont des plus étendues aux plus étroites. Un brevet typique commence par affirmer que ses auteurs ont inventé une méthode ou un système permettant de faire absolument tout ce qu’il est possible d’imaginer avec un outil ou un dispositif. Ensuite, il réduit cette revendication par étapes successives jusqu’à ce que nous arrivions à l’« invention » réelle qui est le véritable objet du brevet. L’espoir est que la personne qui passe en revue les demandes de brevets – qui est presque certainement surchargée de travail et sous-informée – ne verra pas que certaines (ou toutes) ces revendications sont ridicules, ou du moins suspectes, et qu’elle accordera des prétentions plus larges du brevet. Les brevets portant sur des choses non brevetables sont tout de même très utiles, car ils peuvent être utilisés contre des concurrents qui pourraient accorder une licence sur ce brevet ou se tenir à l’écart de ses revendications, plutôt que de subir le long et coûteux processus de contestation.

De plus, les brevets logiciels sont couramment accordés même si le déposant n’a aucune preuve qu’il peut faire ce que le brevet prétend. C’est-à-dire que vous pouvez breveter une « invention » que vous n’avez pas réellement faite et que vous ne savez pas comment faire.

Avec ces considérations en tête, il devient évident que le fait qu’un Géant de la tech ait breveté ce qu’il qualifie de rayon efficace de contrôle mental ne permet nullement de savoir si cette entreprise peut effectivement contrôler nos esprits.

Les géants de la tech collectent nos données pour de nombreuses raisons, y compris la diminution du rendement des stocks de données existants. Mais de nombreuses entreprises technologiques collectent également des données en raison d’une croyance exceptionnaliste erronée aux effets de réseau des données. Les effets de réseau se produisent lorsque chaque nouvel utilisateur d’un système augmente sa valeur. L’exemple classique est celui des télécopieurs [des fax NdT] : un seul télécopieur ne sert à rien, deux télécopieurs sont d’une utilité limitée, mais chaque nouveau télécopieur mis en service après le premier double le nombre de liaisons possibles de télécopie à télécopie.

Les données exploitées pour les systèmes prédictifs ne produisent pas nécessairement ces bénéfices. Pensez à Netflix : la valeur prédictive des données extraites d’un million d’utilisateurs anglophones de Netflix n’est guère améliorée par l’ajout des données de visualisation d’un utilisateur supplémentaire. La plupart des données que Netflix acquiert après ce premier échantillon minimum viable font double emploi avec des données existantes et ne produisent que des gains minimes. En attendant, le recyclage des modèles avec de nouvelles données devient plus cher à mesure que le nombre de points de données augmente, et les tâches manuelles comme l’étiquetage et la validation des données ne deviennent pas moins chères lorsqu’on augmente l’ordre de grandeur.

Les entreprises font tout le temps la course aux modes au détriment de leurs propres profits, surtout lorsque ces entreprises et leurs investisseurs ne sont pas motivés par la perspective de devenir rentables mais plutôt par celle d’être rachetés par un Géant de la tech ou d’être introduits en Bourse. Pour ces entreprises, cocher des cases à la mode comme « collecte autant de données que possible » pourrait permettre d’obtenir un meilleur retour sur investissement que « collecte une quantité de données adaptée à l’entreprise ».

C’est un autre dommage causé par l’exceptionnalisme technologique : la croyance selon laquelle davantage de données produit toujours plus de profits sous la forme de plus d’informations qui peuvent être traduites en de meilleurs rayons de contrôle mental. Cela pousse les entreprises à collecter et à conserver des données de manière excessive, au-delà de toute rationalité. Et comme les entreprises se comportent de manière irrationnelle, bon nombre d’entre elles vont faire faillite et devenir des navires fantômes dont les cales sont remplies de données qui peuvent nuire aux gens de multiples façons, mais dont personne n’est plus responsable. Même si les entreprises ne font pas faillite, les données qu’elles collectent sont maintenues en-deça de la sécurité minimale viable – juste assez de sécurité pour maintenir la viabilité de l’entreprise en attendant d’être rachetées par un Géant de la tech, un montant calculé pour ne pas dépenser un centime de trop pour la protection des données.

Comment les monopoles, et non le contrôle de la pensée, conduisent à la surveillance capitaliste : le cas de Snapchat

Pendant la première décennie de son existence, Facebook est entré en concurrence avec les réseaux sociaux de l’époque (Myspace, Orkut, etc) en se présentant comme l’alternative respectant de la vie privée. De fait, Facebook a justifié son jardin clos, qui permet aux utilisateurs d’y amener des données du Web, mais empêche les services tels que Google Search d’indexer et de mémoriser les pages Facebook, en tant que mesure de respect de la vie privée qui protège les utilisateurs des heureux gagnants de la bataille des réseaux sociaux comme Myspace.

En dépit des fréquentes promesses disant qu’il ne collecterait ou n’analyserait jamais les données de ses utilisateurs, Facebook a lancé à intervalles réguliers des initiatives exactement dans ce but, comme le sinistre Beacon tool, qui vous espionne lorsque vous surfez sur le Web puis ajoute vos activités sur le web à votre timeline publique, permettant à vos amis de surveiller vos habitudes de navigation. Beacon a suscité une révolte des utilisateurs. À chaque fois, Facebook a renoncé à ses actions de surveillance, mais jamais complètement ; inévitablement, le nouveau Facebook vous surveillera plus que l’ancien Facebook, mais moins que le Facebook intermédiaire qui suit le lancement d’un nouveau produit ou service.

Le rythme auquel Facebook a augmenté ses efforts de surveillance semble lié au climat compétitif autour de Facebook. Plus Facebook avait de concurrents, mieux il se comportait. À chaque fois qu’un concurrent majeur s’est effondré, le comportement de Facebook s’est notablement dégradé.

Dans le même temps, Facebook a racheté un nombre prodigieux d’entreprises, y compris une société du nom de Onavo. À l’origine, Onavo a créé une application mobile pour suivre l’évolution de la batterie. Mais les permissions que demandaient Onavo étaient telles que l’appli était capable de recueillir de façon très précise l’intégralité de ce que les utilisateurs font avec leurs téléphones, y compris quelles applis ils utilisent et comment.

Avec l’exemple d’Onavo, Facebook a découvert qu’il était en train de perdre des parts de marché au profit de Snapchat, une appli qui, comme Facebook une décennie plus tôt, se vend comme l’alternative qui respecte la vie privée par rapport au statu quo . À travers Onavo, Facebook a pu extraire des données des appareils des utilisateurs de Snapchat, que ce soient des utilisateurs actuels ou passés. Cela a poussé Facebook à racheter Instagram, dont certaines fonctionnalités sont concurrentes de Snapchat, et a permis à Facebook d’ajuster les fonctionnalités d’Instagram ainsi que son discours marketing dans le but d’éroder les gains de Snapchat et s’assurer que Facebook n’aurait pas à faire face aux pressions de la concurrence comme celles subies par le passé par Myspace et Orkut.

La manière dont Facebook a écrasé Snapchat révèle le lien entre le monopole et le capitalisme de surveillance. Facebook a combiné la surveillance avec une application laxiste des lois antitrust pour repérer de loin la menace de la concurrence par Snapchat et pour prendre des mesures décisives à son encontre. Le capitalisme de surveillance de Facebook lui a permis d’éviter la pression de la concurrence avec des tactiques anti-compétitives. Les utilisateurs de Facebook veulent toujours de la confidentialité, Facebook n’a pas utilisé la surveillance pour les convaincre du contraire, mais ils ne peuvent pas l’obtenir car la surveillance de Facebook lui permet de détruire tout espoir d’émergence d’un rival qui lui fait concurrence sur les fonctionnalités de confidentialité.

Un monopole sur vos amis

Un mouvement de décentralisation a essayé d’éroder la domination de Facebook et autres entreprises des géants de la tech en proposant des alternatives sur le Web indépendant (indieweb) : Mastodon en alternative à Twitter, Diaspora en alternative à Facebook, etc, mais ces efforts ont échoué à décoller.

Fondamentalement, chacun de ces services est paralysé par le même problème : tout utilisateur potentiel d’une alternative de Facebook ou Twitter doit convaincre tous ses amis de le suivre sur une alternative décentralisée pour pouvoir continuer à avoir les bénéfices d’un média social. Pour beaucoup d’entre nous, la seule raison pour laquelle nous avons un compte Facebook est parce que nos amis ont des comptes Facebook, et la raison pour laquelle ils ont des comptes Facebook est que nous avons des comptes Facebook.

Tout cela a contribué à faire de Facebook, et autres plateformes dominantes, des « zones de tir à vue » dans lesquelles aucun investisseur ne financera un nouveau venu.

Et pourtant, tous les géants d’aujourd’hui sont apparus malgré l’avantage bien ancré des entreprises qui existaient avant eux. Pour comprendre comment cela a été possible, il nous faut comprendre l’interopérabilité et l’interopérabilité antagoniste.

Le gros problème de nos espèces est la coordination.

L’« interopérabilité » est la capacité qu’ont deux technologies à fonctionner l’une avec l’autre : n’importe qui peut fabriquer un disque qui jouera sur tous les lecteurs de disques, n’importe qui peut fabriquer un filtre que vous pourrez installer sur la ventilation de votre cuisinière, n’importe qui peut fabriquer l’essence pour votre voiture, n’importe qui peut fabriquer un chargeur USB pour téléphone qui fonctionnera dans votre allume-cigare, n’importe qui peut fabriquer une ampoule qui marchera dans le culot de votre lampe, n’importe qui peut fabriquer un pain qui grillera dans votre grille-pain.

L’interopérabilité est souvent une source d’innovation au bénéfice du consommateur : Apple a fabriqué le premier ordinateur personnel viable commercialement, mais des millions de vendeurs de logiciels indépendants ont fait des programmes interopérables qui fonctionnaient sur l’Apple II Plus. La simple antenne pour les entrées analogiques à l’arrière des téléviseurs a d’abord permis aux opérateurs de câbles de se connecter directement aux télévisions, puis ont permis aux entreprises de consoles de jeux et ensuite aux ordinateurs personnels d’utiliser une télévision standard comme écran. Les prises téléphoniques RJ11 standardisées ont permis la production de téléphones par divers vendeurs avec divers formes, depuis le téléphone en forme de ballon de foot reçu en cadeau d’abonnement de Sports Illustrated, aux téléphones d’affaires avec haut-parleurs, mise en attente, et autres, jusqu’aux répondeurs et enfin les modems, ouvrant la voie à la révolution d’Internet.

On utilise souvent indifféremment « interopérabilité » et « standardisation », qui est le processus pendant lequel les fabricants et autres concernés négocient une liste de règles pour l’implémentation d’une technologie, comme les prises électriques de vos murs, le bus de données CAN utilisé par le système de votre voiture, ou les instructions HTML que votre navigateur internet interprète.

Mais l’interopérabilité ne nécessite pas la standardisation, en effet la standardisation émerge souvent du chaos de mesures d’interopérabilité ad hoc. L’inventeur du chargeur USB dans l’allume-cigare n’a pas eu besoin d’avoir la permission des fabricants de voitures ou même des fabricants des pièces du tableau de bord. Les fabricants automobiles n’ont pas mis en place des contre-mesures pour empêcher l’utilisation de ces accessoires d’après-vente par leurs consommateurs, mais ils n’ont pas non plus fait en sorte de faciliter la vie des fabricants de chargeurs. Il s’agit d’une forme d’« interopérabilité neutre ».

Au-delà de l’interopérabilité neutre, il existe l’« interopérabilité antagoniste ». C’est quand un fabricant crée un produit qui interagit avec le produit d’un autre fabricant en dépit des objections du deuxième fabricant, et cela même si ça nécessite de contourner un système de sécurité conçu pour empêcher l’interopérabilité.

Le type d’interopérabilité antagoniste le plus usuel est sans doute les cartouches d’encre d’imprimantes par des fournisseurs tiers. Les fabricants d’imprimantes affirment qu’ils vendent les imprimantes en-dessous de leur coût et que leur seul moyen de récupérer les pertes est de se constituer une marge élevée sur les encres. Pour empêcher les propriétaires d’imprimantes d’acheter leurs cartouches ailleurs, les entreprises d’imprimantes appliquent une série de systèmes de sécurité anti-consommateurs qui détectent et rejettent les cartouches re-remplies ou par des tiers.

Les propriétaires d’imprimantes quant à eux défendent le point de vue que HP et Epson et Brother ne sont pas des œuvres caritatives et que les consommateurs de leurs produits n’ont aucune obligation à les aider à survivre, et donc que si ces entreprises choisissent de vendre leurs produits à perte, il s’agit de leur choix stupide et à eux d’assumer les conséquences. De même, les compétiteurs qui fabriquent des cartouches ou les re-remplissent font remarquer qu’ils ne doivent rien aux entreprises d’imprimantes, et que le fait qu’ils érodent les marges de ces entreprises est le problème de celles-ci et non celui de leurs compétiteurs. Après tout, les entreprises d’imprimantes n’ont aucun scrupule à pousser un re-remplisseur à fermer boutique, donc pourquoi est-ce que les re-remplisseurs devraient se soucier de la bonne santé économique des entreprises d’imprimantes ?

L’interopérabilité antagoniste a joué un rôle hors normes dans l’histoire de l’industrie tech : depuis la création du « alt.* » dans l’architecture de Usenet (qui a commencé à l’encontre des souhaits des responsables de Usenet et qui s’est développé au point d’être plus important que tout le Usenet combiné) à la guerre des navigateurs (lorsque Netscape et Microsoft ont dépensé d’énormes ressources en ingénierie pour faire en sorte que leur navigateur soit incompatible avec les fonctionnalités spéciales et autres peccadilles de l’autre) à Facebook (dont le succès a entre autres été dû au fait qu’il a aidé ses nouveaux utilisateurs en leur permettant de rester en contact avec les amis qu’ils ont laissés sur Myspace parce que Facebook leur a fourni un outil pour s’emparer des messages en attente sur Myspace et les importer sur Facebook, créant en pratique un lecteur Myspace basé sur Facebook).

Aujourd’hui, la validation par le nombre est considérée comme un avantage inattaquable. Facebook est là où tous vos amis sont, donc personne ne peut fonder un concurrent à Facebook. Mais la compatibilité antagoniste retourne l’avantage concurrentiel : si vous êtes autorisés à concurrencer Facebook en proposant un outil qui importe les messages en attente sur Facebook de tous vos utilisateurs dans un environnement qui est compétitif sur des terrains que Facebook ne pourra jamais atteindre, comme l’élimination de la surveillance et des pubs, alors Facebook serait en désavantage majeur. Vous aurez rassemblé tous les potentiels ex-utilisateurs de Facebook sur un unique service facile à trouver. Vous les auriez éduqués sur la façon dont un service Facebook-like fonctionne et quels sont ses potentiels avantages, et vous aurez fourni un moyen simple aux utilisateurs mécontents de Facebook pour dire à leurs amis où ils peuvent trouver un meilleur traitement.

L’interopérabilité antagoniste a été la norme pendant un temps et une contribution clef à une scène tech dynamique et vibrante, mais à présent elle est coincée derrière une épaisse forêt de lois et règlements qui ajoutent un risque légal aux tactiques éprouvées de l’interopérabilité antagoniste. Ces nouvelles règles et les nouvelles interprétations des règles existantes signifient qu’un potentiel « interopérateur » antagoniste aura besoin d’échapper aux réclamations de droits d’auteurs, conditions de service, secret commercial, ingérence et brevets.

En l’absence d’un marché concurrentiel, les faiseurs de lois ont délégué des tâches lourdes et gouvernementales aux sociétés de Big Tech, telles que le filtrage automatique des contributions des utilisateurs pour la violation des droits d’auteur ou pour des contenus terroristes et extrémistes ou pour détecter et empêcher le harcèlement en temps réel ou encore pour contrôler l’accès au contenu sexuel.

Ces mesures ont fixé une taille minimale à partir de laquelle on peut faire du Big Tech, car seules les très grandes entreprises peuvent se permettre les filtres humains et automatiques nécessaires pour se charger de ces tâches.

Mais ce n’est pas la seule raison pour laquelle rendre les plateformes responsables du maintien de l’ordre parmi leurs utilisateurs mine la compétition. Une plateforme qui est chargée de contrôler le comportement de ses utilisateurs doit empêcher de nombreuses techniques vitales à l’interopérabilité antagoniste de peur qu’elles ne contreviennent à ses mesures de contrôle. Par exemple si quelqu’un utilisant un remplaçant de Twitter tel que Mastodon est capable de poster des messages sur Twitter et de lire des messages hors de Twitter, il pourrait éviter les systèmes automatiques qui détectent et empêchent le harcèlement (tels que les systèmes qui utilisent le timing des messages ou des règles basées sur les IP pour estimer si quelqu’un est un harceleur).

Au point que nous sommes prêts à laisser les géants de la tech s’autocontrôler, plutôt que de faire en sorte que leur industrie soit suffisamment limitée pour que les utilisateurs puissent quitter les mauvaises plateformes pour des meilleures et suffisamment petites pour qu’une réglementation qui ferait fermer une plateforme ne détruirait pas l’accès aux communautés et données de milliards d’utilisateurs, nous avons fait en sorte que les géants de la tech soient en mesure de bloquer leurs concurrents et qu’il leur soit plus facile de demander un encadrement légal des outils pour bannir et punir les tentatives à l’interopérabilité antagoniste.

En définitive, nous pouvons essayer de réparer les géants de la tech en les rendant responsables pour les actes malfaisants de ses utilisateurs, ou bien nous pouvons essayer de réparer Internet en réduisant la taille de géants. Mais nous ne pouvons pas faire les deux. Pour pouvoir remplacer les produits des géants d’aujourd’hui, nous avons besoin d’éclaircir la forêt légale qui empêche l’interopérabilité antagoniste de façon à ce que les produits de demain, agiles, personnels, de petite échelle, puissent se fédérer sur les géants tels que Facebook, permettant aux utilisateurs qui sont partis à continuer à communiquer avec les utilisateurs qui ne sont pas encore partis, envoyant des vignes au-dessus du mur du jardin de Facebook afin que les utilisateurs piégés de Facebook puissent s’en servir afin de grimper aux murs et de s’enfuir, accédant au Web ouvert et global.

(à suivre)




Détruire le capitalisme de surveillance – 4

Voici la quatrième  partie de l’essai que consacre Cory Doctorow au capitalisme de surveillance (parcourir sur le blog les épisodes précédents – parcourir les trois premiers épisodes en PDF : doctorow-1-2-3).

Traduction Framalang : Claire, Fabrice, goofy,  jums, mo, ngfchristian, retrodev, tykayn

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Les monopoles n’engendrent pas la surveillance, mais ils l’encouragent certainement

par Cory Doctorow

Les industries compétitives sont fragmentées dans le sens où elles sont composées d’entreprises qui s’entre-déchirent en permanence et qui rognent sur leurs marges respectives lorsqu’elles proposent des offres à leurs meilleurs clients. Ce qui leur laisse moins d’investissement afin d’obtenir des règles plus favorables. Cette situation rend aussi plus difficile la mutualisation des ressources de chaque entreprise au profit de l’industrie toute entière.

La rencontre entre la surveillance et l’apprentissage machine est censé être l’aboutissement d’une crise existentielle, un moment particulier pour l’espèce humaine où notre libre arbitre serait très proche de l’extinction pure et simple. Même si je reste sceptique quant à cette hypothèse, je pense tout de même que la technologie pose de réelles menaces existentielles à notre société (et aussi plus généralement pour notre espèce entière).
Et ces menaces viennent des monopoles.

L’une des conséquences de l’emprise de la technologie sur la réglementation est qu’elle peut rejeter la responsabilité de mauvaises décisions en matière de sécurité sur ses clients et sur la société en général. Il est tout à fait banal dans le domaine de la technologie que les entreprises dissimulent les mécanismes de leurs produits, qu’elles en rendent le fonctionnement difficile à comprendre et qu’elles menacent les chercheurs en sécurité indépendants qui auditent ces objets.

L’informatique est le seul domaine dans lequel ces pratiques existent : personne ne construit un pont ou un hôpital en gardant secret la composition de l’acier ou les équations utilisées pour calculer les contraintes de charge. C’est une pratique assez bizarre qui conduit, encore et toujours, à des défauts de sécurité grotesques à une échelle tout aussi grotesque, des pans entiers de dispositifs étant révélés comme vulnérables bien après qu’ils ont été déployées et placés dans des endroits sensibles.

Le pouvoir monopolistique qui tient à distance toute conséquence significative de ces violations, signifie que les entreprises technologiques continuent à créer des produits exécrables, mal conçus et qui finissent par être intégrés à nos vies, par posséder nos données, et être connectés à notre monde physique. Pendant des années, Boeing s’est battu contre les conséquences d’une série de mauvaises décisions technologiques qui ont fait de sa flotte de 737 un paria mondial, c’est l’un des rares cas où des décisions technologiques de piètre qualité ont été sérieusement sanctionnées par le marché.

Ces mauvaises décisions en matière de sécurité sont encore aggravées par l’utilisation de verrous de copyright pour faire appliquer des décisions commerciales à l’encontre des consommateurs. Souvenez-vous que ces verrous sont devenus un moyen incontournable de façonner le comportement des consommateurs, qui rend techniquement impossible l’utilisation de cartouches d »encre compatibles, d’insuline, d’applications mobiles ou de dépôts de services tiers en relation avec vos biens acquis légalement.

Rappelez-vous également que ces verrous sont soutenus par une législation (telle que la section 1201 du DMCA ou l’article 6 de la directive européenne sur le droit d’auteur de 2001) qui interdit de les altérer (de les « contourner »), et que ces lois ont été utilisées pour menacer les chercheurs en sécurité qui divulguent des vulnérabilités sans la permission des fabricants.

Cela revient à un véritable veto des fabricants sur les alertes de sécurité et les critiques. Bien que cela soit loin de l’intention législative du DMCA (et de son équivalent dans d’autres juridictions dans le monde), le Congrès n’est pas intervenu pour clarifier la loi et ne le fera jamais, car cela irait à l’encontre des intérêts des puissantes entreprises dont le lobbying est imparable.

Les verrous de copyright sont une arme à double tranchant. D’abord parce qu’ils provoquent de mauvaises décisions en matière de sécurité qui ne pourront pas être librement étudiées ni discutées. Si les marchés sont censés être des machines à agréger l’information (et si les rayons de contrôle mental fictif du capitalisme de surveillance en font un « capitalisme voyou » parce qu’il refuse aux consommateurs le pouvoir de prendre des décisions), alors un programme qui impose légalement l’ignorance sur les risques des produits rend le monopole encore plus « voyou » que les campagnes d’influence du capitalisme de surveillance.

Et contrairement aux rayons de contrôle mental, ce silence imposé sur la sécurité est un problème brûlant et documenté qui constitue une menace existentielle pour notre civilisation et peut-être même pour notre espèce. La prolifération des dispositifs non sécurisés – en particulier ceux qui nous espionnent et surtout lorsque ces dispositifs peuvent également manipuler le monde physique, par exemple, qui tourne le volant de votre voiture ou en actionnant un disjoncteur dans une centrale électrique – est une forme de dette technique.
En conception logicielle, la « dette technique » fait référence à des décisions anciennes et bien calculées qui, avec le recul, s’avèrent être mauvaises. Par exemple, un développeur de longue date a peut-être décidé d’intégrer un protocole réseau exigé par un fournisseur, qui a depuis cessé de le prendre en charge.

Mais tout dans le produit repose toujours sur ce protocole dépassé. Donc, à chaque révision, des équipes doivent travailler autour de ce noyau obsolète, en y ajoutant des couches de compatibilité, en l’entourant de contrôles de sécurité qui tentent de renforcer ses défenses, etc. Ces mesures de fortune aggravent la dette technique, car chaque révision ultérieure doit en tenir compte, tout comme les intérêts d’un crédit revolving. Et comme dans le cas d’un prêt à risque, les intérêts augmentent plus vite que vous ne pouvez espérer les rembourser : l’équipe en charge du produit doit consacrer tellement d’énergie au maintien de ce système complexe et fragile qu’il ne lui reste plus de temps pour remanier le produit de fond en comble et « rembourser la dette » une fois pour toutes.

En général, la dette technique entraîne une faillite technologique : le produit devient si fragile et instable qu’il finit par échouer de manière catastrophique. Pensez aux systèmes bancaires et comptables désuets basés sur du COBOL qui se sont effondrés au début de la pandémie lorsque les demandes d’allocations chômage se sont multipliées. Parfois, cela met fin au produit, parfois, cela entraîne l’entreprise dans sa chute. Être pris en défaut de paiement d’une dette technique est effrayant et traumatisant, tout comme lorsque l’on perd sa maison pour cause de faillite.
Mais la dette technique créée par les verrous de copyright n’est pas individuelle, elle est systémique. Chacun dans le monde est exposé à ce surendettement, comme ce fut le cas lors de la crise financière de 2008. Lorsque cette dette arrivera à échéance – lorsque nous serons confrontés à des violations de sécurité en cascade qui menacent le transport et la logistique mondiales, l’approvisionnement alimentaire, les processus de production pharmaceutique, les communications d’urgence et autres systèmes essentiels qui accumulent de la dette technique en partie due à la présence de verrous de copyright délibérément non sécurisés et délibérément non vérifiables – elle constituera en effet un risque existentiel.

Vie privée et monopole

De nombreuses entreprises technologiques sont prisonnières d’une orthodoxie : si elles recueillent assez de données sur suffisamment de nos activités, tout devient possible – le contrôle total des esprits et des profits infinis. C’est une hypothèse invérifiable : en effet, si des données permettent à une entreprise technologique d’améliorer ne serait-ce que légèrement ses prévisions de comportements, alors elle déclarera avoir fait le premier pas vers la domination mondiale sans retour en arrière possible. Si une entreprise ne parvient pas à améliorer la collecte et l’analyse des données, alors elle déclarera que le succès est juste au coin de la rue et qu’il sera possible de l’atteindre une fois qu’elle disposera de nouvelles données.

La technologie de surveillance est loin d’être la première industrie à adopter une croyance absurde et égoïste qui nuit au reste du monde, et elle n’est pas la première industrie à profiter largement d’une telle illusion. Bien avant que les gestionnaires de fonds spéculatifs ne prétendent (à tort) pouvoir battre le S&P 500 (l’équivalent du CAC40 américain), de nombreuses autres industries « respectables » se sont révélées être de véritables charlatans. Des fabricants de suppositoires au radium (si, si, ça existe!) aux cruels sociopathes qui prétendaient pouvoir « guérir » les homosexuels, l’histoire est jonchée de titans industriels autrefois respectables qui ont mal fini.

Cela ne veut pas dire que l’on ne peut rien reprocher aux Géants de la tech et à leurs addictions idéologiques aux données. Si les avantages de la surveillance sont généralement surestimés, ses inconvénients sont, à tout le moins, sous-estimés.

Cette situation est très ironique. La croyance que le capitalisme de surveillance est un « capitalisme voyou » s’appuie sur l’hypothèse que les marchés ne toléreraient pas des entreprises engluées dans de fausses croyances. Une compagnie pétrolière qui se trompe souvent sur l’endroit où se trouve le pétrole finira par faire faillite en creusant tout le temps des puits déjà secs.

Mais les monopoles peuvent faire des choses graves pendant longtemps avant d’en payer le prix. Imaginez comment la concentration dans le secteur financier a permis à la crise des subprimes de s’envenimer alors que les agences de notation, les régulateurs, les investisseurs et les critiques sont tous tombés sous l’emprise d’une fausse croyance selon laquelle les mathématiques complexes pourraient construire des instruments de dette « entièrement couverts », qui ne pourraient pas faire défaut. Une petite banque qui se livrerait à ce genre de méfaits ferait tout simplement faillite au lieu d’échapper à une crise inévitable, à moins qu’elle ait pris une telle ampleur qu’elle l’aurait évitée. Mais les grandes banques ont pu continuer à attirer les investisseurs, et lorsqu’elles ont finalement réussi à s’en sortir, les gouvernements du monde entier les ont renflouées. Les pires auteurs de la crise des subprimes sont plus importants qu’ils ne l’étaient en 2008, rapportant plus de profits et payant leurs dirigeants des sommes encore plus importantes.

Les grandes entreprises technologiques sont en mesure de surveiller non seulement parce qu’elles sont technologiques, mais aussi parce qu’elles sont énormes. La raison pour laquelle tous les éditeurs de sites web intègrent le bouton «J’aime » de Facebook, est que Facebook domine les recommandations des médias sociaux sur Internet – et chacun de ces boutons « J’aime » espionne tous les utilisateurs qui visitent sur une page qui les contient (voir aussi : intégration de Google Analytics, boutons Twitter, etc.).

Si les gouvernements du monde entier ont tardé à mettre en place des sanctions significatives pour atteintes à la vie privée, c’est parce que la concentration des grandes entreprises technologiques génère d’énormes profits qui peuvent être utilisés pour faire pression contre ces sanctions.
La raison pour laquelle les ingénieurs les plus intelligents du monde veulent travailler pour les Géants de la tech est que ces derniers se taillent la part du lion des emplois dans l’industrie technologique.

Si les gens se sont horrifiés des pratiques de traitement des données de Facebook, Google et Amazon mais qu’ils continuent malgré tout d’utiliser ces services, c’est parce que tous leurs amis sont sur Facebook, que Google domine la recherche et qu’Amazon a mis tous les commerçants locaux en faillite.

Des marchés concurrentiels affaibliraient le pouvoir de lobbying des entreprises en réduisant leurs profits et en les opposant les unes aux autres à l’intérieur d’une réglementation commune. Cela donnerait aux clients d’autres endroits où aller pour obtenir leurs services en ligne. Les entreprises seraient alors suffisamment petites pour réglementer et ouvrir la voie à des sanctions significatives en cas d’infraction. Cela permettrait aux ingénieurs, dont les idées remettent en cause l’orthodoxie de la surveillance, de lever des capitaux pour concurrencer les opérateurs historiques. Cela donnerait aux éditeurs de sites web de multiples moyens d’atteindre leur public et de faire valoir leurs arguments contre l’intégration de Facebook, Google et Twitter.

En d’autres termes, si la surveillance ne provoque pas de monopoles, les monopoles encouragent certainement la surveillance…

Ronald Reagan, pionnier du monopole technologique

L’exceptionnalisme technologique est un péché, qu’il soit pratiqué par les partisans aveugles de la technologie ou par ses détracteurs. Ces deux camps sont enclins à expliquer la concentration monopolistique en invoquant certaines caractéristiques particulières de l’industrie technologique, comme les effets de réseau ou l’avantage du premier arrivé. La seule différence réelle entre ces deux groupes est que les apologistes de la technologie disent que le monopole est inévitable et que nous devrions donc laisser la technologie s’en tirer avec ses abus tandis que les régulateurs de la concurrence aux États-Unis et dans l’UE disent que le monopole est inévitable et que nous devrions donc punir la technologie pour ses abus mais sans essayer de briser les monopoles.

Pour comprendre comment la technologie est devenue aussi monopolistique, il est utile de se pencher sur l’aube de l’industrie technologique grand public : 1979, l’année où l’Apple II Plus a été lancé et est devenu le premier ordinateur domestique à succès. C’est également l’année où Ronald Reagan a fait campagne pour la présidentielle de 1980, qu’il a remportée, ce qui a entraîné un changement radical dans la manière dont les problèmes de concurrence sont traités en Amérique. Toute une cohorte d’hommes politiques de Reagan – dont Margaret Thatcher au Royaume-Uni, Brian Mulroney au Canada, Helmut Kohl en Allemagne et Augusto Pinochet au Chili – a ensuite procédé à des réformes similaires qui se sont finalement répandues dans le monde entier.

L’histoire de la lutte antitrust a commencé près d’un siècle avant tout cela avec des lois comme la loi Sherman, qui ciblait les monopoles au motif qu’ils étaient mauvais en soi – écrasant les concurrents, créant des « déséconomies d’échelle » (lorsqu’une entreprise est si grande que ses parties constitutives vont mal et qu’elle semble impuissante à résoudre les problèmes), et assujettissant leurs régulateurs à un point tel qu’ils ne peuvent s’en tirer sans une foule de difficultés.

Puis vint un affabulateur du nom de Robert Bork, un ancien avocat général que Reagan avait nommé à la puissante Cour d’appel américaine pour le district de Columbia et qui avait inventé de toutes pièces une histoire législative alternative de la loi Sherman et des lois suivantes. Bork a soutenu que ces lois n’ont jamais visé les monopoles (malgré de nombreuses preuves du contraire, y compris les discours retranscrits des auteurs des de ces lois) mais qu’elles visaient plutôt à prévenir les « préjudices aux consommateurs » – sous la forme de prix plus élevés.
Bork était un hurluberlu, certes, mais les riches aimaient vraiment ses idées. Les monopoles sont un excellent moyen de rendre les riches plus riches en leur permettant de recevoir des « rentes de monopole » (c’est-à-dire des profits plus importants) et d’assujettir les régulateurs, ce qui conduit à un cadre réglementaire plus faible et plus favorable, avec moins de protections pour les clients, les fournisseurs, l’environnement et les travailleurs.

Les théories de Bork étaient particulièrement satisfaisantes pour les mêmes personnalités influentes qui soutenaient Reagan. Le ministère de la Justice et d’autres agences gouvernementales de l’administration Reagan ont commencé à intégrer la doctrine antitrust de Bork dans leurs décisions d’application (Reagan a même proposé à Bork de siéger à la Cour suprême, mais Bork a été tellement mauvais à l’audience de confirmation du Sénat que, 40 ans plus tard, les experts de Washington utilisent le terme « borked » pour qualifier toute performance politique catastrophique).

Peu à peu, les théories de Bork se sont répandues, et leurs partisans ont commencé à infiltrer l’enseignement du droit, allant même jusqu’à organiser des séjours tous frais payés, où des membres de la magistrature étaient invités à de copieux repas, à participer à des activités de plein air et à assister à des séminaires où ils étaient endoctrinés contre la théorie antitrust et les dommages qu’elle cause aux consommateurs. Plus les théories de Bork s’imposaient, plus les monopolistes gagnaient de l’argent – et plus ils disposaient d’un capital excédentaire pour faire pression en faveur de campagnes d’influence antitrust à la Bork.

L’histoire des théories antitrust de Bork est un très bon exemple du type de retournements d’opinion publique obtenus secrètement et contre lesquels Zuboff nous met en garde, où les idées marginales deviennent peu à peu l’orthodoxie dominante. Mais Bork n’a pas changé le monde du jour au lendemain. Il a été très endurant, pendant plus d’une génération, et il a bénéficié d’un climat favorable parce que les forces qui ont soutenu les théories antitrust oligarchiques ont également soutenu de nombreux autres changements oligarchiques dans l’opinion publique. Par exemple, l’idée que la fiscalité est un vol, que la richesse est un signe de vertu, etc. – toutes ces théories se sont imbriquées pour former une idéologie cohérente qui a élevé l’inégalité au rang de vertu.

Aujourd’hui, beaucoup craignent que l’apprentissage machine permette au capitalisme de surveillance de vendre « Bork-as-a-Service », à la vitesse de l’Internet, afin qu’on puisse demander à une société d’apprentissage machine de provoquer des retournements rapides de l’opinion publique sans avoir besoin de capitaux pour soutenir un projet multiforme et multigénérationnel mené aux niveaux local, étatique, national et mondial, dans les domaines des affaires, du droit et de la philosophie. Je ne crois pas qu’un tel projet soit réalisable, bien que je sois d’accord avec le fait que c’est essentiellement ce que les plateformes prétendent vendre. Elles mentent tout simplement à ce sujet. Les (entreprises de la) Big Tech mentent tout le temps, y compris dans leur documentation commerciale.

L’idée que la technologie forme des « monopoles naturels » (des monopoles qui sont le résultat inévitable des réalités d’une industrie, comme les monopoles qui reviennent à la première entreprise à exploiter des lignes téléphoniques longue distance ou des lignes ferroviaires) est démentie par la propre histoire de la technologie : en l’absence de tactiques anticoncurrentielles, Google a réussi à détrôner AltaVista et Yahoo, et Facebook a réussi à se débarrasser de Myspace. La collecte de montagnes de données présente certains avantages, mais ces montagnes de données ont également des inconvénients : responsabilité (en raison de fuites), rendements décroissants (en raison d’anciennes données) et inertie institutionnelle (les grandes entreprises, comme la science, progressent en liquidant les autres à mesure).

En effet, la naissance du Web a vu l’extinction en masse des technologies propriétaires géantes et très rentables qui disposaient de capitaux, d’effets de réseau, de murs et de douves autour de leurs entreprises. Le Web a montré que lorsqu’une nouvelle industrie est construite autour d’un protocole, plutôt que d’un produit, la puissance combinée de tous ceux qui utilisent le protocole pour atteindre leurs clients, utilisateurs ou communautés, dépasse même les produits les plus massivement diffusés. CompuServe, AOL, MSN et une foule d’autres jardins clos propriétaires ont appris cette leçon à la dure : chacun croyait pouvoir rester séparé du Web, offrant une « curation » et une garantie de cohérence et de qualité au lieu du chaos d’un système ouvert. Chacun a eu tort et a fini par être absorbé dans le Web public.

Oui, la technologie est fortement monopolisée et elle est maintenant étroitement associée à la concentration de l’industrie, mais c’est davantage lié à une question de temps qu’à des tendances intrinsèquement monopolistiques. La technologie est née au moment où l’application de la législation antitrust était démantelée, et la technologie est tombée exactement dans les mêmes travers contre lesquels l’antitrust était censé se prémunir. En première approximation, il est raisonnable de supposer que les monopoles de Tech sont le résultat d’un manque d’action anti-monopole et non des caractéristiques uniques tant vantées de Tech, telles que les effets de réseau, l’avantage du premier arrivé, etc.

À l’appui de cette théorie, je propose de considérer la concentration que tous les autres secteurs ont connue au cours de la même période. De la lutte professionnelle aux biens de consommation emballés, en passant par le crédit-bail immobilier commercial, les banques, le fret maritime, le pétrole, les labels discographiques, la presse écrite et les parcs d’attractions, tous les secteurs ont connu un mouvement de concentration massif. Il n’y a pas d’effets de réseau évidents ni d’avantage de premier arrivé dans ces secteurs. Cependant, dans tous les cas, ils ont atteint leur statut de concentration grâce à des tactiques qui étaient interdites avant le triomphe de Bork : fusion avec des concurrents majeurs, rachat de nouveaux venus innovants sur le marché, intégration horizontale et verticale, et une série de tactiques anticoncurrentielles qui étaient autrefois illégales mais ne le sont plus.

Encore une fois : lorsque vous modifiez les lois destinées à empêcher les monopoles, puis que les monopoles se forment exactement comme la loi était censée les empêcher, il est raisonnable de supposer que ces faits sont liés. La concentration de Tech peut être facilement expliquée sans avoir recours aux théories radicales des effets de réseau – mais seulement si vous êtes prêt à accuser les marchés non réglementés de tendre vers le monopole. Tout comme un fumeur de longue date peut vous fournir une foule de raisons selon lesquelles ce n’est pas son tabagisme qui a provoqué son cancer (« Ce sont les toxines environnementales »), les vrais partisans des marchés non réglementés ont toute une série d’explications peu convaincantes pour prétendre que le monopole de la technologie ne modifie pas le capitalisme.

Conduire avec les essuie-glaces

Cela fait quarante ans que le projet de Bork pour réhabiliter les monopoles s’est réalisé, soit une génération et demie, c’est à dire suffisamment de temps pour qu’une idée commune puisse devenir farfelue ou l’inverse. Avant les années 40, les Américains aisés habillaient leurs petits garçons en rose alors que les filles portaient du bleu (une couleur « fragile et délicate »). Bien que les couleurs genrées soient totalement arbitraires, beaucoup découvriront cette information avec étonnement et trouveront difficile d’imaginer un temps où le rose suggérait la virilité.

Après quarante ans à ignorer scrupuleusement les mesures antitrust et leur mise en application, il n’est pas surprenant que nous ayons presque tous oublié que les lois antitrust existent, que la croissance à travers les fusions et les acquisitions était largement interdite par la loi, et que les stratégies d’isolation d’un marché, comme par l’intégration verticale, pouvait conduire une entreprise au tribunal.

L’antitrust, c’est le volant de cette voiture qu’est la société de marché, l’outil principal qui permet de contrôler la trajectoire de ces prétendants au titre de maîtres de l’univers. Mais Bork et ses amis nous ont arraché ce volant des mains il y a quarante ans. Puisque la voiture continue d’avancer, nous appuyons aussi fort que possible sur toutes les autres commandes de la voiture, de même que nous ouvrons et fermons les portes, montons et descendons les vitres dans l’espoir qu’une de ces commandes puisse nous permettre de choisir notre direction et de reprendre le contrôle avant de foncer dans le décor.

Ça ressemble à un scénario de science-fiction des années 60 qui deviendrait réalité : voyageant à travers les étoiles, des humains sont coincés dans un « vaisseau générationnel » autrefois piloté par leurs ancêtres, et maintenant, après une grande catastrophe, l’équipage a complètement oublié qu’il est dans un vaisseau et ne se souvient pas où est la salle de contrôle. À la dérive, le vaisseau court à sa perte, et, à moins que nous puissions reprendre le contrôle et corriger le cap en urgence, nous allons tout fonçons droit vers une mort ardente dans le cœur d’un soleil.

La surveillance a toujours son importance

Rien de tout cela ne doit minimiser les problèmes liés à la surveillance. La surveillance est importante, et les Géants de la tech qui l’utilisent font peser un véritable risque existentiel sur notre espèce, mais ce n’est pas parce que la surveillance et l’apprentissage machine nous subtilisent notre libre arbitre.

La surveillance est devenue bien plus efficace avec les Géants de la tech. En 1989, la Stasi — la police secrète est-allemande — avait l’intégralité du pays sous surveillance, un projet titanesque qui recrutait une personne sur 60 en tant qu’informateur ou comme agent de renseignement.

Aujourd’hui, nous savons que la NSA espionne une partie significative de la population mondiale, et le ratio entre agents de renseignement et population surveillée est plutôt de l’ordre de 1 pour 10 000 (ce chiffre est probablement sous-estimé puisqu’il suppose que tous les Américains détenant un niveau de confidentialité top secret travaillent pour la NSA — en fait on ne sait pas combien de personnes sont autorisées à espionner pour le compte de la NSA, mais ce n’est certainement pas toutes les personnes classées top secret).

Comment ce ratio de citoyens surveillés a-t-il pu exploser de 1/60 à 1/10 000 en moins de trente ans ? C’est bien grâce aux Géants de la tech. Nos appareils et leurs services collectent plus de données que ce que la NSA collecte pour ses propres projets de surveillance. Nous achetons ces appareils, nous nous connectons à leurs services, puis nous accomplissons laborieusement les tâches nécessaires pour insérer des données sur nous, notre vie, nos opinions et nos préférences. Cette surveillance de masse s’est révélée complètement inutile dans la lutte contre le terrorisme : la NSA évoque un seul et unique cas, dans lequel elle a utilisé un programme de collection de données pour faire échouer une tentative de transfert de fond de quelques milliers de dollars d’un citoyen américain vers un groupe terroriste basé à l’étranger. Les raisons de cette inefficacité déconcertante sont les mêmes que pour l’échec du ciblage publicitaire par les entreprises de surveillance commerciale : les personnes qui commettent des actes terroristes, tout comme celles qui achètent un frigo, se font très rares. Si vous voulez détecter un phénomène dont la probabilité de base est d’un sur un million avec un outil dont la précision n’est que de 99 %, chaque résultat juste apparaîtra au prix de 9 999 faux positifs.

Essayons de le formuler autrement : si une personne sur un million est terroriste, alors nous aurons seulement un terroriste dans un échantillon d’un million de personnes. Si votre test de détecteur à terroristes est précis à 99 %, il identifiera 10 000 terroristes dans votre échantillon d’un million de personnes (1 % d’un million = 10 000). Pour un résultat juste, vous vous retrouvez avec 9 999 faux positifs.

En réalité, la précision algorithmique de la détection de terroriste est bien inférieure à 99 %, tout comme pour les publicités de frigo. La différence, c’est qu’être accusé à tort d’être un potentiel acheteur de frigo est une nuisance somme toute assez faible, alors qu’être accusé à tort de planifier un attentat terroriste peut détruire votre vie et celle de toutes les personnes que vous aimez.

L’État ne peut surveiller massivement que parce que le capitalisme de surveillance et son très faible rendement existent, ce qui demande un flux constant de données personnelles pour pouvoir rester viable. L’échec majeur du capitalisme de surveillance vient des publicités mal ciblées, tandis que celui de la surveillance étatique vient des violations éhontées des Droits de l’humain, qui ont tendance à dériver vers du totalitarisme.

La surveillance de l’État n’est pas un simple parasite des Géants de la tech, qui pomperait les données sans rien accorder en retour. En réalité, ils sont plutôt en symbiose : les Géants pompent nos données pour le compte des agences de renseignement, et ces dernières s’assurent que le pouvoir politique ne restreint pas trop sévèrement les activités des Géants de la tech jusqu’à devenir inutile aux besoins du renseignement. Il n’y a aucune distinction claire entre la surveillance d’État et le capitalisme de surveillance, ils sont tous deux co-dépendants.

Pour comprendre comment tout cela fonctionne aujourd’hui, pas besoin de regarder plus loin que l’outil de surveillance d’Amazon, la sonnette Ring et son application associée Neighbors. Ring — un produit acheté et non développé par Amazon — est une sonnette munie d’une caméra qui diffuse les images de l’entrée devant votre porte sur votre téléphone. L’application Neighbors vous permet de mettre en place un réseau de surveillance à l’échelle de votre quartier avec les autres détenteurs de sonnette Ring autour de chez vous, avec lesquels vous pouvez partager des vidéos de « personnes suspectes ». Si vous pensez que ce système est le meilleur moyen pour permettre aux commères racistes de suspecter toute personne de couleur qui se balade dans le quartier, vous avez raison. Ring est devenu de facto, le bras officieux de la police sans s’embêter avec ces satanées lois et règlements.

À l’été 2019, une série de demande de documents publics a révélé qu’Amazon a passé des accords confidentiels avec plus de 400 services de police locaux au travers desquelles ces agences font la promotion de Ring and Neighbors en échange de l’accès à des vidéos filmées par les visiophones Ring. En théorie, la police devrait réclamer ces vidéos par l’intermédiaire d’Amazon (et des documents internes ont révélé qu’Amazon consacre des ressources non-négligeables pour former les policiers à formuler des histoires convaincantes dans ce but), mais dans la pratique, quand un client Ring refuse de transmettre ses vidéos à la police, Amazon n’exige de la police qu’une simple requête formelle à adresser à l’entreprise, ce qu’elle lui remet alors.

Ring et les forces de police ont trouvé de nombreuses façons de mêler leurs activités . Ring passe des accords secrets pour avoir un accès en temps réel aux appels d’urgence (le 911) pour ensuite diffuser à ses utilisateurs les procès-verbaux de certaines infractions, qui servent aussi à convaincre n’importe quelle personne qui envisage d’installer un portier de surveillance mais qui ne sait pas vraiment si son quartier est suffisamment dangereux pour que ça en vaille le coup.

Plus les flics vantent les mérites du réseau de surveillance capitaliste Ring, plus l’État dispose de capacités de surveillance. Les flics qui s’appuient sur des entités privées pour faire respecter la loi s’opposent ensuite à toute régulation du déploiement de cette technologie, tandis que les entreprises leur rendent la pareille en faisant pression contre les règles qui réclament une surveillance publique de la technologie de surveillance policière. Plus les flics s’appuient sur Ring and Neighbors, plus il sera difficile d’adopter des lois pour les freiner. Moins il y aura de lois contre eux, plus les flics se reposeront sur ces technologies.