Voici la traduction d’une nouvelle initiative d’Aral Balkan intitulée : Clean up the web! : et si on débarrassait les pages web de leurs nuisances intrusives ?
En termes parfois fleuris (mais il a de bonnes raisons de hausser le ton) il invite toutes les personnes qui font du développement web à agir pour en finir avec la soumission aux traqueurs des GAFAM. Pour une fois, ce n’est pas seulement aux internautes de se méfier de toutes parts en faisant des choix éclairés, mais aussi à celles et ceux qui élaborent les pages web de faire face à leurs responsabilités, selon lui…
Développeurs, développeuses, c’est le moment de choisir votre camp : voulez-vous contribuer à débarrasser le Web du pistage hostile à la confidentialité, ou bien allez-vous en être complices ?
Que puis-je faire ?
🚮️ Supprimer les scripts tiers de Google, Facebook, etc.
Ces scripts permettent à des éleveurs de moutons numériques comme Google et Facebook de pister les utilisatrices d’un site à l’autre sur tout le Web. Si vous les incorporez à votre site, vous êtes complice en permettant ce pistage par des traqueurs.
Face à la pression montante des mécontents, Google a annoncé qu’il allait à terme bloquer les traqueurs tiers dans son navigateur Chrome. Ça a l’air bien non ? Et ça l’est, jusqu’à ce que l’on entende que l’alternative proposée est de faire en sorte que Chrome lui-même traque les gens sur tous les sites qu’ils visitent…sauf si les sites lui demandent de ne pas le faire, en incluant le header suivant dans leur réponse :
Permissions-Policy: interest-cohort=()
Bon, maintenant, si vous préférez qu’on vous explique à quel point c’est un coup tordu…
Aucune page web au monde ne devrait avoir à supplier Google : « s’il vous plaît, monsieur, ne violez pas la vie privée de la personne qui visite mon site » mais c’est exactement ce que Google nous oblige à faire avec sa nouvelle initiative d’apprentissage fédéré des cohortes (FLoC).
Si jamais vous avez du mal à retenir le nom, n’oubliez pas que « flock » veut dire « troupeau » en anglais, comme dans « troupeau de moutons, » parce que c’est clairement l’image qu’ils se font de nous chez Google s’ils pensent qu’on va accepter cette saloperie.
Donc c’est à nous, les développeurs, de coller ce header dans tous les serveurs web (comme nginx, Caddy, etc.), tous les outils web (comme WordPress, Wix, etc.)… bref dans tout ce qui, aujourd’hui, implique une réponse web à une requête, partout dans le monde.
Notre petit serveur web, Site.js, l’a déjà activé par défaut.
Si jamais il y a des politiciens qui ont les yeux ouverts en ce 21e siècle et qui ne sont pas trop occupés à se frotter les mains ou à saliver à l’idée de fricoter, voire de se faire embaucher par Google et Facebook, c’est peut-être le moment de faire attention et de faire votre putain de taf pour changer.
🚮️ Arrêter d’utiliser Chrome et conseiller aux autres d’en faire autant, si ça leur est possible.
Rappelons qui est le méchant ici : c’est Google (Alphabet, Inc.), pas les gens qui pour de multiples raisons pourraient être obligés d’utiliser le navigateur web de Google (par exemple, ils ne savent pas forcément comment télécharger et installer un nouveau navigateur, ou peuvent être obligés de l’utiliser au travail, etc.)
Donc, attention de ne pas vous retrouver à blâmer la victime, mais faites comprendre aux gens quel est le problème avec Google (« c’est une ferme industrielle pour les êtres humains ») et conseillez-leur d’utiliser, s’ils le peuvent, un navigateur différent.
C’est décourageant de voir les tentacules de ce foutu monstre marin s’étendre partout et s’il a jamais été temps de créer une organisation indépendante financée par des fonds publics pour mettre au point un navigateur sans cochonnerie, c’est le moment.
🚮️ Protégez-vous et montrez aux autres comment en faire autant
Pointez vers cette page avec les hashtags #CleanUpTheWeb et#FlocOffGoogle.
🚮️ Choisissez un autre business model
En fin de compte, on peut résumer les choses ainsi : si votre business model est fondé sur le pistage et le profilage des gens, vous faites partie du problème.
Les mecs de la tech dans la Silicon Valley vous diront qu’il n’y a pas d’autre façon de faire de la technologie que la leur.
C’est faux.
Ils vous diront que votre « aventure extraordinaire » commence par une startup financée par des business angels et du capital risque et qu’elle se termine soit quand vous êtes racheté par un Google ou un Facebook, soit quand vous en devenez un vous-même. Licornes et compagnie…
Vous pouvez créer de petites entreprises durables. Vous pouvez créer des coopératives. Vous pouvez créer des associations à but non lucratif, comme nous.
Si vous vous demandez ce qui vous rend heureux, est-ce que ce n’est pas ça, par hasard ?
Est-ce que vous voulez devenir milliardaire ? Est-ce que vous avez envie de traquer, de profiler, de manipuler les gens ? Ou est-ce que vous avec juste envie de faire de belles choses qui améliorent la vie des gens et rendent le monde plus équitable et plus sympa ?
Nous faisons le pari que vous préférez la seconde solution.
Si vous manquez d’inspiration, allez voir ce qui se fait chez Plausible, par exemple, et comment c’est fait, ou chez HEY, Basecamp, elementary OS, Owncast, Pine64, StarLabs, Purism, ou ce à quoi nous travaillons avec Site.js et le Small Web… vous n’êtes pas les seuls à dire non aux conneries de la Silicon Valley
On existe en partie grâce au soutien de gens comme vous. Si vous partagez notre vision et désirez soutenir notre travail, faites une don aujourd’hui et aidez-nous à continuer à exister.
Google chante le requiem pour les cookies, mais le grand chœur du pistage résonnera encore
Google va cesser de nous pister avec des cookies tiers ! Une bonne nouvelle, oui mais… Regardons le projet d’un peu plus près avec un article de l’EFF.
La presse en ligne s’en est fait largement l’écho : par exemple siecledigital, generation-nt ou lemonde. Et de nombreux articles citent un éminent responsable du tout-puissant Google :
Chrome a annoncé son intention de supprimer la prise en charge des cookies tiers et que nous avons travaillé avec l’ensemble du secteur sur le Privacy Sandbox afin de mettre au point des innovations qui protègent l’anonymat tout en fournissant des résultats aux annonceurs et aux éditeurs. Malgré cela, nous continuons à recevoir des questions pour savoir si Google va rejoindre d’autres acteurs du secteur des technologies publicitaires qui prévoient de remplacer les cookies tiers par d’autres identifiants de niveau utilisateur. Aujourd’hui, nous précisons qu’une fois les cookies tiers supprimés, nous ne créerons pas d’identifiants alternatifs pour suivre les individus lors de leur navigation sur le Web et nous ne les utiliserons pas dans nos produits.
David Temkin, Director of Product Management, Ads Privacy and Trust (source)
« Pas d’identifiants alternatifs » voilà de quoi nous réjouir : serait-ce la fin d’une époque ?
Comme d’habitude avec Google, il faut se demander où est l’arnaque lucrative. Car il semble bien que le Béhémoth du numérique n’ait pas du tout renoncé à son modèle économique qui est la vente de publicité.
Dans cet article de l’Electronic Frontier Foundation, que vous a traduit l’équipe de Framalang, il va être question d’un projet déjà entamé de Google dont l’acronyme est FLoC, c’est-à-dire Federated Learning of Cohorts. Vous le trouverez ici traduit AFC pour « Apprentissage Fédéré de Cohorte » (voir l’article de Wikipédia Apprentissage fédéré).
Pour l’essentiel, ce dispositif donnerait au navigateur Chrome la possibilité de créer des groupes de milliers d’utilisateurs ayant des habitudes de navigation similaires et permettrait aux annonceurs de cibler ces « cohortes ».
Les cookies tiers se meurent, mais Google essaie de créer leur remplaçant.
Personne ne devrait pleurer la disparition des cookies tels que nous les connaissons aujourd’hui. Pendant plus de deux décennies, les cookies tiers ont été la pierre angulaire d’une obscure et sordide industrie de surveillance publicitaire sur le Web, brassant plusieurs milliards de dollars ; l’abandon progressif des cookies de pistage et autres identifiants tiers persistants tarde à arriver. Néanmoins, si les bases de l’industrie publicitaire évoluent, ses acteurs les plus importants sont déterminés à retomber sur leurs pieds.
Google veut être en première ligne pour remplacer les cookies tiers par un ensemble de technologies permettant de diffuser des annonces ciblées sur Internet. Et certaines de ses propositions laissent penser que les critiques envers le capitalisme de surveillance n’ont pas été entendues. Cet article se concentrera sur l’une de ces propositions : l’Apprentissage Fédéré de Cohorte (AFC, ou FLoC en anglais), qui est peut-être la plus ambitieuse – et potentiellement la plus dangereuse de toutes.
L’AFC est conçu comme une nouvelle manière pour votre navigateur d’établir votre profil, ce que les pisteurs tiers faisaient jusqu’à maintenant, c’est-à-dire en retravaillant votre historique de navigation récent pour le traduire en une catégorie comportementale qui sera ensuite partagée avec les sites web et les annonceurs. Cette technologie permettra d’éviter les risques sur la vie privée que posent les cookies tiers, mais elle en créera de nouveaux par la même occasion. Une solution qui peut également exacerber les pires attaques sur la vie privée posées par les publicités comportementales, comme une discrimination accrue et un ciblage prédateur.
La réponse de Google aux défenseurs de la vie privée a été de prétendre que le monde de demain avec l’AFC (et d’autres composants inclus dans le « bac à sable de la vie privée » sera meilleur que celui d’aujourd’hui, dans lequel les marchands de données et les géants de la tech pistent et profilent en toute impunité. Mais cette perspective attractive repose sur le présupposé fallacieux que nous devrions choisir entre « le pistage à l’ancienne » et le « nouveau pistage ». Au lieu de réinventer la roue à espionner la vie privée, ne pourrait-on pas imaginer un monde meilleur débarrassé des problèmes surabondants de la publicité ciblée ?
Nous sommes à la croisée des chemins. L’ère des cookies tiers, peut-être la plus grande erreur du Web, est derrière nous et deux futurs possibles nous attendent.
Dans l’un d’entre eux, c’est aux utilisateurs et utilisatrices que revient le choix des informations à partager avec chacun des sites avec lesquels il ou elle interagit. Plus besoin de s’inquiéter du fait que notre historique de navigation puisse être utilisé contre nous-mêmes, ou employé pour nous manipuler, lors de l’ouverture d’un nouvel onglet.
Dans l’autre, le comportement de chacune et chacun est répercuté de site en site, au moyen d’une étiquette, invisible à première vue mais riche de significations pour celles et ceux qui y ont accès. L’historique de navigation récent, concentré en quelques bits, est « démocratisé » et partagé avec les dizaines d’interprètes anonymes qui sont partie prenante des pages web. Les utilisatrices et utilisateurs commencent chaque interaction avec une confession : voici ce que j’ai fait cette semaine, tenez-en compte.
Les utilisatrices et les personnes engagées dans la défense des droits numériques doivent rejeter l’AFC et les autres tentatives malvenues de réinventer le ciblage comportemental. Nous exhortons Google à abandonner cette pratique et à orienter ses efforts vers la construction d’un Web réellement favorable aux utilisateurs.
Qu’est-ce que l’AFC ?
En 2019, Google présentait son bac à sable de la vie privée qui correspond à sa vision du futur de la confidentialité sur le Web. Le point central de ce projet est un ensemble de protocoles, dépourvus de cookies, conçus pour couvrir la multitude de cas d’usage que les cookies tiers fournissent actuellement aux annonceurs. Google a soumis ses propositions au W3C, l’organisme qui forge les normes du Web, où elles ont été principalement examinées par le groupe de commerce publicitaire sur le Web, un organisme essentiellement composé de marchands de technologie publicitaire. Dans les mois qui ont suivi, Google et d’autres publicitaires ont proposé des dizaines de standards techniques portant des noms d’oiseaux : pigeon, tourterelle, moineau, cygne, francolin, pélican, perroquet… et ainsi de suite ; c’est très sérieux ! Chacune de ces propositions aviaires a pour objectif de remplacer différentes fonctionnalités de l’écosystème publicitaire qui sont pour l’instant assurées par les cookies.
L’AFC est conçu pour aider les annonceurs à améliorer le ciblage comportemental sans l’aide des cookies tiers. Un navigateur ayant ce système activé collecterait les informations sur les habitudes de navigation de son utilisatrice et les utiliserait pour les affecter à une « cohorte » ou à un groupe. Les utilisateurs qui ont des habitudes de navigations similaires – reste à définir le mot « similaire » – seront regroupés dans une même cohorte. Chaque navigateur partagera un identifiant de cohorte, indiquant le groupe d’appartenance, avec les sites web et les annonceurs. D’après la proposition, chaque cohorte devrait contenir au moins plusieurs milliers d’utilisatrices et utilisateurs (ce n’est cependant pas une garantie).
Si cela vous semble complexe, imaginez ceci : votre identifiant AFC sera comme un court résumé de votre activité récente sur le Web.
La démonstration de faisabilité de Google utilisait les noms de domaines des sites visités comme base pour grouper les personnes. Puis un algorithme du nom de SimHash permettait de créer les groupes. Il peut tourner localement sur la machine de tout un chacun, il n’y a donc pas besoin d’un serveur central qui collecte les données comportementales. Toutefois, un serveur administrateur central pourrait jouer un rôle dans la mise en œuvre des garanties de confidentialité. Afin d’éviter qu’une cohorte soit trop petite (c’est à dire trop caractéristique), Google propose qu’un acteur central puisse compter le nombre de personnes dans chaque cohorte. Si certaines sont trop petites, elles pourront être fusionnées avec d’autres cohortes similaires, jusqu’à ce qu’elles représentent suffisamment d’utilisateurs.
Pour que l’AFC soit utile aux publicitaires, une cohorte d’utilisateurs ou utilisatrices devra forcément dévoiler des informations sur leur comportement.
Selon la proposition formulée par Google, la plupart des spécifications sont déjà à l’étude. Le projet de spécification prévoit que l’identification d’une cohorte sera accessible via JavaScript, mais on ne peut pas savoir clairement s’il y aura des restrictions, qui pourra y accéder ou si l’identifiant de l’utilisateur sera partagé par d’autres moyens. L’AFC pourra constituer des groupes basés sur l’URL ou le contenu d’une page au lieu des noms domaines ; également utiliser une synergie de « système apprentissage » (comme le sous-entend l’appellation AFC) afin de créer des regroupements plutôt que de se baser sur l’algorithme de SimHash. Le nombre total de cohortes possibles n’est pas clair non plus. Le test de Google utilise une cohorte d’utilisateurs avec des identifiants sur 8 bits, ce qui suppose qu’il devrait y avoir une limite de 256 cohortes possibles. En pratique, ce nombre pourrait être bien supérieur ; c’est ce que suggère la documentation en évoquant une « cohorte d’utilisateurs en 16 bits comprenant 4 caractères hexadécimaux ». Plus les cohortes seront nombreuses, plus elles seront spécialisées – plus les identifiants de cohortes seront longs, plus les annonceurs en apprendront sur les intérêts de chaque utilisatrice et auront de facilité pour cibler leur empreinte numérique.
Mais si l’un des points est déjà clair c’est le facteur temps. Les cohortes AFC seront réévaluées chaque semaine, en utilisant chaque fois les données recueillies lors de la navigation de la semaine précédente.
Ceci rendra les cohortes d’utilisateurs moins utiles comme identifiants à long terme, mais les rendra plus intrusives sur les comportements des utilisatrices dans la durée.
De nouveaux problèmes pour la vie privée.
L’AFC fait partie d’un ensemble qui a pour but d’apporter de la publicité ciblée dans un futur où la vie privée serait préservée. Cependant la conception même de cette technique implique le partage de nouvelles données avec les annonceurs. Sans surprise, ceci crée et ajoute des risques concernant la donnée privée.
Le Traçage par reconnaissance d’ID.
Le premier enjeu, c’est le pistage des navigateurs, une pratique qui consiste à collecter de multiples données distinctes afin de créer un identifiant unique, personnalisé et stable lié à un navigateur en particulier. Le projet Cover Your Tracks (Masquer Vos Traces) de l’Electronic Frontier Foundation (EFF) montre comment ce procédé fonctionne : pour faire simple, plus votre navigateur paraît se comporter ou agir différemment des autres, plus il est facile d’en identifier l’empreinte unique.
Google a promis que la grande majorité des cohortes AFC comprendrait chacune des milliers d’utilisatrices, et qu’ainsi on ne pourra vous distinguer parmi le millier de personnes qui vous ressemblent. Mais rien que cela offre un avantage évident aux pisteurs. Si un pistage commence avec votre cohorte, il doit seulement identifier votre navigateur parmi le millier d’autres (au lieu de plusieurs centaines de millions). En termes de théorie de l’information, les cohortes contiendront quelques bits d’entropie jusqu’à 8, selon la preuve de faisabilité. Cette information est d’autant plus éloquente sachant qu’il est peu probable qu’elle soit corrélée avec d’autres informations exposées par le navigateur. Cela va rendre la tâche encore plus facile aux traqueurs de rassembler une empreinte unique pour les utilisateurs de l’AFC.
Google a admis que c’est un défi et s’est engagé à le résoudre dans le cadre d’un plan plus large, le « Budget vie privée » qui doit régler le problème du pistage par l’empreinte numérique sur le long terme. Un but admirable en soi, et une proposition qui va dans le bon sens ! Mais selon la Foire Aux Questions, le plan est « une première proposition, et n’a pas encore d’implémentation dans un navigateur ». En attendant, Google a commencé à tester l’AFC dès ce mois de mars.
Le pistage par l’empreinte numérique est évidemment difficile à arrêter. Des navigateurs comme Safari et Tor se sont engagés dans une longue bataille d’usure contre les pisteurs, sacrifiant une grande partie de leurs fonctionnalités afin de réduire la surface des attaques par traçage. La limitation du pistage implique généralement des coupes ou des restrictions sur certaines sources d’entropie non nécessaires. Il ne faut pas que Google crée de nouveaux risques d’être tracé tant que les problèmes liés aux risques existants subsistent.
L’exposition croisée
Un second problème est moins facile à expliquer : la technologie va partager de nouvelles données personnelles avec des pisteurs qui peuvent déjà identifier des utilisatrices. Pour que l’AFC soit utile aux publicitaires, une cohorte devra nécessairement dévoiler des informations comportementales.
La page Github du projet aborde ce sujet de manière très directe :
Cette API démocratise les accès à certaines informations sur l’historique de navigation général des personnes (et, de fait, leurs intérêts principaux) à tous les sites qui le demandent… Les sites qui connaissent les Données à Caractère Personnel (c’est-à-dire lorsqu’une personne s’authentifie avec son adresse courriel) peuvent enregistrer et exposer leur cohorte. Cela implique que les informations sur les intérêts individuels peuvent éventuellement être rendues publiques.
Comme décrit précédemment, les cohortes AFC ne devraient pas fonctionner en tant qu’identifiant intrinsèque. Cependant, toute entreprise capable d’identifier un utilisateur d’une manière ou d’une autre – par exemple en offrant les services « identifiez-vous via Google » à différents sites internet – seront à même de relier les informations qu’elle apprend de l’AFC avec le profil de l’utilisateur.
Deux catégories d’informations peuvent alors être exposées :
1. Des informations précises sur l’historique de navigation. Les pisteurs pourraient mettre en place une rétro-ingénierie sur l’algorithme d’assignation des cohortes pour savoir si une utilisatrice qui appartient à une cohorte spécifique a probablement ou certainement visité des sites spécifiques.
2. Des informations générales relatives à la démographie ou aux centres d’intérêts. Par exemple, une cohorte particulière pourrait sur-représenter des personnes jeunes, de sexe féminin, ou noires ; une autre cohorte des personnes d’âge moyen votant Républicain ; une troisième des jeunes LGBTQ+, etc.
Cela veut dire que chaque site que vous visitez se fera une bonne idée de quel type de personne vous êtes dès le premier contact avec ledit site, sans avoir à se donner la peine de vous suivre sur le Net. De plus, comme votre cohorte sera mise à jour au cours du temps, les sites sur lesquels vous êtes identifié⋅e⋅s pourront aussi suivre l’évolution des changements de votre navigation. Souvenez-vous, une cohorte AFC n’est ni plus ni moins qu’un résumé de votre activité récente de navigation.
Vous devriez pourtant avoir le droit de présenter différents aspects de votre identité dans différents contextes. Si vous visitez un site pour des informations médicales, vous pourriez lui faire confiance en ce qui concerne les informations sur votre santé, mais il n’y a pas de raison qu’il ait besoin de connaître votre orientation politique. De même, si vous visitez un site de vente au détail, ce dernier n’a pas besoin de savoir si vous vous êtes renseigné⋅e récemment sur un traitement pour la dépression. L’AFC érode la séparation des contextes et, au contraire, présente le même résumé comportemental à tous ceux avec qui vous interagissez.
Au-delà de la vie privée
L’AFC est conçu pour éviter une menace spécifique : le profilage individuel qui est permis aujourd’hui par le croisement des identifiants contextuels. Le but de l’AFC et des autres propositions est d’éviter de laisser aux pisteurs l’accès à des informations qu’ils peuvent lier à des gens en particulier. Alors que, comme nous l’avons montré, cette technologie pourrait aider les pisteurs dans de nombreux contextes. Mais même si Google est capable de retravailler sur ses conceptions et de prévenir certains risques, les maux de la publicité ciblée ne se limitent pas aux violations de la vie privée. L’objectif même de l’AFC est en contradiction avec d’autres libertés individuelles.
Pouvoir cibler c’est pouvoir discriminer. Par définition, les publicités ciblées autorisent les annonceurs à atteindre certains types de personnes et à en exclure d’autres. Un système de ciblage peut être utilisé pour décider qui pourra consulter une annonce d’emploi ou une offre pour un prêt immobilier aussi facilement qu’il le fait pour promouvoir des chaussures.
Au fur et à mesure des années, les rouages de la publicité ciblée ont souvent été utilisés pour l’exploitation, la discrimination et pour nuire. La capacité de cibler des personnes en fonction de l’ethnie, la religion, le genre, l’âge ou la compétence permet des publicités discriminatoires pour l’emploi, le logement ou le crédit. Le ciblage qui repose sur l’historique du crédit – ou des caractéristiques systématiquement associées – permet de la publicité prédatrice pour des prêts à haut taux d’intérêt. Le ciblage basé sur la démographie, la localisation et l’affiliation politique aide les fournisseurs de désinformation politique et la suppression des votants. Tous les types de ciblage comportementaux augmentent les risques d’abus de confiance.
Au lieu de réinventer la roue du pistage, nous devrions imaginer un monde sans les nombreux problèmes posés par les publicités ciblées.
Google, Facebook et beaucoup d’autres plateformes sont en train de restreindre certains usages sur de leur système de ciblage. Par exemple, Google propose de limiter la capacité des annonceurs de cibler les utilisatrices selon des « catégories de centres d’intérêt à caractère sensible ». Cependant, régulièrement ces tentatives tournent court, les grands acteurs pouvant facilement trouver des compromis et contourner les « plateformes à usage restreint » grâce à certaines manières de cibler ou certains types de publicité.
Même un imaginant un contrôle total sur quelles informations peuvent être utilisées pour cibler quelles personnes, les plateformes demeurent trop souvent incapables d’empêcher les usages abusifs de leur technologie. Or l’AFC utilisera un algorithme non supervisé pour créer ses propres cohortes. Autrement dit, personne n’aura un contrôle direct sur la façon dont les gens seront regroupés.
Idéalement (selon les annonceurs), les cohortes permettront de créer des regroupements qui pourront avoir des comportements et des intérêts communs. Mais le comportement en ligne est déterminé par toutes sortes de critères sensibles : démographiques comme le genre, le groupe ethnique, l’âge ou le revenu ; selon les traits de personnalités du « Big 5 »; et même la santé mentale. Ceci laisse à penser que l’AFC regroupera aussi des utilisateurs parmi n’importe quel de ces axes.
L’AFC pourra aussi directement rediriger l’utilisatrice et sa cohorte vers des sites internet qui traitent l’abus de substances prohibées, de difficultés financières ou encore d’assistance aux victimes d’un traumatisme.
Google a proposé de superviser les résultats du système pour analyser toute corrélation avec ces catégories sensibles. Si l’on découvre qu’une cohorte spécifique est étroitement liée à un groupe spécifique protégé, le serveur d’administration pourra choisir de nouveaux paramètres pour l’algorithme et demander aux navigateurs des utilisateurs concernés de se constituer en un autre groupe.
Cette solution semble à la fois orwellienne et digne de Sisyphe. Pour pouvoir analyser comment les groupes AFC seront associés à des catégories sensibles, Google devra mener des enquêtes gigantesques en utilisant des données sur les utilisatrices : genre, race, religion, âge, état de santé, situation financière. Chaque fois que Google trouvera qu’une cohorte est associée trop fortement à l’un de ces facteurs, il faudra reconfigurer l’ensemble de l’algorithme et essayer à nouveau, en espérant qu’aucune autre « catégorie sensible » ne sera impliquée dans la nouvelle version. Il s’agit d’une variante bien plus compliquée d’un problème que Google s’efforce déjà de tenter de résoudre, avec de fréquents échecs.
Dans un monde numérique doté de l’AFC, il pourrait être plus difficile de cibler directement les utilisatrices en fonction de leur âge, genre ou revenu. Mais ce ne serait pas impossible. Certains pisteurs qui ont accès à des informations secondaires sur les utilisateurs seront capables de déduire ce que signifient les groupes AFC, c’est-à-dire quelles catégories de personnes appartiennent à une cohorte, à force d’observations et d’expérimentations. Ceux qui seront déterminés à le faire auront la possibilité de la discrimination. Pire, les plateformes auront encore plus de mal qu’aujourd’hui à contrôler ces pratiques. Les publicitaires animés de mauvaises intentions pourront être dans un déni crédible puisque, après tout, ils ne cibleront pas directement des catégories protégées, ils viseront seulement les individus en fonction de leur comportement. Et l’ensemble du système sera encore plus opaque pour les utilisatrices et les régulateurs.
Google, ne faites pas ça, s’il vous plaît
Nous nous sommes déjà prononcés sur l’AFC et son lot de propositions initiales lorsque tout cela a été présenté pour la première fois, en décrivant l’AFC comme une technologie « contraire à la vie privée ». Nous avons espéré que les processus de vérification des standards mettraient l’accent sur les défauts de base de l’AFC et inciteraient Google à renoncer à son projet. Bien entendu, plusieurs problèmes soulevés sur leur GitHub officiel exposaient exactement les mêmespréoccupations que les nôtres. Et pourtant, Google a poursuivi le développement de son système, sans pratiquement rien changer de fondamental. Ils ont commencé à déployer leur discours sur l’AFC auprès des publicitaires, en vantant le remplacement du ciblage basé sur les cookies par l’AFC « avec une efficacité de 95 % ». Et à partir de la version 89 de Chrome, depuis le 2 mars, la technologie est déployée pour un galop d’essai. Une petite fraction d’utilisateurs de Chrome – ce qui fait tout de même plusieurs millions – a été assignée aux tests de cette nouvelle technologie.
Ne vous y trompez pas, si Google poursuit encore son projet d’implémenter l’AFC dans Chrome, il donnera probablement à chacun les « options » nécessaires. Le système laissera probablement le choix par défaut aux publicitaires qui en tireront bénéfice, mais sera imposé par défaut aux utilisateurs qui en seront affectés. Google se glorifiera certainement de ce pas en avant vers « la transparence et le contrôle par l’utilisateur », en sachant pertinemment que l’énorme majorité de ceux-ci ne comprendront pas comment fonctionne l’AFC et que très peu d’entre eux choisiront de désactiver cette fonctionnalité. L’entreprise se félicitera elle-même d’avoir initié une nouvelle ère de confidentialité sur le Web, débarrassée des vilains cookies tiers, cette même technologie que Google a contribué à développer bien au-delà de sa date limite, engrangeant des milliards de dollars au passage.
Ce n’est pas une fatalité. Les parties les plus importantes du bac-à-sable de la confidentialité comme l’abandon des identificateurs tiers ou la lutte contre le pistage des empreintes numériques vont réellement améliorer le Web. Google peut choisir de démanteler le vieil échafaudage de surveillance sans le remplacer par une nouveauté nuisible.
Nous rejetons vigoureusement le devenir de l’AFC. Ce n’est pas le monde que nous voulons, ni celui que méritent les utilisatrices. Google a besoin de tirer des leçons pertinentes de l’époque du pistage par des tiers et doit concevoir son navigateur pour l’activité de ses utilisateurs et utilisatrices, pas pour les publicitaires.
Remarque : nous avons contacté Google pour vérifier certains éléments exposés dans ce billet ainsi que pour demander davantage d’informations sur le test initial en cours. Nous n’avons reçu aucune réponse à ce jour.
Windows 10 : plongée en eaux troubles
Vous avez sans doute remarqué que lorsque les médias grand public évoquent les entreprises dominantes du numérique on entend « les GAFA » et on a tendance à oublier le M de Microsoft. Et pourtant…On sait depuis longtemps à quel point Microsoft piste ses utilisateurs, mais des mesures précises faisaient défaut. Le bref article que Framalang vous propose évoque les données d’une analyse approfondie de tout ce que Windows 10 envoie vers ses serveurs pratiquement à l’insu de ses utilisateurs…
Selon les services allemands de cybersécurité, Windows 10 vous surveille de 534 façons
par Derek Zimmer
L’Office fédéral de la sécurité des technologies de l’information (ou BSI) a publié un rapport1 (PDF, 3,4 Mo) qui détaille les centaines de façons dont Windows 10 piste les utilisateurs, et montre qu’à moins d’avoir la version Entreprise de Windows, les multiples paramètres de confidentialité ne font pratiquement aucune différence.
Seules les versions Entreprise peuvent les arrêter
Les versions normales de Windows ont seulement trois niveaux différents de télémétrie. Le BSI a trouvé qu’entre la version Basic et la version Full on passe de 503 à 534 procédés de surveillance. La seule véritable réduction de télémétrie vient des versions Entreprise de Windows qui peuvent utiliser un réglage supplémentaire de « sécurité » pour leur télémétrie qui réduit le nombre de traqueurs actifs à 13.
C’est la première investigation approfondie dans les processus et dans la base de registre de Windows pour la télémétrie
L’analyse est très détaillée, et cartographie le système Event Tracing for Windows (ETW), la manière dont Windows enregistre les données de télémétrie, comment et quand ces données sont envoyées aux serveurs de Microsoft, ainsi que la différence entre les différents niveaux de paramétrage de la télémétrie.
Cette analyse va jusqu’à montrer où sont contrôlés les réglages pour modifier individuellement les composants d’enregistrement dans la base de registre de Windows, et comment ils initialisent Windows.
Voici quelques faits intéressants issus de ce document :
• Windows envoie vos données vers les serveurs Microsoft toutes les 30 minutes ;
• La taille des données enregistrées équivaut à 12 à 16 Ko par heure sur un ordinateur inactif (ce qui, pour donner une idée, représente chaque jour à peu près le volume de données d’un petit roman comme Le Vieil homme et la mer d’Hemingway) ;
• Il envoie des informations à sept endroits différents, y compris l’Irlande, le Wyoming et la petite ville de Boston en Virginie. C’est la première « plongée en eaux profondes » que je voie où sont énumérés tous les enregistrements, ainsi que les endroits où va le trafic et à quelle fréquence.
Logiquement l’étape suivante consiste à découvrir ce qui figure dans ces 300 Ko de données quotidiennes. J’aimerais aussi savoir à quel point l’utilisation de Windows Media Player, Edge et les autres applications intégrées influe sur l’empreinte laissée par les données, ainsi que le nombre d’éléments actifs d’enregistrement.
Difficile de se prémunir
Au sein des communautés dédiées à l’administration des systèmes ou à la vie privée, la télémétrie Windows est l’objet de nombreuses discussions et il existe plusieurs guides sur les méthodes qui permettent de la désactiver complètement.
Comme toujours, la meilleure défense consiste à ne pas utiliser Windows. La deuxième meilleure défense semble être d’utiliser la version de Windows pour les entreprises où l’on peut désactiver la télémétrie d’une manière officielle. La troisième est d’essayer de la bloquer en changeant les paramètres et clefs de registre ainsi qu’en modifiant vos pare-feux (en dehors de Windows, parce que le pare-feu Windows ignorera les filtres qui bloquent les IP liées à la télémétrie Microsoft) ; en sachant que tout sera réactivé à chaque mise à jour majeure de Windows.
À propos de Derek Zimmer Derek est cryptanalyste, expert en sécurité et militant pour la protection de la vie privée. Fort de douze années d’expérience en sécurité et six années d’expérience en design et implémentation de systèmes respectant la vie privée, il a fondé le Open Source Technology Improvement Fund (OSTIF, Fond d’Amélioration des Technologies Open Source) qui vise à créer et améliorer les solutions de sécurité open source par de l’audit, du bug bounty, ainsi que par la collecte et la gestion de ressources.
21 degrés de liberté – 16
La collecte de données n’a jamais été aussi large, leur accumulation est sans précédent bien que leur équivalent analogique paraisse impensable…
Voici déjà le 16e article de la série écrite par Rick Falkvinge. Le fondateur du Parti Pirate suédois examine aujourd’hui les risques pour les libertés individuelles de la conservation des données collectées et stockées.
Le fil directeur de la série de ces 21 articles, comme on peut le voir clairement dans les épisodes précédents que nous vous avons déjà livrés, c’est la perte de certaines libertés dont nous disposions encore assez récemment, avant que le passage au tout-numérique ne nous en prive.
La vie privée de nos enfants et l’accumulation de données
Traduction Framalang : amille, Lumibd, draenog, Marius + 2 anonymes
Dans le monde analogique de nos parents, il était absolument inimaginable que le gouvernement veuille connaître chaque déplacement que vous ayez fait, chaque appel téléphonique que vous ayez donné et chaque message que vous ayez écrit ; tel était le fonctionnement normal. Pour nos enfants, à l’ère du numérique, les représentants du gouvernement insistent pourtant sur la nécessité de collecter ces informations, comme si c’était parfaitement raisonnable, en évoquant le terrorisme et aussi, le fait que nos enfants écouteraient de la musique ou regarderaient la télévision ensemble, de la manière dont ils aiment le faire, ce qui est illégal à cause d’une législation commandée par Hollywood. Et pour empirer les choses, la surveillance est rétroactive, tout est noté, enregistré et gardé jusqu’à ce que quelqu’un réclame le tout.
Il y a dix ans, un de mes collègues a quitté l’Europe pour la Chine. Il a remarqué, parmi de nombreuses autres différences, que le service postal était beaucoup plus étroitement surveillé car chaque courrier envoyé était consigné à la main dans un journal de bord, tenu par le responsable de chaque bureau de poste. Lettre de qui, à qui, et la date.
À l’époque, trois choses m’ont frappé : premièrement, à quel point ceci paraissait naturel pour la population chinoise, qui ne connaissait pas d’autres pratiques ; deuxièmement, à quel point nos parents analogiques auraient été horrifiés et auraient dénoncé cette pratique ; troisièmement, que malgré tout, c’est exactement ce que nos parents analogiques devenus maintenant législateurs proposent pour tous nos enfants du numérique.
Ou du moins, ce qu’ils essaient de faire ; les tribunaux se défendent âprement.
Il y a un dicton qui reflète bien le sentiment chinois de normalité à ce sujet : « Les conneries que cette génération supporte comme une nuisance temporaire de politiciens dérangés sembleront parfaitement ordinaires à la génération suivante ».
Chaque composante de surveillance dans ces séquences enregistrées est amplifiée de plusieurs ordres de grandeur par le fait que vous n’êtes pas seulement observés, mais que tout ce que vous faites est enregistré pour une éventuelle utilisation ultérieure contre vous.
C’est un concept si dangereux que même le roman 1984 ne l »avait pas imaginé : si l’écran de Winston ne l’avait pas vu faire quelque chose que le régime ne voulait pas qu’il fasse, Winston aurait été en sécurité, parce qu’il n’y avait pas d’enregistrement ; la surveillance s’exerçait uniquement à un instant donné.
Si Winston Smith avait été sous le régime de surveillance proposé aujourd’hui, avec l’enregistrement et la conservation des données, le régime aurait pu et n’aurait pas manqué de revenir en arrière pour réexaminer chaque action antérieure et y trouver ce qu’il aurait pu manquer.
Cette horreur devient une réalité aujourd’hui, et elle s’applique à chaque article de cette série. Nos enfants du numérique ne sont pas seulement privés de vie privée à chaque instant, mais aussi rétroactivement privés de leur vie privée passée.
(Bon, cette horreur est une réalité qui hésite encore, car les législateurs et les tribunaux sont en lutte acharnée. Dans l’Union européenne, la conservation des données a été prescrite en 2005 par le Parlement européen, a été rejetée en 2014 par la Cour de justice européenne et a été interdite en 2016 par la même Cour. D’autres juridictions jouent à des jeux similaires ; un tribunal britannique vient de porter un coup à la conservation des données, par exemple).
La vie privée reste sous votre propre responsabilité
21 degrés de liberté – 14
Vos rendez-vous amoureux, votre orientation sexuelle, les sites « pour adultes » que vous visitez selon vos préférences… un ensemble de données confidentielles on ne peut plus personnelles, qui pourtant font aussi l’objet de repérage et classements dans notre monde numérique…
Voici déjà le 14e article de la série écrite par Rick Falkvinge. Le fondateur du Parti Pirate suédois examine aujourd’hui la captation des données les plus sensibles à nos yeux, celles qui concernent notre vie amoureuse.
Le fil directeur de la série de ces 21 articles, comme on peut le voir clairement dans les épisodes précédents que nous vous avons déjà livrés, c’est la perte de certaines libertés dont nous disposions encore assez récemment, avant que le passage au tout-numérique ne nous en prive.
Les préférences amoureuses de nos parents n’étaient pas pistées, enregistrées et cataloguées
Traduction Framalang : draenog, wan, goofy et un anonyme
Les préférences amoureuses de nos parents de l’ère analogique étaient considérées comme un sujet des plus intimes. Pour nos enfants du numérique, ces préférences sont une occasion de collecte à grande échelle à des fins de marketing. Comment cette dérive terrifiante a-t-elle pu se produire ?
Je crois que le premier gros collecteur de préférences amoureuses était le site à l’apparence innocente hotornot.com, il y a 18 ans, un site qui évoquait plus l’emploi de son temps libre par un lycéen frustré qu’une fine stratégie marketing. Il permettait simplement aux gens de noter la beauté d’une personne à partir d’une photographie, et de mettre en ligne des photographies pour obtenir des notes. (Les deux fondateurs de ce prétendu projet amateur de lycéen ont gagné 10 millions de dollars chacun lorsque le site a été vendu.)
Le marché a ensuite connu une expansion phénoménale, avec des sites de rencontre financés soit par des publicités, soit par les utilisateurs, chacun de ces sites stockant les préférences amoureuses de ses membres dans les moindres détails.
Les sites de pornographie à grande échelle, comme Pornhub, se sont également mis à cataloguer les préférences en matière de porno de leurs utilisateurs et utilisatrices, produisant des infographies intéressantes à propos des différences régionales entre celles-ci. Vous pouvez par exemple consulter (sans risques) la page https://www.inverse.com/article/26011-pornhub-post-popular-porn-report-2016, il s’agit seulement de données et de cartes dans un article sur Inverse, ce n’est pas un lien vers Pornhub. C’est particulièrement intéressant, car on se rend compte que Pornhub est capable de détailler plutôt précisément les préférences des gens par âge, lieu, sexe, niveau de revenus, et ainsi de suite.
Est-ce que vous connaissez qui que ce soit qui aurait donné à Pornhub ce genre de données ? Non, et moi non plus. Et pourtant, ils sont capables d’identifier qui aime quoi avec une certaine précision, précision qui doit bien venir de quelque part.
Et ensuite, bien sûr, nous avons les réseaux sociaux (qui peuvent ou non être responsables de ce pistage, d’ailleurs).
On a pu dire2 que Facebook est capable de savoir si vous êtes homosexuel⋅le ou non avec seulement trois « J’aime ». Trois. Et ces « Like » ne sont pas forcément liés aux préférences amoureuses ni au mode de vie ; elles peuvent cibler des choses complètement anodines qui vont juste être associées à des motifs plus généraux.
C’est déjà une mauvaise chose en soi, dans la mesure où ce sont des informations privées. Au strict minimum, les préférences de nos enfants de l’ère numérique devraient leur appartenir, comme leur parfum de glace préféré.
Mais les affinités amoureuses sont des informations plus sensibles que notre parfum de glace préféré, n’est-ce pas ? Cela devrait être le cas, mais aujourd’hui ça ne l’est pas. Ces informations pourraient toucher aussi quelque chose d’inné. Des choses pour lesquelles des personnes risquent jusqu’à la mort si elles sont nées3 avec la « mauvaise » préférence…
Il est toujours illégal d’être né homosexuel⋅le dans 73 pays sur 192, et dans ces 73, onze prévoient la peine de mort pour être né⋅e ainsi. À peine 23 pays sur 192 permettent pleinement le mariage pour tous.
De plus, bien que l’évolution des mœurs aille de manière assez nette vers plus de tolérance, d’acceptation et d’inclusion à l’heure actuelle, cela ne veut pas dire que nous soyons à l’abri d’une régression, pour diverses raisons, la plupart d’entre elles très mauvaises. Des personnes qui se sont senties suffisamment solides pour s’exprimer sur elles-mêmes peuvent à nouveau être persécutées.
Le génocide prend presque toujours appui sur des données publiques collectées avec de bonnes intentions.
C’est pourquoi le respect de la vie privée est la dernière ligne de défense, non pas la première. Et cette dernière ligne de défense, qui a tenu bon pour nos parents analogiques, a été rompue pour nos enfants numériques. Ce problème n’est certainement pas assez pris au sérieux.
La vie privée demeure de votre responsabilité.
21degrés de liberté – 13
Nos comportements font désormais l’objet d’une surveillance de plus en plus intrusive de la part du commerce, qu’il soit ou non virtuel, au point de surveiller même les achats que nous ne faisons pas…
Voici déjà le 13e article de la série écrite par Rick Falkvinge. Le fondateur du Parti Pirate suédois. Il attire aujourd’hui notre attention sur une forme inattendue du pistage à caractère commercial.
Le fil directeur de la série de ces 21 articles, comme on peut le voir clairement dans les épisodes précédents que nous vous avons déjà livrés, c’est la perte de certaines libertés dont nous disposions encore assez récemment, avant que le passage au tout-numérique ne nous en prive.
On espionne non seulement tout ce que nos enfants achètent, mais également tout ce qu’ils N’ACHÈTENT PAS
Traduction Framalang : draenog, dodosan, goofy et un anonyme
Nous avons vu comment les achats de nos enfants, que ce soit en liquide ou par carte, sont surveillés au mépris de leur vie privée, d’une manière qui aurait fait frémir nos parents. Pire encore : la vie privée de nos enfants est également violée par l’espionnage des achats qu’ils ne font pas, qu’ils les refusent sciemment ou qu’ils passent simplement leur chemin.
Amazon vient d’ouvrir son premier magasin Amazon Go, où il est possible de mettre des articles dans son sac et de partir, sans avoir à passer par une caisse. Pour présenter ce concept4, Amazon indique qu’il est possible de prendre un article, qui sera inscrit dans vos achats, puis de changer d’avis et de le reposer, auquel cas le système enregistre que l’article n’a pas été acheté.
Évidemment, on ne paie pas pour un article à propos duquel on a changé d’avis, ce qui est le message de la vidéo. Mais il ne s’agit pas seulement d’enlever un article du total à payer : Amazon sait que quelqu’un a envisagé de l’acheter et ne l’a au final pas fait, et l’entreprise utilisera cette information.
Nos enfants sont espionnés de cette manière chaque jour, si ce n’est à chaque heure. Nos parents n’ont jamais connu cela.
Lorsque nous faisons des achats en ligne, nous rencontrons même des plugins simples pour les solutions commerciales les plus courantes, qui réalisent ce qu’on nomme, par un barbarisme commercial, une « analyse en entonnoir » ou « analyse d’abandon de panier », qui détermine à quel moment nos enfants décident d’abandonner le processus d’achat.
On ne peut même plus quitter un achat en cours de route sans qu’il soit enregistré, consigné et catalogué pour un usage futur.
Mais cet « abandon de panier » n’est qu’une partie d’un plus vaste problème, à savoir le pistage de ce qui nous intéresse, à l’ère de nos enfants du numérique, sans pour autant que nous l’achetions. On ne manque pas aujourd’hui de personnes qui jureraient avoir tout juste discuté d’un type de produit au téléphone (disons, « jupe noire en cuir ») pour voir, tout à coup, des publicités spécifiques pour ce type de produit surgir de tous les côtés sur les pubs Facebook et/ou Amazon. Est-ce qu’il s’agit vraiment d’entreprises à l’écoute de mots-clés via notre téléphone ? Peut-être, peut-être pas. Tout ce qu’on sait depuis Snowden, c’est que s’il est techniquement possible de faire intrusion dans notre vie privée, alors c’est déjà en place.
(On peut supposer que ces personnes n’ont pas encore appris à installer un simple bloqueur de publicités… Mais bon.)
Dans les endroits les plus surchargés en pubs, comme les aéroports (mais pas seulement là), on trouve des traqueurs de mouvements oculaires pour déterminer quelles publicités vous regardez. Elles ne changent pas encore pour s’adapter à vos intérêts, comme dans Minority Report, mais puisque c’est déjà le cas sur votre téléphone et votre ordinateur, il ne serait pas surprenant que cela arrive bientôt dans l’espace public.
Dans le monde analogique de nos parents, nous n’étions pas enregistrés ni pistés quand nous achetions quelque chose.
Dans le monde numérique de nos enfants, nous sommes enregistrés et suivis même quand nous n’achetons pas quelque chose.
La vie privée demeure de votre responsabilité.
21 degrés de liberté – 12
Filmés et géolocalisés, nos déplacements n’échappent pas à la surveillance. Même quand nous flânons dans une boutique physique, notre parcours est enregistré.
Voici déjà le 12e article de la série écrite par Rick Falkvinge. Le fondateur du Parti Pirate suédois s’inquiète aujourd’hui la fin de l’anonymat dans nos achats en raison des moyens électroniques de paiement.
Le fil directeur de la série de ces 21 articles, comme on peut le voir clairement dans les épisodes précédents que nous vous avons déjà livrés, c’est la perte de certaines libertés dont nous disposions encore assez récemment, avant que le passage au tout-numérique ne nous en prive.
Nos parents achetaient des objets sans être pistés, leurs pas en boutique n’étaient pas enregistrés
Traduction Framalang : goofy, draenog, Moutmout, xi + 2 anonymes
Dans le dernier article, nous nous sommes concentrés sur la façon dont les personnes sont pistées aujourd’hui lorsqu’elles utilisent des cartes bancaires plutôt que du liquide. Mais peu de gens remarquent qu’aujourd’hui, nous sommes également suivis à la trace même si nous utilisons du liquide.
Peu de gens font attention au petit signe (en) sur la porte tambour de l’aéroport d’Amsterdam-Schiphol. Il indique que chacune des personnes dans l’aéroport est suivie par Bluetooth et Wi-Fi.
Ce qui caractérise l’aéroport d’Amsterdam-Schiphol n’est pas le fait que le moindre pas des gens dans une zone commerciale y soit pisté (à des fins commerciales, pas pour la sécurité.) Non, ce qui différencie l’aéroport d’Amsterdam-Schiphol, c’est que les personnes en sont informées. Les Pays-Bas ont tendance à prendre la vie privée au sérieux, comme l’Allemagne, et pour la même raison (en).
Les balises de localisation sont devenues quasiment un standard dans les plus grandes zones commerciales. Elles envoient un signal à votre téléphone par Wi-Fi et par Bluetooth, et par triangulation, en utilisant la force du signal, un réseau de balises est capable de déterminer les déplacements de chaque individu en temps réel avec une précision inférieure à la longueur d’un pas. Tout ceci est utilisé pour « optimiser la vente » – en d’autres termes, trouver des façons de piéger le cerveau des gens pour qu’ils dépensent des ressources qu’ils n’auraient sinon pas dépensées. Notre propre perte de vie privée est utilisée contre nous, comme à chaque fois.
Où est-ce que les gens s’arrêtent un moment, qu’est-ce qui attire leur attention, qu’est-ce qui n’attire pas leur attention, qu’est-ce qui constitue un obstacle pour réaliser plus de ventes ?
Ce sont des questions légitimes. Cependant, retirer aux gens leur vie privée afin de répondre à ces questions n’est pas une méthode légitime pour y répondre.
Ce type de suivi individuel de masse a même été déployé à l’échelle de villes entières, ce qui s’est passé dans le silence le plus total jusqu’à ce que le Bureau de Vigilance pour la Vie Privée d’un gouvernement lointain sonne l’alarme. La ville de Västerås a obtenu le feu vert pour poursuivre le pistage une fois quelques critères de pure forme atteints.
Oui, le déploiement à l’échelle d’une ville de ce type de pistage dans au moins une petite ville d’un coin reculé du monde (Västerås, en Suède) est documenté. Maintenant que le Bureau de Vigilance pour la Vie Privée gouvernemental a haussé les épaules et dit « mouais, qu’importe », ne croyez pas que ça restera confiné à la petite ville de Västerås. Rectification, mauvais temps verbal : ne croyez pas que ce c’est resté qu’à Västerås, où le feu vert a été obtenu il y a trois ans.
Nos parents analogiques avaient le pouvoir de marcher sans être pistés dans la ville et dans la rue de leur choix, sans que cela soit utilisé ou retenu contre eux. Il n’est pas déraisonnable que nos enfants numériques aient le même pouvoir.
Il y a une autre façon d’acheter des choses avec du liquide qui permet d’éviter ce type de pistage, c’est le paiement comptant à la livraison à votre domicile lors de l’achat en ligne ou par téléphone. Dans ce cas, votre achat est aussi consigné et enregistré, simplement dans un autre type de système.
Tout ceci n’est pas seulement utilisé contre le citoyen ordinaire à des fins commerciales, évidemment. C’est utilisé contre le citoyen ordinaire à toutes fins possibles. Mais nous y reviendrons dans un article à venir de la série.
La vie privée demeure de votre responsabilité.
21 degrés de liberté – 07
Consulter des ouvrages en bibliothèque était hier une opération dont les bibliothécaires défendaient ardemment le caractère confidentiel. Aujourd’hui toutes nos recherches d’informations nous pistent.
Voici déjà le 7e article de la série écrite par Rick Falkvinge. Le fondateur du Parti Pirate suédois s’inquiète aujourd’hui de la liberté de s’informer sans être surveillé.
Le fil directeur de la série de ces 21 articles, comme on peut le voir clairement dans les épisodes précédents que nous vous avons déjà livrés, c’est la perte de certaines libertés dont nous disposions encore assez récemment, avant que le passage au tout-numérique ne nous en prive.
Dans les bibliothèques traditionnelles, la recherche d’informations restait privée
Pour nos parents du monde analogique, la recherche d’informations avait lieu dans les bibliothèques, et il s’agissait d’un lieu dont l’intimité était jalousement gardée. À l’inverse, lorsque nos enfants du monde numérique recherchent des informations, leurs pensées les plus intimes sont toutes collectées pour faire du marketing. Comment en est-on arrivé là ?
S’il existe une profession du monde analogique pour laquelle la vie privée des usagers était une véritable obsession, c’est bien celle de bibliothécaire. Les bibliothèques étaient des lieux où l’on pouvait faire ses recherches les plus inavouables, qu’il s’agisse de littérature ou de sciences, de faire un achat ou de n’importe quoi d’autre. La confidentialité des bibliothèques était purement et simplement légendaire.
Lorsque les recettes de fabrication de bombes ont commencé à circuler sur le proto-internet des années 80 – sur ce que l’on appelait les BBS – et que les politiciens ont essayé de jouer sur la parano sécuritaire, beaucoup ont rapidement eu le bon sens de signaler que ces « fichiers textes contenant des recettes de bombes » n’étaient pas différents de ce qu’il était possible de trouver dans la section chimie d’une bibliothèque ordinaire – et les bibliothèques étaient sacrées. L’exploitation de la peur n’avait plus d’objet, dès lors que l’on faisait remarquer que ce type de documents était déjà disponible dans toutes les bibliothèques publiques et que chacun pouvait y accéder de manière anonyme.
De fait, les bibliothèques étaient tellement discrètes que, lorsque le FBI a commencé à leur demander les registres indiquant qui empruntait quel livre, les bibliothécaires se sont indignés en masse et c’est ainsi que les tristement célèbres warrant canaries 5 ont été inventés, oui, par un bibliothécaire, pour protéger les usagers de la bibliothèque. Les bibliothécaires ont toujours été les professionnels qui ont le plus farouchement défendu la vie privée, dans le monde analogique comme dans le monde numérique.
Dans le monde analogique de nos parents, la liberté d’Information était sacrée : c’était une soif profonde d’apprentissage, de connaissance et de compréhension. Dans le monde numérique de nos enfants, leurs pensées équivalentes les plus secrètes sont au contraire collectées massivement et bradées pour leur refiler de la camelote au hasard.
Ce n’est pas seulement ce que nos enfants ont recherché avec succès qui est à vendre. Dans le contexte analogique de nos parents, on dirait que c’est toutes leurs bonnes raisons d’aller à la bibliothèque. C’est même tout ce pourquoi ils ont seulement envisagé d’aller à la bibliothèque. Dans le monde numérique de nos enfants, tout ce qu’ils recherchent est enregistré, et tout ce qu’ils envisagent de rechercher même sans le faire.
Pensez-y un instant : une chose tellement sacrée pour nos parents que des secteurs professionnels entiers se mettraient en grève pour la préserver, est maintenant utilisée sans complexes pour un marketing de masse dans le monde de nos enfants.
Combinez à cela l’article précédent sur la façon dont tout ce que vous faites, dites et pensez est enregistré pour être utilisé contre vous plus tard, et il devient urgent pour nous de changer radicalement notre façon de voir les choses.
Il n’y a aucune raison pour que nos enfants soient moins libres de s’informer, au seul motif qu’ils vivent dans un environnement numérique, et non dans l’environnement analogique de nos parents. Il n’y a aucune raison pour que nos enfants ne puissent jouir de droits à la vie privée équivalents à ceux du monde analogique.
Bien sûr, on pourra mettre en avant le fait que les moteurs de recherche sont des services privés, qu’ils sont donc libres d’offrir les services qu’ils souhaitent, selon les termes qu’ils souhaitent. Mais il y avait également des bibliothèques privées dans le monde analogique de nos parents. Nous reviendrons un peu plus tard dans cette série sur l’idée que « si c’est privé, tu n’as pas ton mot à dire ».