Cependant, nous trouvons important d’apporter au débat des articles plus pédagogiques. Ce que nous avons fait par exemple en publiant la bande dessinée de Nicky Case, et aujourd’hui avec cet article qui, nous l’espérons vous éclairera un peu plus dans le débat.
(NB : cet article est une republication, avec l’accord de son auteur, de l’article https://www.bortzmeyer.org/tracking-covid-19.html dont la première publication est datée du 19 avril 2020 – Nous vous encourageons à vérifier sur le site originel si l’article a pu être mis-à-jour depuis).
Je ne suis pas non plus un spécialiste de la conception et de l’analyse de protocoles de suivi de contacts. Mais ce n’est pas très grave, pour les raisons que j’exposerai rapidement par la suite.
Vous ne trouverez pas ici d’analyse de l’application annoncée par le gouvernement français, StopCovid, pour la bonne et simple raison qu’elle n’existe pas. Il y a eu des promesses sous la forme de quelques mots (« anonyme », « sur la base du volontariat ») mais aucun détail technique n’a été publié. À l’heure actuelle, il n’est donc pas possible de dire quoi que ce soit de sérieux sur cette application spécifique.
D’une manière générale, la situation évolue vite, et il est très possible que, dans une ou deux semaines, cet article ne vaille plus rien.
Maintenant, rentrons dans le vif du sujet. Dans la description et l’analyse des protocoles comme PACT, DP3T ou ROBERT ? Non, car, pour moi, c’est une question très secondaire. Voyons les problèmes par ordre décroissant d’importance.
D’abord, il faut se demander si une telle application de suivi des contacts est utile et, surtout, si elle justifie les efforts qu’on y consacre, par rapport à des sujets moins high-tech, moins prestigieux, moins startup-nation, qui motivent moins les informaticiens mais qui ont plus d’importance pour la santé publique, comme la production et la distribution de masques, ou comme la revalorisation des rémunérations et des conditions de travail du personnel de santé. Je ne vais pas insister sur ce point, c’est certes le plus important mais la Quadrature du Neten a déjà parlé, et mieux que moi.
Bref, ce projet d’application de suivi des contacts semble davantage motivé par le désir d’agir, de faire quelque chose, même inutile, désir qui est commun en temps de crise, plutôt que par un vrai problème à résoudre. (C’est ce que les anglophones nomment la maladie du do-something-itis.) Il y a également des enjeux commerciaux, qui expliquent que certaines entreprises se font de la publicité en affirmant travailler sur le sujet (sans tenir compte des travaux existants).
Mais surtout, une application n’a de sens que si on teste les gens, pour savoir qui est contaminé. Comme on peut apparemment être contagieux et pourtant asymptomatique (pas de maladie visible), il faut tester ces personnes asymptomatiques (qui sont sans doute celles qui risquent de contaminer le plus de gens puisque, ignorantes de leur état, elles sortent). Or, Macron a bien précisé dans son discours du 13 avril qu’on ne testerait pas les personnes asymptomatiques (probablement car il n’y a pas de tests disponibles). Cela suffit à rendre inutile toute application, indépendamment des techniques astucieuses qu’elle utilise, car l’application elle-même ne peut pas déterminer qui est malade ou contagieux.
Ensuite, le protocole est une chose, la mise en œuvre dans une application réelle en est une autre. Le diable est dans les détails. Comme indiqué plus haut, on ne sait encore rien sur l’application officielle, à part son nom, StopCovid. Pour formuler un avis intelligent, il ne faudra pas se contenter de généralités, il faudra regarder son code, les détails, les traqueurs embarqués (une plaie classique des applications sur ordiphone, cf. le projet ExodusPrivacy), etc. Il faudra aussi se pencher sur le rôle du système d’exploitation (surtout s’il y a utilisation de l’API proposée par Google et Apple). Le fait que l’application soit en logiciel libre est évidemment un impératif, mais ce n’est pas suffisant.
Si vous n’êtes pas informaticienne ou informaticien, mais que vous voulez vous renseigner sur les applications de suivi de contacts et ce qu’il y a derrière, souvenez-vous qu’il y a plusieurs composants, chacun devant être étudié :
L’application elle-même, celle que vous téléchargez sur le magasin, qui est la partie visible (mais pas forcément la plus importante).
Le protocole qui est l’ensemble des règles que suit l’application, notamment dans la communication avec le reste du monde (autres ordiphones, serveur central…). Avec le même protocole, on peut créer plusieurs applications assez différentes.
Le système d’exploitation qui, après tout, a un complet contrôle de la machine et peut passer outre les décisions des applications. C’est un sujet d’autant plus sensible que, sur les ordiphones, ce système est étroitement contrôlé par deux entreprises à but lucratif, Apple et Google.
Le serveur central (la grande majorité des protocoles proposés nécessite un tel serveur) qui peut être piraté ou, tout simplement, géré par des gens qui ne tiennent pas leurs promesses.
Parmi les bonnes lectures accessibles à un large public :
Voilà, on peut maintenant passer aux questions qui passionnent mes lecteurs et lectrices passionnés d’informatique, les protocoles eux-mêmes. Il en existe de nombreux. J’ai une préférence pour PACT, dont je vous recommande la lecture de la spécification, très claire. La proposition DP3T est très proche (lisez donc son livre blanc).
Ces deux propositions sont très proches : l’ordiphone émet en Bluetooth des identifiants temporaires, générés aléatoirement et non reliables entre eux. Les autres ordiphones proches les captent et les stockent. Ces identifiants se nomment chirps dans PACT (qu’on pourrait traduire par « cui-cui ») et EphID (pour Ephemeral ID) dans DP3T. Lorsqu’on est testé (rappel : il n’y a pas assez de tests en France, on ne peut même pas tester tous les malades, ce qui est un problème bien plus grave que le fait d’utiliser tel algorithme ou pas), et détecté contaminé, on envoie les données à un serveur central, qui distribue la liste. En téléchargeant et en examinant cette liste, on peut savoir si on a été proche de gens contaminés.
C’est évidemment une présentation très sommaire, il y a plein de détails à traiter, et je vous recommande de ne pas vous lancer dans de longues discussions sur Twitter au sujet de ces protocoles, avant d’avoir lu les spécifications complètes. Les deux propositions ont été soigneusement pensées par des gens compétents et le Café du Commerce devrait lire avant de commenter.
PACT et DP3T ont assez peu de différences. Les principales portent sur le mécanisme de génération des identifiants, PACT déduit une série d’identifiants d’une graine renouvelée aléatoirement (on stocke les graines, pas réellement les identifiants), alors que DP3T déduit chaque graine de la précédente, des choses comme ça.
La proposition ROBERT est assez différente. La liste des identifiants des contaminés n’est plus publique, elle est gardée par le serveur central, que les applications doivent interroger. Globalement, le serveur central a bien plus de pouvoir et de connaissances, dans ROBERT. La question est souvent discutée de manière binaire, avec centralisé vs. décentralisé mais le choix est en fait plus compliqué que cela. (Paradoxalement, un protocole complètement décentralisé pourrait être moins bon pour la vie privée.) Au passage, j’ai déjà discuté de cette utilisation très chargée de termes comme « centralisé » dans un article à JRES. Autre avantage de ROBERT, la discussion sur le protocole se déroule au grand jour, via les tickets de GitHub (cf. leur liste mais lisez bien la spécification avant de commenter, pas juste les images). Par contre, son analyse de sécurité est très insuffisante, comme le balayage de tous les problèmes liés au serveur central en affirmant qu’il sera « honnête et sécurisé ». Et puis la communication autour de cette proposition est parfois scientiste (« Ce sont des analyses scientifiques qui permettent de le démontrer, pas des considérations idéologiques [comme si c’était mal d’avoir des idées, et des idées différentes des autres] ou des a priori sémantiques. ») et il y a une tendance à l’exagération dans les promesses.
La proposition Apple/Google, détaillé ici ainsi que sur cette page. Il ne s’agit à proprement parler pas d’un protocole de suivi de contacts mais d’un ensemble de services dans les systèmes d’exploitation (iOS pour Apple et Android pour Google), pour aider les applications de suivi.
Je n’ai pas cité les autres protocoles, NTK et TCN.
La mise en correspondance de deux ensembles de données (les identifiants des gens avec qui il y a eu contact, et les identifiants des gens contaminés) est un problème très difficile à résoudre si on veut respecter un peu la vie privée. Mais il n’est pas insoluble, voir par exemple la solution de Signal.
(cette page est distribuée sous les termes de la licence GFDL)
Une appli de traçage du COVID 19 qui échappe à Big Brother ?
|
Ou plutôt pas de traçage du tout ? Oui bien sûr, ce serait sans doute la meilleure solution compte tenu des inévitables « glissements » que redoute comme nous Hubert Guillaud dans cet article.
Mais à l’heure même où se profile l’appli gouvernementale, véritable agneau innocent qui sera inévitablement converti un jour prochain en outil d’espionnage pur et simple, voici une proposition alternative de protocole qui permettrait de freiner la diffusion de la pandémie et d’échapper à la surveillance invasive.
Voici pour comprendre le principe de cette application une bande dessinée, qui est l’œuvre de Nicky Case (son site – son patreon), elle est destinée à expliquer le fonctionnement du protocole DP-3T à un public plus large. Elle n’est pas une représentation exacte du protocole, comme elle le précise :
Cette BD présente des aspects qui vont au-delà des spécifications de notre protocole, tels qu’un score de risque lié à une instruction de rester à la maison, un exemple ludique de ce à quoi pourrait ressembler un algorithme de calcul de risque local.
Bien que notre protocole soit conçu pour protéger la vie privée et pour contribuer à protéger un large éventail de libertés contre les détournements de fonction, il nécessite un déploiement réfléchi dans un environnement avec des politiques informées et protectrices des droits de l’homme afin de fonctionner pour tous les membres de nos communautés.
La bande dessinée ne doit donc pas être lue comme fournissant des suggestions de politiques au-delà du protocole de l’équipe DP-3T.
Pour celles et ceux qui veulent aller plus loin, beaucoup de précisions sur son fonctionnement, ses limites et ses conditions sont dans cette étude proposée par un pool de scientifiques dont la lecture demande un certain bagage technique.
La présente publication ne signifie pas que Framasoft promeut une quelconque application ni ne la présente comme une solution miracle. Il s’agit seulement d’éclairer le fonctionnement d’un protocole.
La traduction française que vous pouvez parcourir ci-dessous est due aux efforts conjugués et patients de Michel « Meï » Mancier, et de Samuel Hackwill. Qu’ils en soient vivement remerciés !
StopCovid : le double risque de la “signose” et du “glissement”
|
Nous sommes aujourd’hui très honoré⋅e⋅s de pouvoir publier cet article d’Hubert Guillaud. Depuis de nombreuses années, Hubert Guillaud publie des analyses précieuses autour du numérique sur le site InternetActu.net dont il est le rédacteur en chef (nous vous invitons vivement à découvrir ce site si vous ne le connaissiez pas, et pas seulement parce qu’il est soutenu par nos ami⋅e⋅s de la Fing).
Pourquoi un troisième article, alors ? D’abord, parce qu’Hubert Guillaud prend le problème de StopCovid sous un autre angle, celui du risque de « faire de la médecine un travail de police », comme le dit l’écrivain Alain Damasio. Mais aussi parce qu’il pose clairement la problématique de notre acceptation de « solutions techniques », en tant qu’individu comme en tant que société. Cette acceptation est d’ores et déjà facilitée (préparée ?) par de nombreux médias grands publics qui présentent StopCovid comme une solution pour sortir plus vite du confinement, à grands coups de sondages auprès d’une population sur-angoissée et mal-informée. « Les algorithmes ne sont pas l’ennemi. Le vrai problème réside dans notre paresse à nous gouverner », nous dit la chercheuse Antoinette Rouvroy, citée dans cet article. Assurons nous de faire l’effort de ne pas être paresseux.
Soit ! Mais pour combien de temps ? Quelle sera la durée de cette assurance ? Que dirons-nous quand mi-mai, fin mai, mi-juin, nous n’aurons toujours ni masques ni tests en quantité suffisante (les autres “briques”, je suppose ?) ?
Le risque face à une absence de masques et de tests qui est là pour durer est que cette brique logicielle devienne un peu le seul outil à notre disposition pour “déconfiner”. Que StopCovid, de “brique incertaine” devienne le seul outil prêt à être utilisé, tout comme aujourd’hui l’attestation dérogatoire de déplacement est devenue le seul outil de maîtrise du confinement qu’on renforce d’arrêtés municipaux ou nationaux (quand ce n’est pas d’appréciations liberticides des agents) sans réelle motivation sanitaire (comme l’interdiction de courir ou de faire du vélo ou la fermeture des parcs ou pire encore des marchés : alors qu’on peut organiser des marchés voir des commerces non essentiels comme des accès aux espaces verts avec des règles de distanciations sociales). Et donc que tout le monde souhaite le renforcer : en le rendant peut-être obligatoire et pire peut-être en le rendant accessible au contrôle policier ! Et dans l’urgence et le dénuement, pour sortir d’une crise qui se révèle chaque jour plus dramatique, nul doute que nombreux seront prêt à s’y précipiter !
Le problème principal de StopCovid, c’est de ne reposer sur aucune science ! La seule étude disponible sur le sujet dans Science estime que ce type d’application doit accueillir 60% de la population pour être efficace et être associée à une politique de dépistage — dont nous ne disposons pas !
À Singapour, l’application TraceTogether, qui rassemblait 15% de a population, pourtant couplée au dépistage n’a pas suffi, comme le rappelle Olivier Tesquet pour Télérama ou Margot Clément depuis Hong Kong pour Mediapart : c’est certainement le signe (pas assez fort pourtant) que ce n’est pas une solution.
L’entrepreneur et spécialiste de l’intelligence artificielle Rand Hindi a très clairement exposé le fonctionnement d’une application de ce type, dans un thread sur Twitter !
Il semble y avoir beaucoup de confusion au sujet de l’efficacité et confidentialité de l’app #StopCovid. Je vais ici tenter d’expliquer la techno DP3T sous jacente et pourquoi dépendre du volontariat n’apportera pas les résultats espérés. #privacy#covid19@cedric_o@olivierveran
À lire ce thread (lisez-le !), chacun comprendra que la confidentialité des données ne devrait pas être le problème de cette application si elle respecte les développements prévus ! On semble plutôt là devant une technologie “privacy by design”, conçue pour préserver la vie privée ! Et le déploiement d’un outil aussi respectueux des individus devrait être salué ! Mais les bons points en matière technique ne suffiront pas à pallier les deux risques d’usages que masque StopCovid.
Le risque de la “signose” : “prendre le signal pour la chose” !
Comme s’en désespère la philosophe du droit Antoinette Rouvroy, le coeur du problème de nos outils d’analyse de données, c’est de relever bien plus d’une “signose” plutôt que d’une diagnose. Une signose consiste à “prendre le signal pour la chose”. C’est-à-dire transformer le signe (la barbe) en signal (la radicalisation) ! Souvenez-vous ! C’est le problème fondamental qui se cache dans les outils d’analyse automatisés et que dénoncent sans relâche nombre de spécialistes du sujet, comme la mathématicienne Cathy O’Neil ou Kate Crawford par exemple.
StopCovid transforme la proximité avec un malade (le signe) en signal (vous avez été infecté) pour déclencher une alerte nécessitant un traitement (confinement, test).
Image : illustration schématique du fonctionnement de StopCovid par LeMonde.fr.
Son inverse, la “diagnose”, elle transforme des symptômes (fièvre, test) en diagnostic (positif ou négatif) pour déclencher un traitement (confinement, prescription médicale, soins…).
Le problème de StopCovid comme d’autres solutions de backtracking proposées, c’est de transformer une notion de proximité en alerte. Or, être à proximité d’un malade ne signifie pas le devenir automatiquement ! La médecine a besoin de suivre et confiner les malades, ceux qu’ils contaminent et ceux qui les ont contaminés. Mais cela ne peut pas se faire sur la base de conjoncture, de corrélation, d’approximation, de proximité et de localisation.
Très souvent, le coeur des problèmes des systèmes réside dans les données utilisées et dans les décisions très concrètes qui sont prises pour décider ! Ici, tout le problème de cette proximité réside dans sa définition, sa qualification. Comment est définie la proximité par l’application ? Quelle durée ? Quelle distance ? Quelles conditions ? Quel contexte est pris en compte ? Et pour chacun de ces critères avec quelle précision et quelle fiabilité ? Pour reprendre les termes de Rand Hindi, le fait que Bob ait été à proximité d’Alice ne signifie pas qu’il ait été contaminé ! Si on ne peut pas apprécier les conditions de cette proximité, celle-ci risque d’être peu pertinente ou de déclencher beaucoup de faux positifs. Ou de refléter bien autre chose que l’exposition virus : des conditions sociales inégalitaires : une caissière de supermarché aura bien plus de chance de croiser un malade qu’un cadre qui va pouvoir continuer à limiter ses interactions sociales et ses déplacements. Pourtant, celle-ci est peut-être protégée par un plexiglas, des gants, des masques… des mesures de distanciation pris par son employeur : elle aura croisé des malades sans qu’ils la contaminent, quand le cadre aura pu croiser l’enfant d’un ami (sans téléphone) qui lui aura toussé dessus. Bref, StopCovid risque surtout de sonner bien plus pour certains que pour d’autres ! Toujours les mêmes !
En réduisant le contexte à une distance, à une proximité, StopCovid risque surtout d’être un outil approximatif, qui risque de renvoyer la plupart d’entre nous, non pas à notre responsabilité, mais à des injonctions sans sens. À nouveau, proximité n’est pas contamination : je peux avoir été dans la file d’attente d’un magasin à côté d’un malade ou avoir parlé à un ami malade en gardant les gestes barrières et sans avoir été infecté !
Le risque bien sûr, vous l’aurez compris, est que StopCovid produise énormément de “faux positifs” : c’est-à-dire des signalements anxiogènes et non motivés ! Dont il ne nous présentera aucun contexte : on ne saura pas ni qui, ni quand nous avons été à proximité d’un malade, donc incapable d’apprécier la situation, de lui rendre son contexte pour l’apprécier. Nous serons renvoyés à l’injonction du signal ! Sans être capable de prendre une décision informée (dois-je me confiner ? me faire tester — pour autant que ce soit possible !?).
En fait, quand on regarde un questionnaire d’enquête épidémiologique — par exemple, dans une forme très simple, prenons celui-ci proposé pour des cas de co-exposition au virus, on se rend compte que la proximité n’est pas le seul critère évalué. Les dates, les symptômes, l’état de santé de l’exposé, le degré de relation et sa description sont essentiels. Ils permettent notamment d’évaluer très vite un niveau de risque : faible, modéré ou élevé. Une enquête épidémiologique consiste à répondre à des questions sur ses relations, les lieux qu’on a fréquentés, les gens qu’on côtoie plus que ceux que l’on croise, ceux dont on est proche : qu’on touche et embrasse… L’important n’est pas que le questionnaire comme vous diront tous ceux qui mènent des enquêtes, c’est également la relation, la compréhension d’un mode de vie, d’un niveau de risque (respectez-vous les gestes barrières : assidûment ou pas du tout ?). Bref, l’important, c’est aussi d’introduire du rapport humain dans le suivi épidémique. Ce qu’une appli ne peut pas faire sauf, comme vous le diront leurs promoteurs, en collectant toujours plus de données, en étant toujours plus liberticides, pour qualifier toujours mieux le signe en signal !
Le risque des “glissements liberticides et discriminatoires” : de la contrainte à l’obligation !
Le risque c’est qu’en l’absence de tests, de masques (et cette absence va durer !), StopCovid devienne le seul recours d’une politique sanitaire de catastrophe. Le risque est — comme toujours — de “glisser” d’une signose à une politique. Ce que j’appelle “le glissement”, c’est le changement de finalité et l’évolution des autorisations d’accès. C’est le moteur de l’innovation technologique (une manière de pivoter dirait-on dans le monde entrepreneurial, c’est-à-dire de changer la finalité d’un produit et de le vendre pour d’autres clients que son marché originel). Mais le glissement est aussi le moteur de la surveillance, qui consiste bien souvent à transformer des fonctions simples en fonctions de surveillance : comme quand accéder à vos outils de télétravail permet de vous surveiller. Le risque du glissement consiste à faire évoluer dans l’urgence les finalités de l’application StopCovid, qu’elles soient logicielles ou d’usage. C’est ce dont s’inquiète (.pdf) très justement le comité consultatif national d’éthique en prévenant du risque de l’utilisation de l’application pour du contrôle policier ou du contrôle par l’employeur. Même inquiétude pour La Quadrature du Net et l’Observatoire des libertés numériques : le risque c’est qu’une “telle application finisse par être imposée pour continuer de travailler ou pour accéder à certains lieux publics”.
Or, il n’existe aucune garantie contre ces “glissements”… d’autant plus quand la colère et la crainte, la crise économique, le manque de tests et de masques, la durée du confinement, vont rendre le déconfinement encore plus pressant et l’exaspération encore plus réactive. Le risque le plus évident bien sûr est que votre employeur demande à voir votre application sur votre smartphone chaque matin ! Les commerçants, les bars, les policiers, les voisins… Que StopCovid devienne le “certificat d’immunité”, qu’évoquait dans son plan de déconfinement — tout à fait scandaleusement il me semble — la maire de Paris, Anne Hidalgo (sans compter qu’elle l’évoque comme un moyen de contrôle par l’employeur qu’elle représente, la Ville de Paris !). Le “glissement” le plus insidieux c’est que StopCovid devienne une application non pas obligatoire, mais injonctive. Que la santé de chacun soit à la vue de tous : employeurs, voisins, police ! Que nous devenions tous des auxiliaires de police plutôt que des auxiliaires de santé !
L’autre risque du certificat d’immunité, comme le souligne Bloomberg, c’est de faire exploser nos systèmes de santé par un déconfinement total, massif, calculé, où le seul sésame pour participer au monde de demain serait d’avoir survécu au virus ! Un calcul bien présomptueux à ce stade : Pourquoi ? Parce que pour l’instant, on évalue le nombre de Français immunisés par le virus à 10–15% pour les évaluations les plus optimistes, d’autres à 1,5 million soit seulement 2% de la population (et encore bien moins si on rapporte le taux de létalité de 0,37% au nombre de morts). Arriver à 60% d’immunité n’est pas le meilleur pari à prendre à court ou moyen terme !
Dans sa note (.pdf) (complète et intéressante) recensant les différentes techniques de pistage existantes, l’inénarrable Mounir Mahjoubi, ex-Secrétaire d’État au numérique, concédait un autre glissement : celui de l’obligation à utiliser une application comme StopCovid. Pour atteindre le taux d’usage de 60% de la population, Mahjoubi soulignait que “les autorités pourraient être ainsi être tentées de recourir à des mesures coercitives pour motiver l’installation”. Dans son analyse l’entrepreneur Rand Hindi arrivait à la même conclusion, en pire : rendre l’application obligatoire et faire que les autorités puissent accéder aux personnes qui reçoivent une alerte pour leur “appliquer” un confinement strict ! C’est-à-dire lever la confidentialité de l’état de santé, rien de moins.
Le risque enfin c’est bien sûr de faire évoluer l’application par décrets et modification successive du code… pour finir par lui faire afficher qui a contaminé qui et quand, qui serait le meilleur moyen d’enterrer définitivement nos libertés publiques !
Le risque du glissement, c’est de croire qu’en lançant StopCovid nous pourrons toujours l’améliorer. C’est de croire, comme toujours avec le numérique, qu’il suffit de plus de données pour avoir un meilleur outil. C’est de continuer à croire en la surenchère technologique, sans qu’elle ne produise d’effets autres que la fin des libertés publiques, juste parce que c’est la seule solution qui semble rationnelle et qui s’offre à nous !
Le risque, finalement est de continuer à croire que l’analyse de mauvaises données fera pour moins cher ce que seule la science peut faire : mais avec du temps et de l’argent. Le risque, c’est de croire, comme d’habitude que le numérique permet de faire la même chose pour moins cher, d’être un soin palliatif de la médecine. On sait où cette politique de baisse des coûts nous a menés en matière de masques, de lits et de tests. Doit-on encore continuer ?
Le risque c’est de croire qu’une application peut faire le travail d’un médecin, d’un humain : diagnostiquer, traiter, enquêter, apaiser… Soigner et prendre soin. Le risque c’est de rendre disponible des informations de santé de quelque nature qu’elles soient en dehors du circuit de santé et de soin !
Faire de la science !
Face à cette crise, face aux défauts de l’industrie et de la mondialisation qu’elle a révélée tout cru, face à des flux trop tendus, à une compétition encore plus acharnée que jamais, et en attendant que l’industrie parvienne à nouveau à répondre à nos besoins mondiaux, notre seul recours reste la débrouille et la science ! La débrouille, car il risque de falloir faire longtemps avec ce qu’on a. Ou plutôt ce qu’on n’a pas : ni masques, ni tests, ni vaccins !
L’application ne soignera pas. Il va falloir retourner au contact ! Trouver les malades. Les diagnostiquer. Les traiter, enquêter pour remonter les contaminations. “Je ne sais pas faire porter un masque à un point” dit très justement l’épidémiologue Renaux Piarroux. Le confinement va nous donner un répit. Il va nous permettre de faire ce que nous aurions dû faire depuis le début : diagnostiquer et traiter, surveiller et isoler, enquêter pour trouver les personnes en contact… Pour cela, nous ne partirons pas de rien : nous avons Covidom et les techniques de l’enquête épidémiologique. Faire un lent et patient travail que le numérique ne peut pas faire. Modestement. Courageusement. Patiemment.
****
Le numérique ne peut pas tout ! Alors qu’on y a recours comme jamais depuis le confinement, cette crise nous montre que le numérique ne livre pas les produits des Drive, ni n’assure la continuité pédagogique. Il ne repère pas non plus les malades ni ne le soigne. Pour cela aussi, nous avons encore besoin des hommes, des femmes, des premiers de cordée, ceux qui sont aux avant-postes, ceux qui sont essentiels, les irremplaçables («la responsabilité suppose une exigence d’irremplaçabilité”, disait la philosophe Cynthia Fleury).
La fin du confinement est l’occasion d’un recommencement stratégique. Recommençons convenablement : suivons les cas, isolons-les, enquêtons sur leurs relations. Trouvons-les asymptotiques. Surveillons les températures. Testons si c’est possible ! Revenons-en à la science, c’est la seule qui ait fait ses preuves ! Faisons confiance à la débrouille et accueillons là au mieux.
Ce que nous devons garantir en tant que société : c’est que les informations de santé demeurent des informations de santé. Que l’état de chacun face au Covid n’a pas à être communiqué : ni aux entreprises, ni à la police, ni aux employeurs, ni aux voisins ! La santé doit rester à la médecine et la médecine ne doit pas devenir la police. Devant un homme malade, on ne doit pas mettre une application, mais bien un soignant.
Il va nous falloir accepter que tous nos remèdes contre le virus soient imparfaits, qu’aucun ne soit radical. Il va nous falloir apprendre à vivre avec les mauvaises herbes des coronavirus. Il va nous falloir faire avec, car nous n’aurons pas de solutions magiques et immédiates : ni tests à foison, ni masques, ni application magique !
Nous avons besoin de science, d’intelligence, de coopération et de réassurance. Il faut arrêter de terroriser les gens par des discours changeants, mais les aider à grandir et comprendre, comme le souligne, énervé, François Sureau. Ni les injonctions, ni la peur, ni le moralisme ne nous y aideront.
Une chose me marque beaucoup depuis le début de cette pandémie, c’est la colère et l’angoisse des gens, non seulement face à un confinement inédit, face à l’inquiétude d’une crise sans précédent qui s’annonce, mais surtout terrifié par la crainte de chopper ce terrible virus dont on leur parle en continu. Une inquiétude qui n’a cessé d’être aggravée par les injonctions contradictoires des autorités, par les changements de stratégies, les annonces démenties, les promesses non tenues, les retards dans les prises de décision… et plus encore les décisions infantilisantes, sans explications, voire prises en dépit du bon sens épidémique. Une population inquiète parce ce que nous savons que cette crise va durer longtemps et que nous n’avons aucune solution facile et immédiate à disposition. Une population angoissée par la perspective que la pandémie puisse faire 20 millions de morts sur la planète, 230 000 personnes en France (selon le taux de létalité de 0,37% : 230 000 morts, c’est ⅓ de la mortalité annuelle du pays — 600 000 morts par an). Une population rongée à l’idée de se retrouver seule et démunie à l’image de nos aînés, dont les derniers moments nous sont cachés, confisqués à leurs proches, d’une manière foncièrement inhumaine.
Nous avons besoin de décisions claires et sincères, d’explications qui aident à grandir et à comprendre. Nous en sommes loin ! Beaucoup trop loin ! Et j’avoue que de semaine en semaine, c’est ce qui m’inquiète le plus !
Hubert Guillaud
Technologies de crise, mais avec la démocratie
|
Le scénario d’une accentuation dramatique de la surveillance de masse est déjà sur la table, il suffit de jeter un œil à l’actualité planétaire de la pandémie pour s’en rendre compte.
Pistage des déplacements géolocalisés, reconnaissance faciale, restriction des droits individuels les plus élémentaires, la technopolice qui partout se déploie est d’autant plus inquiétante qu’elle se légitime par la nécessité d’une lutte contre la crise sanitaire. Dès qu’il s’agit de sauver des vies (et la nôtre en particulier) il semble que tout passe au second plan. Après la pédopornographie, le cyberharcèlement, le terrorisme, c’est aujourd’hui la crise sanitaire qui est le cheval de Troie de la surveillance.
Pourtant, comme le montre la prise de position de l’association sans but lucratif Algorithmwatch que nous avons traduite ci-dessous, la démocratie et le respect de la vie privée ne sont nullement incompatibles avec le déploiement de technologies dédiées à la lutte contre la crise sanitaire. Cela nécessite cependant une résistance citoyenne coordonnée…
Alors que la pandémie de COVID-19 fait rage partout dans le monde, nombreux sont ceux qui se demandent s’il faut mettre en œuvre des systèmes automatisés de prise de décision (N.D.T. : en français, on parle de SIAD) pour y mettre un frein et, si oui, selon quelles modalités.
Différentes solutions sont proposées et mises en œuvre, qui vont des mesures autoritaires de contrôle de la population prises par la Chine jusqu’à des solutions décentralisées, orientées vie privée, comme l’application Safe Path du MIT.
Ci-après nous présentons un ensemble de principes possibles et de réflexions pouvant servir de base à une réflexion utile, démocratique et bien informée sur l’utilisation de systèmes SIAD dans le cadre de l’actuelle pandémie.
1. Le COVID-19 n’est pas un problème technologique. L’étude des réponses concrètes à la pandémie montre que les interventions efficaces prennent toujours racine dans des politiques de santé publique globales. Singapour, la Corée du Sud et Taïwan, fréquemment cités en exemple pour leur gestion de l’épidémie, avaient chacun un plan d’action en place, souvent conçu après l’épidémie de SRAS de 2003. Être prêt à affronter une épidémie va bien au-delà des seules solutions techniques : cela suppose des ressources, des compétences, de la planification, ainsi que la volonté politique et la légitimité pour les déployer lorsque c’est nécessaire.
2. Il n’y a pas de solution toute faite pour répondre à l’épidémie de COVID-19. Pour gagner le combat contre le virus, il faut combiner tests, traçage des contacts et confinement. Cependant, chaque contexte est unique. Un pays dans lequel le virus a circulé pendant des mois sans être détecté (comme l’Italie) n’est pas dans la même situation qu’un pays qui a identifié très tôt les porteurs du virus (comme la Corée du Sud). Les différences sociales, politiques et culturelles jouent également un rôle important lorsqu’on cherche à faire appliquer des politiques de santé publique. Cela signifie que la même solution peut aboutir à des résultats très différents selon les contextes.
3. Par conséquent, il n’y a aucune urgence à mettre en place une surveillance numérique de masse pour lutter contre le COVID-19. Il ne s’agit pas que d’une question de vie privée – quoique la vie privée soit un droit fondamental qui mérite d’être protégé. Avant même d’envisager les conséquences des applications de traçage numérique des contacts, par exemple en termes de protection des données personnelles, nous devrions nous demander : est-ce que cela fonctionne ? Or les résultats tirés de la littérature scientifique sur les épidémies antérieures sont mitigés, et dépendent éminemment du contexte. La protection des droits doit être mise en regard des bénéfices attendus (sauver des vies). Mais sacrifier nos libertés fondamentales est inutile si l’on n’en retire aucun bénéfice.
4. Les mesures de confinement devront prendre fin à un moment ou à un autre. Nous devons essayer d’imaginer comment revenir à la « normale ». La plupart des scénarios impliquent une sorte de surveillance numérique qui paraît indispensable si l’on prend en considération les aspects spécifiques du COVID-19 : existence de patients asymptomatiques pouvant être contagieux, période d’incubation de 14 jours, absence de tout remède ou vaccin à l’heure actuelle. Les acteurs de la société civile doivent être prêts à participer à la discussion sur les solutions de surveillance envisagées, afin de favoriser l’émergence d’approches appropriées.
5. La protection contre le COVID-19 et la protection de la vie privée ne s’excluent pas l’une l’autre. Les solutions comme celle que le MIT a développée (les Safe Paths) ou la plate-forme baptisée PEPP-PT (Pan-European Privacy Preserving Proximity Tracing) permettront un « contact tracing » numérique dans le cadre d’une approche ouverte et décentralisée, plus respectueuse des droits des personnes. C’est la solution que certains pays comme Singapour ont retenue pour traiter la question (via l’appli “TraceTogether”) contrairement à l’approche qui a été choisie par la Corée du Sud et Israël.
6. Toute solution doit être mise en œuvre d’une manière respectueuse de la démocratie. La démocratie n’est pas un obstacle à la lutte contre la pandémie : c’est au contraire le seul espoir que nous ayons de prendre des mesures rationnelles et qui respectent les droits de chacun. La plus haute transparence est nécessaire en ce qui concerne 1) les solutions technologiques à l’étude, 2) les équipes d’experts ou les institutions ad hoc créées pour les étudier, 3) les preuves qui justifient leur mise en œuvre, 4) les acteurs chargés de les implémenter et les déployer, en particulier si ce sont des acteurs privés. Seule une parfaite transparence pourra garantir que la société civile et les parlementaires sont en mesure de contrôler l’exécutif.
7. L’usage massif des données qui résulte du développement de systèmes automatisés d’aide à la décision dans le cadre de la lutte contre le virus va conduire à discriminer de nouvelles catégories sociales. Les pouvoirs publics doivent empêcher toute stigmatisation des personnes qui seraient classées dans les mauvaises catégories et veiller au respect des droits de ceux qui n’obtiennent pas de scores suffisamment élevés sur les échelles qui sont utilisées, notamment pour ce qui est du tri dans le système de santé.
8. Même si les systèmes de surveillance numérique prouvent leur utilité, ils doivent être mis en œuvre dans le strict respect des principes de protection des données : comme le Comité européen de la protection des données l’a précisé récemment, il convient de respecter les principes de nécessité, de proportionnalité, de pertinence et du droit en général même en cas d’urgence de santé publique. Tout citoyen doit être en mesure de faire appel d’une décision prise par un système automatique concernant le COVID-19 (en particulier les applications qui déterminent si une personne a été en contact avec une personne contaminée et si celle-ci doit être mise en quarantaine). Les gouvernements et les entreprises qui contractualisent avec eux doivent respecter le RGPD.
9. Les systèmes automatisés d’aide à la décision qui existent déjà ne devraient pas être adaptés pour être mis en œuvre dans le cadre de la pandémie actuelle. En effet, ces systèmes, qui reposent sur des données d’apprentissage anciennes, ne peuvent pas, de ce fait, supporter un changement soudain des conditions dans lesquelles ils sont déployés. La police prédictive, l’aide automatisée aux juges, l’évaluation de la solvabilité et les évaluations issues d’autres SIAD pourraient produire des résultats beaucoup éloignés des intervalles habituels (par exemple en raison des taux d’erreur). Il faudrait de toute urgence les vérifier, voire en suspendre l’utilisation.
10. Par définition, une pandémie touche la planète entière. Il est nécessaire d’y répondre à l’aide d’un ensemble de réponses globales, diverses et coordonnées. Ces réponses devraient être surveillées par un réseau mondial d’organisations de la société civile travaillant main dans la main. Les précédentes crises ont montré que les situations d’urgence fournissent à certains leaders politiques peu scrupuleux une excuse pour légitimer la mise en place d’infrastructures de surveillance de masse qui violent, inutilement et indéfiniment, les droits des citoyens. La résistance (partiellement) victorieuse n’a été possible que lorsque celle-ci a été globale, coordonnée et bien construite, avec des précisions et des preuves solides de notre côté.
11. Et enfin, nous devons nous assurer que ce débat sur la surveillance pendant le COVID-19 ne se déroule pas dans le vide. Certains SIAD, en particulier la reconnaissance faciale, ont déjà prouvé qu’ils étaient problématiques. L’état d’urgence sanitaire actuel ne peut pas être invoqué pour justifier leur déploiement : bien au contraire, tous les problèmes signalés « en temps ordinaire » – le manque de précision, les biais systématiques dans leur mise en œuvre, des préoccupations plus larges concernant les abus possibles de données biométriques, etc. – deviennent encore plus aigus lors de moments exceptionnels, quand la santé et la sécurité de chacun sont en jeu. Nous devons non seulement veiller à ce que ce débat crucial ne soit pas confisqué par les technologues ou les technologies, mais aussi nous assurer que les technologies concernées aient prouvé qu’elles profitent à la société. La mise entre parenthèses des communications en chair et en os donne une occasion de procurer en ligne encore plus de services sociaux et autres services de base, là où les SIAD remplacent souvent les travailleurs sociaux. Cela pourrait avoir des conséquences catastrophiques pour les citoyens qui n’ont pas d’accès aux outils numériques ou aucun moyen de les comprendre avec un recul critique. Nous devons nous assurer que cela n’arrivera pas.
Auteur principal : Fabio Chiusi, avec la collaboration de Nicolas Kayser-Bril
Aujourd’hui, Gee et ses grises bouilles nous causent de reconnaissance faciale, un sujet évoqué par le gouvernement entre le foie gras et la dinde de Noël comme si de rien n’était…
Paris, Lyon, Toulouse, Bordeaux… et quelques autres métropoles régionales sont animées par des associations libristes actives et efficaces : réunions régulières, actions de terrain, conférences et rencontres… Mais dans les villes moyennes ça bouge aussi.
À l’ouest par exemple, entre Nantes, Quimper ou Brest, beaucoup de projets et d’initiatives sont déjà en place et parfois depuis longtemps. Mais ce sont les habitants de Lannion qui ont récemment pu bénéficier d’un premier Café Vie Privée, un événement qui a connu un beau succès (oui, l’évènement était accueilli au Truc café, ça ne s’invente pas…). Bravo aux organisateurs et organisatrices !
… et puis il y avait aussi la conférence de Clochix, dont il avait préparé le détail sur son blog Gribouillis dans les marges et que nous reprenons ici avec son accord.
Comme il est modeste, il nous signalait ne rien mentionner d’original, et en effet on retrouvera ici des indications et recommandations dont sont familiers les conférenciers libristes. Cependant, il nous a semblé qu’il abordait une question cruciale classique (comment protéger sa vie privée numérique) selon une démarche plus originale : il commence en effet par tracer les contours de notre intimité numérique avant de définir le « modèle de menace » auquel chacun⋅e s’expose potentiellement. La liste de ses exemples est assez riche… C’est seulement alors que peuvent venir les mesures ou plutôt contre-mesures dont nous pouvons disposer, et pas seulement à titre individuel, en ayant pleine conscience de leurs limites.
Hygiène et écologisme numérique
Avatar de Clochix
Remarque liminaire : je préfère parler plutôt d’intimitéque de vie privée. On a parfois l’impression que la vie privée ne concerne que les personnes publiques ou les gens qui ont des choses à cacher. En parlant d’intimité, j’espère que davantage de gens se sentent concerné·e·s.
En réfléchissant à ce que j’allais conseiller pour protéger son intimité, je me suis rendu compte que j’abordais le problème à l’envers. Parler de techniques et d’outils pour protéger son intimité n’est que la dernière étape du processus, avant d’en arriver là, il faut d’abord réfléchir à ce que l’on veut protéger et de qui ou quoi on veut le protéger.
Qu’est-ce que l’intimité numérique et pourquoi la protéger ?
L’intime est ce qui nous définit en tant qu’individus et motive une grande partie de nos actes.
L’intimité, c’est un endroit où l’on est seul avec soi-même (ou avec un nombre très restreint de personnes en qui on a confiance), et qui nous permet, à l’abri de tout regard, de tout jugement externe, de se construire, d’exister, de prendre des décisions, etc.
L’intimité, ce sont aussi nos rêves, et les carnets où parfois on les note. Ce sont nos projets fous que l’on élabore dans notre tête longtemps avant d’oser en parler à quiconque. Et qui ne pourraient pas naître à la lumière.
L’intimité n’a rien à voir avec des actions illicites.
L’intimité, ce sont aussi des choses sans conséquence mais dont on a un peu honte. Se curer le nez, roter, ce sont des choses que l’on s’autorise lorsqu’on est seul chez soi, mais qu’on peut avoir honte de voir exposer sur la place publique. Imaginez l’inconfort d’être dans une cellule de prison où vous devez faire vos besoins au vu et au su de vos co-détenu·e·s. Être privé⋅e d’intimité déshumanise, affecte l’image que l’on a de soi.
Dernier exemple de lieu intime : l’isoloir. Il est depuis longtemps acquis que le secret du vote est important dans une démocratie. Il est vital d’avoir la possibilité que certaines choses restent secrètes.
L’intimité numérique, ce sont toutes les traces de notre intimité sur des outils numériques. C’est naturellement notre correspondance, les informations qui révèlent directement nos pensées intimes. Mais c’est aussi tout ce qui, de manière plus large, permet indirectement, par des recoupements, d’accéder à notre intimité. Nos recherches en ligne, nos achats, nos rendez-vous médicaux, nos errances dans la rue (« tiens, il fait souvent un détour pour passer dans la rue où habite X, cherche-t-il à lae croiser ? »). Nos téléphones qui suivent chacune de nos activités permettent de savoir si nous fréquentons un lieu de culte, un local syndical ou un bar, et à quelle fréquence…
L’intimité est un besoin vital pour les humains, en être privé nous prive d’une partie de notre humanité. En être privé, être toujours sous la menace du regard et du jugement d’autrui, c’est perdre la capacité de penser par soi-même, d’exister, de se comporter en tant qu’individu indépendant, autonome. Priver les citoyen·ne·s d’intimité est une des caractéristiques des régimes totalitaires qui cherchent à nier les individualités pour ne gérer que des robots déshumanisés.
Protéger son intimité est donc essentiel. Mais il faut aussi veiller à ce que la société garantisse à chacun et chacune le droit à l’intimité.
Ok, mais de qui ou de quoi faut-il la protéger ?
Les menaces sur notre droit à l’intimité sont très nombreuses, selon les contextes. Attention, il ne faut pas croire que sont uniquement le fait de gens qui cherchent explicitement à nous nuire. En fait, l’essentiel des risques n’est pas lié à la malveillance, mais à la simple utilisation de nos données pour influencer notre vie. Petite liste non exhaustive :
votre employeur actuel : pour avoir certaines conversations avec des collègues, mieux vaut éviter d’utiliser les outils internes de l’entreprise ;
vos futurs employeurs : celleux-ci pourraient apprécier de différentes manières de découvrir sur notre fil Facebook que l’on participe à toutes les journées de grève et applaudit aux actions des syndicats 😉
vos proches : compagnon ou compagne qui pourrait être blessé·e de découvrir que l’on discute encore avec ses « ex ». Ados ne souhaitant pas que leurs parents écoutent leurs conversations avec leurs potes ou connaissent les sites qu’ils consultent (« pourquoi as-tu fait des recherches sur la contraception ??? ») ;
le harcèlement : le phénomène est de plus en plus courant, dans les cours de récréation comme parmi les adultes. Si pour une raison quelconque vous devenez la cible de harcèlement, toutes les informations disponibles en ligne sur vous pourront être utilisées contre vous. Votre adresse, pour vous menacer. Vos proches, pour s’en prendre à elleux… Personne n’est à l’abri, et ça peut être très violent ;
des escrocs : les informations que l’on peut trouver en ligne sur nous peuvent permettre à des escrocs d’usurper notre identité, pour nous faire payer leurs amendes, pour souscrire des services à notre place, pour escroquer nos proches en se faisant passer pour nous, etc ;
du marketing : plus quelqu’un nous connait, plus iel sera en mesure d’influencer nos actes, voire nos opinions, par exemple pour nous pousser à acheter une marchandise dont on n’avait pas forcément besoin, ou à voter pour un·e candidat·e dont on n’avait pas forcément besoin ;
des décisions nous concernant prises en se fondant sur ce que l’on sait ou croit savoir de nous (« gouvernance algorithmique »). Si vous avez été malade et avez évoqué cette maladie sur Internet, une banque pourra des années plus tard vous refuser un prêt, une assurance pourra vous faire payer des primes supérieures… Imaginez qu’un site collecte l’ensemble de nos rendez-vous médicaux, imaginez le nombre de décisions qui pourraient être prises à notre insu à partir de ces informations par un employeur (« elle vient de tomber enceinte, ne lui proposons pas de CDI »), un banquier (« il consulte un psy donc n’est pas stable, refusons-lui ce prêt »)…
de l’état : avoir un aéroport ou une usine chimique qui veut s’installer dans notre jardin, ça peut arriver à tout le monde. Tout le monde peut avoir un jour ou l’autre besoin de devenir ZADiste et de s’organiser contre le pouvoir en place, pas besoin d’habiter en Chine pour cela ;
…
Chacun de ces exemples appelle une réponse particulière et certaines réponses sont parfois contradictoires. Par exemple, GMail offre un bon niveau de protection des correspondances contre les attaques de gens de notre entourage, employeur, conjoint·e, etc. En revanche, il sera obligé de répondre aux demandes de la justice. Héberger ses courriels chez des potes peut-être une bonne idée si on participe à une ZAD. Par contre selon leurs compétences en informatique, la sécurité sera peut-être moindre. Et en cas d’embrouille avec elleux, iels pourraient accéder à nos informations.
Donner de fausses informations en ligne peut relativement nous protéger des tentatives d’influencer nos actes. Mais peut aussi nous nuire le jour où des décisions nous concernant seront prises en se basant sur ces informations.
Et pour protéger son intimité, il faut adopter quelques règles d’hygiène. Mais pour cela il faut d’abord définir son « modèle de menace », c’est à dire ce qui selon vous menace le plus votre intimité, afin de choisir des solutions qui répondent à vos besoins.
Hygiène pour vous… et pour les autres
L’hygiène n’est pas qu’une pratique égoïste. On ne se lave pas les mains juste pour éviter de tomber malade, mais aussi pour éviter de contaminer les autres. Il en va de même pour l’hygiène numérique. Même si vous ne vous sentez pas concerné·e, peut-être aurez-vous envie d’adopter certaines règles d’hygiène par respect ou affection pour vos proches qui se sentent concerné. Par exemple, si vous permettez à une application ou un site Web d’accéder à votre carnet d’adresse, vous divulguez sans leur consentement des données personnelles sur vos proches. Si un·e ami⋅e m’a référencé dans son répertoire téléphonique en tant que Clochix et un·e autre en tant que Papa-de-XXXX, un site accédant à ces deux répertoires pourra faire le lien entre mes différentes identités et anéantir les efforts que je fais pour me protéger.
Si vous mettez en ligne des photos de vos proches, vous perdez le contrôle sur ces photos et ne savez pas quels usages pourront en être faits demain.
Avoir de l’hygiène, c’est donc aussi protéger ses proches, ses collègues…
De l’hygiène individuelle à l’écologisme
Parmi les risques évoqués plus haut, certains nous concernent directement. D’autres affectent plus globalement la société dans son ensemble, par exemple lorsque nos informations sont utilisées à grande échelle pour influencer nos votes. Il est possible que les élections d’Obama et de Trump, entre autres, aient été influencées par des outils se basant sur la masse d’informations que nous laissons en ligne.
La surveillance de masse, qu’elle soit réelle ou supposée, nous pousse à l’auto-censure. Est-ce que si je cherche « Daesh » sur Internet, je ne vais pas devenir suspect ? Est-ce qu’une opinion exprimée aujourd’hui sur Twitter dans un certain contexte ne pourra pas être exhumée demain, dans un autre contexte, et me nuire ? Tout cela pousse à l’auto-censure et sclérose peu à peu le débat démocratique.
Un autre risque est ce que l’on appelle les bulles de filtres, même si leur existence fait débat. Une bulle de filtres, c’est lorsque tous les sites que nous consultons détectent les informations qui nous plaisent et ne nous affichent plus que celles-ci. Cela nous donne du monde une vision biaisée.
Ces enjeux dépassent donc largement nos situations individuelles.
Lorsqu’on parle d’hygiène, on pense d’abord à des mesures de protection individuelles, comme se laver les mains ou bloquer les cookies. Mais il ne faut pas oublier que l’hygiène est aussi un enjeu collectif : « l’hygiène est un enjeu de santé publique, l’accès à un environnement propre et sain étant une condition première du développement durable. » (Wikipédia). L’hygiène numérique ne peut donc se limiter à des actions reposant sur les individus, ça n’est pas seulement de notre responsabilité. Il faut aussi penser ces questions et prendre des mesures au niveau de la collectivité. Et, de manière plus globale, il faudrait réfléchir à la notion d’écologisme numérique. L’espace numérique fait partie intégrante de l’environnement dans lequel évolue l’espèce humaine, et comme tel doit être protégé.
Ok et à présent, qu’est-ce qu’on fait ?
Il n’y a pas d’outils magiques. Utiliser des outils sans avoir un minimum de compréhension du contexte technique, c’est se tirer pratiquement à coup sûr une balle dans le pied. Un faux sentiment de sécurité incite à l’imprudence. C’est comme croire qu’une fois la porte fermée on peut se promener à poil chez soi, parce qu’on ignore l’existence des fenêtres.
La meilleure des protections, c’est l’éducation. C’est acquérir une compréhension du fonctionnement des outils numériques. Connaître les techniques qui permettent de porter atteinte à notre intimité. Les techniques qui, à partir de nos informations intimes, permettent de nous influencer ou de décider de nos vies. Donc : éduquons-nous !
Il ne faut pas se le cacher, se protéger demande une vigilance de tous les instants, souvent épuisante. Il faut donc être convaincu·e de l’importance d’adopter une certaine discipline.
La seule information qui ne pourra pas être utilisée, c’est celle qui n’existe pas (et encore…). Il faut donc selon moi essayer de réduire au maximum son empreinte, les traces que l’on laisse. Le numérique permet de compiler une foule d’informations insignifiantes pour en extraire du sens. Avoir accès à un de vos tickets de caisse ne dit pas forcément grand-chose de vous. Avoir accès à tous vos tickets de caisse permet de connaître votre situation familiale (« tiens, iel achète des gâteaux pour enfants une semaine sur deux ») ou financière, vos convictions (« iel a arrêté d’acheter de la viande de porc et de l’alcool, signe de radicalisation… »). C’est donc une gymnastique quotidienne pour essayer de réduire au maximum ce que l’on dévoile : bloquer systématiquement tous les cookies sauf pour les sites sur lesquels c’est indispensable (et c’est là qu’on en vient à la nécessaire compréhension du fonctionnement), refuser si possible les cartes de fidélité, désactiver le Wifi et le Bluetooth sur son téléphone lorsqu’on ne les utilise pas… C’est une gymnastique contraignante.
Essayez aussi de compartimenter : si vous tenez un carnet Web sur un sujet polémique, essayez d’éviter qu’on puisse faire le lien avec notre état civil (sur le long terme, c’est très très difficile à tenir). A minima, avoir plusieurs profils / plusieurs adresses mail, etc, et ne pas les lier entre elles permet de réduire les risques. Quelqu’un qui vous ciblera pourra faire le lien, mais les programmes de collecte automatique de données ne chercheront pas forcément à recouper.
Compartimentez aussi vos outils : par exemple, utilisez deux navigateurs différents (ou un navigateur avec deux profils) : dans l’un, bloquez tout ce qui permet de vous pister et accédez aux sites qui n’ont pas besoin de savoir qui vous êtes. Utilisez l’autre, moins protégé, uniquement pour les sites nécessitant une connexion (webmail, réseaux sociaux, etc.).
Méfiez-vous comme de la peste des photos et des vidéos. De vous, de vos proches, de quiconque. Demain, en cherchant votre nom, il sera possible de vous identifier sur cette photo prise voilà 20 ans où vous montriez vos fesses. Avez-vous vraiment envie que vos enfants vous voient ainsi ? Demain, en cherchant le nom de votre enfant, ses camarades de classe pourront retrouver une vidéo de ellui à deux ans sur le pot. Hier vous trouviez cette photo adorable, aujourd’hui elle va lui valoir des torrents de moqueries.
Contre la malveillance, il faut naturellement utiliser des pratiques et outils qui relèvent davantage de la sécurité informatique : par exemple des mots de passe complexes, différents pour chaque service.
Pour aller plus loin, je vous encourage à vous renseigner sur le chiffrement : de vos communications, de vos données. Attention, le chiffrement est un sujet relativement complexe, ça n’est à utiliser qu’en ayant une idée précise de ce que vous faites.
Et, naturellement, portez en toutes circonstances un chandail à capuche noir et une cagoule, histoire de rester discret.
Et pour terminer, parce que nous ne sommes que des nains sur l’épaule de géants, une citation que je vous laisse méditer :
« la solution est forcément dans une articulation entre politique (parce que c’est un problème de société) et technique (parce que les outils actuels le permettent). Et il faut bien les deux volets, un seul, ça ne sert à rien. »
(Benjamin Bayart).
21 degrés de liberté – 21
|
Dans ce bilan de nos degrés de liberté perdus, il est question de déterminer les responsabilités et de réaffirmer la nécessité de lutter collectivement contre la menace d’extinction des droits que nous avions crus acquis.
Voici le dernier article de la série écrite par Rick Falkvinge. Le fondateur du Parti Pirate suédois récapitule, comme dans les épisodes précédents que nous vous avons déjà livrés, la perte des libertés dont nous disposions encore assez récemment, avant que le passage au tout-numérique ne nous en prive.
Conclusion : la vie privée est menacée d’extinction dans notre monde numérique
Dans une série de billets sur ce blog, nous avons montré que quasiment tout ce que nos parents tenaient pour acquis en rapport avec la vie privée a été complètement éliminé pour nos enfants, au simple motif qu’ils utilisent des outils numériques plutôt qu’analogiques ; et les personnes qui interprètent les lois disent que la vie privée ne s’applique qu’aux anciens environnements analogiques de nos parents.
Une fois d’accord avec le constat que la vie privée semble simplement ne plus s’appliquer pour nos enfants, uniquement parce qu’ils vivent dans un environnement numérique et non analogique comme celui de nos parents, la surprise devient choc puis colère et on a très envie de rendre quelqu’un responsable de la suppression de cinq générations de lutte pour les droits civiques pendant que les gens regardaient ailleurs.
À qui la faute, donc ?
On peut mettre ici plus d’un acteur en cause, mais une partie du blâme revient à l’illusion que rien n’a changé, simplement parce que nos enfants du numérique peuvent utiliser les technologies obsolètes et démodées pour obtenir les droits qu’ils auraient toujours dû avoir par la loi et la constitution, quelle que soit la méthode par laquelle ils parlent à leurs amis et exercent leurs droits à la vie privée.
Nous avons tous entendu ces excuses.
« Vous avez toujours le secret de la correspondance, il vous suffit d’utiliser la bonne vieille lettre analogique ». Comme si la génération Internet allait le faire. Vous pourriez aussi bien dire à vos parents d’envoyer un télégramme pour bénéficier de droits élémentaires.
« Vous pouvez toujours fréquenter librement la bibliothèque. » Certes, uniquement si elle est analogique, pas numérique comme The Pirate Bay, qui ne se différencie d’une bibliothèque analogique que par son efficacité, et par rien d’autre.
« Vous pouvez encore discuter de ce que vous voulez. » Oui, mais seulement dans une rue ou une place analogique, pas dans les rues ou carrefours numériques.
« Vous pouvez encore sortir avec quelqu’un sans que le gouvernement ne connaisse vos préférences. » Seulement si je préfère sortir avec quelqu’un de la manière dont nos parents le faisaient, dans le monde analogique risqué, à comparer au monde numérique sûr où les prédateurs s’évanouissent d’un clic sur le bouton « bloquer », une possibilité que nos parents n’avaient pas dans des bars douteux.
Les lois ne sont pas différentes pour l’analogique et le numérique. La loi ne fait pas de différence entre l’analogique et le numérique. Mais aucune loi n’est au-dessus des personnes qui vont l’interpréter dans les prétoires, et la manière dont les gens interprètent ces lois signifie que les droits à la vie privée s’appliquent toujours au monde analogique, mais jamais au monde numérique.
Ce n’est pas sorcier d’exiger que les mêmes lois s’appliquent hors ligne et en ligne. Ceci inclut les lois concernant le droit d’auteur, ainsi que le fait que le secret de la correspondance est supérieur au droit d’auteur (en d’autres termes, il est interdit d’ouvrir et d’examiner une correspondance privée pour des infractions dans le monde analogique, pas sans mandat individuel et préalable – nos textes de lois sont pleins de ces pouvoirs et contre-pouvoirs ; ils devraient s’appliquer au numérique aussi, mais ne le font pas aujourd’hui).
Pour revenir sur le blâme, voici un protagoniste : l’industrie du droit d’auteur. Leurs représentants ont soutenu avec succès que leurs lois monopolistiques devraient s’appliquer en ligne exactement comme elles s’appliquent hors ligne et ce faisant ont complètement ignoré les pouvoirs et contre-pouvoirs qui s’appliquent à leurs lois monopolistiques dans le monde analogique. Et puisque la copie de films et de musiques s’est déplacée vers les mêmes canaux de communication que ceux que nous utilisons pour la correspondance privée, le monopole du droit d’auteur en tant que tel est devenu fondamentalement incompatible avec la correspondance privée.
L’industrie du droit d’auteur est consciente de ce conflit et a continuellement poussé à dégrader et éliminer la vie privée pour soutenir à toute force ces monopoles obsolètes et qui tombent en ruine. Par exemple en promouvant la détestable Directive sur la conservation des données (maintenant clairement invalidée par les tribunaux) en Europe. Ils utilisent cette loi fédérale (ou son équivalent européen) pour littéralement obtenir davantage de pouvoir que la police pour poursuivre des particuliers qui partageaient simplement de la musique et des films, qui les partageaient comme tout le monde le fait.
Il y a deux autres facteurs majeurs à l’œuvre. Le deuxième est le marketing. Si nous sommes suivis pas à pas dans les aéroports et autres centres commerciaux, c’est simplement pour nous vendre encore d’autres trucs dont on n’a pas besoin. Ceci au prix de la vie privée que nos parents analogiques tenaient pour acquise. Et on ne parle même pas de Facebook ou Google.
Enfin et surtout il y a les faucons de la surveillance – les politiciens qui veulent paraître « durs contre le crime », ou « impitoyables contre le terrorisme », ou tout autre élément de langage de la semaine. C’est eux qui ont insisté pour que la Directive sur la conservation des données devienne une loi. Et c’est l’industrie du droit d’auteur qui en fait l’a écrite pour eux.
Ces trois facteurs conjoints ont été largement mis à contribution.
Cela va être une longue et difficile bataille pour regagner les libertés qui ont été gagnées petit à petit par nos ancêtres sur à peu près six générations, et ont quasiment été abolies en une décennie.
Il n’est pas délirant de demander que nos enfants aient dans leur environnement numérique au moins l’ensemble des droits civiques dont nos parents bénéficiaient à l’ère analogique. Et pourtant, cela ne se passe pas comme ça. Nos enfants ont raison de demander des droits à la vie Privée équivalents aux analogiques – les droits civiques dont nos parents non seulement bénéficiaient, mais qu’ils tenaient pour acquis.
J’ai peur que n’avoir pas su transmettre ces droits civiques à nos enfants ne soit considéré comme le plus grand échec de la génération actuelle, quels que soient les progrès accomplis par ailleurs. Une société qui repose sur la surveillance généralisée peut s’imposer en dix ans seulement, mais peut prendre des siècles à défaire.
La vie privée reste votre propre responsabilité aujourd’hui. Nous devons tous la reconquérir, simplement en exerçant nos droits, avec tous les outils à notre disposition.