Opposez-vous à Chat Control !

Sur ce blog, nous transposons régulièrement différents points de vue concernant les luttes pour les libertés numériques. Dans ce domaine, on constate souvent que les mouvements sociaux (solidariste, durabilistes, préfiguratifs, etc.) ne prennent que trop rarement en compte les implications directes sur leurs propres luttes que peuvent avoir les outils de surveillance des États et des entreprises monopolistes. Cela rend toujours plus nécessaire une éducation populaire d’auto-défense numérique… Du côté des mouvements autonomes et anti-autoritaires, on ressent peu ou prou les mêmes choses. Dans les groupes européens, le sujet du capitalisme de surveillance est trop peu pris en compte. C’est du moins l’avis du groupe allemand Autonomie und Solidarität qui, à l’occasion du travail en cours au Parlement Européen sur l’effrayant et imminent projet Chat Control (voir ici ou ), propose un appel général à la résistance. L’heure est grave face à un tel projet autoritaire (totalitaire !) de surveillance de masse.

Cet appel a été publié originellement en allemand sur Kontrapolis et en anglais sur Indymedia. (Trad. Fr. par Framatophe).

Opposez-vous à Chat Control !

Une minute s’il vous plaît ! Chat Control ? C’est quoi ? Et pourquoi cela devrait-il nous intéresser en tant qu’autonomes et anti-autoritaires ?

Chat Control est le projet de règlement de l’Union Européenne portant sur la prévention et la protection des enfants contre les abus sexuels. Il a été reporté pour le moment, mais il risque d’être adopté prochainement1.

Ce projet de loi est une affaire assez grave pour plusieurs raisons2.

Avec Chat Control, les autorités publiques seront autorisées à scanner, analyser et lire automatiquement les contenus des communications privées en ligne de tous les utilisateur·ices. Cela se fera via une contrainte sur les fournisseurs de chat tels que Signal, Threema, Telegram, Skype, etc.3, soit par ce qu’on appelle une analyse côté client (Client Side Scanning). Les messages et les images seraient alors lus directement sur les terminaux ou les dispositifs de stockage des utilisateur·ices. Et cela avant même qu’ils soient envoyés sous format chiffré ou après leur réception, une fois déchiffrés.

C’est précisément ce que l’UE souhaite atteindre, entre autres, avec Chat Control : rendre les communications chiffrées inutiles. Les services de renseignement, les ministères de l’Intérieur, les autorités policières, les groupes d’intérêts privés et autres profiteurs du capitalisme de surveillance, ont en effet depuis longtemps du mal à accepter que les gens puissent communiquer de manière chiffrée, anonyme et sans être lus par des tiers indésirables.

Pourtant, la communication chiffrée est très importante. Face aux répressions de l’État, elle peut protéger les millitants, les opposant·es et les minorités. Elle sert aussi à protéger les sources et les lanceur·euses d’alerte, et rendre également plus difficile la collecte de données par les entreprises.

Comme si l’intention d’interdire ou de fragiliser le chiffrement n’était pas déjà assez grave, il y a encore pas mal d’autres choses qui nous inquiètent sérieusement avec Chat Control. Ainsi, l’introduction de systèmes de blocage réseau4 est également en discussion. Plus grave encore, l’obligation de vérifier l’âge et donc de s’identifier en ligne. Cela aussi fait explicitement partie du projet. Il s’agira de faire en sorte que l’accès à certains sites web, l’accès aux contenus limités selon l’âge, l’utilisation et le téléchargement de certaines applications comme Messenger, ne soient possibles qu’avec une identification, par exemple avec une carte d’identité électronique ou une identité numérique.

Voici l’accomplissement du vieux rêve de tou·tes les Ministres de l’Intérieur et autres autoritaires du même acabit. L’obligation d’utiliser des vrais noms sur Internet et la « neutralisation » des VPN5, TOR et autres services favorisant l’anonymat figurent depuis longtemps sur leurs listes de vœux. Et ne négligeons pas non plus la joie des grands groupes de pouvoir à l’avenir identifier clairement les utilisateur·ices. L’UE se met volontiers à leur service6. Tout comme le gouvernement allemand, Nancy Faser en tête, qui se distingue par ailleurs avec une politique populiste et autoritaire de droite.

Le « tchat controle » n’est pas la première tentative mais une nouvelle, beaucoup plus vaste, d’imposer la surveillance de masse et la désanonymisation totale d’Internet. Et elle a malheureusement de grandes chances de réussir car la Commission Européenne et la majorité du Parlement, ainsi que le Conseil, les gouvernements et les ministères de l’Intérieur de tous les États membres y travaillent. Et ils voudraient même des mesures encore plus dures comme étendre ce projet au scan de nos messages audios au lieu de scanner « seulement » nos communications textuelles7.

Dans le discours manipulateur, il existe déjà des « propositions de compromis » avec lesquelles les États autoritaires souhaitent faire changer d’avis les critiques. Il s’agirait dans un premier temps, de limiter le type de contenus que les fournisseurs devront chercher, jusqu’à ce que les possibilités techniques évoluent. La surveillance du chiffrement devrait tout de même avoir lieu. Il est évident que ce n’est qu’une tentative pour maquiller les problèmes8.

Comme toujours, la justification est particulièrement fallacieuse ! On connaît la chanson : la « lutte contre le terrorisme », les « copies pirates », les drogues, les armes etc. sont des constructions argumentaires par les politiques pour faire accepter des projets autoritaires et pour en discréditer toute résistance dans l’opinion publique. Il n’en va pas autrement pour Chat Control. Cette fois-ci, l’UE a même opté pour un classique : la prétendue « protection des enfants et des adolescents » et la lutte contre l’exposition des mineurs aux contenus pornographiques. Qui voudrait s’y opposer ?

Stop Chat Control. Image librement inspirée de International-protest (Wikimedia)

Pourtant, même des experts, provenant notamment d’associations de protection de l’enfance, affirment que Chat Control ne protégera pas les enfants et les adolescents9. En effet, il permettra également de surveiller leurs communications confidentielles. Le projet peut même conduire tout droit à ce que des agents des autorités aient accès aux photos de nus et aux données confidentielles que des mineurs s’envoient entre eux… Et ils pourront ensuite faire n’importe quoi avec. Le risque de faux positifs à cause de l’emploi de l’IA est également très important. Les gens pourraient avoir de gros problèmes à cause d’une erreur technique. Mais l’UE ne s’en soucie pas car la protection des mineurs n’est pas le sujet ici.

Les domaines d’application ont déjà été élargis entre-temps… Drogues, migration, etc. Tout doit être étroitement surveillé. Quelle sera la prochaine étape ? Une application contre les extrémistes politiques identifiés comme tels ?

Et puis, il y a aussi la très probable question de « l’extension des objectifs ». Nous connaissons déjà suffisamment d’autres lois et mesures étatiques. Elles sont souvent introduites pour des raisons d’urgence. Ensuite, elles sont constamment étendues, différées, puis soudain elles sont utilisées à des fins totalement différentes par les flics et les services de renseignement, selon leur humeur. L’extension de Chat Control se prête bien à ce jeu. Les premières demandes ont déjà été formulées10.

Dans une Europe où : il y a des interdictions de manifester11 et des détentions préventives, des perquisitions pour des commentaires sur les « quéquettes »12, des liens vers Linksunten/Indymedia13 ou des graffitis14, où des enquêtes par les services de renseignement pour adbusting dans l’armée allemande, ou bien des avis de recherche pour « séjour illégal » sont monnaie courante, dans une Europe où les ultraconservateurs occupent des postes de pouvoir, appellent à l’interdiction de l’avortement et à la lutte contre les personnes queer et réfugiées15, où des structures d’extrême-droite existent dans les administrations et la police16, dans cette Europe, une infrastructure de surveillance comme Chat Control, avec interdiction du chiffrement et permis de lecture de l’État sur tous les appareils, a de graves conséquences pour la liberté de tous les êtres humains17.

Des lois et des avancées similaires, la surveillance biométrique de masse18, l’utilisation d’IA à cet égard comme à Hambourg19, les identités numériques20, le scoring21, la police prédictive22, et ainsi de suite sont en cours de développement ou sont déjà devenus des réalités… tout cela crée une infrastructure totale, centralisée et panoptique qui permet d’exercer un énorme pouvoir et une répression contre nous tous.

En tant qu’antiautoritaires, nous devrions nous défendre, attirer l’attention et faire connaître ce sujet en dehors de l’activisme numérique germanophone ! Nous appelons donc à protester et à résister contre Chat Control. Les alliances existantes comme Stop Chat Control23 pourraient être complétées par une critique autonome24. D’autres actions de protestation peuvent être imaginées, il n’y a pas de limites à la créativité. Les objectifs de telles actions de protestation pourraient éventuellement découler de la thématique…

Les anti-autoritaires résistent à Chat Control !

Nous apprécions les suggestions, les questions, les critiques et, dans le pire des cas, les louanges, et surtout la résistance !



  1. “Zeitplan für Chatkontrolle ist vorerst geplatzt”, Netzpolitik.org, 20/09/2023. (NdT –) Il s’agit du règlement CSAR, également appelé Chat Control. La Quadrature du Net en a fait une présentation.↩︎
  2. “EU-Gesetzgebung einfach erklärt” Netzpolitik.org, 28/06/2023, “Das EU-Überwachungsmonster kommt wirklich, wenn wir nichts dagegen tun”, Netzpolitik.org, 11/05/2022 ;ChatKontrolle Stoppen ; “Kennen wir ansonsten nur aus autoritären Staaten”, Süddeutsche Zeitung, 10/08/2022.↩︎
  3. “NetzDG-Bußgeld: Justizminister Buschmann will Telegram mit Trick beikommen”, Heise Online, 28/01/2022.↩︎
  4. “Die Rückkehr der Netzsperren”, Netzpolitik.org, 11/03/2021.↩︎
  5. “Online-Ausweis und VPN-Verbot: Streit über Anonymität im Netz kocht wieder hoch”, Heise Online, 08/10/2023.↩︎
  6. “EU-Ausschuss will Chatkontrolle kräftig stutzen”, Netzpolitik.org, 15/02/2023.↩︎
  7. “Live-Überwachung: Mehrheit der EU-Staaten drängt auf Audio-Chatkontrolle”, Heise Online, 17/05/2023.↩︎
  8. “Ratspräsidentschaft hält an Chatkontrolle fest”, Netzpolitik.org, 12/10/2023.↩︎
  9. “Immer wieder Vorratsdatenspeicherung”, Netzpolitik.org, 23/06/23.↩︎
  10. “https://netzpolitik.org/2023/ueberwachung-politiker-fordern-ausweitung-der-chatkontrolle-auf-andere-inhalte/”, Netzpolitik.org, 06/10/2023.↩︎
  11. “Noch mehr Macht für Beamte ist brandgefährlich”, nd Jounralismus von Links, 13/09/2021 ; “Amnesty sieht Versammlungsfreiheit in Deutschland erstmals eingeschränkt – auch in NRW”, Westdeutscher Rundfunk, 20/09/2023.↩︎
  12. “Unterhalb der Schwelle”, TAZ, 08/08/2022.↩︎
  13. “Die Suche nach einer verbotenen Vereinigung”, Netzpolitik.org, 03/08/2023.↩︎
  14. “Linksextreme Gruppen in Nürnberg: Polizei durchsucht mehrere Wohnungen”, Nordbayern, 11/10/2023.↩︎
  15. “Sehnsucht nach dem Regenbogen-Monster”, TAZ, 28/07/2023.↩︎
  16. “Das Ende eines Whistleblowers”, TAZ, 01/10/2019.↩︎
  17. “Chatkontrolle: Mit Grundrechten unvereinbar”, Gesellschaft für Freiheitsrechte ; “Sie betrifft die Rechte aller Internetnutzer”, Junge Welt, 15/09/2023.↩︎
  18. “Polizei verdoppelt Zahl identifizierter Personen jährlich”, Netzpolitik.org, 03/06/2021 ; “Mehr Kameras an Bahnhöfen”, DeutschlandFunk, 22/12/2014 ; “Polizei bildet Hunderte Drohnenpiloten aus”, nd Jounralismus von Links, 04/01/2023.↩︎
  19. “Polizei Hamburg will ab Juli Verhalten automatisch scannen”, Netzpolitik.org, 19/06/2023.↩︎
  20. “Digitale Identität aller Menschen – Fortschritt oder globale Überwachung?”, SWR, 28/08/2022.↩︎
  21. “Punkte für das Karmakonto”, Jungle.World, 25/05/2022.↩︎
  22. “Überwachung: Interpol baut Big-Data-System Insight für”vorhersagende Analysen”, Heise Online, 24/09/2023.↩︎
  23. “Chatkontrolle-Bündnis fordert Bundesregierung zum Nein auf”, Netzpolitik.org, 18/09/2023 ; “Unser Bündnis gegen die Chatkontrolle”, Digital Courage, 12/10/2022 ; Chatkontrolle Stoppen, Digital Gesellschaft ; “Aufruf Chatkontrolle stoppen”, Digital Courage, 10/10/2022.↩︎
  24. “Statement zum EU-Verschlüsselungsverbot / Chatdurchleuchtungspflicht”, Enough 14, 15/05/2022.↩︎



Zoom et les politiques de confidentialité

Cet article a été publié à l’origine par THE MARKUP, il est traduit et republié avec l’accord de l’auteur selon les termes de la licence CC BY-NC-ND 4.0

 

Publication originale sur le site themarkup.org

 

Traduction Framalang : goofy, MO, Henri-Paul, Wisi_eu

 

Voilà ce qui arrive quand on se met à lire vraiment les politiques de confidentialité

Une récente polémique sur la capacité de Zoom à entraîner des intelligences artificielles avec les conversations des utilisateurs montre l’importance de lire les petits caractères

par Aaron Sankin

 

Photo de l'extérieur du siège de Zoom le 07 février 2023 à San José, Californie. Les côtés droit et gauche de la photo sont masqués par deux zones sombres qui ne sont pas mises au point.
Justin Sullivan/Getty Images

 

photo de l'auteurBonjour, je m’appelle Aaron Sankin, je suis journaliste d’investigation à The Markup. J’écris ici pour vous expliquer que si vous faites quelque chose de très pénible (lire les documents dans lesquels les entreprises expliquent ce qu’elles peuvent faire avec vos données), vous pourrez ensuite faire quelque chose d’un peu drôle (piquer votre crise en ligne).

Au cours du dernier quart de siècle, les politiques de protection de la vie privée – ce langage juridique long et dense que l’on parcourt rapidement avant de cliquer sans réfléchir sur « J’accepte » – sont devenues à la fois plus longues et plus touffues. Une étude publiée l’année dernière a montré que non seulement la longueur moyenne des politiques de confidentialité a quadruplé entre 1996 et 2021, mais qu’elles sont également devenues beaucoup plus difficiles à comprendre.

Voici ce qu’a écrit Isabel Wagner, professeur associé à l’université De Montfort, qui a utilisé l’apprentissage automatique afin d’analyser environ 50 000 politiques de confidentialité de sites web pour mener son étude :

« En analysant le contenu des politiques de confidentialité, nous identifions plusieurs tendances préoccupantes, notamment l’utilisation croissante de données de localisation, l’exploitation croissante de données collectées implicitement, l’absence de choix véritablement éclairé, l’absence de notification efficace des modifications de la politique de confidentialité, l’augmentation du partage des données avec des parties tierces opaques et le manque d’informations spécifiques sur les mesures de sécurité et de confidentialité »

Si l’apprentissage automatique peut être un outil efficace pour comprendre l’univers des politiques de confidentialité, sa présence à l’intérieur d’une politique de confidentialité peut déclencher un ouragan. Un cas concret : Zoom.

En début de semaine dernière, Zoom, le service populaire de visioconférence devenu omniprésent lorsque les confinements ont transformé de nombreuses réunions en présentiel en réunions dans de mini-fenêtres sur des mini-écrans d’ordinateurs portables, a récemment fait l’objet de vives critiques de la part des utilisateurs et des défenseurs de la vie privée, lorsqu’un article du site d’actualités technologiques Stack Diary a mis en évidence une section des conditions de service de l’entreprise indiquant qu’elle pouvait utiliser les données collectées auprès de ses utilisateurs pour entraîner l’intelligence artificielle.

version anglaise début août, capturée par la Wayback Machine d’Internet Archive

le texte précise bien l'usage consenti par l'utilisateur de ses données pour l'apprentissage automatique et l'intelligence artificielle
version française fin juillet, capturée par la Wayback Machine d’Internet Archive

 

Le contrat d’utilisation stipulait que les utilisateurs de Zoom donnaient à l’entreprise « une licence perpétuelle, non exclusive, libre de redevances, susceptible d’être cédée en sous-licence et transférable » pour utiliser le « Contenu client » à des fins diverses, notamment « de marketing, d’analyse des données, d’assurance qualité, d’apprentissage automatique, d’intelligence artificielle, etc.». Cette section ne précisait pas que les utilisateurs devaient d’abord donner leur consentement explicite pour que l’entreprise puisse le faire.

Une entreprise qui utilise secrètement les données d’une personne pour entraîner un modèle d’intelligence artificielle est particulièrement controversée par les temps qui courent. L’utilisation de l’IA pour remplacer les acteurs et les scénaristes en chair et en os est l’un des principaux points d’achoppement des grèves en cours qui ont paralysé Hollywood. OpenAI, la société à l’origine de ChatGPT, a fait l’objet d’une vague de poursuites judiciaires l’accusant d’avoir entraîné ses systèmes sur le travail d’écrivains sans leur consentement. Des entreprises comme Stack Overflow, Reddit et X (le nom qu’Elon Musk a décidé de donner à Twitter) ont également pris des mesures énergiques pour empêcher les entreprises d’IA d’utiliser leurs contenus pour entraîner des modèles sans obtenir elles-mêmes une part de l’activité.

La réaction en ligne contre Zoom a été féroce et immédiate, certaines organisations, comme le média Bellingcat, proclamant leur intention de ne plus utiliser Zoom pour les vidéoconférences. Meredith Whittaker, présidente de l’application de messagerie Signal spécialisée dans la protection de la vie privée, a profité de l’occasion pour faire de la publicité :

« HUM : Les appels vidéo de @signalapp fonctionnent très bien, même avec une faible bande passante, et ne collectent AUCUNE DONNÉE SUR VOUS NI SUR LA PERSONNE À QUI VOUS PARLEZ ! Une autre façon tangible et importante pour Signal de s’engager réellement en faveur de la vie privée est d’interrompre le pipeline vorace de surveillance des IA. »

Zoom, sans surprise, a éprouvé le besoin de réagir.

Dans les heures qui ont suivi la diffusion de l’histoire, le lundi même, Smita Hashim, responsable des produits chez Zoom, a publié un billet de blog visant à apaiser des personnes qui craignent de voir  leurs propos et comportements être intégrés dans des modèles d’entraînement d’IA, alors qu’elles souhaitent virtuellement un joyeux anniversaire à leur grand-mère, à des milliers de kilomètres de distance.

« Dans le cadre de notre engagement en faveur de la transparence et du contrôle par l’utilisateur, nous clarifions notre approche de deux aspects essentiels de nos services : les fonctions d’intelligence artificielle de Zoom et le partage de contenu avec les clients à des fins d’amélioration du produit », a écrit Mme Hashim. « Notre objectif est de permettre aux propriétaires de comptes Zoom et aux administrateurs de contrôler ces fonctions et leurs décisions, et nous sommes là pour faire la lumière sur la façon dont nous le faisons et comment cela affecte certains groupes de clients ».

Mme Hashim écrit que Zoom a mis à jour ses conditions d’utilisation pour donner plus de contexte sur les politiques d’utilisation des données par l’entreprise. Alors que le paragraphe sur Zoom ayant « une licence perpétuelle, non exclusive, libre de redevances, pouvant faire l’objet d’une sous-licence et transférable » pour utiliser les données des clients pour « l’apprentissage automatique, l’intelligence artificielle, la formation, les tests » est resté intact [N de T. cependant cette mention semble avoir disparu dans la version du 11 août 2023], une nouvelle phrase a été ajoutée juste en dessous :

« Zoom n’utilise aucun Contenu client audio, vidéo, chat, partage d’écran, pièces jointes ou autres communications comme le Contenu client (tels que les résultats des sondages, les tableaux blancs et les réactions) pour entraîner les modèles d’intelligence artificielle de Zoom ou de tiers. »

Comment utilisons-nous vos données à caractère personnel ?Les employés de Zoom n’accèdent pas au Contenu client des réunions, des webinaires, des messageries ou des e-mails (en particulier, l’audio, la vidéo, les fichiers, les tableaux blancs en réunion et les contenus des messageries ou des e-mails), ni au contenu généré ou partagé dans le cadre d’autres fonctions de collaboration (comme les tableaux blancs hors réunion), et ne les utilisent pas, à moins que le titulaire du compte hébergeant le produit ou Service Zoom où le Contenu client a été généré ne le demande ou que cela ne soit nécessaire pour des raisons juridiques, de sûreté ou de sécurité. Zoom n’utilise aucun Contenu client audio, vidéo, chat, partage d’écran, pièces jointes ou autres communications comme le Contenu client (tels que les résultats des sondages, les tableaux blancs et les réactions) pour entraîner les modèles d’intelligence artificielle de Zoom ou de tiers.
copie d’écran du 16/08/2023, page https://explore.zoom.us/fr/privacy/

 

Dans son billet de blog, Mme Hashim insiste sur le fait que Zoom n’utilise le contenu des utilisateurs que pour former l’IA à des produits spécifiques, comme un outil qui génère automatiquement des résumés de réunions, et seulement après que les utilisateurs auront explicitement choisi d’utiliser ces produits. « Un exemple de service d’apprentissage automatique pour lequel nous avons besoin d’une licence et de droits d’utilisation est notre analyse automatisée des invitations et des rappels de webinaires pour s’assurer que nous ne sommes pas utilisés involontairement pour spammer ou frauder les participants », écrit-elle. « Le client est propriétaire de l’invitation au webinaire et nous sommes autorisés à fournir le service à partir de ce contenu. En ce qui concerne l’IA, nous n’utilisons pas de contenus audios, de vidéos ou de chats pour entraîner nos modèles sans le consentement du client. »

La politique de confidentialité de Zoom – document distinct de ses conditions de service – ne mentionne l’intelligence artificielle ou l’apprentissage automatique que dans le contexte de la fourniture de « fonctions et produits intelligents (sic), tels que Zoom IQ ou d’autres outils pour recommander le chat, le courrier électronique ou d’autres contenus ».

Pour avoir une idée de ce que tout cela signifie, j’ai échangé avec Jesse Woo, un ingénieur spécialisé en données de The Markup qui, en tant qu’avocat spécialisé dans la protection de la vie privée, a participé à la rédaction de politiques institutionnelles d’utilisation des données.

M. Woo explique que, bien qu’il comprenne pourquoi la formulation des conditions d’utilisation de Zoom touche un point sensible, la mention suivant laquelle les utilisateurs autorisent l’entreprise à copier et à utiliser leur contenu est en fait assez standard dans ce type d’accord d’utilisation. Le problème est que la politique de Zoom a été rédigée de manière à ce que chacun des droits cédés à l’entreprise soit spécifiquement énuméré, ce qui peut sembler beaucoup. Mais c’est aussi ce qui se passe lorsque vous utilisez des produits ou des services en 2023, désolé, bienvenue dans le futur !

Pour illustrer la différence, M. Woo prend l’exemple de la politique de confidentialité du service de vidéoconférence concurrent Webex, qui stipule ce qui suit : « Nous ne surveillerons pas le contenu, sauf : (i) si cela est nécessaire pour fournir, soutenir ou améliorer la fourniture des services, (ii) pour enquêter sur des fraudes potentielles ou présumées, (iii) si vous nous l’avez demandé ou autorisé, ou (iv) si la loi l’exige ou pour exercer ou protéger nos droits légaux ».

Cette formulation semble beaucoup moins effrayante, même si, comme l’a noté M. Woo, l’entraînement de modèles d’IA pourrait probablement être mentionné par une entreprise sous couvert de mesures pour « soutenir ou améliorer la fourniture de services ».

L’idée que les gens puissent paniquer si les données qu’ils fournissent à une entreprise dans un but évident et simple (comme opérer un appel de vidéoconférence) sont ensuite utilisées à d’autres fins (comme entraîner un algorithme) n’est pas nouvelle. Un rapport publié par le Forum sur le futur de la vie privée (Future of Privacy Forum), en 2018, avertissait que « le besoin de grandes quantités de données pendant le développement en tant que « données d’entraînement » crée des problèmes de consentement pour les personnes qui pourraient avoir accepté de fournir des données personnelles dans un contexte commercial ou de recherche particulier, sans comprendre ou s’attendre à ce qu’elles soient ensuite utilisées pour la conception et le développement de nouveaux algorithmes. »

Pour Woo, l’essentiel est que, selon les termes des conditions de service initiales, Zoom aurait pu utiliser toutes les données des utilisateurs qu’elle souhaitait pour entraîner l’IA sans demander leur consentement et sans courir de risque juridique dans ce processus.

Ils sont actuellement liés par les restrictions qu’ils viennent d’inclure dans leurs conditions d’utilisation, mais rien ne les empêche de les modifier ultérieurement.
Jesse Woo, ingénieur en données chez The Markup

« Tout le risque qu’ils ont pris dans ce fiasco est en termes de réputation, et le seul recours des utilisateurs est de choisir un autre service de vidéoconférence », explique M. Woo. « S’ils avaient été intelligents, ils auraient utilisé un langage plus circonspect, mais toujours précis, tout en proposant l’option du refus, ce qui est une sorte d’illusion de choix pour la plupart des gens qui n’exercent pas leur droit de refus. »

Changements futurs mis à part, il y a quelque chose de remarquable dans le fait qu’un tollé public réussisse à obtenir d’une entreprise qu’elle déclare officiellement qu’elle ne fera pas quelque chose d’effrayant. L’ensemble de ces informations sert d’avertissement à d’autres sur le fait que l’entraînement de systèmes d’IA sur des données clients sans leur consentement pourrait susciter la colère de bon nombre de ces clients.

Les conditions d’utilisation de Zoom mentionnent la politique de l’entreprise en matière d’intelligence artificielle depuis le mois de mars, mais cette politique n’a attiré l’attention du grand public que la semaine dernière. Ce décalage suggère que les gens ne lisent peut-être pas les données juridiques, de plus en plus longues et de plus en plus denses, dans lesquelles les entreprises expliquent en détail ce qu’elles font avec vos données.

Heureusement, Woo et Jon Keegan, journalistes d’investigation sur les données pour The Markup, ont récemment publié un guide pratique (en anglais) indiquant comment lire une politique de confidentialité et en  identifier rapidement les parties importantes, effrayantes ou révoltantes.

Bonne lecture !


Sur le même thème, on peut s’intéresser à :

 




Un kit pédagogique proposé par Exodus Privacy

À l’heure où dans une dérive policière inquiétante on criminalise les personnes qui veulent protéger leur vie privée, il est plus que jamais important que soient diffusées à une large échelle les connaissances et les pratiques qui permettent de prendre conscience des enjeux et de préserver la confidentialité. Dans cette démarche, l’association Exodus Privacy joue un rôle important en rendant accessible l’analyse des trop nombreux pisteurs qui parasitent nos ordiphones. Cette même association propose aujourd’hui un nouvel outil ou plutôt une boîte à outils tout aussi intéressante…

Bonjour, Exodus Privacy. Chez Framasoft, on vous connaît bien et on vous soutient mais pouvez-vous rappeler à nos lecteurs et lectrices en quoi consiste l’activité de votre association?

Oui, avec plaisir ! L’association Exodus Privacy a pour but de permettre au plus grand nombre de personnes de mieux protéger sa vie privée sur son smartphone. Pour cela, on propose des outils d’analyse des applications issues du Google Play store ou de F-droid qui permettent de savoir notamment si des pisteurs s’y cachent. On propose donc une application qui permet d’analyser les différentes applications présentes sur son smartphone et une plateforme d’analyse en ligne.

Logo d'exodus privacy, c'est un E
Logo d’Exodus Privacy

Alors ça ne suffisait pas de fournir des outils pour ausculter les applications et d’y détecter les petits et gros espions ? Vous proposez maintenant un outil pédagogique ? Expliquez-nous ça…
Depuis le début de l’association, on anime des ateliers et des conférences et on est régulièrement sollicité·es pour intervenir. Comme on est une petite association de bénévoles, on ne peut être présent·es partout et on s’est dit qu’on allait proposer un kit pour permettre aux personnes intéressées d’animer un atelier « smartphones et vie privée » sans avoir besoin de nous !

Selon vous, dans quels contextes le kit peut-il être utilisé ? Vous vous adressez plutôt aux formatrices ou médiateurs de profession, aux bénévoles d’une asso qui veulent proposer un atelier ou bien directement aux membres de la famille Dupuis-Morizeau ?
Clairement, on s’adresse à deux types de publics : les médiateur·ices numériques professionnel·les qui proposent des ateliers pour leurs publics, qu’ils et elles soient en bibliothèque, en centre social ou en maison de quartier, mais aussi les bénévoles d’associations qui proposent des actions autour de la protection de l’intimité numérique.

Bon en fait qu’est-ce qu’il y a dans ce kit, et comment on peut s’en servir ?
Dans ce kit, il y a tout pour animer un atelier d’1h30 destiné à un public débutant ou peu à l’aise avec le smartphone : un déroulé détaillé pour la personne qui anime, un diaporama, une vidéo pédagogique pour expliquer les pisteurs et une fiche qui permet aux participant·es de repartir avec un récapitulatif de ce qui a été abordé pendant l’atelier.

Par exemple, on propose, à partir d’un faux téléphone, dont on ne connaît que les logos des applications, de deviner des éléments sur la vie de la personne qui possède ce téléphone. On a imaginé des méthodes d’animation ludiques et participatives, mais chacun·e peut adapter en fonction de ses envies et de son aisance !

un faux téléphone pour acquérir de vraies compétences en matière de vie privée
un faux téléphone pour acquérir de vraies compétences en matière de vie privée

Comment l’avez-vous conçu ? Travail d’une grosse équipe ou d’un petit noyau d’acharnés ?
Nous avons été au total 2-3 bénévoles dans l’association à créer les contenus, dont MeTaL_PoU qui a suivi/piloté le projet, Héloïse de NetFreaks qui s’est occupée du motion-design de la vidéo et _Lila* de la création graphique et de la mise en page. Tout s’est fait à distance ! À chaque réunion mensuelle de l’association, on faisait un point sur l’avancée du projet, qui a mis plus longtemps que prévu à se terminer, sûrement parce qu’on n’avait pas totalement bien évalué le temps nécessaire et qu’une partie du projet reposait sur du bénévolat. Mais on est fier·es de le publier maintenant !

Vous l’avez déjà bêta-testé ? Premières réactions après tests ?
On a fait tester un premier prototype à des médiateur·ices numériques. Les retours ont confirmé que l’atelier fonctionne bien, mais qu’il y avait quelques détails à modifier, notamment des éléments qui manquaient de clarté. C’est l’intérêt des regards extérieurs : au sein d’Exodus Privacy, des choses peuvent nous paraître évidentes alors qu’elles ne le sont pas du tout !

aspi espion qui aspire les données avec l'œil de la surveillance
Aspi espion qui aspire vos données privées en vous surveillant du coin de l’œil

 

Votre kit est disponible pour tout le monde ? Sous quelle licence ? C’est du libre ?
Il est disponible en CC-BY-SA, et c’est du libre, comme tout ce qu’on fait ! Il n’existe pour le moment qu’en français, mais rien n’empêche de contribuer pour l’améliorer !

Tout ça représente un coût, ça justifie un appel aux dons ?
Nous avons eu de la chance : ce projet a été financé en intégralité par la Fondation AFNIC pour un numérique inclusif et on les remercie grandement pour ça ! Le coût de ce kit est quasi-exclusivement lié à la rémunération des professionnel·les ayant travaillé sur le motion design, la mise en page et la création graphique.

Est-ce que vous pensez faire un peu de communication à destination des publics visés, par exemple les médiateur-ices numériques de l’Éducation Nationale, des structures d’éducation populaire comme le CEMEA  etc. ?

Mais oui, c’est prévu : on est déjà en contact avec le CEMEA et l’April notamment. Il y a également une communication prévue au sein des ProfDoc. et ce sera diffusé au sein des réseaux de MedNum.

Le travail d’Exodus Privacy va au delà de ce kit et il est important de le soutenir ! Pour découvrir les actions de cette formidable association et y contribuer, c’est sur leur site web : https://exodus-privacy.eu.org/fr/page/contribute On souhaite un franc succès et une large diffusion à ce nouvel outil. Merci pour ça et pour toutes leurs initiatives !

un personnage vêtu de gris assis sur un banc est presque entièrement abrité derrière un parapluie gris. le banc est sur l'herbe, au bord d'un trottoir pavé
« Privacy » par doegox, licence CC BY-SA 2.0.




Deux ou trois choses sur les applications de suivi de contacts pendant l’épidémie

Notre petit dossier sur l’application de contact-tracing « StopCovid » s’enrichit aujourd’hui d’un article de Stéphane Bortzmeyer, que nous avons déjà invité à de multiples reprises sur le Framablog.

La position de Framasoft au sujet de cette application est plutôt claire : StopCovid est un leurre de communication politique.

Cependant, nous trouvons important d’apporter au débat des articles plus pédagogiques. Ce que nous avons fait par exemple en publiant la bande dessinée de Nicky Case, et aujourd’hui avec cet article qui, nous l’espérons vous éclairera un peu plus dans le débat.

Accéder aux articles déjà publiés dans notre dossier StopCovid

(NB : cet article est une republication, avec l’accord de son auteur, de l’article https://www.bortzmeyer.org/tracking-covid-19.html dont la première publication est datée du 19 avril 2020 – Nous vous encourageons à vérifier sur le site originel si l’article a pu être mis-à-jour depuis).


Deux ou trois personnes m’ayant demandé si j’avais une opinion sur les applications de suivi de contacts, dans le contexte de l’épidémie de COVID-19, je publie ici quelques notes, et pas mal d’hyperliens, pour vous donner de la lecture pendant le confinement.

D’abord, des avertissements :

  • Je ne suis pas épidémiologiste. Même si je l’étais, il y a encore beaucoup de choses que la science ignore au sujet des infections par le SARS-CoV2, comme les durées exactes des phases où on est contagieux.
  • Je ne suis pas non plus un spécialiste de la conception et de l’analyse de protocoles de suivi de contacts. Mais ce n’est pas très grave, pour les raisons que j’exposerai rapidement par la suite.
  • Vous ne trouverez pas ici d’analyse de l’application annoncée par le gouvernement français, StopCovid, pour la bonne et simple raison qu’elle n’existe pas. Il y a eu des promesses sous la forme de quelques mots (« anonyme », « sur la base du volontariat ») mais aucun détail technique n’a été publié. À l’heure actuelle, il n’est donc pas possible de dire quoi que ce soit de sérieux sur cette application spécifique.
  • D’une manière générale, la situation évolue vite, et il est très possible que, dans une ou deux semaines, cet article ne vaille plus rien.

Maintenant, rentrons dans le vif du sujet. Dans la description et l’analyse des protocoles comme PACT, DP3T ou ROBERT ? Non, car, pour moi, c’est une question très secondaire. Voyons les problèmes par ordre décroissant d’importance.

D’abord, il faut se demander si une telle application de suivi des contacts est utile et, surtout, si elle justifie les efforts qu’on y consacre, par rapport à des sujets moins high-tech, moins prestigieux, moins startup-nation, qui motivent moins les informaticiens mais qui ont plus d’importance pour la santé publique, comme la production et la distribution de masques, ou comme la revalorisation des rémunérations et des conditions de travail du personnel de santé. Je ne vais pas insister sur ce point, c’est certes le plus important mais la Quadrature du Net en a déjà parlé, et mieux que moi.

Bref, ce projet d’application de suivi des contacts semble davantage motivé par le désir d’agir, de faire quelque chose, même inutile, désir qui est commun en temps de crise, plutôt que par un vrai problème à résoudre. (C’est ce que les anglophones nomment la maladie du do-something-itis.) Il y a également des enjeux commerciaux, qui expliquent que certaines entreprises se font de la publicité en affirmant travailler sur le sujet (sans tenir compte des travaux existants).

Mais surtout, une application n’a de sens que si on teste les gens, pour savoir qui est contaminé. Comme on peut apparemment être contagieux et pourtant asymptomatique (pas de maladie visible), il faut tester ces personnes asymptomatiques (qui sont sans doute celles qui risquent de contaminer le plus de gens puisque, ignorantes de leur état, elles sortent). Or, Macron a bien précisé dans son discours du 13 avril qu’on ne testerait pas les personnes asymptomatiques (probablement car il n’y a pas de tests disponibles). Cela suffit à rendre inutile toute application, indépendamment des techniques astucieuses qu’elle utilise, car l’application elle-même ne peut pas déterminer qui est malade ou contagieux.

Ensuite, le protocole est une chose, la mise en œuvre dans une application réelle en est une autre. Le diable est dans les détails. Comme indiqué plus haut, on ne sait encore rien sur l’application officielle, à part son nom, StopCovid. Pour formuler un avis intelligent, il ne faudra pas se contenter de généralités, il faudra regarder son code, les détails, les traqueurs embarqués (une plaie classique des applications sur ordiphone, cf. le projet ExodusPrivacy), etc. Il faudra aussi se pencher sur le rôle du système d’exploitation (surtout s’il y a utilisation de l’API proposée par Google et Apple). Le fait que l’application soit en logiciel libre est évidemment un impératif, mais ce n’est pas suffisant.

Si vous n’êtes pas informaticienne ou informaticien, mais que vous voulez vous renseigner sur les applications de suivi de contacts et ce qu’il y a derrière, souvenez-vous qu’il y a plusieurs composants, chacun devant être étudié :

  • L’application elle-même, celle que vous téléchargez sur le magasin, qui est la partie visible (mais pas forcément la plus importante).
  • Le protocole qui est l’ensemble des règles que suit l’application, notamment dans la communication avec le reste du monde (autres ordiphones, serveur central…). Avec le même protocole, on peut créer plusieurs applications assez différentes.
  • Le système d’exploitation qui, après tout, a un complet contrôle de la machine et peut passer outre les décisions des applications. C’est un sujet d’autant plus sensible que, sur les ordiphones, ce système est étroitement contrôlé par deux entreprises à but lucratif, Apple et Google.
  • Le serveur central (la grande majorité des protocoles proposés nécessite un tel serveur) qui peut être piraté ou, tout simplement, géré par des gens qui ne tiennent pas leurs promesses.

Parmi les bonnes lectures accessibles à un large public :

Voilà, on peut maintenant passer aux questions qui passionnent mes lecteurs et lectrices passionnés d’informatique, les protocoles eux-mêmes. Il en existe de nombreux. J’ai une préférence pour PACT, dont je vous recommande la lecture de la spécification, très claire. La proposition DP3T est très proche (lisez donc son livre blanc).

Ces deux propositions sont très proches : l’ordiphone émet en Bluetooth des identifiants temporaires, générés aléatoirement et non reliables entre eux. Les autres ordiphones proches les captent et les stockent. Ces identifiants se nomment chirps dans PACT (qu’on pourrait traduire par « cui-cui ») et EphID (pour Ephemeral ID) dans DP3T. Lorsqu’on est testé (rappel : il n’y a pas assez de tests en France, on ne peut même pas tester tous les malades, ce qui est un problème bien plus grave que le fait d’utiliser tel algorithme ou pas), et détecté contaminé, on envoie les données à un serveur central, qui distribue la liste. En téléchargeant et en examinant cette liste, on peut savoir si on a été proche de gens contaminés.

C’est évidemment une présentation très sommaire, il y a plein de détails à traiter, et je vous recommande de ne pas vous lancer dans de longues discussions sur Twitter au sujet de ces protocoles, avant d’avoir lu les spécifications complètes. Les deux propositions ont été soigneusement pensées par des gens compétents et le Café du Commerce devrait lire avant de commenter.

PACT et DP3T ont assez peu de différences. Les principales portent sur le mécanisme de génération des identifiants, PACT déduit une série d’identifiants d’une graine renouvelée aléatoirement (on stocke les graines, pas réellement les identifiants), alors que DP3T déduit chaque graine de la précédente, des choses comme ça.

La proposition ROBERT est assez différente. La liste des identifiants des contaminés n’est plus publique, elle est gardée par le serveur central, que les applications doivent interroger. Globalement, le serveur central a bien plus de pouvoir et de connaissances, dans ROBERT. La question est souvent discutée de manière binaire, avec centralisé vs. décentralisé mais le choix est en fait plus compliqué que cela. (Paradoxalement, un protocole complètement décentralisé pourrait être moins bon pour la vie privée.) Au passage, j’ai déjà discuté de cette utilisation très chargée de termes comme « centralisé » dans un article à JRES. Autre avantage de ROBERT, la discussion sur le protocole se déroule au grand jour, via les tickets de GitHub (cf. leur liste mais lisez bien la spécification avant de commenter, pas juste les images). Par contre, son analyse de sécurité est très insuffisante, comme le balayage de tous les problèmes liés au serveur central en affirmant qu’il sera « honnête et sécurisé ». Et puis la communication autour de cette proposition est parfois scientiste (« Ce sont des analyses scientifiques qui permettent de le démontrer, pas des considérations idéologiques [comme si c’était mal d’avoir des idées, et des idées différentes des autres] ou des a priori sémantiques. ») et il y a une tendance à l’exagération dans les promesses.

Enfin, un peu en vrac :

(cette page est distribuée sous les termes de la licence GFDL)




Une appli de traçage du COVID 19 qui échappe à Big Brother ?

Ou plutôt pas de traçage du tout ? Oui bien sûr, ce serait sans doute la meilleure solution compte tenu des inévitables « glissements » que redoute comme nous Hubert Guillaud dans cet article.

Accéder aux articles déjà publiés dans notre dossier StopCovid

 

Mais à l’heure même où se profile l’appli gouvernementale, véritable agneau innocent qui sera inévitablement converti un jour prochain en outil d’espionnage pur et simple, voici une proposition alternative de protocole qui permettrait de freiner la diffusion de la pandémie et d’échapper à la surveillance invasive.

Voici pour comprendre le principe de cette application une bande dessinée, qui est l’œuvre de Nicky Case (son siteson patreon), elle est destinée à expliquer le fonctionnement du protocole DP-3T à un public plus large. Elle n’est pas une représentation exacte du protocole, comme elle le précise :

Cette BD présente des aspects qui vont au-delà des spécifications de notre protocole, tels qu’un score de risque lié à une instruction de rester à la maison, un exemple ludique de ce à quoi pourrait ressembler un algorithme de calcul de risque local.

Bien que notre protocole soit conçu pour protéger la vie privée et pour contribuer à protéger un large éventail de libertés contre les détournements de fonction, il nécessite un déploiement réfléchi dans un environnement avec des politiques informées et protectrices des droits de l’homme afin de fonctionner pour tous les membres de nos communautés.

La bande dessinée ne doit donc pas être lue comme fournissant des suggestions de politiques au-delà du protocole de l’équipe DP-3T.

Pour celles et ceux qui veulent aller plus loin, beaucoup de précisions sur son fonctionnement, ses limites et ses conditions sont dans cette étude proposée par un pool de scientifiques dont la lecture demande un certain bagage technique.

La présente publication ne signifie pas que Framasoft promeut une quelconque application ni ne la présente comme une solution miracle. Il s’agit seulement d’éclairer le fonctionnement d’un protocole.

Bande dessinée originale en anglais : https://ncase.me/contact-tracing/

La traduction française que vous pouvez parcourir ci-dessous est due aux efforts conjugués et patients de Michel « Meï » Mancier, et de Samuel Hackwill. Qu’ils en soient vivement remerciés !




StopCovid : le double risque de la “signose” et du “glissement”

Nous sommes aujourd’hui très honoré⋅e⋅s de pouvoir publier cet article d’Hubert Guillaud. Depuis de nombreuses années, Hubert Guillaud publie des analyses précieuses autour du numérique sur le site InternetActu.net dont il est le rédacteur en chef (nous vous invitons vivement à découvrir ce site si vous ne le connaissiez pas, et pas seulement parce qu’il est soutenu par nos ami⋅e⋅s de la Fing).

Nous republions ici avec son accord un article initialement publié sur Medium, qui interroge les risques autour de l’application StopCovid.

C’est donc le troisième article que le Framablog publie aujourd’hui sur cette application. Le premier, traduit par le (fabuleux) groupe de traduction Framalang, reprenait les arguments en une dizaine de points de l’organisation AlgorithmWatch. Le second, rédigé par Christophe Masutti, administrateur de Framasoft et auteur de « Affaires Privées, au sources du capitalisme de surveillance », faisait le lien entre (dé)pistage et capitalisme de surveillance.

Pourquoi un troisième article, alors ? D’abord, parce qu’Hubert Guillaud prend le problème de StopCovid sous un autre angle, celui du risque de « faire de la médecine un travail de police », comme le dit l’écrivain Alain Damasio. Mais aussi parce qu’il pose clairement la problématique de notre acceptation de « solutions techniques », en tant qu’individu comme en tant que société. Cette acceptation est d’ores et déjà facilitée (préparée ?) par de nombreux médias grands publics qui présentent StopCovid comme une solution pour sortir plus vite du confinement, à grands coups de sondages auprès d’une population sur-angoissée et mal-informée. « Les algorithmes ne sont pas l’ennemi. Le vrai problème réside dans notre paresse à nous gouverner », nous dit la chercheuse Antoinette Rouvroy, citée dans cet article. Assurons nous de faire l’effort de ne pas être paresseux.

Accéder aux articles déjà publiés dans notre dossier StopCovid

 



L’application StopCovid sera donc basée sur le volontariat et le respect des données personnelles, comme l’expliquaient le ministre de la Santé, Olivier Véran, et le secrétaire d’État au numérique, Cédric O, au Monde. Très bien ! C’est la loi !, a rappelé la CNIL. L’application de pistage massif des Français sera chiffrée et les données complètement anonymisées complète Mediapart. Elle sera une “brique” de déconfinement parmi d’autres (qui n’ont pas été annoncées). On nous l’assure !

Soit ! Mais pour combien de temps ? Quelle sera la durée de cette assurance ? Que dirons-nous quand mi-mai, fin mai, mi-juin, nous n’aurons toujours ni masques ni tests en quantité suffisante (les autres “briques”, je suppose ?) ?

Le risque face à une absence de masques et de tests qui est là pour durer est que cette brique logicielle devienne un peu le seul outil à notre disposition pour “déconfiner”. Que StopCovid, de “brique incertaine” devienne le seul outil prêt à être utilisé, tout comme aujourd’hui l’attestation dérogatoire de déplacement est devenue le seul outil de maîtrise du confinement qu’on renforce d’arrêtés municipaux ou nationaux (quand ce n’est pas d’appréciations liberticides des agents) sans réelle motivation sanitaire (comme l’interdiction de courir ou de faire du vélo ou la fermeture des parcs ou pire encore des marchés : alors qu’on peut organiser des marchés voir des commerces non essentiels comme des accès aux espaces verts avec des règles de distanciations sociales). Et donc que tout le monde souhaite le renforcer : en le rendant peut-être obligatoire et pire peut-être en le rendant accessible au contrôle policier ! Et dans l’urgence et le dénuement, pour sortir d’une crise qui se révèle chaque jour plus dramatique, nul doute que nombreux seront prêt à s’y précipiter !

Le problème principal de StopCovid, c’est de ne reposer sur aucune science ! La seule étude disponible sur le sujet dans Science estime que ce type d’application doit accueillir 60% de la population pour être efficace et être associée à une politique de dépistage — dont nous ne disposons pas !

À Singapour, l’application TraceTogether, qui rassemblait 15% de a population, pourtant couplée au dépistage n’a pas suffi, comme le rappelle Olivier Tesquet pour Télérama ou Margot Clément depuis Hong Kong pour Mediapart : c’est certainement le signe (pas assez fort pourtant) que ce n’est pas une solution.

L’entrepreneur et spécialiste de l’intelligence artificielle Rand Hindi a très clairement exposé le fonctionnement d’une application de ce type, dans un thread sur Twitter !

Il semble y avoir beaucoup de confusion au sujet de l’efficacité et confidentialité de l’app #StopCovid. Je vais ici tenter d’expliquer la techno DP3T sous jacente et pourquoi dépendre du volontariat n’apportera pas les résultats espérés. #privacy #covid19 @cedric_o @olivierveran

— Rand Hindi (@randhindi) April 9, 2020

À lire ce thread (lisez-le !), chacun comprendra que la confidentialité des données ne devrait pas être le problème de cette application si elle respecte les développements prévus ! On semble plutôt là devant une technologie “privacy by design”, conçue pour préserver la vie privée ! Et le déploiement d’un outil aussi respectueux des individus devrait être salué ! Mais les bons points en matière technique ne suffiront pas à pallier les deux risques d’usages que masque StopCovid.

Le risque de la “signose” : “prendre le signal pour la chose” !

Comme s’en désespère la philosophe du droit Antoinette Rouvroy, le coeur du problème de nos outils d’analyse de données, c’est de relever bien plus d’une “signose” plutôt que d’une diagnose. Une signose consiste à “prendre le signal pour la chose”. C’est-à-dire transformer le signe (la barbe) en signal (la radicalisation) ! Souvenez-vous ! C’est le problème fondamental qui se cache dans les outils d’analyse automatisés et que dénoncent sans relâche nombre de spécialistes du sujet, comme la mathématicienne Cathy O’Neil ou Kate Crawford par exemple.

StopCovid transforme la proximité avec un malade (le signe) en signal (vous avez été infecté) pour déclencher une alerte nécessitant un traitement (confinement, test).

Image : illustration schématique du fonctionnement de StopCovid par LeMonde.fr.

Son inverse, la “diagnose”, elle transforme des symptômes (fièvre, test) en diagnostic (positif ou négatif) pour déclencher un traitement (confinement, prescription médicale, soins…).

Le problème de StopCovid comme d’autres solutions de backtracking proposées, c’est de transformer une notion de proximité en alerte. Or, être à proximité d’un malade ne signifie pas le devenir automatiquement ! La médecine a besoin de suivre et confiner les malades, ceux qu’ils contaminent et ceux qui les ont contaminés. Mais cela ne peut pas se faire sur la base de conjoncture, de corrélation, d’approximation, de proximité et de localisation.

Très souvent, le coeur des problèmes des systèmes réside dans les données utilisées et dans les décisions très concrètes qui sont prises pour décider ! Ici, tout le problème de cette proximité réside dans sa définition, sa qualification. Comment est définie la proximité par l’application ? Quelle durée ? Quelle distance ? Quelles conditions ? Quel contexte est pris en compte ? Et pour chacun de ces critères avec quelle précision et quelle fiabilité ? Pour reprendre les termes de Rand Hindi, le fait que Bob ait été à proximité d’Alice ne signifie pas qu’il ait été contaminé ! Si on ne peut pas apprécier les conditions de cette proximité, celle-ci risque d’être peu pertinente ou de déclencher beaucoup de faux positifs. Ou de refléter bien autre chose que l’exposition virus : des conditions sociales inégalitaires : une caissière de supermarché aura bien plus de chance de croiser un malade qu’un cadre qui va pouvoir continuer à limiter ses interactions sociales et ses déplacements. Pourtant, celle-ci est peut-être protégée par un plexiglas, des gants, des masques… des mesures de distanciation pris par son employeur : elle aura croisé des malades sans qu’ils la contaminent, quand le cadre aura pu croiser l’enfant d’un ami (sans téléphone) qui lui aura toussé dessus. Bref, StopCovid risque surtout de sonner bien plus pour certains que pour d’autres ! Toujours les mêmes !

En réduisant le contexte à une distance, à une proximité, StopCovid risque surtout d’être un outil approximatif, qui risque de renvoyer la plupart d’entre nous, non pas à notre responsabilité, mais à des injonctions sans sens. À nouveau, proximité n’est pas contamination : je peux avoir été dans la file d’attente d’un magasin à côté d’un malade ou avoir parlé à un ami malade en gardant les gestes barrières et sans avoir été infecté !

Le risque bien sûr, vous l’aurez compris, est que StopCovid produise énormément de “faux positifs” : c’est-à-dire des signalements anxiogènes et non motivés ! Dont il ne nous présentera aucun contexte : on ne saura pas ni qui, ni quand nous avons été à proximité d’un malade, donc incapable d’apprécier la situation, de lui rendre son contexte pour l’apprécier. Nous serons renvoyés à l’injonction du signal ! Sans être capable de prendre une décision informée (dois-je me confiner ? me faire tester — pour autant que ce soit possible !?).

En fait, quand on regarde un questionnaire d’enquête épidémiologique — par exemple, dans une forme très simple, prenons celui-ci proposé pour des cas de co-exposition au virus, on se rend compte que la proximité n’est pas le seul critère évalué. Les dates, les symptômes, l’état de santé de l’exposé, le degré de relation et sa description sont essentiels. Ils permettent notamment d’évaluer très vite un niveau de risque : faible, modéré ou élevé. Une enquête épidémiologique consiste à répondre à des questions sur ses relations, les lieux qu’on a fréquentés, les gens qu’on côtoie plus que ceux que l’on croise, ceux dont on est proche : qu’on touche et embrasse… L’important n’est pas que le questionnaire comme vous diront tous ceux qui mènent des enquêtes, c’est également la relation, la compréhension d’un mode de vie, d’un niveau de risque (respectez-vous les gestes barrières : assidûment ou pas du tout ?). Bref, l’important, c’est aussi d’introduire du rapport humain dans le suivi épidémique. Ce qu’une appli ne peut pas faire sauf, comme vous le diront leurs promoteurs, en collectant toujours plus de données, en étant toujours plus liberticides, pour qualifier toujours mieux le signe en signal !

Le risque des “glissements liberticides et discriminatoires” : de la contrainte à l’obligation !

Le risque c’est qu’en l’absence de tests, de masques (et cette absence va durer !), StopCovid devienne le seul recours d’une politique sanitaire de catastrophe. Le risque est — comme toujours — de “glisser” d’une signose à une politique. Ce que j’appelle “le glissement”, c’est le changement de finalité et l’évolution des autorisations d’accès. C’est le moteur de l’innovation technologique (une manière de pivoter dirait-on dans le monde entrepreneurial, c’est-à-dire de changer la finalité d’un produit et de le vendre pour d’autres clients que son marché originel). Mais le glissement est aussi le moteur de la surveillance, qui consiste bien souvent à transformer des fonctions simples en fonctions de surveillance : comme quand accéder à vos outils de télétravail permet de vous surveiller. Le risque du glissement consiste à faire évoluer dans l’urgence les finalités de l’application StopCovid, qu’elles soient logicielles ou d’usage. C’est ce dont s’inquiète (.pdf) très justement le comité consultatif national d’éthique en prévenant du risque de l’utilisation de l’application pour du contrôle policier ou du contrôle par l’employeur. Même inquiétude pour La Quadrature du Net et l’Observatoire des libertés numériques : le risque c’est qu’une “telle application finisse par être imposée pour continuer de travailler ou pour accéder à certains lieux publics”.

Or, il n’existe aucune garantie contre ces “glissements”… d’autant plus quand la colère et la crainte, la crise économique, le manque de tests et de masques, la durée du confinement, vont rendre le déconfinement encore plus pressant et l’exaspération encore plus réactive. Le risque le plus évident bien sûr est que votre employeur demande à voir votre application sur votre smartphone chaque matin ! Les commerçants, les bars, les policiers, les voisins… Que StopCovid devienne le “certificat d’immunité”, qu’évoquait dans son plan de déconfinement — tout à fait scandaleusement il me semble — la maire de Paris, Anne Hidalgo (sans compter qu’elle l’évoque comme un moyen de contrôle par l’employeur qu’elle représente, la Ville de Paris !). Le “glissement” le plus insidieux c’est que StopCovid devienne une application non pas obligatoire, mais injonctive. Que la santé de chacun soit à la vue de tous : employeurs, voisins, police ! Que nous devenions tous des auxiliaires de police plutôt que des auxiliaires de santé !

L’autre risque du certificat d’immunité, comme le souligne Bloomberg, c’est de faire exploser nos systèmes de santé par un déconfinement total, massif, calculé, où le seul sésame pour participer au monde de demain serait d’avoir survécu au virus ! Un calcul bien présomptueux à ce stade : Pourquoi ? Parce que pour l’instant, on évalue le nombre de Français immunisés par le virus à 10–15% pour les évaluations les plus optimistes, d’autres à 1,5 million soit seulement 2% de la population (et encore bien moins si on rapporte le taux de létalité de 0,37% au nombre de morts). Arriver à 60% d’immunité n’est pas le meilleur pari à prendre à court ou moyen terme !

Dans sa note (.pdf) (complète et intéressante) recensant les différentes techniques de pistage existantes, l’inénarrable Mounir Mahjoubi, ex-Secrétaire d’État au numérique, concédait un autre glissement : celui de l’obligation à utiliser une application comme StopCovid. Pour atteindre le taux d’usage de 60% de la population, Mahjoubi soulignait que “les autorités pourraient être ainsi être tentées de recourir à des mesures coercitives pour motiver l’installation”. Dans son analyse l’entrepreneur Rand Hindi arrivait à la même conclusion, en pire : rendre l’application obligatoire et faire que les autorités puissent accéder aux personnes qui reçoivent une alerte pour leur “appliquer” un confinement strict ! C’est-à-dire lever la confidentialité de l’état de santé, rien de moins.

L’application — pourtant “privacy by design” — n’est pas encore déployée que déjà on nous prépare aux glissements, autoritaires ou contraints ! Le risque bien sûr est de passer d’un contrôle des attestations à un contrôle de l’application ! Un élargissement continu de la pratique du contrôle par la police qui a tendance à élargir les dérives… Ou, pour le dire avec la force d’Alain Damasio : “faire de la médecine un travail de police”.

Le risque enfin c’est bien sûr de faire évoluer l’application par décrets et modification successive du code… pour finir par lui faire afficher qui a contaminé qui et quand, qui serait le meilleur moyen d’enterrer définitivement nos libertés publiques !

Le risque du glissement, c’est de croire qu’en lançant StopCovid nous pourrons toujours l’améliorer. C’est de croire, comme toujours avec le numérique, qu’il suffit de plus de données pour avoir un meilleur outil. C’est de continuer à croire en la surenchère technologique, sans qu’elle ne produise d’effets autres que la fin des libertés publiques, juste parce que c’est la seule solution qui semble rationnelle et qui s’offre à nous !

Le risque, finalement est de continuer à croire que l’analyse de mauvaises données fera pour moins cher ce que seule la science peut faire : mais avec du temps et de l’argent. Le risque, c’est de croire, comme d’habitude que le numérique permet de faire la même chose pour moins cher, d’être un soin palliatif de la médecine. On sait où cette politique de baisse des coûts nous a menés en matière de masques, de lits et de tests. Doit-on encore continuer ?

Le risque c’est de croire qu’une application peut faire le travail d’un médecin, d’un humain : diagnostiquer, traiter, enquêter, apaiser… Soigner et prendre soin. Le risque c’est de rendre disponible des informations de santé de quelque nature qu’elles soient en dehors du circuit de santé et de soin !

Faire de la science !

Face à cette crise, face aux défauts de l’industrie et de la mondialisation qu’elle a révélée tout cru, face à des flux trop tendus, à une compétition encore plus acharnée que jamais, et en attendant que l’industrie parvienne à nouveau à répondre à nos besoins mondiaux, notre seul recours reste la débrouille et la science ! La débrouille, car il risque de falloir faire longtemps avec ce qu’on a. Ou plutôt ce qu’on n’a pas : ni masques, ni tests, ni vaccins !

L’application ne soignera pas. Il va falloir retourner au contact ! Trouver les malades. Les diagnostiquer. Les traiter, enquêter pour remonter les contaminations. “Je ne sais pas faire porter un masque à un point” dit très justement l’épidémiologue Renaux Piarroux. Le confinement va nous donner un répit. Il va nous permettre de faire ce que nous aurions dû faire depuis le début : diagnostiquer et traiter, surveiller et isoler, enquêter pour trouver les personnes en contact… Pour cela, nous ne partirons pas de rien : nous avons Covidom et les techniques de l’enquête épidémiologique. Faire un lent et patient travail que le numérique ne peut pas faire. Modestement. Courageusement. Patiemment.

****

Le numérique ne peut pas tout ! Alors qu’on y a recours comme jamais depuis le confinement, cette crise nous montre que le numérique ne livre pas les produits des Drive, ni n’assure la continuité pédagogique. Il ne repère pas non plus les malades ni ne le soigne. Pour cela aussi, nous avons encore besoin des hommes, des femmes, des premiers de cordée, ceux qui sont aux avant-postes, ceux qui sont essentiels, les irremplaçables («la responsabilité suppose une exigence d’irremplaçabilité”, disait la philosophe Cynthia Fleury).

La fin du confinement est l’occasion d’un recommencement stratégique. Recommençons convenablement : suivons les cas, isolons-les, enquêtons sur leurs relations. Trouvons-les asymptotiques. Surveillons les températures. Testons si c’est possible ! Revenons-en à la science, c’est la seule qui ait fait ses preuves ! Faisons confiance à la débrouille et accueillons là au mieux.

Ce que nous devons garantir en tant que société : c’est que les informations de santé demeurent des informations de santé. Que l’état de chacun face au Covid n’a pas à être communiqué : ni aux entreprises, ni à la police, ni aux employeurs, ni aux voisins ! La santé doit rester à la médecine et la médecine ne doit pas devenir la police. Devant un homme malade, on ne doit pas mettre une application, mais bien un soignant.

Il va nous falloir accepter que tous nos remèdes contre le virus soient imparfaits, qu’aucun ne soit radical. Il va nous falloir apprendre à vivre avec les mauvaises herbes des coronavirus. Il va nous falloir faire avec, car nous n’aurons pas de solutions magiques et immédiates : ni tests à foison, ni masques, ni application magique !

Nous avons besoin de science, d’intelligence, de coopération et de réassurance. Il faut arrêter de terroriser les gens par des discours changeants, mais les aider à grandir et comprendre, comme le souligne, énervé, François Sureau. Ni les injonctions, ni la peur, ni le moralisme ne nous y aideront.

Une chose me marque beaucoup depuis le début de cette pandémie, c’est la colère et l’angoisse des gens, non seulement face à un confinement inédit, face à l’inquiétude d’une crise sans précédent qui s’annonce, mais surtout terrifié par la crainte de chopper ce terrible virus dont on leur parle en continu. Une inquiétude qui n’a cessé d’être aggravée par les injonctions contradictoires des autorités, par les changements de stratégies, les annonces démenties, les promesses non tenues, les retards dans les prises de décision… et plus encore les décisions infantilisantes, sans explications, voire prises en dépit du bon sens épidémique. Une population inquiète parce ce que nous savons que cette crise va durer longtemps et que nous n’avons aucune solution facile et immédiate à disposition. Une population angoissée par la perspective que la pandémie puisse faire 20 millions de morts sur la planète, 230 000 personnes en France (selon le taux de létalité de 0,37% : 230 000 morts, c’est ⅓ de la mortalité annuelle du pays — 600 000 morts par an). Une population rongée à l’idée de se retrouver seule et démunie à l’image de nos aînés, dont les derniers moments nous sont cachés, confisqués à leurs proches, d’une manière foncièrement inhumaine.

Nous avons besoin de décisions claires et sincères, d’explications qui aident à grandir et à comprendre. Nous en sommes loin ! Beaucoup trop loin ! Et j’avoue que de semaine en semaine, c’est ce qui m’inquiète le plus !

Hubert Guillaud




Technologies de crise, mais avec la démocratie

Le scénario d’une accentuation dramatique de la surveillance de masse est déjà sur la table, il suffit de jeter un œil à l’actualité planétaire de la pandémie pour s’en rendre compte.

Accéder aux articles déjà publiés dans notre dossier StopCovid

Pistage des déplacements géolocalisés, reconnaissance faciale, restriction des droits individuels les plus élémentaires, la technopolice qui partout se déploie est d’autant plus inquiétante qu’elle se légitime par la nécessité d’une lutte contre la crise sanitaire. Dès qu’il s’agit de sauver des vies (et la nôtre en particulier) il semble que tout passe au second plan. Après la pédopornographie, le cyberharcèlement, le terrorisme, c’est aujourd’hui la crise sanitaire qui est le cheval de Troie de la surveillance.

Pourtant, comme le montre la prise de position de l’association sans but lucratif Algorithmwatch que nous avons traduite ci-dessous, la démocratie et le respect de la vie privée ne sont nullement incompatibles avec le déploiement de technologies dédiées à la lutte contre la crise sanitaire. Cela nécessite cependant une résistance citoyenne coordonnée…

Article original : Automated decision-making systems and the fight against COVID-19 – our position

Traduction Framalang : CLC, goofy, jums, Barbidule

Les systèmes automatisés de prise de décision et la lutte contre le COVID-19 : notre position

par AlgorithmWatch

Alors que la pandémie de COVID-19 fait rage partout dans le monde, nombreux sont ceux qui se demandent s’il faut mettre en œuvre des systèmes automatisés de prise de décision (N.D.T. : en français, on parle de SIAD) pour y mettre un frein et, si oui, selon quelles modalités.
Différentes solutions sont proposées et mises en œuvre, qui vont des mesures autoritaires de contrôle de la population prises par la Chine jusqu’à des solutions décentralisées, orientées vie privée, comme l’application Safe Path du MIT.
Ci-après nous présentons un ensemble de principes possibles et de réflexions pouvant servir de base à une réflexion utile, démocratique et bien informée sur l’utilisation de systèmes SIAD dans le cadre de l’actuelle pandémie.

silhouettes de continents avec des zones ciblées en cercles concentriques rouges et vert suggérant l’étendue de la pandémie selon les zones géographiques

1. Le COVID-19 n’est pas un problème technologique. L’étude des réponses concrètes à la pandémie montre que les interventions efficaces prennent toujours racine dans des politiques de santé publique globales. Singapour, la Corée du Sud et Taïwan, fréquemment cités en exemple pour leur gestion de l’épidémie, avaient chacun un plan d’action en place, souvent conçu après l’épidémie de SRAS de 2003. Être prêt à affronter une épidémie va bien au-delà des seules solutions techniques : cela suppose des ressources, des compétences, de la planification, ainsi que la volonté politique et la légitimité pour les déployer lorsque c’est nécessaire.

2. Il n’y a pas de solution toute faite pour répondre à l’épidémie de COVID-19. Pour gagner le combat contre le virus, il faut combiner tests, traçage des contacts et confinement. Cependant, chaque contexte est unique. Un pays dans lequel le virus a circulé pendant des mois sans être détecté (comme l’Italie) n’est pas dans la même situation qu’un pays qui a identifié très tôt les porteurs du virus (comme la Corée du Sud). Les différences sociales, politiques et culturelles jouent également un rôle important lorsqu’on cherche à faire appliquer des politiques de santé publique. Cela signifie que la même solution peut aboutir à des résultats très différents selon les contextes.

3. Par conséquent, il n’y a aucune urgence à mettre en place une surveillance numérique de masse pour lutter contre le COVID-19. Il ne s’agit pas que d’une question de vie privée – quoique la vie privée soit un droit fondamental qui mérite d’être protégé. Avant même d’envisager les conséquences des applications de traçage numérique des contacts, par exemple en termes de protection des données personnelles, nous devrions nous demander : est-ce que cela fonctionne ? Or les résultats tirés de la littérature scientifique sur les épidémies antérieures sont mitigés, et dépendent éminemment du contexte. La protection des droits doit être mise en regard des bénéfices attendus (sauver des vies). Mais sacrifier nos libertés fondamentales est inutile si l’on n’en retire aucun bénéfice.

4. Les mesures de confinement devront prendre fin à un moment ou à un autre. Nous devons essayer d’imaginer comment revenir à la « normale ». La plupart des scénarios impliquent une sorte de surveillance numérique qui paraît indispensable si l’on prend en considération les aspects spécifiques du COVID-19 : existence de patients asymptomatiques pouvant être contagieux, période d’incubation de 14 jours, absence de tout remède ou vaccin à l’heure actuelle. Les acteurs de la société civile doivent être prêts à participer à la discussion sur les solutions de surveillance envisagées, afin de favoriser l’émergence d’approches appropriées.

5. La protection contre le COVID-19 et la protection de la vie privée ne s’excluent pas l’une l’autre. Les solutions comme celle que le MIT a développée (les Safe Paths) ou la plate-forme baptisée PEPP-PT (Pan-European Privacy Preserving Proximity Tracing) permettront un « contact tracing » numérique dans le cadre d’une approche ouverte et décentralisée, plus respectueuse des droits des personnes. C’est la solution que certains pays comme Singapour ont retenue pour traiter la question (via l’appli “TraceTogether”) contrairement à l’approche qui a été choisie par la Corée du Sud et Israël.

6. Toute solution doit être mise en œuvre d’une manière respectueuse de la démocratie. La démocratie n’est pas un obstacle à la lutte contre la pandémie : c’est au contraire le seul espoir que nous ayons de prendre des mesures rationnelles et qui respectent les droits de chacun. La plus haute transparence est nécessaire en ce qui concerne 1) les solutions technologiques à l’étude, 2) les équipes d’experts ou les institutions ad hoc créées pour les étudier, 3) les preuves qui justifient leur mise en œuvre, 4) les acteurs chargés de les implémenter et les déployer, en particulier si ce sont des acteurs privés. Seule une parfaite transparence pourra garantir que la société civile et les parlementaires sont en mesure de contrôler l’exécutif.

7. L’usage massif des données qui résulte du développement de systèmes automatisés d’aide à la décision dans le cadre de la lutte contre le virus va conduire à discriminer de nouvelles catégories sociales. Les pouvoirs publics doivent empêcher toute stigmatisation des personnes qui seraient classées dans les mauvaises catégories et veiller au respect des droits de ceux qui n’obtiennent pas de scores suffisamment élevés sur les échelles qui sont utilisées, notamment pour ce qui est du tri dans le système de santé.

8. Même si les systèmes de surveillance numérique prouvent leur utilité, ils doivent être mis en œuvre dans le strict respect des principes de protection des données : comme le Comité européen de la protection des données l’a précisé récemment, il convient de respecter les principes de nécessité, de proportionnalité, de pertinence et du droit en général même en cas d’urgence de santé publique. Tout citoyen doit être en mesure de faire appel d’une décision prise par un système automatique concernant le COVID-19 (en particulier les applications qui déterminent si une personne a été en contact avec une personne contaminée et si celle-ci doit être mise en quarantaine). Les gouvernements et les entreprises qui contractualisent avec eux doivent respecter le RGPD.

9. Les systèmes automatisés d’aide à la décision qui existent déjà ne devraient pas être adaptés pour être mis en œuvre dans le cadre de la pandémie actuelle. En effet, ces systèmes, qui reposent sur des données d’apprentissage anciennes, ne peuvent pas, de ce fait, supporter un changement soudain des conditions dans lesquelles ils sont déployés. La police prédictive, l’aide automatisée aux juges, l’évaluation de la solvabilité et les évaluations issues d’autres SIAD pourraient produire des résultats beaucoup éloignés des intervalles habituels (par exemple en raison des taux d’erreur). Il faudrait de toute urgence les vérifier, voire en suspendre l’utilisation.

10. Par définition, une pandémie touche la planète entière. Il est nécessaire d’y répondre à l’aide d’un ensemble de réponses globales, diverses et coordonnées. Ces réponses devraient être surveillées par un réseau mondial d’organisations de la société civile travaillant main dans la main. Les précédentes crises ont montré que les situations d’urgence fournissent à certains leaders politiques peu scrupuleux une excuse pour légitimer la mise en place d’infrastructures de surveillance de masse qui violent, inutilement et indéfiniment, les droits des citoyens. La résistance (partiellement) victorieuse n’a été possible que lorsque celle-ci a été globale, coordonnée et bien construite, avec des précisions et des preuves solides de notre côté.

11. Et enfin, nous devons nous assurer que ce débat sur la surveillance pendant le COVID-19 ne se déroule pas dans le vide. Certains SIAD, en particulier la reconnaissance faciale, ont déjà prouvé qu’ils étaient problématiques. L’état d’urgence sanitaire actuel ne peut pas être invoqué pour justifier leur déploiement : bien au contraire, tous les problèmes signalés « en temps ordinaire » – le manque de précision, les biais systématiques dans leur mise en œuvre, des préoccupations plus larges concernant les abus possibles de données biométriques, etc. – deviennent encore plus aigus lors de moments exceptionnels, quand la santé et la sécurité de chacun sont en jeu. Nous devons non seulement veiller à ce que ce débat crucial ne soit pas confisqué par les technologues ou les technologies, mais aussi nous assurer que les technologies concernées aient prouvé qu’elles profitent à la société. La mise entre parenthèses des communications en chair et en os donne une occasion de procurer en ligne encore plus de services sociaux et autres services de base, là où les SIAD remplacent souvent les travailleurs sociaux. Cela pourrait avoir des conséquences catastrophiques pour les citoyens qui n’ont pas d’accès aux outils numériques ou aucun moyen de les comprendre avec un recul critique. Nous devons nous assurer que cela n’arrivera pas.

 

Auteur principal : Fabio Chiusi, avec la collaboration de Nicolas Kayser-Bril




Publicité segmentée : la méthode Cacarico

Aujourd’hui, c’est une interview de Franck Riester sur France Inter (et particulièrement ce passage sur la publicité segmentée) qui a fait réagir notre grisebouilleur Gee…

Sources :

Crédit : Gee (Creative Commons By-Sa)