Juste un autre article sur les licences libres

Dans le cadre du librecours Libre Culture qui a ouvert ses portes le 6 avril 2020 j’ai été amené à produire une synthèse sur les licences libres que je vous livre ici.

À noter : cet article bénéficie désormais d’une version audio.
Merci à Sualtam, auteur de lectureaudio.fr pour cette contribution active.

Le droit d’auteur et les licences libres forment un cadre général qui offre plusieurs régimes possibles pour le contenu publié sur le Web.

Je propose ici une classification en six grandes catégories :

  • contenus à péage monétaire ou publicitaire
  • contenus en accès gratuit tous droits réservés
  • contenus en libre accès quelques droits réservés
  • contenus libres et ouverts avec copyleft
  • contenus libres et ouverts sans copyleft
  • contenus « zéro restriction » (au plus près, voire au-delà, du domaine public)

dessin humoristique de gégé, le Geektionnerd generator : un gars présnte une vaste liste écrite et dit "Auijourd’hui je vous explique les licences libres". Un groupe de personnes lui tourne le dos et s’en va dans l’autre sens

Contenus à péage monétaire ou publicitaire (non FLOSS, non Open Access, all right reserved)

On appelle sites à péage (paywall) les sites mis à disposition par des organisations qui restreignent l’accès au contenu qu’elles publient. Ce sont en général des ayants droit, c’est-à-dire des personnes physiques ou morales qui disposent d’un accord de cession de droits patrimoniaux avec des auteurs.

L’accès au contenu est réservé aux personnes qui acceptent de verser une contrepartie. Usuellement on appelle contenus à péage ceux qui demandent une contrepartie monétaire, mais je propose également d’inclure ceux qui exposent de la publicité et donc demandent une contrepartie attentionnelle. L’accès n’est pas payé en monnaie, il est payé en temps (passé à regarder de la publicité).

On distingue donc :

  • les contenus à péage monétaire : il est nécessaire de payer pour consulter les contenus
  • les contenus à péage publicitaire : il est nécessaire de consulter de la publicité pour consulter les contenus

Le régime de ces contenus est strictement celui du droit d’auteur :

  • L’utilisateur seulement le droit de consulter le contenu (une fois le péage acquitté).
  • Il n’est pas possible de copier le contenu (en dehors des exceptions prévues, comme le droit de citation ou l’exception pédagogique par exemple).

Exemple de sites à péage monétaire (que je consulte) :

  • site à péage monétaire : Médiapart, NextInpact
  • site à péage publicitaire : Numérama

Considérations personnelles sur les sites à péage

« La documentation secrète est une injure faite à la documentation (Briet4, 1951) ». Je souhaite un monde dans lequel tous les documents sont librement accessibles, mais le fonctionnement économique de nos sociétés fait que certains éditeurs ont du mal à proposer d’autres solutions que les péages.

À titre personnel je ne consulte quasiment jamais volontairement de sites à péage publicitaire. J’utilise un bloqueur de publicité et je ne le désactive que très rarement. J’utilise un bloqueur de publicité non pas pour consulter du contenu sans payer le péage publicitaire, mais parce que la structure du Web fait que je suis régulièrement renvoyé vers de tels contenus. J’adopterais volontiers un système qui marquerait mes recherches ou mes liens de telle façon que je puisse choisir de ne pas consulter de sites à péage publicitaire.

Je suis en revanche abonné à quelques sites à péage monétaire.

strip de Nina Paley en 3 images où échangent Mimi et Eunice. "Mon œuvre est libre… sauf pour un usage commercial, c’est le mal, je l’interdis !" dit Eunice en montrant les dents. dans la dernière image toutefois "plus tard", il pleurniche "Ouin ! personne n’arrive à gagner de l’argent sur Internet ! "
extrait de Mimi & Eunice par Nina Paley – Traduction Framalang – Copyheart

Contenus en accès gratuit (non FLOSS, gratis Open Access, all right reserved)

Tout contenu publié sur le Web (sans être associé à une licence) entre dans cette catégorie.

Il s’agit de contenus publics pour lesquels s’applique le droit d’auteur :

  • Chacun peut librement le consulter.
  • Il n’est pas autorisé de le copier sans autorisation de l’auteur ou de l’ayant droit.

Quelques exemples et contre-exemples :

  • C’est le cas de la majorité des contenus publiés par des entreprises privées sur leurs sites web.
  • C’est le cas de la majorité des contenus publiés par les individus sur des supports tels que les blogs, posts de réseaux sociaux, sites personnels, etc.
  • C’est partiellement le cas des archives scientifiques ouvertes comme HAL, dont certains articles sont sous licence libre et d’autres non.
  • Ce n’est la plupart de temps pas le cas des sites publics qui ont de plus en plus obligation de publier leurs données sous des licences libres.
  • Ce n’est pas le cas de Wikipédia qui propose une licence libre.

Considérations personnelles sur l’accès gratuit

Une partie significative, sinon la totalité, de nos documents numériques devraient être a minima disponibles en accès gratuit. Le coût est quasi nul et le bénéfice du partage de l’information très important pour l’humanité.

Cela devrait être le cas notamment :

  • de la totalité des contenus pédagogiques
  • de la totalité des contenus scientifiques
  • de la totalité des contenus relatifs aux lois
  • de la totalité des contenus techniques liées à l’usage des machines
  • etc.

Contenu en libre accès (non FLOSS, libre Open Access, some right reserved)

Les mouvements Creative Commons1(principalement issu du domaine culturel) et Open Access2 (principalement issu du domaine scientifique) ont permis de proposer des licences intermédiaires entre les licences libres (FLOSS3) et les restrictions par défaut imposées par le droit d’auteur.

Les deux principales limites d’usage introduites par les Creative Commons sont :

  • la non autorisation de l’usage commercial (non commercial)
  • la non autorisation de la modification de l’œuvre (non dérivative)

On parle aussi de licences dites some right reserved (quelques droits réservés). On note qu’il ne s’agit pas d’une interdiction d’usage, mais d’une non autorisation à priori. Il est toujours possible d’établir un autre contrat avec l’auteur ou les ayants droit en dehors des droits libérés par la licence.

Exemples :

  • Les licences Creative Commons CC BY-NC, CC BY-ND, CC BY-NC-ND et CC BY-SA-NC comportent la clause non commercial et ou non derivative.
  • La licence éé (Édition Équitable) proposée par C&F Édition autorise la copie au sein du cercle familial et amical, mais ne permet pas la rediffusion massive à des inconnus.
  • À noter que certaines initiatives explorent la notion de licences éthiques, dont l’objectif est de ne pas autoriser certains usages à priori antagonistes avec le cadre éthique des auteurs (industries polluantes, industries de l’armement, partis politiques, etc.) ou d’autoriser uniquement les usages dans des cadres prévus à priori (protection de l’environnement, humanitaire, etc.)

Considérations personnelles sur le libre accès

Le libre accès est un intermédiaire, il en a les avantages et les défauts : c’est une réponse imparfaite à une question mal posée.

On notera que l’initiative éé ou certains projets de licences éthiques sont intéressants pour tenter de concilier volonté de diffusion et tentative de préservation de son modèle économique ou de ses valeurs. Mais ce sont dans les faits plus des projets de communication que des solutions légales, il sera très difficile de les défendre en dehors de cas emblématiques.

Comment définir un cadre « commercial » sur le Web ? Que se passe-t-il si une Scop fait une formation rémunérée pour une association loi 1901 avec des contenus en NC ? Comment décider de ce qui est une modification ou pas ? Que se passe-t-il pour le transcodage d’une vidéo sous licence ND ? On ne peut pas changer la résolution source d’une image sous NC, mais l’utilisateur peut changer la taille de l’image en utilisant le zoom de son navigateur ?

En fin de compte :

  • C’est plus ou moins équivalent à des licences libres pour lesquelles l’auteur aurait affiché : « je libère mon contenu, mais je souhaite qu’il ne soit pas utilisé pour ça et ça ».
  • C’est plus ou moins équivalent à des licences non libres pour lesquelles l’auteur aurait affiché : « je ne libère pas mon contenu, mais si vous êtes dans ce cadre, je suis content que vous l’utilisiez et je ne vous embêterai pas ».

dialogue entre Mimi artiste-peintre devant son chevalet et Eunice avec attaché-case : « le droit d’auteur favorise la création — La création de quoi ? — de procès ! »
extrait de Mimi & Eunice par Nina Paley – Traduction Framalang – Copyheart

Contenus libres avec copyleft (FLOSS, Open Access, copyleft)

Le mouvement libriste est né avec la licence libre copyleft. Cette licence promue par la Free Software Foundation pose les quatre règles fondatrices du logiciel libre (exécuter, étudier, copier, améliorer) dans la mesure où ces règles restent préservées. Il n’est typiquement pas autorisé de procéder à une redistribution qui n’autorise pas elle-même la copie selon les mêmes termes.

Le terme copyleft est un double jeu de mot, dérivation de copyright, droit d’auteur, en « gauche d’auteur » et « laisser copier ».

  • La licence historique de ce mouvement est la licence GPL, largement utilisée dans le monde du logiciel libre.
  • Pour les contenus culturels on peut citer la licence CC BY-SA, pour share-alike ou la Licence Art Libre (LAL).

À noter qu’un logiciel ou contenu libre n’est pas nécessairement gratuit, même si la possibilité de le copier tend en général à des formes de distribution gratuites. On peut avoir à payer un support pour se procurer un livre imprimé par exemple, ou un service, pour bénéficier de l’hébergement d’un service web. La liberté de copier n’est pas en cause, vous pouvez ré-imprimer le livre ou héberger le service par vos propres moyens.

Considérations personnelles sur le copyleft

Il s’agit de la licence que j’utilise le plus couramment, mes cours sont sous CC BY-SA, mon roman sous LAL et les quelques petits bouts de code que j’écris sous GPL.

 

couverture du Framabook de Stéphane Crozat > Traces
NDLR : le roman de Stéphane est beaucoup plus drôle que cet article. ^^

 

Il y a un débat historique entre les licences avec ou sans copyleft. Une terminologie s’est mise en place pour distinguer les logiciels « libres », qui seraient ceux avec copyleft, des logiciels « open source », qui seraient sans copyleft. Cette terminologie est née du fait que les premiers sont promus par la FSF et les seconds par l’OSI (Open Source Initiative). Mais c’est une terminologie discutable, car :

  • avec ou sans copyleft les logiciels sont bien open source,
  • la notion de liberté est ici et ailleurs toujours compliquée à cerner.

Certains argumenteront qu’un logiciel sans copyleft impose moins de restrictions et donc est plus libre ; d’autres que donner la liberté de priver de liberté c’est contraire à la liberté. C’est un débat intense au sein des communautés, je me contente ici de donner mon point de vue.

  • Je considère à priori que moins de règles, c’est mieux, donc j’aurais tendance à préférer en première approche une licence sans copyleft, mais il y a un rapport de force en place qui est problématique. Des acteurs puissants (éditeurs de logiciels et éditeurs de contenus culturels) ont la possibilité de se rapproprier les contributions libres et d’en faire bénéficier leur économie, dont acte. Mais s’ils ont la possibilité en plus d’améliorer ces contributions sans en reverser les améliorations, cela signifie qu’ils peuvent systématiquement prendre des objets libres, les améliorer et les distribuer sans licence libre. Cela aura comme conséquence d’affaiblir les solutions libres et de renforcer les solutions non libres, ce qui est l’exact contraire de l’objectif visé initialement.
    Encore une fois c’est un débat complexe et les opposants au copyleft feront également valoir des arguments intéressants comme le fait que ces éditeurs gardent un intérêt à repartager pour continuer de bénéficier des améliorations apportées par les communautés libristes ou par d’autres éditeurs.
  • Je fais le parallèle avec la notion de discrimination positive, ce n’est pas un choix de conviction, c’est un choix pragmatique, qui va plutôt à l’encontre de l’idée de base (liberté d’usage ou égalité de traitement) mais qui, dans un rapport de force défavorable, paraît nécessaire à l’établissement de la liberté ou l’égalité visées.
  • On a coutume de dire que le terme logiciel libre est mal choisi : ce n’est pas le logiciel qui est libre, mais l’humain qui l’utilise. On peut considérer que le copyleft donne moins de liberté à l’humain, mais plus à l’humanité.

Contenus libres sans copyleft (FLOSS, Open Access, non copyleft)

Les licences libres sans copyleft autorisent tous les usages à priori à condition que l’auteur, ainsi en général que la source et la licence, soient mentionnées. Cela autorise donc en particulier l’intégration d’un code logiciel dans un logiciel propriétaire ou un contenu culturel dans un ouvrage non libre.

  • Les licences MIT ou BSD sont des exemples de licences sans copyleft pour les logiciels libres.
  • La licence CC BY est la licence sans copyleft la plus commune pour les contenus culturels.

comic strip 3 images de Nina Paley avec les deux personnages Mimi et Eunice. Mimi veut retirer sa brique personnelle du mur que vinet de bâtir Mimi avec de la récup et du recyclage. "C’est MA brique" ! Résultat : le mur s’effondre dans la dernière image tandis qu’Eunice s’en va satisfait avec SA brique à la main
Extrait de Mimi & Eunice par Nina Paley – Traduction Framalang – Copyheart (à partager avec <3).

Considérations personnelles sur les licences sans copyleft

Je considère les licences sans copyleft lorsque j’évalue que :

  1. le copyleft peut bloquer ou ralentir des usages que je n’ai pas envie d’empêcher ;
  2. le contenu n’est pas facilement améliorable de toute façon.

Par exemple la vidéo d’une conférence ou d’un cours sera selon moi plus facilement diffusable sous CC BY parce que je n’imagine pas en quoi il est vraiment possible d’améliorer la vidéo. On peut imaginer une coupe d’un segment non pertinent, ou l’incrustation d’éléments complémentaires intéressants, mais on est dans des pratiques très marginales.

Contenus « zéro restriction » (ou Do What The Fuck You Want)

Certaines licences comme la licence Creative Commons Zero (CC0) consistent pour l’auteur à autoriser les usages les plus larges possible dans la limite de la loi. Cela équivaut à mettre volontairement son œuvre dans le domaine public.

La loi empêche dans certains pays, dont la France, de lever toute restriction sur le contenu. Ainsi le droit moral est inaliénable, il n’est donc pas légalement possible d’y renoncer et d’autoriser quelqu’un à utiliser son contenu sans a minima être cité en tant qu’auteur. Le domaine public français consiste en l’épuisement des droits patrimoniaux uniquement, on ne peut donc pas jouer un opéra de Mozart sans dire qu’il est de Mozart.

Techniquement cela revient à dire que des licences comme la CC BY sont les licences les plus permissives possible en France et donc que des licences comme la licence CC-0 sont équivalentes. Notons que c’est vrai pour le moment, mais qu’une évolution future du droit d’auteur vers plus de liberté d’usage (ce qui n’est pas la tendance historique) pourrait permettre aux licences zéro restriction d’ouvrir de nouveau droits.

On notera l’existence de licences « zéro restriction » plus poétiques que la CC0 :

La Copyheart dont le résumé est : Copying is an act of love, please copy, (« Copier est un acte d’amour, veuillez copier »)

La Do What The Fuck You Want to Public License, dont la seule clause, numérotée 0 est : « You just DO WHAT THE FUCK YOU WANT TO » (« Faites exactement ce que vous voulez, bordel ! »)

 

Considérations personnelles sur les licences « zéro restriction »

Ces licences n’ayant pas de valeur légale aujourd’hui différente des licences sans copyleft, leur usage relève avant tout d’un militantisme visant une réforme radicale du droit d’auteur (qu’à titre personnel je partage, considérant que le droit d’auteur fait en réalité plus de mal que de bien, rémunérant trop mal les auteurs, trop bien les éditeurs, entraînant des restrictions d’accès néfastes pour l’accès aux savoirs, et conduisant à une répression inadaptée).

Néanmoins je ne les utilise pas, car elles informent moins bien sur les devoirs de l’utilisateur : en particulier un utilisateur peu averti pourra croire qu’il est effectivement autorisé à faire ce qu’il a envie de faire, ce qui n’est pas vrai.

Mais la plupart du temps, je suis plutôt d’accord : just do what the fuck you want to!

Précision : la loi avant le contrat

Les licences sont des contrats passés dans le cadre juridique du droit d’auteur. La loi étant supérieure aux contrats, les licences libres restent soumises au régime du droit d’auteur. On notera l’adresse de leurs promoteurs qui ont réussi malgré tout à rendre possible une prise de distance d’avec les restrictions imposées par le droit d’auteur, pour ceux qui le souhaitent.

Conclusion : pour interdire il faut une bonne raison et une certaine détermination

Je ne suis pas contre toutes les interdictions en principe, mais je pense que pour interdire quelque chose, il faut une bonne raison et une volonté de faire appliquer l’interdiction. Si vous dites à quelqu’un : ne fais pas ça, alors que vous n’avez pas vraiment d’argument pour interdire et qu’en plus vous ne prenez aucune mesure s’il transgresse votre interdiction… la plupart du temps l’autorisation aurait été plus simple. Le fait pour un créateur de ne pas associer de licence à son contenu équivaut à maintenir les interdictions prévues par le droit d’auteur. Le fait de choisir une licence restrictive équivaut également à interdire quelque chose.

Les licences sont des outils légaux, donc pour choisir une licence avec des restrictions, il faudrait être prêt à poursuivre en justice ceux qui ne les respectent pas. C’est possible, et les associations de promotions des logiciels libres peuvent aider à cela. Mais il faut être prêt à le faire.

Si on n’est pas prêt à le faire, il faut au moins être prêt à dénoncer publiquement l’irrespectueux qui outrepassera les interdictions. C’est également possible. Mais il faut être prêt à le faire.

Si l’on n’est prêt ni pour l’un ni pour l’autre, le choix du cadre le plus permissif est certainement le plus adapté.

 

Merci à Pouhiou de ses retours qui m’ont permis de compléter la fin de l’article.

 

  1. CC (Creative Commons) : Creative Commons est une association à but non lucratif dont la finalité est de proposer une solution alternative légale aux personnes souhaitant libérer leurs œuvres des droits de propriété intellectuelle standard de leur pays.»
  2. OA (Open Access) : Le terme Open Access désigne la possibilité de consulter sans restriction un contenu publié sur le web. Il s’oppose aux contenus soumis à péage (paywall) pour lesquels il existe une contrepartie à la consultation du contenu.

    Pris dans sa généralité l’OA et synonyme de gratis OA et n’implique pas nécessairement le doit de recopier le contenu en Open Access, ce qui est prévu par le libre OA.

  3. FLOSS (free/libre/open-source software) : Le terme FLOSS désigne l’ensemble des logiciels libres au sens de la FSF (par exemple la GPL) et open source au sens de l’OSI (par exemple la BSD). Cela permet de désigner globalement cette classe de logiciels sans entrer dans le détail de leurs licences. Le terme de logiciel libre est souvent utilisé pour désigner globalement les logiciels FLOSS.
    On pourra l’utiliser par extension pour des contenus libres plutôt que des logiciels libres (par exemple les licences CC BY et CC BY-SA).

    On utilise parfois le terme FOSS (free and open-source software) : le terme français libre parait un peu étrange dans l’acronyme anglais, mais il résulte du fait que free est polysémique en anglais et qu’il signifie à la fois libre et gratuit (or c’est ici le sens libre est qui est visé et non gratuit, un logiciel ou contenu libre n’est pas forcément gratuit).
    Gratis OA (Gratis Open Access) : Le terme gratis Open Access désigne la possibilité pour chacun de consulter un contenu sans restriction, et en particulier sans avoir à verser aucune contre partie monétaire ou d’une autre nature.
    En revanche il n’implique pas le droit de copier et redistribuer le contenu, par opposition au libre Open Access qui prévoit ce droit en plus.
    Le terme gratis est préféré en anglais à free qui signifie à la fois libre et gratuit.
    Libre OA (Libre Open Access) : Le terme libre Open Access désigne la possibilité pour chacun de consulter un contenu sans restriction, ainsi que le droit de copier le contenu selon des termes prévus par une licence plus ou moins permissive. Le terme libre est préféré en anglais à free qui signifie à la fois libre et gratuit.

  4. Briet, 1951 : Briet Suzanne. 1951. Qu’est-ce que la documentation ?. Éditions documentaires, industrielles et techniques. http://martinetl.free.fr/suzannebriet/questcequeladocumentation.

 




StopCovid : le double risque de la “signose” et du “glissement”

Nous sommes aujourd’hui très honoré⋅e⋅s de pouvoir publier cet article d’Hubert Guillaud. Depuis de nombreuses années, Hubert Guillaud publie des analyses précieuses autour du numérique sur le site InternetActu.net dont il est le rédacteur en chef (nous vous invitons vivement à découvrir ce site si vous ne le connaissiez pas, et pas seulement parce qu’il est soutenu par nos ami⋅e⋅s de la Fing).

Nous republions ici avec son accord un article initialement publié sur Medium, qui interroge les risques autour de l’application StopCovid.

C’est donc le troisième article que le Framablog publie aujourd’hui sur cette application. Le premier, traduit par le (fabuleux) groupe de traduction Framalang, reprenait les arguments en une dizaine de points de l’organisation AlgorithmWatch. Le second, rédigé par Christophe Masutti, administrateur de Framasoft et auteur de « Affaires Privées, au sources du capitalisme de surveillance », faisait le lien entre (dé)pistage et capitalisme de surveillance.

Pourquoi un troisième article, alors ? D’abord, parce qu’Hubert Guillaud prend le problème de StopCovid sous un autre angle, celui du risque de « faire de la médecine un travail de police », comme le dit l’écrivain Alain Damasio. Mais aussi parce qu’il pose clairement la problématique de notre acceptation de « solutions techniques », en tant qu’individu comme en tant que société. Cette acceptation est d’ores et déjà facilitée (préparée ?) par de nombreux médias grands publics qui présentent StopCovid comme une solution pour sortir plus vite du confinement, à grands coups de sondages auprès d’une population sur-angoissée et mal-informée. « Les algorithmes ne sont pas l’ennemi. Le vrai problème réside dans notre paresse à nous gouverner », nous dit la chercheuse Antoinette Rouvroy, citée dans cet article. Assurons nous de faire l’effort de ne pas être paresseux.

Accéder aux articles déjà publiés dans notre dossier StopCovid

 



L’application StopCovid sera donc basée sur le volontariat et le respect des données personnelles, comme l’expliquaient le ministre de la Santé, Olivier Véran, et le secrétaire d’État au numérique, Cédric O, au Monde. Très bien ! C’est la loi !, a rappelé la CNIL. L’application de pistage massif des Français sera chiffrée et les données complètement anonymisées complète Mediapart. Elle sera une “brique” de déconfinement parmi d’autres (qui n’ont pas été annoncées). On nous l’assure !

Soit ! Mais pour combien de temps ? Quelle sera la durée de cette assurance ? Que dirons-nous quand mi-mai, fin mai, mi-juin, nous n’aurons toujours ni masques ni tests en quantité suffisante (les autres “briques”, je suppose ?) ?

Le risque face à une absence de masques et de tests qui est là pour durer est que cette brique logicielle devienne un peu le seul outil à notre disposition pour “déconfiner”. Que StopCovid, de “brique incertaine” devienne le seul outil prêt à être utilisé, tout comme aujourd’hui l’attestation dérogatoire de déplacement est devenue le seul outil de maîtrise du confinement qu’on renforce d’arrêtés municipaux ou nationaux (quand ce n’est pas d’appréciations liberticides des agents) sans réelle motivation sanitaire (comme l’interdiction de courir ou de faire du vélo ou la fermeture des parcs ou pire encore des marchés : alors qu’on peut organiser des marchés voir des commerces non essentiels comme des accès aux espaces verts avec des règles de distanciations sociales). Et donc que tout le monde souhaite le renforcer : en le rendant peut-être obligatoire et pire peut-être en le rendant accessible au contrôle policier ! Et dans l’urgence et le dénuement, pour sortir d’une crise qui se révèle chaque jour plus dramatique, nul doute que nombreux seront prêt à s’y précipiter !

Le problème principal de StopCovid, c’est de ne reposer sur aucune science ! La seule étude disponible sur le sujet dans Science estime que ce type d’application doit accueillir 60% de la population pour être efficace et être associée à une politique de dépistage — dont nous ne disposons pas !

À Singapour, l’application TraceTogether, qui rassemblait 15% de a population, pourtant couplée au dépistage n’a pas suffi, comme le rappelle Olivier Tesquet pour Télérama ou Margot Clément depuis Hong Kong pour Mediapart : c’est certainement le signe (pas assez fort pourtant) que ce n’est pas une solution.

L’entrepreneur et spécialiste de l’intelligence artificielle Rand Hindi a très clairement exposé le fonctionnement d’une application de ce type, dans un thread sur Twitter !

Il semble y avoir beaucoup de confusion au sujet de l’efficacité et confidentialité de l’app #StopCovid. Je vais ici tenter d’expliquer la techno DP3T sous jacente et pourquoi dépendre du volontariat n’apportera pas les résultats espérés. #privacy #covid19 @cedric_o @olivierveran

— Rand Hindi (@randhindi) April 9, 2020

À lire ce thread (lisez-le !), chacun comprendra que la confidentialité des données ne devrait pas être le problème de cette application si elle respecte les développements prévus ! On semble plutôt là devant une technologie “privacy by design”, conçue pour préserver la vie privée ! Et le déploiement d’un outil aussi respectueux des individus devrait être salué ! Mais les bons points en matière technique ne suffiront pas à pallier les deux risques d’usages que masque StopCovid.

Le risque de la “signose” : “prendre le signal pour la chose” !

Comme s’en désespère la philosophe du droit Antoinette Rouvroy, le coeur du problème de nos outils d’analyse de données, c’est de relever bien plus d’une “signose” plutôt que d’une diagnose. Une signose consiste à “prendre le signal pour la chose”. C’est-à-dire transformer le signe (la barbe) en signal (la radicalisation) ! Souvenez-vous ! C’est le problème fondamental qui se cache dans les outils d’analyse automatisés et que dénoncent sans relâche nombre de spécialistes du sujet, comme la mathématicienne Cathy O’Neil ou Kate Crawford par exemple.

StopCovid transforme la proximité avec un malade (le signe) en signal (vous avez été infecté) pour déclencher une alerte nécessitant un traitement (confinement, test).

Image : illustration schématique du fonctionnement de StopCovid par LeMonde.fr.

Son inverse, la “diagnose”, elle transforme des symptômes (fièvre, test) en diagnostic (positif ou négatif) pour déclencher un traitement (confinement, prescription médicale, soins…).

Le problème de StopCovid comme d’autres solutions de backtracking proposées, c’est de transformer une notion de proximité en alerte. Or, être à proximité d’un malade ne signifie pas le devenir automatiquement ! La médecine a besoin de suivre et confiner les malades, ceux qu’ils contaminent et ceux qui les ont contaminés. Mais cela ne peut pas se faire sur la base de conjoncture, de corrélation, d’approximation, de proximité et de localisation.

Très souvent, le coeur des problèmes des systèmes réside dans les données utilisées et dans les décisions très concrètes qui sont prises pour décider ! Ici, tout le problème de cette proximité réside dans sa définition, sa qualification. Comment est définie la proximité par l’application ? Quelle durée ? Quelle distance ? Quelles conditions ? Quel contexte est pris en compte ? Et pour chacun de ces critères avec quelle précision et quelle fiabilité ? Pour reprendre les termes de Rand Hindi, le fait que Bob ait été à proximité d’Alice ne signifie pas qu’il ait été contaminé ! Si on ne peut pas apprécier les conditions de cette proximité, celle-ci risque d’être peu pertinente ou de déclencher beaucoup de faux positifs. Ou de refléter bien autre chose que l’exposition virus : des conditions sociales inégalitaires : une caissière de supermarché aura bien plus de chance de croiser un malade qu’un cadre qui va pouvoir continuer à limiter ses interactions sociales et ses déplacements. Pourtant, celle-ci est peut-être protégée par un plexiglas, des gants, des masques… des mesures de distanciation pris par son employeur : elle aura croisé des malades sans qu’ils la contaminent, quand le cadre aura pu croiser l’enfant d’un ami (sans téléphone) qui lui aura toussé dessus. Bref, StopCovid risque surtout de sonner bien plus pour certains que pour d’autres ! Toujours les mêmes !

En réduisant le contexte à une distance, à une proximité, StopCovid risque surtout d’être un outil approximatif, qui risque de renvoyer la plupart d’entre nous, non pas à notre responsabilité, mais à des injonctions sans sens. À nouveau, proximité n’est pas contamination : je peux avoir été dans la file d’attente d’un magasin à côté d’un malade ou avoir parlé à un ami malade en gardant les gestes barrières et sans avoir été infecté !

Le risque bien sûr, vous l’aurez compris, est que StopCovid produise énormément de “faux positifs” : c’est-à-dire des signalements anxiogènes et non motivés ! Dont il ne nous présentera aucun contexte : on ne saura pas ni qui, ni quand nous avons été à proximité d’un malade, donc incapable d’apprécier la situation, de lui rendre son contexte pour l’apprécier. Nous serons renvoyés à l’injonction du signal ! Sans être capable de prendre une décision informée (dois-je me confiner ? me faire tester — pour autant que ce soit possible !?).

En fait, quand on regarde un questionnaire d’enquête épidémiologique — par exemple, dans une forme très simple, prenons celui-ci proposé pour des cas de co-exposition au virus, on se rend compte que la proximité n’est pas le seul critère évalué. Les dates, les symptômes, l’état de santé de l’exposé, le degré de relation et sa description sont essentiels. Ils permettent notamment d’évaluer très vite un niveau de risque : faible, modéré ou élevé. Une enquête épidémiologique consiste à répondre à des questions sur ses relations, les lieux qu’on a fréquentés, les gens qu’on côtoie plus que ceux que l’on croise, ceux dont on est proche : qu’on touche et embrasse… L’important n’est pas que le questionnaire comme vous diront tous ceux qui mènent des enquêtes, c’est également la relation, la compréhension d’un mode de vie, d’un niveau de risque (respectez-vous les gestes barrières : assidûment ou pas du tout ?). Bref, l’important, c’est aussi d’introduire du rapport humain dans le suivi épidémique. Ce qu’une appli ne peut pas faire sauf, comme vous le diront leurs promoteurs, en collectant toujours plus de données, en étant toujours plus liberticides, pour qualifier toujours mieux le signe en signal !

Le risque des “glissements liberticides et discriminatoires” : de la contrainte à l’obligation !

Le risque c’est qu’en l’absence de tests, de masques (et cette absence va durer !), StopCovid devienne le seul recours d’une politique sanitaire de catastrophe. Le risque est — comme toujours — de “glisser” d’une signose à une politique. Ce que j’appelle “le glissement”, c’est le changement de finalité et l’évolution des autorisations d’accès. C’est le moteur de l’innovation technologique (une manière de pivoter dirait-on dans le monde entrepreneurial, c’est-à-dire de changer la finalité d’un produit et de le vendre pour d’autres clients que son marché originel). Mais le glissement est aussi le moteur de la surveillance, qui consiste bien souvent à transformer des fonctions simples en fonctions de surveillance : comme quand accéder à vos outils de télétravail permet de vous surveiller. Le risque du glissement consiste à faire évoluer dans l’urgence les finalités de l’application StopCovid, qu’elles soient logicielles ou d’usage. C’est ce dont s’inquiète (.pdf) très justement le comité consultatif national d’éthique en prévenant du risque de l’utilisation de l’application pour du contrôle policier ou du contrôle par l’employeur. Même inquiétude pour La Quadrature du Net et l’Observatoire des libertés numériques : le risque c’est qu’une “telle application finisse par être imposée pour continuer de travailler ou pour accéder à certains lieux publics”.

Or, il n’existe aucune garantie contre ces “glissements”… d’autant plus quand la colère et la crainte, la crise économique, le manque de tests et de masques, la durée du confinement, vont rendre le déconfinement encore plus pressant et l’exaspération encore plus réactive. Le risque le plus évident bien sûr est que votre employeur demande à voir votre application sur votre smartphone chaque matin ! Les commerçants, les bars, les policiers, les voisins… Que StopCovid devienne le “certificat d’immunité”, qu’évoquait dans son plan de déconfinement — tout à fait scandaleusement il me semble — la maire de Paris, Anne Hidalgo (sans compter qu’elle l’évoque comme un moyen de contrôle par l’employeur qu’elle représente, la Ville de Paris !). Le “glissement” le plus insidieux c’est que StopCovid devienne une application non pas obligatoire, mais injonctive. Que la santé de chacun soit à la vue de tous : employeurs, voisins, police ! Que nous devenions tous des auxiliaires de police plutôt que des auxiliaires de santé !

L’autre risque du certificat d’immunité, comme le souligne Bloomberg, c’est de faire exploser nos systèmes de santé par un déconfinement total, massif, calculé, où le seul sésame pour participer au monde de demain serait d’avoir survécu au virus ! Un calcul bien présomptueux à ce stade : Pourquoi ? Parce que pour l’instant, on évalue le nombre de Français immunisés par le virus à 10–15% pour les évaluations les plus optimistes, d’autres à 1,5 million soit seulement 2% de la population (et encore bien moins si on rapporte le taux de létalité de 0,37% au nombre de morts). Arriver à 60% d’immunité n’est pas le meilleur pari à prendre à court ou moyen terme !

Dans sa note (.pdf) (complète et intéressante) recensant les différentes techniques de pistage existantes, l’inénarrable Mounir Mahjoubi, ex-Secrétaire d’État au numérique, concédait un autre glissement : celui de l’obligation à utiliser une application comme StopCovid. Pour atteindre le taux d’usage de 60% de la population, Mahjoubi soulignait que “les autorités pourraient être ainsi être tentées de recourir à des mesures coercitives pour motiver l’installation”. Dans son analyse l’entrepreneur Rand Hindi arrivait à la même conclusion, en pire : rendre l’application obligatoire et faire que les autorités puissent accéder aux personnes qui reçoivent une alerte pour leur “appliquer” un confinement strict ! C’est-à-dire lever la confidentialité de l’état de santé, rien de moins.

L’application — pourtant “privacy by design” — n’est pas encore déployée que déjà on nous prépare aux glissements, autoritaires ou contraints ! Le risque bien sûr est de passer d’un contrôle des attestations à un contrôle de l’application ! Un élargissement continu de la pratique du contrôle par la police qui a tendance à élargir les dérives… Ou, pour le dire avec la force d’Alain Damasio : “faire de la médecine un travail de police”.

Le risque enfin c’est bien sûr de faire évoluer l’application par décrets et modification successive du code… pour finir par lui faire afficher qui a contaminé qui et quand, qui serait le meilleur moyen d’enterrer définitivement nos libertés publiques !

Le risque du glissement, c’est de croire qu’en lançant StopCovid nous pourrons toujours l’améliorer. C’est de croire, comme toujours avec le numérique, qu’il suffit de plus de données pour avoir un meilleur outil. C’est de continuer à croire en la surenchère technologique, sans qu’elle ne produise d’effets autres que la fin des libertés publiques, juste parce que c’est la seule solution qui semble rationnelle et qui s’offre à nous !

Le risque, finalement est de continuer à croire que l’analyse de mauvaises données fera pour moins cher ce que seule la science peut faire : mais avec du temps et de l’argent. Le risque, c’est de croire, comme d’habitude que le numérique permet de faire la même chose pour moins cher, d’être un soin palliatif de la médecine. On sait où cette politique de baisse des coûts nous a menés en matière de masques, de lits et de tests. Doit-on encore continuer ?

Le risque c’est de croire qu’une application peut faire le travail d’un médecin, d’un humain : diagnostiquer, traiter, enquêter, apaiser… Soigner et prendre soin. Le risque c’est de rendre disponible des informations de santé de quelque nature qu’elles soient en dehors du circuit de santé et de soin !

Faire de la science !

Face à cette crise, face aux défauts de l’industrie et de la mondialisation qu’elle a révélée tout cru, face à des flux trop tendus, à une compétition encore plus acharnée que jamais, et en attendant que l’industrie parvienne à nouveau à répondre à nos besoins mondiaux, notre seul recours reste la débrouille et la science ! La débrouille, car il risque de falloir faire longtemps avec ce qu’on a. Ou plutôt ce qu’on n’a pas : ni masques, ni tests, ni vaccins !

L’application ne soignera pas. Il va falloir retourner au contact ! Trouver les malades. Les diagnostiquer. Les traiter, enquêter pour remonter les contaminations. “Je ne sais pas faire porter un masque à un point” dit très justement l’épidémiologue Renaux Piarroux. Le confinement va nous donner un répit. Il va nous permettre de faire ce que nous aurions dû faire depuis le début : diagnostiquer et traiter, surveiller et isoler, enquêter pour trouver les personnes en contact… Pour cela, nous ne partirons pas de rien : nous avons Covidom et les techniques de l’enquête épidémiologique. Faire un lent et patient travail que le numérique ne peut pas faire. Modestement. Courageusement. Patiemment.

****

Le numérique ne peut pas tout ! Alors qu’on y a recours comme jamais depuis le confinement, cette crise nous montre que le numérique ne livre pas les produits des Drive, ni n’assure la continuité pédagogique. Il ne repère pas non plus les malades ni ne le soigne. Pour cela aussi, nous avons encore besoin des hommes, des femmes, des premiers de cordée, ceux qui sont aux avant-postes, ceux qui sont essentiels, les irremplaçables («la responsabilité suppose une exigence d’irremplaçabilité”, disait la philosophe Cynthia Fleury).

La fin du confinement est l’occasion d’un recommencement stratégique. Recommençons convenablement : suivons les cas, isolons-les, enquêtons sur leurs relations. Trouvons-les asymptotiques. Surveillons les températures. Testons si c’est possible ! Revenons-en à la science, c’est la seule qui ait fait ses preuves ! Faisons confiance à la débrouille et accueillons là au mieux.

Ce que nous devons garantir en tant que société : c’est que les informations de santé demeurent des informations de santé. Que l’état de chacun face au Covid n’a pas à être communiqué : ni aux entreprises, ni à la police, ni aux employeurs, ni aux voisins ! La santé doit rester à la médecine et la médecine ne doit pas devenir la police. Devant un homme malade, on ne doit pas mettre une application, mais bien un soignant.

Il va nous falloir accepter que tous nos remèdes contre le virus soient imparfaits, qu’aucun ne soit radical. Il va nous falloir apprendre à vivre avec les mauvaises herbes des coronavirus. Il va nous falloir faire avec, car nous n’aurons pas de solutions magiques et immédiates : ni tests à foison, ni masques, ni application magique !

Nous avons besoin de science, d’intelligence, de coopération et de réassurance. Il faut arrêter de terroriser les gens par des discours changeants, mais les aider à grandir et comprendre, comme le souligne, énervé, François Sureau. Ni les injonctions, ni la peur, ni le moralisme ne nous y aideront.

Une chose me marque beaucoup depuis le début de cette pandémie, c’est la colère et l’angoisse des gens, non seulement face à un confinement inédit, face à l’inquiétude d’une crise sans précédent qui s’annonce, mais surtout terrifié par la crainte de chopper ce terrible virus dont on leur parle en continu. Une inquiétude qui n’a cessé d’être aggravée par les injonctions contradictoires des autorités, par les changements de stratégies, les annonces démenties, les promesses non tenues, les retards dans les prises de décision… et plus encore les décisions infantilisantes, sans explications, voire prises en dépit du bon sens épidémique. Une population inquiète parce ce que nous savons que cette crise va durer longtemps et que nous n’avons aucune solution facile et immédiate à disposition. Une population angoissée par la perspective que la pandémie puisse faire 20 millions de morts sur la planète, 230 000 personnes en France (selon le taux de létalité de 0,37% : 230 000 morts, c’est ⅓ de la mortalité annuelle du pays — 600 000 morts par an). Une population rongée à l’idée de se retrouver seule et démunie à l’image de nos aînés, dont les derniers moments nous sont cachés, confisqués à leurs proches, d’une manière foncièrement inhumaine.

Nous avons besoin de décisions claires et sincères, d’explications qui aident à grandir et à comprendre. Nous en sommes loin ! Beaucoup trop loin ! Et j’avoue que de semaine en semaine, c’est ce qui m’inquiète le plus !

Hubert Guillaud




Technologies de crise, mais avec la démocratie

Le scénario d’une accentuation dramatique de la surveillance de masse est déjà sur la table, il suffit de jeter un œil à l’actualité planétaire de la pandémie pour s’en rendre compte.

Accéder aux articles déjà publiés dans notre dossier StopCovid

Pistage des déplacements géolocalisés, reconnaissance faciale, restriction des droits individuels les plus élémentaires, la technopolice qui partout se déploie est d’autant plus inquiétante qu’elle se légitime par la nécessité d’une lutte contre la crise sanitaire. Dès qu’il s’agit de sauver des vies (et la nôtre en particulier) il semble que tout passe au second plan. Après la pédopornographie, le cyberharcèlement, le terrorisme, c’est aujourd’hui la crise sanitaire qui est le cheval de Troie de la surveillance.

Pourtant, comme le montre la prise de position de l’association sans but lucratif Algorithmwatch que nous avons traduite ci-dessous, la démocratie et le respect de la vie privée ne sont nullement incompatibles avec le déploiement de technologies dédiées à la lutte contre la crise sanitaire. Cela nécessite cependant une résistance citoyenne coordonnée…

Article original : Automated decision-making systems and the fight against COVID-19 – our position

Traduction Framalang : CLC, goofy, jums, Barbidule

Les systèmes automatisés de prise de décision et la lutte contre le COVID-19 : notre position

par AlgorithmWatch

Alors que la pandémie de COVID-19 fait rage partout dans le monde, nombreux sont ceux qui se demandent s’il faut mettre en œuvre des systèmes automatisés de prise de décision (N.D.T. : en français, on parle de SIAD) pour y mettre un frein et, si oui, selon quelles modalités.
Différentes solutions sont proposées et mises en œuvre, qui vont des mesures autoritaires de contrôle de la population prises par la Chine jusqu’à des solutions décentralisées, orientées vie privée, comme l’application Safe Path du MIT.
Ci-après nous présentons un ensemble de principes possibles et de réflexions pouvant servir de base à une réflexion utile, démocratique et bien informée sur l’utilisation de systèmes SIAD dans le cadre de l’actuelle pandémie.

silhouettes de continents avec des zones ciblées en cercles concentriques rouges et vert suggérant l’étendue de la pandémie selon les zones géographiques

1. Le COVID-19 n’est pas un problème technologique. L’étude des réponses concrètes à la pandémie montre que les interventions efficaces prennent toujours racine dans des politiques de santé publique globales. Singapour, la Corée du Sud et Taïwan, fréquemment cités en exemple pour leur gestion de l’épidémie, avaient chacun un plan d’action en place, souvent conçu après l’épidémie de SRAS de 2003. Être prêt à affronter une épidémie va bien au-delà des seules solutions techniques : cela suppose des ressources, des compétences, de la planification, ainsi que la volonté politique et la légitimité pour les déployer lorsque c’est nécessaire.

2. Il n’y a pas de solution toute faite pour répondre à l’épidémie de COVID-19. Pour gagner le combat contre le virus, il faut combiner tests, traçage des contacts et confinement. Cependant, chaque contexte est unique. Un pays dans lequel le virus a circulé pendant des mois sans être détecté (comme l’Italie) n’est pas dans la même situation qu’un pays qui a identifié très tôt les porteurs du virus (comme la Corée du Sud). Les différences sociales, politiques et culturelles jouent également un rôle important lorsqu’on cherche à faire appliquer des politiques de santé publique. Cela signifie que la même solution peut aboutir à des résultats très différents selon les contextes.

3. Par conséquent, il n’y a aucune urgence à mettre en place une surveillance numérique de masse pour lutter contre le COVID-19. Il ne s’agit pas que d’une question de vie privée – quoique la vie privée soit un droit fondamental qui mérite d’être protégé. Avant même d’envisager les conséquences des applications de traçage numérique des contacts, par exemple en termes de protection des données personnelles, nous devrions nous demander : est-ce que cela fonctionne ? Or les résultats tirés de la littérature scientifique sur les épidémies antérieures sont mitigés, et dépendent éminemment du contexte. La protection des droits doit être mise en regard des bénéfices attendus (sauver des vies). Mais sacrifier nos libertés fondamentales est inutile si l’on n’en retire aucun bénéfice.

4. Les mesures de confinement devront prendre fin à un moment ou à un autre. Nous devons essayer d’imaginer comment revenir à la « normale ». La plupart des scénarios impliquent une sorte de surveillance numérique qui paraît indispensable si l’on prend en considération les aspects spécifiques du COVID-19 : existence de patients asymptomatiques pouvant être contagieux, période d’incubation de 14 jours, absence de tout remède ou vaccin à l’heure actuelle. Les acteurs de la société civile doivent être prêts à participer à la discussion sur les solutions de surveillance envisagées, afin de favoriser l’émergence d’approches appropriées.

5. La protection contre le COVID-19 et la protection de la vie privée ne s’excluent pas l’une l’autre. Les solutions comme celle que le MIT a développée (les Safe Paths) ou la plate-forme baptisée PEPP-PT (Pan-European Privacy Preserving Proximity Tracing) permettront un « contact tracing » numérique dans le cadre d’une approche ouverte et décentralisée, plus respectueuse des droits des personnes. C’est la solution que certains pays comme Singapour ont retenue pour traiter la question (via l’appli “TraceTogether”) contrairement à l’approche qui a été choisie par la Corée du Sud et Israël.

6. Toute solution doit être mise en œuvre d’une manière respectueuse de la démocratie. La démocratie n’est pas un obstacle à la lutte contre la pandémie : c’est au contraire le seul espoir que nous ayons de prendre des mesures rationnelles et qui respectent les droits de chacun. La plus haute transparence est nécessaire en ce qui concerne 1) les solutions technologiques à l’étude, 2) les équipes d’experts ou les institutions ad hoc créées pour les étudier, 3) les preuves qui justifient leur mise en œuvre, 4) les acteurs chargés de les implémenter et les déployer, en particulier si ce sont des acteurs privés. Seule une parfaite transparence pourra garantir que la société civile et les parlementaires sont en mesure de contrôler l’exécutif.

7. L’usage massif des données qui résulte du développement de systèmes automatisés d’aide à la décision dans le cadre de la lutte contre le virus va conduire à discriminer de nouvelles catégories sociales. Les pouvoirs publics doivent empêcher toute stigmatisation des personnes qui seraient classées dans les mauvaises catégories et veiller au respect des droits de ceux qui n’obtiennent pas de scores suffisamment élevés sur les échelles qui sont utilisées, notamment pour ce qui est du tri dans le système de santé.

8. Même si les systèmes de surveillance numérique prouvent leur utilité, ils doivent être mis en œuvre dans le strict respect des principes de protection des données : comme le Comité européen de la protection des données l’a précisé récemment, il convient de respecter les principes de nécessité, de proportionnalité, de pertinence et du droit en général même en cas d’urgence de santé publique. Tout citoyen doit être en mesure de faire appel d’une décision prise par un système automatique concernant le COVID-19 (en particulier les applications qui déterminent si une personne a été en contact avec une personne contaminée et si celle-ci doit être mise en quarantaine). Les gouvernements et les entreprises qui contractualisent avec eux doivent respecter le RGPD.

9. Les systèmes automatisés d’aide à la décision qui existent déjà ne devraient pas être adaptés pour être mis en œuvre dans le cadre de la pandémie actuelle. En effet, ces systèmes, qui reposent sur des données d’apprentissage anciennes, ne peuvent pas, de ce fait, supporter un changement soudain des conditions dans lesquelles ils sont déployés. La police prédictive, l’aide automatisée aux juges, l’évaluation de la solvabilité et les évaluations issues d’autres SIAD pourraient produire des résultats beaucoup éloignés des intervalles habituels (par exemple en raison des taux d’erreur). Il faudrait de toute urgence les vérifier, voire en suspendre l’utilisation.

10. Par définition, une pandémie touche la planète entière. Il est nécessaire d’y répondre à l’aide d’un ensemble de réponses globales, diverses et coordonnées. Ces réponses devraient être surveillées par un réseau mondial d’organisations de la société civile travaillant main dans la main. Les précédentes crises ont montré que les situations d’urgence fournissent à certains leaders politiques peu scrupuleux une excuse pour légitimer la mise en place d’infrastructures de surveillance de masse qui violent, inutilement et indéfiniment, les droits des citoyens. La résistance (partiellement) victorieuse n’a été possible que lorsque celle-ci a été globale, coordonnée et bien construite, avec des précisions et des preuves solides de notre côté.

11. Et enfin, nous devons nous assurer que ce débat sur la surveillance pendant le COVID-19 ne se déroule pas dans le vide. Certains SIAD, en particulier la reconnaissance faciale, ont déjà prouvé qu’ils étaient problématiques. L’état d’urgence sanitaire actuel ne peut pas être invoqué pour justifier leur déploiement : bien au contraire, tous les problèmes signalés « en temps ordinaire » – le manque de précision, les biais systématiques dans leur mise en œuvre, des préoccupations plus larges concernant les abus possibles de données biométriques, etc. – deviennent encore plus aigus lors de moments exceptionnels, quand la santé et la sécurité de chacun sont en jeu. Nous devons non seulement veiller à ce que ce débat crucial ne soit pas confisqué par les technologues ou les technologies, mais aussi nous assurer que les technologies concernées aient prouvé qu’elles profitent à la société. La mise entre parenthèses des communications en chair et en os donne une occasion de procurer en ligne encore plus de services sociaux et autres services de base, là où les SIAD remplacent souvent les travailleurs sociaux. Cela pourrait avoir des conséquences catastrophiques pour les citoyens qui n’ont pas d’accès aux outils numériques ou aucun moyen de les comprendre avec un recul critique. Nous devons nous assurer que cela n’arrivera pas.

 

Auteur principal : Fabio Chiusi, avec la collaboration de Nicolas Kayser-Bril




Solidarités numériques : le Libre se mobilise

Le Libre et ses acteurs et actrices, associatifs ou individuels, se mobilisent davantage encore dans les conditions compliquées si particulières du confinement.

Empruntons cette mise au point initiale à Pascal Gascoin, chargé de mission éducation-numérique aux Ceméa, notre allié dans l’Éducation populaire :

La situation de confinement que nous traversons nous oblige à repenser, à inventer nos modes de communication, nos façons de travailler pour continuer, malgré tout, à mener à bien nos projets, nos activités tout en gardant le lien, avec les bénévoles et les équipes de nos organisations, nos élèves et les accompagner au mieux.

Aux CEMEA, nous sommes choqués de recevoir quasi quotidiennement dans nos boîtes mails de soi-disant « guides de survie numérique en période de confinement », provenant souvent de « start-ups associatives » qui nous proposent pêle-mêle des solutions payantes, d’autres gratuites, sans jamais faire référence à la façon dont seront traitées nos données, ni faire la différence entre le service “gratuit” d’une multinationale et celui volontairement éthique et fraternel d’une association.

Donc essayons de « dégoogliser le confinement ». Voici quelques-unes des initiatives récentes du numérique libre pour aider à franchir ensemble les semaines houleuses de la crise sanitaire.

Nous allons forcément en oublier, mais vous pouvez nous faire signe pour que nous puissions compléter et mettre à jour la liste ci-dessous.

C’est parti pour une recension rapide sans souci hiérarchique particulier.

C’est où/c’est ouvert ?

Sur ce site https://www.caresteouvert.fr vous pouvez savoir sur une carte (openStreetMap, la cartographie libre et collaborative qui fait la nique à googlemaps) quels sont les services « encore ouverts », ça peut être utile. Et c’est également collaboratif : signalez vous aussi les ouvertures/fermetures de lieux utiles en période de confinement.

Dépannons avec des panneaux

copie d’écran exemple d’affiche généréeLe site http://revolf.free.fr/local-pad-sign/# permet d’imprimer facilement des affiches et panneaux d’affichage avec des informations utiles pour vos voisins de balcon, de hall d’immeuble, de zone pavillonnaire, dans la rue sur le trajet du ravitaillement etc. Vous pourrez inclure automatiquement un QR code et l’adresse d’un pad dans votre affiche.

Enseignant⋅e⋅s dans l’urgence

logo de l’asso solidaire scenariL’association Scenari qui milite pour les usages de la chaîne éditoriale du même nom, vous propose une opération spéciale.
Que vous permet Scenari ? De pouvoir publier vos cours facilement avec une chaîne éditoriale : vous rédigez une seule fois pour publier sous de multiples formats, et vous n’aurez qu’un seul document à modifier /mettre à jour.
N’ayez pas peur de l’apprentissage d’un nouvel outil numérique, vous aurez l’appui et le soutien d’une personne de l’association : parrainage pour rédiger des cours, couplage avec Canoprof pour le primaire et le secondaire, parrainage d’apprentissage de la plate-forme. Accès offert à l’hébergement et à la mise en ligne des contenus que vous aurez produits (services en temps normal réservés aux adhérents de l’association)

 

logo des Zourits (pieuvre souriante)Des Zourits pour l’école
les CEMEA proposent l’accès gratuit à de nombreuses ressources libres pour l’école adresses mail, audioconférences avec jitsi, etc. mais aussi un accompagnement pour les enseignant⋅e⋅s etc. Tout cela est expliqué sur cette page.
2 plaquettes informatives et pour les contacter (liens directs vers .pdf) :
pour les écoles
pour les petites assos

Urgences numériques

Vous faites partie des acteurs locaux stratégiques : un support et dépannage numérique vous est proposé par un collectif de plus de 200 personnes bénévoles, professionnelles des technologies d’information, qui peuvent vous aider à faire face à vos urgences : pharmacies, cabinets médicaux, mairies, établissements scolaires, commerces d’alimentation, associations, indépendants. Vous pouvez donc demander de l’aide mais aussi participer pour en fournir à votre tour (c’est ça l’esprit Contributopia, hein)…

Le Big Boinc

Boinc, c’est le calcul collaboratif pour la recherche médicale, nous signale Tikayn. Votre ordinateur ou votre ordiphone s’ennuient avec leurs puissantes capacités généralement en sommeil ? Contribuez par leur puissance de calcul à la recherche médicale, comme le font déjà plus de 4 millions de personnes.

proposition sur Mastodon : contribuer avec vos appareils numériques à la recherche médicale

Github spécial Covid

Bastien recense sur ce Gthub les ressources libres et open source d’info et solidarité autour de la pandémie :

https://github.com/bzg/covid19-floss-initatives/blob/master/index.org

Insolite

Même les Balkany veulent contribuer ! (ah non zut ils ne sont pas libres)

Et du côté de Framasoft ?

JCFrog et l’interface de jitsi meet

  • Nous avons renforcé les capacités des serveurs et de l’infrastructure de Framatalk et Framapad qui peuvent donc à nouveau accueillir les besoins de communication des particuliers et associations qui doivent se joindre. Non, les enseignants qui souhaitent faire une visioconférence pour des classes de 35 ne sont pas les destinataires prioritaires de ces outils, pour des raisons compréhensibles de tenue de charge. Ces services peuvent être utilisés par des personnes qui, souvent, n’ont pas d’autres moyens (dont des malades isolé·es de leur famille). Prenez soin de ne pas monopoliser cette ressource afin qu’elle reste partagée.
  • https://rdv-medecins.framasoft.org/login est un outil libre de prise de rendez-vous médicaux à destination du personnel médical exclusivement. Vous avez un bout de serveur ? Vous pouvez héberger le même outil (Nextcloud + ses applications « rendez-vous » et « calendar ») pour le mettre à disposition de votre médecin. Et voilà la documentation utilisateur/trice !
  • Vous avez hélas ou tant mieux davantage de temps libre ? Profitez-en pour vous former en ligne aux arcanes du numérique : c’est parti pour Librecours Voir l’article du framablog qui vous explique tout. Les inscriptions sont ouvertes par ici

 

à suivre …

 

 




Laurent Chemla propose : exigeons des GAFAM l’interopérabilité

« Il est évidemment plus qu’urgent de réguler les GAFAM pour leur imposer l’interopérabilité. » écrit Laurent Chemla. Diable, il n’y va pas de main morte, le « précurseur dans le domaine d’Internet » selon sa page Wikipédia.

Nous reproduisons ici avec son accord l’article qu’il vient de publier sur son blog parce qu’il nous paraît tout à fait intéressant et qu’il est susceptible de provoquer le débat : d’aucuns trouveront sa proposition nécessaire pour franchir une étape dans la lutte contre des Léviathans numériques et le consentement à la captivité. D’autres estimeront peut-être que sa conception a de bien faibles chances de se concrétiser : est-il encore temps de réguler les Gafam ?

Nous souhaitons que s’ouvre ici (ou sur son blog bien sûr) la discussion. Comme toujours sur le Framablog, les commentaires sont ouverts mais modérés.

Interopérabilitay

« Interopérabilité » : ce mot m’ennuie. Il est moche, et beaucoup trop long.

Pourtant il est la source même d’Internet. Quasiment sa définition, au moins sémantique puisqu’il s’agit de faire dialoguer entre eux des systèmes d’information d’origines variées mais partageant au sein d’un unique réseau de réseaux la même « lingua franca » : TCP/IP et sa cohorte de services (ftp, http, smtp et tant d’autres) définis par des standards communs. Des machines « interopérables », donc.

Faisons avec.

L’interopérabilité, donc, est ce qui a fait le succès d’Internet, et du Web. Vous pouvez vous connecter sur n’importe quel site Web, installé sur n’importe quel serveur, quelle que soit sa marque et son système d’exploitation, depuis votre propre ordinateur, quelle que soit sa marque, son système d’exploitation, et le navigateur installé dessus.

Avant ça existaient les silos. Compuserve, AOL, The Microsoft Network en étaient les derniers représentants, dinosaures communautaires enterrés par la comète Internet. Leur volonté d’enfermer le public dans des espaces fermés, contrôlés, proposant tant bien que mal tous les services à la fois, fut ridiculisée par la décentralisation du Net.

Ici vous ne pouviez échanger qu’avec les clients du même réseau, utilisant le même outil imposé par le vendeur (« pour votre sécurité »), là vous pouviez choisir votre logiciel de mail, et écrire à n’importe qui n’importe où. Interopérabilité.

Ici vous pouviez publier vos humeurs, dans un format limité et imposé par la plateforme (« pour votre sécurité »), là vous pouviez installer n’importe quel « serveur web » de votre choix et y publier librement des pages accessibles depuis n’importe quel navigateur. Interopérabilité.

Bref. Le choix était évident, Internet a gagné.

Il a gagné, et puis… Et puis, selon un schéma désormais compris de tous, le modèle économique « gratuité contre publicité » a envahi le Web, en créant – une acquisition après l’autre, un accaparement de nos données après l’autre – de nouveaux géants qui, peu à peu, se sont refermés sur eux-mêmes (« pour votre sécurité »).

Il fut un temps où vous pouviez écrire à un utilisateur de Facebook Messenger depuis n’importe quel client, hors Facebook, respectant le standard (en l’occurrence l’API) défini par Facebook. Et puis Facebook a arrêté cette fonctionnalité. Il fut un temps où vous pouviez développer votre propre client Twitter, qui affichait ses timelines avec d’autres règles que celles de l’application officielle, pourvu qu’il utilise le standard (encore une API) défini par Twitter. Et puis Twitter a limité cette fonctionnalité. De nos jours, il devient même difficile d’envoyer un simple email à un utilisateur de Gmail si l’on utilise pas soi-même Gmail, tant Google impose de nouvelles règles (« pour votre sécurité ») à ce qui était, avant, un standard universel.

On comprend bien les raisons de cette re-centralisation : tout utilisateur désormais captif devra passer davantage de temps devant les publicités, imposées pour pouvoir utiliser tel ou tel service fermé. Et il devra – pour continuer d’utiliser ce service – fournir toujours davantage de ses données personnelles permettant d’affiner son profil et de vendre plus cher les espaces publicitaires. Renforçant ainsi toujours plus les trésoreries et le pouvoir de ces géants centralisateurs, qui ainsi peuvent aisément acquérir ou asphyxier tout nouveau wanabee concurrent, et ainsi de suite.

C’est un cercle vertueux (pour les GAFAM) et vicieux (pour nos vies privées et nos démocraties), mais c’est surtout un cercle « normal » : dès lors que rien n’impose l’interopérabilité, alors – pour peu que vous soyez devenu assez gros pour vous en passer – vous n’avez plus aucun intérêt à donner accès à d’autres aux données qui vous ont fait roi. Et vous abandonnez alors le modèle qui a permis votre existence au profit d’un modèle qui permet votre croissance. Infinie.

Imaginez, par exemple, qu’à l’époque des cassettes vidéo (respectant le standard VHS) un fabricant de magnétoscopes ait dominé à ce point le marché qu’on ait pu dire qu’il n’en existait virtuellement pas d’autres : il aurait évidemment modifié ce standard à son profit, en interdisant par exemple l’utilisation de cassettes d’autres marques que la sienne (« pour votre sécurité »), de manière à garantir dans le temps sa domination. C’est un comportement « normal », dans un monde libéral et capitaliste. Et c’est pour limiter ce comportement « normal » que les sociétés inventent des régulations (standards imposés, règles de concurrence, lois et règlements).

Et il est évidemment plus qu’urgent de réguler les GAFAM pour leur imposer l’interopérabilité.

Nous devons pouvoir, de nouveau, écrire depuis n’importe quel logiciel de messagerie à un utilisateur de Facebook Messenger, pourvu qu’on respecte le standard défini par Facebook, comme nous devons écrire à n’importe quel utilisateur de Signal en respectant le standard de chiffrement de Signal. Il n’est pas question d’imposer à Signal (ou à Facebook) un autre standard que celui qu’il a choisi (ce qui empêcherait toute innovation), pourvu que le standard choisi soit public, et libre d’utilisation. Mais il est question de contraindre Facebook à (ré)ouvrir ses API pour permettre aux utilisateurs d’autres services d’interagir de nouveau avec ses propres utilisateurs.

Au passage, ce point soulève une problématique incidente : l’identité. Si je peux écrire à un utilisateur de Messenger, celui-ci doit pouvoir me répondre depuis Messenger. Or Messenger ne permet d’écrire qu’aux autres utilisateurs de Messenger, identifiés par Facebook selon ses propres critères qu’il n’est pas question de lui imposer (il a le droit de ne vouloir admettre que des utilisateurs affichant leur « identité réelle », par exemple : ce choix est le sien, comme il a le droit de limiter les fonctionnalités de Messenger pour lui interdire d’écrire à d’autres : ce choix est aussi le sien).

Il est donc cohérent d’affirmer que – pour pouvoir écrire à un utilisateur de Messenger depuis un autre outil – il faut avoir soi-même un compte Messenger. Il est donc logique de dire que pour pouvoir lire ma timeline Twitter avec l’outil de mon choix, je dois avoir un compte Twitter. Il est donc évident que pour accéder à mon historique d’achat Amazon, je dois avoir un compte Amazon, etc.

capture d’écran, discussion sur Twitter
capture d’écran, discussion avec L. Chemla sur Twitter. cliquez sur cette vignette pour agrandir l’image

L’obligation d’avoir une identité reconnue par le service auquel on accède, c’est sans doute le prix à payer pour l’interopérabilité, dans ce cas (et – au passage – c’est parce que la Quadrature du Net a décidé d’ignorer cette évidence que j’ai choisi de quitter l’association).

Ce qui ne doit évidemment pas nous obliger à utiliser Messenger, Amazon ou Twitter pour accéder à ces comptes: l’interopérabilité doit d’accéder à nos contacts et à nos données depuis l’outil de notre choix, grâce à l’ouverture obligatoire des API, pourvu qu’on dispose d’une identité respectant les standards du service qui stocke ces données.

On pourrait résumer ce nouveau type de régulation avec cette phrase simple :

« si ce sont MES données, alors je dois pouvoir y accéder avec l’outil de MON choix ».

Je dois pouvoir lire ma timeline Twitter depuis l’outil de mon choix (et y publier, si évidemment j’y ai un compte, pour que les autres utilisateurs de Twitter puissent s’y abonner).

Je dois pouvoir consulter mon historique d’achats chez Amazon avec l’outil de mon choix.

Je dois pouvoir écrire à (et lire les réponses de) mes contacts Facebook avec l’outil de mon choix.

Il y aura, évidemment, des résistances.

On nous dira (« pour votre sécurité ») que c’est dangereux, parce que nos données personnelles ne seront plus aussi bien protégées, dispersées parmi tellement de services décentralisés et piratables. Mais je préfère qu’une partie de mes données soit moins bien protégée (ce qui reste à démontrer) plutôt que de savoir qu’une entreprise privée puisse vendre (ou perdre) la totalité de ce qui est MA vie.

On nous dira que c’est « excessivement agressif pour le modèle économique des grandes plateformes », alors qu’évidemment c’est justement le modèle économique des grandes plateformes qui est excessivement agressif pour nos vies privées et nos démocraties, d’une part, et que d’autre part l’interopérabilité ne modifie en rien ce modèle économique : dès lors qu’elles stockent toujours une partie de nos données elles restent (hélas) en capacité de les vendre et/ou de les utiliser pour « éduquer » leurs IA. Tout au plus constateront-elles un manque-à-gagner comptable, mais ne gagnent-elles pas déjà largement assez ?

À ce jour, l’interopérabilité s’impose comme la seule solution réaliste pour limiter le pouvoir de nuisance de ces géants, et pour rétablir un peu de concurrence et de décentralisation dans un réseau qui, sinon, n’a plus d’autre raison d’être autre chose qu’un simple moyen d’accéder à ces nouveaux silos (qu’ils devraient donc financer, eux, plutôt que les factures de nos FAI).

À ce jour, l’ARCEP, la Quadrature du Net (même mal), l’EFF, le Sénat, et même l’Europe (Margrethe Vestager s’est elle-même déclarée en faveur de cette idée) se sont déclarés pour une obligation d’intéropérabilité. C’est la suite logique (et fonctionnelle) du RGPD.

Qu’est-ce qu’on attend ?

Édit. de Laurent suite à la publication de l’article sur son blog

Suite à ce billet des discussions sur Twitter et Mastodon, indépendamment, m’ont amené à préciser ceci : prenons par exemple mamot.fr (l’instance Mastodon de la Quadrature) et gab.ai (l’instance Mastodon de la fachosphère). Mamot.fr, comme nombre d’autres instances, a refusé de se fédérer avec Gab. C’est son droit. En conséquence, les utilisateurs de Gab ne peuvent pas poster sur Mamot, et inversement.

Pour autant, les deux sont bel et bien interopérables, et pour cause : elles utilisent le même logiciel. Gab pourrait parfaitement développer un bout de code pour permettre à ses utilisateurs de publier sur Mamot, pour peu qu’ils s’y soient identifiés (via une OAuth, pour les techniciens) prouvant ainsi qu’ils en acceptent les CGU.

Ce qu’elles ne sont pas, c’est interconnectées : il n’est pas possible de publier sur l’une en s’identifiant sur l’autre, et inversement.

Je crois qu’au fond, les tenants de l’idée qu’on devrait pouvoir publier n’importe quoi n’importe où, sans identification supplémentaire, confondent largement ces deux notions d’interconnexion et d’interopérabilité. Et c’est fort dommage, parce que ça brouille le message de tous.

 

Pour aller plus loin dans la technique, vous pouvez aussi lire cette réponse de Laurent dans les commentaires de NextINpact.




D’autres technologies pour répondre à l’urgence de la personne ?

« Ce dont nous avons besoin, c’est le contraire de la Big Tech. Nous avons besoin de Small Tech – des outils de tous les jours conçus pour augmenter le bien-être humain, et non les profits des entreprises. »

Ce n’est pas une théorie complotiste : le profilage et la vente de données privées font, depuis des années, partie intégrante du modèle économique de la plupart des entreprises du numérique. Dans cet article traduit par Framalang, Aral Balkan (auquel nous faisons régulièrement écho) suggère qu’il est urgent de s’éloigner de ce modèle qui repose sur les résultats financiers pour gagner en indépendance et explique pourquoi c’est important pour chacun d’entre nous.

 

Article original : In 2020 and beyond, the battle to save personhood and democracy requires a radical overhaul of mainstream technology

Traduction Framalang : FranBAG, goofy, wisi_eu, gangsoleil, Khrys – Mise en forme :

En 2020 et au-delà, la bataille pour sauver l’identité individuelle et la démocratie exigera une révision radicale des technologies dominantes

par Aral Balkan

Un jeune garçon pilotant un canot sur un lac, durant les grands incendies australiens. Crédit photo: Allison Marion.

 

Alors que nous entrons dans une nouvelle décennie, l’humanité est confrontée à plusieurs urgences existentielles :

  1. L’urgence climatique1
  2. L’urgence démocratique
  3. L’urgence de la personne

Grâce à Greta Thunberg, nous parlons sans aucun doute de la première. La question de savoir si nous allons vraiment faire quelque chose à ce sujet, bien sûr, fait l’objet d’un débat.2

De même, grâce à la montée de l’extrême droite dans le monde entier sous la forme de (entre autres) Trump aux États-Unis, Johnson au Royaume-Uni, Bolsonaro au Brésil, Orban en Hongrie et Erdoğan en Turquie, nous parlons également de la seconde, y compris du rôle de la propagande (ou « infox ») et des médias sociaux dans sa propagation.

Celle sur laquelle nous sommes les plus désemparé·e·s et partagé·e·s, c’est la troisième, même si toutes les autres en découlent et en sont les symptômes. C’est l’urgence sans nom. Enfin, jusqu’à présent.

L’urgence de la personne

On ne peut pas comprendre « l’urgence de la personne » sans comprendre le rôle que la technologie de réseau et numérique grand public joue dans sa perpétuation.

Votre télé ne vous regardait pas, YouTube si.

La technologie traditionnelle – non numérique, pas en réseau – était un moyen de diffusion à sens unique. C’est la seule chose qu’un livre imprimé sur la presse Gutenberg et votre téléviseur analogique avaient en commun.

Autrefois, quand vous lisiez un journal, le journal ne vous lisait pas aussi. Lorsque vous regardiez la télévision, votre téléviseur ne vous regardait pas aussi (à moins que vous n’ayez spécifiquement permis à une société de mesure d’audience, comme Nielsen, d’attacher un audimètre à votre téléviseur).

Aujourd’hui, lorsque vous lisez le journal The Guardian en ligne, The Guardian – et plus de deux douzaines d’autres parties tierces, y compris la Nielsen susmentionnée – vous lit également. Quand vous regardez YouTube, YouTube vous regarde aussi.

Il ne s’agit pas d’une théorie de la conspiration farfelue, mais simplement du modèle d’affaires de la technologie actuelle. J’appelle ce modèle d’affaires « l’élevage d’êtres humains ». C’est une partie du système socio-économique, dont nous faisons partie, que Shoshana Zuboff appelle le capitalisme de surveillance.3

Et pis encore : Alphabet Inc, qui possède Google et YouTube, ne se contente pas de vous observer lorsque vous utilisez un de leurs services, mais vous suit également sur le Web lorsque vous allez de site en site. À lui seul, Google a les yeux sur 70 à 80 % du Web.
Mais ils ne s’arrêtent pas là non plus. Les exploitants d’êtres humains achètent également des données auprès de courtiers en données, partagent ces données avec d’autres exploitants et savent même quand vous utilisez votre carte de crédit dans les magasins ayant pignon sur rue. Et ils combinent toutes ces informations pour créer des profils de vous-même, constamment analysés, mis à jour et améliorés.

Nous pouvons considérer ces profils comme des simulations de nous-mêmes. Ils contiennent des aspects de nous-mêmes. Ils peuvent être (et sont) utilisés comme des approximations de nous-mêmes. Ils contiennent des informations extrêmement sensibles et intimes sur nous. Mais nous ne les possédons pas, ce sont les exploitants qui les possèdent.

Il n’est pas exagéré de dire qu’au sein de ce système, nous ne sommes pas en pleine possession de nous-mêmes. Dans un tel système, où même nos pensées risquent d’être lues par des entreprises, notre identité et le concept même d’autodétermination sont mis en danger.

Nous sommes sur le point de régresser du statut d’être humain à celui de propriété, piratés par une porte dérobée numérique et en réseau, dont nous continuons à nier l’existence à nos risques et périls. Les conditions préalables à une société libre sont soumises à notre compréhension de cette réalité fondamentale.
Si nous nous prolongeons en utilisant la technologie, nous devons étendre le champ d’application légal des droits de l’homme pour inclure ce « Moi » prolongé.

Si nous ne pouvons définir correctement les limites d’une personne, comment pouvons-nous espérer protéger les personnes ou l’identité d’une personne à l’ère des réseaux numériques ?

Aujourd’hui, nous sommes des êtres fragmentés. Les limites de notre être ne s’arrêtent pas à nos frontières biologiques. Certains aspects de notre être vivent sur des morceaux de silicium qui peuvent se trouver à des milliers de kilomètres de nous.

Il est impératif que nous reconnaissions que les limites du moi à l’ère des réseaux numériques ont transcendé les limites biologiques de nos corps physiques et que cette nouvelle limite – le « Moi » prolongé ; la totalité fragmentée du moi – constitue notre nouvelle peau numérique et que son intégrité doit être protégée par les droits de l’homme.

Si nous ne faisons pas cela, nous sommes condamné·e·s à nous agiter à la surface du problème, en apportant ce qui n’est rien d’autre que des changements cosmétiques à un système qui évolue rapidement vers un nouveau type d’esclavage.

C’est l’urgence de la personne.

Un remaniement radical de la technologie grand public

Si nous voulons nous attaquer à l’urgence de la personne, il ne faudra rien de moins qu’un remaniement radical des technologies grand public.

Nous devons d’abord comprendre que si réglementer les exploitants d’humains et les capitalistes de la surveillance est important pour réduire leurs préjudices, cette réglementation constitue une lutte difficile contre la corruption institutionnelle et n’entraînera pas, par elle-même, l’émergence miraculeuse d’une infrastructure technologique radicalement différente. Et cette dernière est la seule chose qui puisse s’attaquer à l’urgence de l’identité humaine.

Imaginez un monde différent.

Faites-moi le plaisir d’imaginer ceci une seconde : disons que votre nom est Jane Smith et que je veux vous parler. Je vais sur jane.smith.net.eu et je demande à vous suivre. Qui suis-je ? Je suis aral.balkan.net.eu. Vous me permettez de vous suivre et nous commençons à discuter… en privé.

Imaginez encore que nous puissions créer des groupes – peut-être pour l’école où vont nos enfants ou pour notre quartier. Dans un tel système, nous possédons et contrôlons tou·te·s notre propre espace sur Internet. Nous pouvons faire toutes les choses que vous pouvez faire sur Facebook aujourd’hui, tout aussi facilement, mais sans Facebook au milieu pour nous surveiller et nous exploiter.

Ce dont nous avons besoin, c’est d’un système en pair à pair qui établisse une passerelle avec le réseau mondial existant.

Ce dont nous avons besoin, c’est le contraire de la « Big Tech » (industrie des technologies). Nous avons besoin de « Small Tech » (technologie à petite échelle) – des outils de tous les jours pour les gens ordinaires, conçus pour augmenter le bien-être humain, et non les profits des entreprises.

Étapes concrètes

À la Small Technology Foundation, Laura et moi avons déjà commencé à construire certains des éléments fondamentaux d’un pont possible entre le capitalisme de surveillance et un avenir radicalement démocratique, entre pairs. Et nous continuerons à travailler sur les autres composantes cette année et au-delà. Mais il y a des mesures pratiques que nous pouvons tou·te·s prendre pour aider à faire avancer les choses dans cette direction.

Voici quelques suggestions pratiques pour différents groupes :

Les gens ordinaires

1. Ne vous culpabilisez pas, vous êtes les victimes. Quand 99,99999 % de tous les investissements technologiques vont aux « exploitants d’humains », ne laissez personne vous dire que vous devriez vous sentir mal d’avoir été obligé·e·s d’utiliser leurs services par manque d’alternatives.

2. Cela dit, il existe des alternatives. Cherchez-les. Utilisez-les. Soutenez les gens qui les fabriquent.

3. Prenez conscience que ce problème existe. Appelez des responsables et défendez ceux qui le font. À tout le moins, n’écartez pas les préoccupations et les efforts de ceux et celles d’entre nous qui tentent de faire quelque chose à ce sujet.

Les développeurs

1. Cessez d’intégrer les dispositifs de surveillance d’entreprises comme Google et Facebook dans vos sites Web et vos applications. Cessez d’exposer les gens qui utilisent vos services au capitalisme de surveillance.

2. Commencez à rechercher d’autres moyens de financer et de construire des technologies qui ne suivent pas le modèle toxique de la Silicon Valley.

3. Laissez tomber la « croissance » comme mesure de votre succès. Construisez des outils que les individus possèdent et contrôlent, et non votre entreprise ou organisation. Créez des applications Web pour utilisateur unique (dont chaque personne sera l’unique propriétaire). Soutenez des plateformes libres (comme dans liberté) et décentralisées (sans nager dans les eaux troubles de la blockchain).

L’Union Européenne

1. Cessez d’investir dans les start-ups et d’agir comme un Département de recherche et développement officieux de la Silicon Valley et investissez plutôt dans les « stayups » (entreprises durables, PME ou micro-entreprises matures).

2. Créez un domaine de premier niveau (DPN) non commercial ouvert à tous, où chacun peut enregistrer un nom de domaine (avec un certificat Let’s Encrypt automatique) pour un coût nul avec un seul « appel API ».

3. Appuyez-vous sur l’étape précédente pour offrir à chaque citoyen·ne de l’Union Européenne, payé par l’argent du contribuable européen, un serveur privé virtuel de base, doté de ressources de base pour héberger un nœud actif 24h/24 dans un système pair-à-pair qui le détacherait des Google et des Facebook du monde entier et créerait de nouvelles possibilités pour les gens de communiquer en privé ainsi que d’exprimer leur volonté politique de manière décentralisée.

Et, généralement, il est alors temps pour chacun·e d’entre nous de choisir un camp.

Le camp que vous choisissez décidera si nous vivons en tant que personnes ou en tant que produits. Le côté que vous choisissez décidera si nous vivons dans une démocratie ou sous le capitalisme.

Démocratie ou capitalisme ? Choisissez.

Si, comme moi, vous avez grandi dans les années 80, vous avez probablement accepté sans réfléchir la maxime néolibérale selon laquelle la démocratie et le capitalisme vont de pair. C’est l’un des plus grands mensonges jamais propagés. La démocratie et le capitalisme sont diamétralement opposés.

Vous ne pouvez pas avoir une démocratie fonctionnelle et des milliardaires et des intérêts corporatifs de billions de dollars et la machinerie de désinformation et d’exploitation des Big Tech de la Silicon Valley. Ce que nous voyons, c’est le choc du capitalisme et de la démocratie, et le capitalisme est en train de gagner.

Avons-nous déjà passé ce tournant ? Je ne sais pas. Peut-être. Mais on ne peut pas penser comme ça.

Personnellement, je vais continuer à travailler pour apporter des changements là où je pense pouvoir être efficace : en créant une infrastructure technologique alternative pour soutenir les libertés individuelles et la démocratie.

L’humanité a déjà mis en place l’infrastructure du techno-fascisme. Nous avons déjà créé (et nous sommes toujours en train de créer) des éléments panoptiques. Tout ce que les fascistes ont à faire, c’est d’emménager et de prendre les commandes. Et ils le feront démocratiquement, avant de détruire la démocratie, tout comme Hitler l’a fait.

Et si vous pensez que «les années 30 et 40 c’était quelque chose», rappelez-vous que les outils les plus avancés pour amplifier les idéologies destructrices de l’époque étaient moins puissants que les ordinateurs que vous avez dans vos poches aujourd’hui. Aujourd’hui, nous avons le « Machine Learning » (Apprentissage machine) et sommes sur le point de débloquer l’informatique quantique.

Nous devons nous assurer que les années 2030 ne reproduisent pas les années 1930. Car nos systèmes centralisés avancés de saisie, de classification et de prévision des données, plus une centaine d’années d’augmentation exponentielle de la puissance de traitement (notez que je n’utilise pas le mot « progrès »), signifient que les années 2030 seront exponentiellement pires.

Qui que vous soyez, où que vous soyez, nous avons un ennemi commun : l’Internationale nationaliste. Les problèmes de notre temps dépassent les frontières nationales. Les solutions le doivent également. Les systèmes que nous construisons doivent être à la fois locaux et mondiaux. Le réseau que nous devons construire est un réseau de solidarité.

Nous avons créé le présent. Nous allons créer le futur. Travaillons ensemble pour faire en sorte que cet avenir soit celui dans lequel nous voulons vivre nous-mêmes.


Discours d’Aral Balkan au Parlement européen, fin 2019, lors de la rencontre sur l’avenir de la réglementation de l’Internet.  Merci à la Quadrature du Net et à sa chaîne PeerTube.

 





Aujourd’hui, les licences suffisent-elles ?

Frank Karlitschek est un développeur de logiciel libre, un entrepreneur et un militant pour le respect de la vie privée. Il a fondé les projets Nextcloud et ownCloud et il est également impliqué dans plusieurs autres projets de logiciels libres.

Il a publié le Manifeste des données utilisateurs dont nous avons tout récemment publié une traduction et il présente régulièrement des conférences. Il a pris la peine de résumer l’une d’elles qui porte sur les limites des licences libres et open source dans l’environnement numérique d’aujourd’hui.

Source : Open source is more than licenses

Traduction Framalang : swifter, goofy, Julien / Sphinx, Damien , Tykayn, Fabrice, Côme

L’open source, c’est plus que des licences

par Frank Karlitschek

Photo par Nextcloud (CC BY 3.0 via Wikimedia Commons)

Il y a quelques semaines, j’ai eu l’honneur de prononcer une conférence introductive aux Open Source Awards d’Édimbourg. J’ai décidé d’aborder un sujet dont je voulais parler depuis un bon bout de temps sans en avoir eu l’occasion jusqu’alors. Ma conférence n’a pas été filmée mais plusieurs personnes m’ont demandé d’en faire une synthèse. J’ai donc décidé de prendre un peu de mon temps libre dans un avion pour en faire un résumé dans le billet qui suit.

J’ai commencé à utiliser des ordinateurs et à écrire des logiciels au début des années 80 quand j’avais 10 ans. C’est à la même l’époque que Richard Stallman a écrit les 4 libertés, lancé le projet GNU, fondé la FSF et créé la GPL. Son idée était que les utilisateurs et les développeurs devraient avoir le contrôle de leur propre ordinateur, ce qui nécessite des logiciels libres. À l’époque, l’expérience informatique se résumait à un ordinateur personnel devant vous et, avec un peu de chance, les logiciels libres et open source qui s’y trouvaient.

L’équation était :

(matériel personnel) + (logiciel libre)

= (liberté numérique)

Depuis, le monde de l’informatique a changé et beaucoup évolué. Nous avons à présent accès à Internet partout, nous avons des ordinateurs dans les voitures, les télévisions, les montres et tous les autres appareils de l’Internet des Objets. Nous sommes en pleine révolution du tout mobile. Nous avons le Cloud computing (le fameux « nuage ») où le stockage des données et la puissance informatique sont partagés entre plusieurs Data centers (centre de données) possédés et contrôlés par plusieurs groupes et organisations à travers le monde. Nous avons un système de brevets très fort, les DRM, la signature de code et autres outils de cryptographie, les logiciels devenus des services, du matériel propriétaire, des réseaux sociaux et la puissance de l’effet réseau.

Dans son ensemble, le monde a beaucoup changé depuis les années 80. La majorité de la communauté du logiciel libre et de l’open source continue de se concentrer sur les licences logicielles. Je me demande si nous ne perdons pas une vue d’ensemble en limitant le mouvement du logiciel libre et open source aux seules questions des licences.

Richard Stallman souhaitait contrôler son ordinateur. Voyons la situation sur quelques-unes des grandes questions actuelles sur le contrôle numérique :

Facebook

Ces derniers temps, Facebook est sous le feu de nombreuses critiques : que ce soit les innombrables atteintes à la vie privée des utilisateurs, l’implication dans le truquage d’élections, le déclenchement d’un génocide en Birmanie, l’affaiblissement de la démocratie et beaucoup d’autres faits. Voyons si le logiciel libre pourrait résoudre ce problème :

Si Facebook publiait demain son code comme un logiciel libre et open source, notre communauté serait aux anges. Nous avons gagné ! Mais cela résoudrait-il pour autant un seul de ces problèmes ? Je ne peux pas exécuter Facebook sur mon ordinateur car je n’ai pas une grappe de serveurs Facebook. Quand bien même j’y arriverais, je serais bien isolé en étant le seul utilisateur. Donc le logiciel libre est important et génial mais il ne fournit pas de liberté ni de contrôle aux utilisateurs dans le cas de Facebook. Il faut plus que des licences libres.

Microsoft

J’entends de nombreuses personnes de la communauté du logiciel libre et open source se faire les chantres d’un Microsoft qui serait désormais respectable. Microsoft a changé sous la direction de son dernier PDG et ce n’est plus l’Empire du Mal. Ils intègrent désormais un noyau Linux dans Windows 10 et fournissent de nombreux outils libres et open source dans leurs conteneurs Linux sur le cloud Azure. Je pense qu’il s’agit là d’un véritable pas dans la bonne direction mais leurs solutions cloud bénéficient toujours de l’emprise la plus importante pour un éditeur : Windows 10 n’est pas gratuit et ne vous laisse pas de liberté. En réalité, aucun modèle économique open source n’est présent chez eux. Ils ne font qu’utiliser Linux et l’open source. Donc le fait que davantage de logiciels de l’écosystème Microsoft soient disponibles sous des licences libres ne donne pas pour autant davantage de libertés aux utilisateurs.

L’apprentissage automatique

L’apprentissage automatique est une nouvelle technologie importante qui peut être utilisée pour beaucoup de choses, qui vont de la reconnaissance d’images à celle de la voix en passant par les voitures autonomes. Ce qui est intéressant, c’est que le matériel et le logiciel seuls sont inutiles. Pour que l’apprentissage fonctionne, il faut des données pour ajuster l’algorithme. Ces données sont souvent l’ingrédient secret et très précieux nécessaire à une utilisation efficace de l’apprentissage automatique. Plus concrètement, si demain Tesla décidait de publier tous ses logiciels en tant que logiciels libres et que vous achetiez une Tesla pour avoir accès au matériel, vous ne seriez toujours pas en mesure d’étudier, de construire et d’améliorer la fonctionnalité de la voiture autonome. Vous auriez besoin des millions d’heures d’enregistrement vidéo et de données de conducteur pour rendre efficace votre réseau de neurones. En somme, le logiciel libre seul ne suffit pas à donner le contrôle aux utilisateurs.

5G

Le monde occidental débat beaucoup de la confiance à accorder à l’infrastructure de la 5G. Que savons-nous de la présence de portes dérobées dans les antennes-relais si elles sont achetées à Huawei ou à d’autres entreprises chinoises ? La communauté du logiciel libre et open source répond qu’il faudrait que le logiciel soit distribué sous une licence libre. Mais pouvons-nous vraiment vérifier que le code qui s’exécute sur cette infrastructure est le même que le code source mis à disposition ? Il faudrait pour cela avoir des compilations reproductibles, accéder aux clés de signature et de chiffrement du code ; l’infrastructure devrait récupérer les mises à jour logicielles depuis notre serveur de mise à jour et pas depuis celui du fabricant. La licence logicielle est importante mais elle ne vous donne pas un contrôle total et la pleine liberté.

Android

Android est un système d’exploitation mobile très populaire au sein de la communauté du logiciel libre. En effet, ce système est distribué sous une licence libre. Je connais de nombreux militants libristes qui utilisent une version personnalisée d’Android sur leur téléphone et n’installent que des logiciels libres depuis des plateformes telles que F-Droid. Malheureusement, 99 % des utilisateurs lambda ne bénéficient pas de ces libertés car leur téléphone ne peut pas être déverrouillé, car ils n’ont pas les connaissances techniques pour le faire ou car ils utilisent des logiciels uniquement disponibles sur le PlayStore de Google. Les utilisateurs sont piégés dans le monopole du fournisseur. Ainsi, le fait que le cœur d’Android est un logiciel libre ne donne pas réellement de liberté à 99 % de ses utilisateurs.

Finalement, quelle conclusion ?

Je pense que la communauté du logiciel libre et open source concernée par les 4 libertés de Stallman, le contrôle de sa vie numérique et la liberté des utilisateurs, doit étendre son champ d’action. Les licences libres sont nécessaires mais elles sont loin d’être encore suffisantes pour préserver la liberté des utilisateurs et leur garantir un contrôle de leur vie numérique.

La recette (matériel personnel) + (logiciel libre) = (liberté numérique) n’est plus valide.

Il faut davantage d’ingrédients. J’espère que la communauté du logiciel libre peut se réformer et le fera, pour traiter davantage de problématiques que les seules licences. Plus que jamais, le monde a besoin de personnes qui se battent pour les droits numériques et les libertés des utilisateurs.

symboles reliés par des opérateurs comme une équation : ordinateur + nuage open source + nuage de data + point d’inetrrogation = digital freedom
Image d’illustration de l’auteur pour ses diapos de conférence

 

 




Un manifeste des données utilisateurs, aujourd’hui ?

Le User Data Manifesto a été initié par Frank Karlitschek un militant du logiciel libre qui a fondé Nextcloud et Owncloud et participé à d’autres projets open source.
La source de cette traduction française figure sur ce dépôt Github, la dernière traduction que je reprends ici avec quelques modifications mineures date de 2015 et semble essentiellement due à Hugo Roy. Le dernier contributeur en date est Philippe Batailler.

[EDIT] Hugo Roy nous apporte cette précision :
hello – la traduction est bien de moi, mais le texte en anglais aussi 😉 la version actuelle du manifeste est une œuvre collaborative avec Frank et @jancborchardt

À la lecture on est frappé de la pertinence des propositions, cependant malgré quelques avancées du côté des directives de l’Union européenne, certains droits revendiqués ici sont encore à conquérir ! Et après 4 ans il faudrait peut-être ajouter d’autres éléments à ce manifeste : le droit d’échapper au pistage publicitaire, le droit d’anonymiser vraiment sa navigation, le droit de ne pas fournir ses données biométriques etc.

Mais c’est plutôt à vous de dire ce qui manque ou est à modifier dans ce manifeste pour qu’il soit solidement inscrit dans les lois et les usages. Comme toujours, le commentaires sont ouverts et modérés.

Manifeste des données utilisateur

Ce manifeste a pour but de définir les droits fondamentaux des utilisateurs sur leurs données à l’ère d’Internet. Chacun devrait être libre sans avoir à faire allégeance aux fournisseurs de service.

 

Par données utilisateur, on entend les données envoyées par un utilisateur ou une utilisatrice pour son propre usage.

Par exemple, les données utilisateur comprennent :

  • les fichiers qu’un utilisateur ou qu’une utilisatrice synchronise entre plusieurs appareils ou qu’il ou elle partage avec un⋅e proche
  • une bibliothèque d’albums photos, de livres ou d’autres fichiers qu’un utilisateur envoie depuis son appareil afin de pouvoir lire, voir, et modifier tout cela en ligne
  • les données générées par un appareil de l’utilisateur (comme un thermostat ou une montre connectée) et envoyées vers un serveur
  • les requêtes d’un utilisateur à un moteur de recherche, si de telles requêtes sont enregistrées comme telles

 

Ainsi, les utilisateurs devraient pouvoir…

1. Maîtriser leur accès à leurs données

Les données explicitement et volontairement envoyées par une utilisatrice devraient être sous la pleine maîtrise de l’utilisatrice. Les utilisateurs devraient être capables de décider à qui accorder un accès direct à leurs données et avec quelles permissions et licences cet accès devrait être accordé.

Lorsque les utilisateurs maîtrisent l’accès aux données qu’ils envoient, les données censées restées privées ou partagées à un cercle restreint ne devraient pas être rendues accessibles au fournisseur du service, ni divulguées aux États.

Cela implique que le droit d’utiliser le chiffrement ne devrait jamais être bafoué.

Cela implique également que lorsque des utilisateurs n’ont pas la pleine maîtrise sur l’envoi de leurs données (par exemple s’ils n’utilisent pas le chiffrement avant l’envoi) un fournisseur de service ne doit pas :

  • forcer les utilisateurs à divulguer des données privées (ce qui inclut la correspondance privée) pour eux, ni
  • imposer des conditions de licence (ex. : de droit d’auteur ou d’exploitation des données personnelles) qui vont au-delà de ce qui est nécessaire pour l’objectif du service.

Lorsque les utilisateurs rendent des données accessibles à d’autres, qu’il s’agisse d’un groupe de gens restreint ou d’un groupe plus large, ils devraient pouvoir décider sous quelles permissions l’accès à leurs données est autorisé. Cependant, ce droit n’est pas absolu et ne devrait pas empiéter sur le droit des tierces personnes à utiliser et exploiter ces données une fois qu’elles leur ont été rendues accessibles. Qui plus est, cela ne signifie pas que les utilisateurs devraient avoir le droit d’imposer des restrictions injustes à d’autres personnes. Dans tous les cas, les systèmes techniques ne doivent pas être conçus pour faire appliquer de telles restrictions (par exemple avec des DRM).

Les données reçues, générées ou collectées à partir de l’activité des utilisateurs dans l’utilisation du service (ex. : les métadonnées ou les données du graphe social) devraient leur être rendues accessibles et être également sous leur maîtrise. Si cette maîtrise n’est pas possible, alors ce type de données devrait être anonyme ou bien ne pas être stockée pour une période plus longue que nécessaire.

Certains services permettent aux utilisateurs de soumettre des données avec l’intention de les rendre publiquement accessibles à toutes et à tous. Y compris dans ces cas de figure, quelques données utilisateur restent privées (ex. : les métadonnées ou les données du graphe social). L’utilisatrice et l’utilisateur devraient pouvoir contrôler aussi ces données.

2. Savoir comment les données sont stockées

Quand les données sont envoyées à un fournisseur de service particulier, les utilisateurs et utilisatrices devraient être informé⋅e⋅s du lieu de stockage des données du fournisseur de service, de la durée, de la juridiction dans laquelle le fournisseur de service particulier opère et des lois qui s’y appliquent.

Lorsque les utilisateurs utilisent des services centralisés pour envoyer leurs données à un fournisseur de stockage particulier plutôt que de reposer sur des systèmes pair à pair, il est important de savoir où les fournisseurs pourraient stocker ces données car ils pourraient être obligés par les États à divulguer ces données qu’ils ont en leur possession.

Ce point est sans objet si les utilisateurs sont capables de stocker leurs propres données sur leurs appareils (ex. : des serveurs) dans leur environnement personnel et sous leur contrôle direct ou bien s’ils font confiance à des systèmes sans contrôle centralisé (ex. : le pair à pair).

Les utilisateurs ne devraient pas reposer sur des services centralisés. Les systèmes pair à pair et les applications unhosted sont un moyen d’y arriver. À long terme, tous les utilisateurs devraient être capables d’avoir leur propre serveur avec des logiciels libres.

3. Être libres de choisir une plateforme

Les utilisatrices devraient toujours être en mesure d’extraire leurs données d’un service à tout moment sans subir l’enfermement propriétaire.

Les utilisateurs ne devraient pas être bloqués par une solution technique particulière. C’est pourquoi ils devraient toujours être capables de quitter une plateforme et de s’installer ailleurs.

Les formats ouverts sont nécessaires pour garantir cela. Évidemment, sans le code source des programmes utilisés pour les données utilisateurs, cela n’est pas pratique. C’est pourquoi des programmes devraient être distribués sous une licence libre.

Si les utilisateurs ont ces droits, ils ont la maîtrise de leurs données plutôt que d’être sous la coupe des fournisseurs de service.

De nombreux services qui gèrent les données utilisateur à ce jour sont gratuits, mais cela ne signifie pas qu’ils soient libres. Plutôt que de payer avec de l’argent, les utilisateurs font allégeance aux fournisseurs de services pour que ceux-ci puissent exploiter les données utilisateurs (par ex. en les vendant, en offrant des licences ou en construisant des profils pour les annonceurs publicitaires).

Abandonner ainsi la maîtrise de sa vie privée et d’autres droits semble être un acte trivial pour de nombreuses personnes, un faible prix à payer en échange du confort que ces services Internet apportent.

Les fournisseurs de service ont ainsi été obligés de transformer leurs précieux services Internet en systèmes massifs et centralisés de surveillance. Il est crucial que chacun réalise et comprenne cela, puisqu’il s’agit d’une menace importante pour les libertés de l’humanité et le respect de la vie privée de chacun.

Enfin, pour assurer que les données utilisateurs soient sous la maîtrise des utilisateurs, les meilleurs conceptions techniques incluent les systèmes distribués ou pair-à-pair, ainsi que les applications unhosted. Juridiquement, cela signifie que les conditions générales d’utilisation devraient respecter les droits des utilisateurs et leur donner la possibilité d’exercer leurs droits aux données définis dans ce manifeste.

 

un jeune homme demande à maîtriser ses données, à savoir comment elles sont stockées et à pouvoir choisir sa plateforme. Le pdédégé aux lunettes teintées de dollars lui répond que bien sûr c’est garanti dans les CGU et que nous prenons très au sérieux votre vie privée etc. (habituel bullshit)
Illustration réalisée avec https://framalab.org/gknd-creator/