21 degrés de liberté – 01

Vous ne connaissez peut-être pas le nom de Falkvinge. Ce militant des libertés numériques qui a porté son combat (notamment contre le copyright) sur le terrain politique en fondant le Parti Pirate suédois n’hésite pas à afficher des opinions tranchées parfois provocatrices 1.

Le groupe Framalang a trouvé intéressant de soumettre à votre réflexion la série d’articles qu’il a entreprise récemment. Son fil directeur, comme il l’indique dans le premier épisode que nous vous livrons aujourd’hui, c’est la perte de certaines libertés dont nous disposions encore assez récemment, avant que le passage au tout-numérique ne nous en prive.

Nous nous efforcerons de vous traduire ces articles, semaine après semaine. Les commentaires, comme toujours, sont ouverts.

De l’analogique au numérique : nos enfants devraient pouvoir profiter des mêmes droits que ceux dont jouissaient nos parents

Par Rick Falkvinge, source : Private Internet Access

Traduction Framalang : draenog, mo, goofy, simon, 1 anonyme

Dans une série de 21 articles sur ce blog nous examinerons comment le droit à la vie privée, une liberté fondamentale, a complètement disparu quand on est passé à l’ère numérique. Sa dégradation n’est rien moins que catastrophique.

Nous aborderons toute une série de domaines dans lesquels la vie privée a tout simplement disparu avec la transition vers le numérique, et où cela nous mène. Pour chacune de ces thématiques, nous examinerons la position des différentes juridictions et les tendances qui se dessinent. La motivation principale est claire — il n’est absolument pas déraisonnable de penser que nos enfants devraient avoir au moins les mêmes libertés fondamentales individuelles que celles dont jouissaient nos parents, et aujourd’hui ce n’est pas le cas. Pas du tout.

dossiers empilés et cadenassés

Pour démarrer, nous traiterons des libertés concernant la correspondance postale, et comment de nombreuses libertés associées — comme le droit considéré comme acquis d’envoyer une lettre anonyme — ont été complètement perdues. Même chose pour les affiches anonymes sur les panneaux d’affichages ; qui défend votre droit de faire une déclaration politique anonyme aujourd’hui ?

Nous constaterons que nous n’avons plus le droit de nous balader sans que personne ne nous traque. C’était un fait acquis pour nos parents : les aéroports et les gares étaient des lieux où chacun pouvait être anonyme ; aujourd’hui nos téléphones permettent de nous localiser en temps réel aussitôt qu’on s’en approche.

De plus, nous verrons que les autorités devaient auparavant vous prendre en flagrant délit si vous faisiez quelque chose d’interdit. Elles sont maintenant capables de rembobiner les archives sur vingt ans ou plus pour trouver quelque chose qu’elles auraient raté lorsque cela s’est produit, ou qui simplement leur était indifférent à l’époque. Peut-être quelque chose auquel vous n’aviez même pas prêté attention à ce moment-là, et que vous avez complètement oublié 20 ans plus tard.

Nos parents allaient dans des bibliothèques à la recherche d’informations. Les bibliothécaires prenaient de grandes précautions, inventant même le warrant canary 2, pour assurer que n’importe qui puisse chercher n’importe quelle information à son gré et puisse lire n’importe quel livre sans que les autorités le sachent. Aujourd’hui Google prend les mêmes précautions extrêmes, mais pour noter tout ce que vous avez recherché, jusqu’à ce que vous avez failli chercher sans l’avoir fait. Bien entendu, tout ceci est disponible pour les autorités et gouvernements qui n’ont qu’à demander à Google de se conformer à la loi qui vient d’être publiée .

Il n’est absolument pas déraisonnable d’exiger que nos enfants aient au moins autant de libertés fondamentales – droit à la vie privée — dans leur environnement numérique que celles dont nos parents ont bénéficié dans leur environnement analogique. Cependant, les droits à la vie privée ont été quasiment abolis par la transition au numérique.

En parlant de lecture, nos parents pouvaient acheter un journal au coin de la rue pour quelques pièces de monnaie. Ils lisaient un journal sans que quiconque sache qu’ils l’avaient acheté ou lu. À l’inverse, pour nos enfants, est soigneusement enregistré quel journal ils lisent, quand, quels articles, dans quel ordre, pour quelle durée — et peut-être pire, quel comportement ils ont eu peu après, et si ce comportement semble avoir été provoqué par la lecture de l’article.

Ah, la monnaie au kiosque… L’argent liquide partout en fait. Plusieurs pays tentent de supprimer l’argent liquide, rendant toutes les transactions traçables. Une carte de paiement est plus commode ? Peut-être. Mais elle n’est pas plus sûre. Chaque achat est enregistré. Pire, chaque presque-achat de nos enfants est aussi enregistré, chose qui aurait été inconcevable dans le monde de nos parents. Encore pire, chaque achat est aussi soumis à autorisation, et peut être refusé par un tiers.

Nos parents n’avaient pas d’appels vidéos, ou de télés les observant. Mais s’ils en avaient eu, je suis à peu près sûr qu’ils auraient été horrifiés que des gouvernements puissent les observer directement dans leur salon ou pister leurs appels vidéos privés, y compris les plus intimes.

Quand nos parents avaient une conversation au téléphone, il n’y avait jamais de voix inconnue débarquant dans l’appel pour dire « vous avez mentionné un sujet interdit, veuillez ne pas aborder de sujets interdits à l’avenir ». C’est ce qui se produit dans les messages privés de Facebook dans le monde de nos enfants. Bien évidemment ceci est lié à l’idée de conversations privées à la maison, un concept que nos enfants ne comprendront même pas (mais ils comprendront qu’ils peuvent demander à la petite boîte à l’écoute de leur donner des gâteaux et une maison de poupée).

Nous examinerons aussi comment l’industrie du droit d’auteur exploite à peu près tout ceci pour tenter de changer radicalement le monde, dans ce qui ne peut être décrit que comme une faillite morale.

Nous aborderons tout cela et bien d’autres choses encore, dans la série à venir de 21 articles, dont voici le premier.

Votre vie privée est votre propre responsabilité.




Quand l’actu singe Black Mirror

Lorsqu’il s’est penché sur l’actualité des GAFAM, comme il le fait souvent pour préparer ses BD, l’ami Gee n’a pas pu s’empêcher de trouver des similitudes entre certaines informations et une série d’anticipation fort populaire… Il vous livre le résumé d’une saison malheureusement bien réelle.

Quand l’actu singe Black Mirror

Inspiré par la célèbre série dystopique de Netflix, Le Monde Réel™ vous offre une nouvelle série d’épisodes pour la nouvelle année !

Gee s'en va d'un air blasé : « Je vais chercher les popcorns… et le Lexomil… »

ÉPISODE 1 : Hikvision

La société chinoise Hikvision possède un cinquième du marché mondial des caméras de surveillance (avec reconnaissance de visages et de démarches). Elle est détenue à 40 % par l’État chinois qui assied ainsi la surveillance généralisée nécessaire au maintien de la dictature. Ses clients incluent l’armée étatsunienne.

Deux types déprimés en train de picoler sec au comptoir d'un bar. Le premier : « Quand j'pense que j'me moquais du Ministère de la Défense qui utilisait des produits Microsoft/NSA… en fait, les responsables américains sont aussi cons que les nôtres… » Le deuxième : « Pour boucler la boucle, faudrait qu'on vende des trucs de surveillance aux Chinois… » Le premier : « Pfff, nous, on a vendu des saloperies du genre à Kadhafi. Comment tu veux qu'on rivalise… »

ÉPISODE 2 : Life on Mars

Marseille, France. « L’Observatoire de la tranquillité publique » rassemble, entre autres, les images des caméras de surveillance, les mains courantes déposées à la police, la météo ou les grandes tendances des réseaux sociaux… tout cela pour anticiper les troubles à l’ordre public et optimiser leur gestion. Caroline Pozmentier, adjointe au maire, évoque un « big data de la tranquillité publique, premier pilier de la smart city marseillaise ».

Le Geek, le Nerd et la Geekette regardent la télé. Le Nerd : « Mmh… je me demande quelle chute aura cet épisode. » Le Geek propose : « L'algo ne va faire qu'exacerber les biais présents dans les données d'entraînement et devenir réactionnaire et xénophobe ? » La Geekette : « Maaaais non, j'suis sure que c'est juste l'adjointe qui a été remplacée par un robot générateur aléatoire de phrases anglichonantes stupides et vides de sens. » Le Geek : « Attends, mais ça c'est pas de la SF, ça s'appelle “la politique française”. »

ÉPISODE 3 : Tits or GTFO

Pour lutter contre le « revenge porn », qui consiste à publier des photos érotiques (supposées rester privées) pour humilier son ex-partenaire, Facebook propose à ses utilisateurs d’envoyer leurs photos intimes (susceptibles d’être utilisées) à titre de prévention : seul un « hash », un code permettant d’identifier la photo, sera conservé et permettra, par comparaison, d’empêcher l’ex méprisable de publier la photo en question.

Un type avec un regard pervers est derrière son ordi, avec un rouleau de sopalin à côté. Il dit : « Responsable de l'anti-Revenge Porn chez Facebook ?  MEILLEUR.  BOULOT.  DU MONDE. » Un collègue arrive dans son dos et dit en rigolant : « Hé, Jacky ! Vendredi soir, comme d'hab ? Tu nous fais un diaporama best-of chez toi ?  Je ramène les cahuètes. »

ÉPISODE 4 : Are You Eighteen?

MindGeek, propriétaire d’une grande partie des sites de streaming porno, devient le plus gros fournisseur de solution de vérification d’âge (imposée par le gouvernement britannique pour lutter contre la fréquentation des sites pornos par les mineurs). Ces solutions impliquent de numériser son passeport, d’utiliser le numéro de téléphone ou la carte de crédit pour que le fournisseur certifie l’âge de son client, ou encore de laisser un algorithme d’apprentissage automatique analyser le contenu de ses réseaux sociaux…

Un femme regarde la télé, où on entend : « Et on confirme le piratage massif dont a été victime MindGeek cette nuit… Deux milliards d'identités certifiées ont été rendues publiques, associées aux historiques des recherches et vidéos regardées. » La femme, en riant, dit : « Hoooouu, j'aimerais pas être à la place des gens qui sont sur cette liste ! Hein, chéri ? » Son mari est en panique au téléphone : « Allô ? Oui ? Ce serait pour un aller-simple pour Alpha du Centaure, s'il vous plaît. » La femme : « … chéri ? »

ÉPISODE 5 : Six Lines

Le Département d’Immigration étatsunien met en place un algorithme pour détecter les éventuelles menaces posées par des détenteurs de visa aux États-Unis en analysant le contenu de leurs réseaux sociaux.

Un agent dit en rigolant : « Richelieu a dit : “qu'on me donne six lignes écrites de la main du plus honnête homme, j'y trouverai de quoi le faire pendre”. Moi, je dis : qu'on nous donne accès à l'intégralité de la vie sociale en ligne du plus honnête homme… » Un autre agent termine : « Et jackpot. » Ils rigolent : « Haha ! Haha ! » L'autre agent ajoute : « C'est qui, Richetruc ? C'est le nouveau du cinquième ? »

ÉPISODE 6 : Netflix and (nil)

Dernier épisode un peu plus léger mais bien plus ironique et « méta ». Le téléphone OnePlus 5T n’intègre pas un DRM qui permet de lire Netflix ou encore Google Play Movies en haute définition (le constructeur a annoncé qu’il serait intégré prochainement). Les clients sont donc réduits à visionner des films en basse définition sur un appareil à l’écran d’une définition immensément supérieure. Tout cela à cause d’une limitation purement artificielle provoquée par l’ineptie du système de protection de l’industrie audiovisuelle.

Gee dit d'un air ironique : « Heureusement, il y a 1080p.BluRay.x264.YIFY. » Un mec lambda répond : « Ah ? J'connais pas.  C'est compatible avec ma Google TV ? »

À la télé, on entend : « Mille ans ont passé. Les humains ont perdu le contrôle des DRM. Des milliards d'œuvres sont produites chaque jour mais sont illisibles, stockées chiffrées dans des data-centers auxquels plus personne ne sait accéder. Tout cela est financé par les taxes de copie privée sur les supports numériques. L'industrie du divertissement fonctionne en circuit fermé. Tout est parfait. » Gee dit en souriant : « Et sinon, vous pouvez aussi lire ma nouvelle “Les décennies perdues” qui parle de ça… » Le smiley : « Autopromooooooo ! » Gee : « Elle est gratos. » Le smiley : « Remboursez… »

Voilà.

Ça vous plaît ?

De la bonne SF dystopique comme on les aime, pas vrai ?

Le seul problème avec ces épisodes, c’est que leurs synopsis sont tirés de véritables informations (et les dessins sont mes interprétations, bien sûr). La série ne s’arrête pas quand vous éteignez votre écran. Bonne journée.

Gee dit pour conclure : « Vous pouvez toujours prendre un Lexomil. Sinon, il y a ça. » Il indique une fourche. Le smiley commente : « Bah voilà, vous m'l'avez encore agacé… » Note : BD sous licence CC BY SA (grisebouille.net), dessinée le 10 janvier 2018 par Gee.

Sources :

Lire aussi :

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Les nouveaux Léviathans IV. La surveillance qui vient

Dans ce quatrième numéro de la série Nouveaux Léviathans, nous allons voir dans quelle mesure le modèle économique a développé son besoin vital de la captation des données relatives à la vie privée. De fait, nous vivons dans le même scénario dystopique depuis une cinquantaine d’années. Nous verrons comment les critiques de l’économie de la surveillance sont redondantes depuis tout ce temps et que, au-delà des craintes, le temps est à l’action d’urgence.

Note : voici le quatrième volet de la série des Nouveaux (et anciens) Léviathans, initiée en 2016, par Christophe Masutti, alias Framatophe. Pour retrouver les articles précédents, une liste vous est présentée à la fin de celui-ci.

Aujourd’hui

Avons-nous vraiment besoin des utopies et des dystopies pour anticiper les rêves et les cauchemars des technologies appliquées aux comportements humains ? Sempiternellement rabâchés, le Meilleur de mondes et 1984 sont sans doute les romans les plus vendus parmi les best-sellers des dernières années. Il existe un effet pervers des utopies et des dystopies, lorsqu’on les emploie pour justifier des arguments sur ce que devrait être ou non la société : tout argument qui les emploie afin de prescrire ce qui devrait être se trouve à un moment ou à un autre face au mur du réel sans possibilité de justifier un mécanisme crédible qui causerait le basculement social vers la fiction libératrice ou la fiction contraignante. C’est la raison pour laquelle l’île de Thomas More se trouve partout et nulle part, elle est utopique, en aucun lieu. Utopie et dystopie sont des propositions d’expérience et n’ont en soi aucune vocation à prouver ou prédire quoi que ce soit bien qu’elles partent presque toujours de l’expérience commune et dont tout l’intérêt, en particulier en littérature, figure dans le troublant cheminement des faits, plus ou moins perceptible, du réel vers l’imaginaire.

Pourtant, lorsqu’on se penche sur le phénomène de l’exploitation des données personnelles à grande échelle par des firmes à la puissance financière inégalable, c’est la dystopie qui vient à l’esprit. Bien souvent, au gré des articles journalistiques pointant du doigt les dernières frasques des GAFAM dans le domaine de la protection des données personnelles, les discussions vont bon train : « ils savent tout de nous », « nous ne sommes plus libres », « c’est Georges Orwell », « on nous prépare le meilleur des mondes ». En somme, c’est l’angoisse  pendant quelques minutes, juste le temps de vérifier une nouvelle fois si l’application Google de notre smartphone a bien enregistré l’adresse du rendez-vous noté la veille dans l’agenda.

Un petit coup d’angoisse ? allez… que diriez-vous si vos activités sur les réseaux sociaux, les sites d’information et les sites commerciaux étaient surveillées et quantifiées de telle manière qu’un système de notation et de récompense pouvait vous permettre d’accéder à certains droits, à des prêts bancaires, à des autorisations officielles, au logement, à des libertés de circulation, etc. Pas besoin de science-fiction. Ainsi que le rapportait Wired en octobre 20173, la Chine a déjà tout prévu d’ici 2020, c’est-à-dire demain. Il s’agit, dans le contexte d’un Internet déjà ultra-surveillé et non-neutre, d’établir un système de crédit social en utilisant les big data sur des millions de citoyens et effectuer un traitement qui permettra de catégoriser les individus, quels que soient les risques : risques d’erreurs, risques de piratage, crédibilité des indicateurs, atteinte à la liberté d’expression, etc.

Évidemment les géants chinois du numérique comme Alibaba et sa filiale de crédit sont déjà sur le coup. Mais il y a deux choses troublantes dans cette histoire. La première c’est que le crédit social existe déjà et partout : depuis des années on évalue en ligne les restaurants et les hôtels sans se priver de critiquer les tenanciers et il existe toute une économie de la notation dans l’hôtellerie et la restauration, des applications terrifiantes comme Peeple4 existent depuis 2015, les banques tiennent depuis longtemps des listes de créanciers, les fournisseurs d’énergie tiennent à jour les historiques des mauvais payeurs, etc.  Ce que va faire la Chine, c’est le rêve des firmes, c’est la possibilité à une gigantesque échelle et dans un cadre maîtrisé (un Internet non-neutre) de centraliser des millions de gigabits de données personnelles et la possibilité de recouper ces informations auparavant éparses pour en tirer des profils sur lesquels baser des décisions.

Le second élément troublant, c’est que le gouvernement chinois n’aurait jamais eu cette idée si la technologie n’était pas déjà à l’œuvre et éprouvée par des grandes firmes. Le fait est que pour traiter autant d’informations par des algorithmes complexes, il faut : de grandes banques de données, beaucoup d’argent pour investir dans des serveurs et dans des compétences, et espérer un retour sur investissement de telle sorte que plus vos secteurs d’activités sont variés plus vous pouvez inférer des profils et plus votre marketing est efficace. Il est important aujourd’hui pour des monopoles mondialisés de savoir combien vous avez de chance d’acheter à trois jours d’intervalle une tondeuse à gazon et un canard en mousse. Le profilage de la clientèle (et des utilisateurs en général) est devenu l’élément central du marché à tel point que notre économie est devenue une économie de la surveillance, repoussant toujours plus loin les limites de l’analyse de nos vies privées.

La dystopie est en marche, et si nous pensons bien souvent au cauchemar orwellien lorsque nous apprenons l’existence de projets comme celui du gouvernement chinois, c’est parce que nous n’avons pas tous les éléments en main pour en comprendre le cheminement. Nous anticipons la dystopie mais trop souvent, nous n’avons pas les moyens de déconstruire ses mécanismes. Pourtant, il devient de plus en plus facile de montrer ces mécanismes sans faire appel à l’imaginaire : toutes les conditions sont remplies pour n’avoir besoin de tracer que quelques scénarios alternatifs et peu différents les uns des autres. Le traitement et l’analyse de nos vies privées provient d’un besoin, celui de maximiser les profits dans une économie qui favorise l’émergence des monopoles et la centralisation de l’information. Cela se retrouve à tous les niveaux de l’économie, à commencer par l’activité principale des géants du Net : le démarchage publicitaire. Comprendre ces modèles économiques revient aussi à comprendre les enjeux de l’économie de la surveillance.

Données personnelles : le commerce en a besoin

Dans le petit monde des études en commerce et marketing, Frederick Reichheld fait figure de référence. Son nom et ses publications dont au moins deux best sellers, ne sont pas vraiment connus du grand public, en revanche la plupart des stratégies marketing des vingt dernières années sont fondées, inspirées et même modélisées à partir de son approche théorique de la relation entre la firme et le client. Sa principale clé de lecture est une notion, celle de la fidélité du client. D’un point de vue opérationnel cette notion est déclinée en un concept, celui de la valeur vie client (customer lifetime value) qui se mesure à l’aune de profits réalisés durant le temps de cette relation entre le client et la firme. Pour Reichheld, la principale activité du marketing consiste à optimiser cette valeur vie client. Cette optimisation s’oppose à une conception rétrograde (et qui n’a jamais vraiment existé, en fait5) de la « simple » relation marchande.

En effet, pour bien mener les affaires, la relation avec le client ne doit pas seulement être une série de transactions marchandes, avec plus ou moins de satisfaction à la clé. Cette manière de concevoir les modèles économiques, qui repose uniquement sur l’idée qu’un client satisfait est un client fidèle, a son propre biais : on se contente de donner de la satisfaction. Dès lors, on se place d’un point de vue concurrentiel sur une conception du capitalisme marchand déjà ancienne. Le modèle de la concurrence « non faussée » est une conception nostalgique (fantasmée) d’une relation entre firme et client qui repose sur la rationalité de ce dernier et la capacité des firmes à produire des biens en réponse à des besoins plus ou moins satisfaits. Dès lors la décision du client, son libre arbitre, serait la variable juste d’une économie auto-régulée (la main invisible) et la croissance économique reposerait sur une dynamique de concurrence et d’innovation, en somme, la promesse du « progrès ».

Évidemment, cela ne fonctionne pas ainsi. Il est bien plus rentable pour une entreprise de fidéliser ses clients que d’en chercher de nouveaux. Prospecter coûte cher alors qu’il est possible de jouer sur des variables à partir de l’existant, tout particulièrement lorsqu’on exerce un monopole (et on comprend ainsi pourquoi les monopoles s’accommodent très bien entre eux en se partageant des secteurs) :

  1. on peut résumer la conception de Reichheld à partir de son premier best seller, The Loyalty Effect (1996) : avoir des clients fidèles, des employés fidèles et des propriétaires loyaux. Il n’y a pas de main invisible : tout repose sur a) le rapport entre hausse de la rétention des clients / hausse des dépenses, b) l’insensibilité aux prix rendue possible par la fidélisation (un client fidèle, ayant dépassé le stade du risque de défection, est capable de dépenser davantage pour des raisons qui n’ont rien à voir avec la valeur marchande), c) la diminution des coûts de maintenance (fidélisation des employés et adhésion au story telling), d) la hausse des rendements et des bénéfices. En la matière la firme Apple rassemble tous ces éléments à la limite de la caricature.
  2. Reichheld est aussi le créateur d’un instrument d’évaluation de la fidélisation : le NPS (Net Promoter Score). Il consiste essentiellement à catégoriser les clients, entre promoteurs, détracteurs ou passifs. Son autre best-seller The Ultimate Question 2.0: How Net Promoter Companies Thrive in a Customer-Driven World déploie les applications possibles du contrôle de la qualité des relations client qui devient dès lors la principale stratégie de la firme d’où découlent toutes les autres stratégies (en particulier les choix d’innovation). Ainsi il cite dans son ouvrage les plus gros scores NPS détenus par des firmes comme Apple, Amazon et Costco.

Il ne faut pas sous-estimer la valeur opérationnelle du NPS. Notamment parce qu’il permet de justifier les choix stratégiques. Dans The Ultimate Question 2.0 Reichheld fait référence à une étude de Bain & Co. qui montre que pour une banque, la valeur vie client d’un promoteur (au sens NPS) est estimée en moyenne à 9 500 dollars. Ce modèle aujourd’hui est une illustration de l’importance de la surveillance et du rôle prépondérant de l’analyse de données. En effet, plus la catégorisation des clients est fine, plus il est possible de déterminer les leviers de fidélisation. Cela passe évidemment par un système de surveillance à de multiples niveaux, à la fois internes et externes :

  • surveiller des opérations de l’organisation pour les rendre plus agiles et surveiller des employés pour augmenter la qualité des relations client,
  • rassembler le plus de données possibles sur les comportements des clients et les possibilités de déterminer leurs choix à l’avance.

Savoir si cette approche du marketing est née d’un nouveau contexte économique ou si au contraire ce sont les approches de la valeur vie client qui ont configuré l’économie d’aujourd’hui, c’est se heurter à l’éternel problème de l’œuf et de la poule. Toujours est-il que les stratégies de croissance et de rentabilité de l’économie reposent sur l’acquisition et l’exploitation des données personnelles de manière à manipuler les processus de décision des individus (ou plutôt des groupes d’individus) de manière à orienter les comportements et fixer des prix non en rapport avec la valeur des biens mais en rapport avec ce que les consommateurs (ou même les acheteurs en général car tout ne se réduit pas à la question des seuls biens de consommation et des services) sont à même de pouvoir supporter selon la catégorie à laquelle ils appartiennent.

Le fait de catégoriser ainsi les comportements et les influencer, comme nous l’avons vu dans les épisodes précédents de la série Léviathans, est une marque stratégique de ce que Shoshana Zuboff a appelé le capitalisme de surveillance6. Les entreprises ont aujourd’hui un besoin vital de rassembler les données personnelles dans des silos de données toujours plus immenses et d’exploiter ces big data de manière à optimiser leurs modèles économiques. Ainsi, du point de vue des individus, c’est le quotidien qui est scruté et analysé de telle manière que, il y a à peine une dizaine d’années, nous étions à mille lieues de penser l’extrême granularité des données qui cartographient et catégorisent nos comportements. Tel est l’objet du récent rapport publié par Cracked Lab Corporate surveillance in everyday life7 qui montre à quel point tous les aspect du quotidien font l’objet d’une surveillance à une échelle quasi-industrielle (on peut citer les activités de l’entreprise Acxiom), faisant des données personnelles un marché dont la matière première est traitée sans aucun consentement des individus. En effet, tout le savoir-faire repose essentiellement sur le recoupement statistique et la possibilité de catégoriser des milliards d’utilisateurs de manière à produire des représentations sociales dont les caractéristiques ne reflètent pas la réalité mais les comportements futurs. Ainsi par exemple les secteurs bancaires et des assurances sont particulièrement friands des possibilités offertes par le pistage numérique et l’analyse de solvabilité.

Cette surveillance a été caractérisée déjà en 1988 par le chercheur en systèmes d’information Roger Clarke8 :

  • dans la mesure où il s’agit d’automatiser, par des algorithmes, le traitement des informations personnelles dans un réseau regroupant plusieurs sources, et d’en inférer du sens, on peut la qualifier de « dataveillance », c’est à dire « l’utilisation systématique de systèmes de traitement de données à caractère personnel dans l’enquête ou le suivi des actions ou des communications d’une ou de plusieurs personnes » ;
  • l’un des attributs fondamentaux de cette dataveillance est que les intentions et les mécanismes sont cachés aux sujets qui font l’objet de la surveillance.

En effet, l’accès des sujets à leurs données personnelles et leurs traitements doit rester quasiment impossible car après un temps très court de captation et de rétention, l’effet de recoupement fait croître de manière exponentielle la somme d’information sur les sujets et les résultats, qu’ils soient erronés ou non, sont imbriqués dans le profilage et la catégorisation de groupes d’individus. Plus le monopole a des secteurs d’activité différents, plus les comportements des mêmes sujets vont pouvoir être quantifiés et analysés à des fins prédictives. C’est pourquoi la dépendance des firmes à ces informations est capitale ; pour citer Clarke en 20179 :

« L’économie de la surveillance numérique est cette combinaison d’institutions, de relations institutionnelles et de processus qui permet aux entreprises d’exploiter les données issues de la surveillance du comportement électronique des personnes et dont les sociétés de marketing deviennent rapidement dépendantes. »

Le principal biais que produit cette économie de la surveillance (pour S. Zuboff, c’est de capitalisme de surveillance qu’il s’agit puisqu’elle intègre une relation d’interdépendance entre centralisation des données et centralisation des capitaux) est qu’elle n’a plus rien d’une démarche descriptive mais devient prédictive par effet de prescription.

Elle n’est plus descriptive (mais l’a-t-elle jamais été ?) parce qu’elle ne cherche pas à comprendre les comportements économiques en fonction d’un contexte, mais elle cherche à anticiper les comportements en maximisant les indices comportementaux. On ne part plus d’un environnement économique pour comprendre comment le consommateur évolue dedans, on part de l’individu pour l’assigner à un environnement économique sur mesure dans l’intérêt de la firme. Ainsi, comme l’a montré une étude de Propublica en 201610, Facebook dispose d’un panel de pas moins de 52 000 indicateurs de profilage individuels pour en établir une classification générale. Cette quantification ne permet plus seulement, comme dans une approche statistique classique, de déterminer par exemple si telle catégorie d’individus est susceptible d’acheter une voiture. Elle permet de déterminer, de la manière la plus intime possible, quelle valeur économique une firme peut accorder à un panel d’individus au détriment des autres, leur valeur vie client.

Tout l’enjeu consiste à savoir comment influencer ces facteurs et c’est en cela que l’exploitation des données passe d’une dimension prédictive à une dimension prescriptive. Pour prendre encore l’exemple de Facebook, cette firme a breveté un système capable de déterminer la solvabilité bancaire des individus en fonction de la solvabilité moyenne de leur réseau de contacts11. L’important ici, n’est pas vraiment d’aider les banques à diminuer les risques d’insolvabilité de leurs clients, car elles savent très bien le faire toutes seules et avec les mêmes procédés d’analyse en big data. En fait, il s’agit d’influencer les stratégies personnelles des individus par le seul effet panoptique12 : si les individus savent qu’ils sont surveillés, toute la stratégie individuelle consistera à choisir ses amis Facebook en fonction de leur capacité à maximiser les chances d’accéder à un prêt bancaire (et cela peut fonctionner pour bien d’autres objectifs). L’intérêt de Facebook n’est pas d’aider les banques, ni de vendre une expertise en statistique (ce n’est pas le métier de Facebook) mais de normaliser les comportements dans l’intérêt économique et augmenter la valeur vie client potentielle de ses utilisateurs : si vous avez des problèmes d’argent, Facebook n’est pas fait pour vous. Dès lors il suffit ensuite de revendre des profils sur-mesure à des banques. On se retrouve typiquement dans un épisode d’anticipation de la série Black Mirror (Chute libre)13.

 

La fiction, l’anticipation, la dystopie… finalement, c’est-ce pas un biais que de toujours analyser sous cet angle l’économie de la surveillance et le rôle des algorithmes dans notre quotidien ? Tout se passe en quelque sorte comme si nous découvrions un nouveau modèle économique, celui dont nous venons de montrer que les préceptes sont déjà anciens, et comme si nous appréhendions seulement aujourd’hui les enjeux de la captation et l’exploitation des données personnelles. Au risque de décevoir tous ceux qui pensent que questionner la confiance envers les GAFAM est une activité d’avant-garde, la démarche a été initiée dès les prémices de la révolution informatique.

La vie privée à l’époque des pattes d’eph.

Face au constat selon lequel nous vivons dans un environnement où la surveillance fait loi, de nombreux ouvrages, articles de presse et autres témoignages ont sonné l’alarme. En décembre 2017, ce fut le soi-disant repentir de Chamath Palihapitya, ancien vice-président de Facebook, qui affirmait avoir contribué à créer « des outils qui déchirent le tissu social »14. Il ressort de cette lecture qu’après plusieurs décennies de centralisation et d’exploitation des données personnelles par des acteurs économiques ou institutionnels, nous n’avons pas fini d’être surpris par les transformations sociales qu’impliquent les big data. Là où, effectivement, nous pouvons accorder un tant soit peu de de crédit à C. Palihapitya, c’est dans le fait que l’extraction et l’exploitation des données personnelles implique une économie de la surveillance qui modèle la société sur son modèle économique. Et dans ce modèle, l’exercice de certains droits (comme le droit à la vie privée) passe d’un état absolu (un droit de l’homme) à un état relatif (au contexte économique).

Comme cela devient une habitude dans cette série des Léviathans, nous pouvons effectuer un rapide retour dans le temps et dans l’espace. Situons-nous à la veille des années 1970, aux États-Unis, plus exactement dans la période charnière qui vit la production en masse des ordinateurs mainframe (du type IBM 360), à destination non plus des grands laboratoires de recherche et de l’aéronautique, mais vers les entreprises des secteurs de la banque, des assurances et aussi vers les institutions gouvernementales. L’objectif premier de tels investissements (encore bien coûteux à cette époque) était le traitement des données personnelles des citoyens ou des clients.

Comme bien des fois en histoire, il existe des périodes assez courtes où l’on peut comprendre les événements non pas parce qu’ils se produisent suivant un enchaînement logique et linéaire, mais parce qu’ils surviennent de manière quasi-simultanée comme des fruits de l’esprit du temps. Ainsi nous avons d’un côté l’émergence d’une industrie de la donnée personnelle, et, de l’autre l’apparition de nombreuses publications portant sur les enjeux de la vie privée. D’aucuns pourraient penser que, après la publication en 1949 du grand roman de G. Orwell, 1984, la dystopie orwellienne pouvait devenir la clé de lecture privilégiée de l’informationnalisation (pour reprendre le terme de S. Zuboff) de la société américaine dans les années 1960-1970. Ce fut effectivement le cas… plus exactement, si les références à Orwell sont assez courantes dans la littérature de l’époque15, il y avait deux lectures possibles de la vie privée dans une société aussi bouleversée que celle de l’Amérique des années 1960. La première questionnait la hiérarchie entre vie privée et vie publique. La seconde focalisait sur le traitement des données informatiques. Pour mieux comprendre l’état d’esprit de cette période, il faut parcourir quelques références.

Vie privée vs vie publique

Deux best-sellers parus en été 1964 effectuent un travail introspectif sur la société américaine et son rapport à la vie privée. Le premier, écrit par Myron Brenton, s’intitule The privacy invaders16. Brenton est un ancien détective privé qui dresse un inventaire des techniques de surveillance à l’encontre des citoyens et du droit. Le second livre, écrit par Vance Packard, connut un succès international. Il s’intitule The naked Society17, traduit en français un an plus tard sous le titre Une société sans défense. V. Packard est alors universitaire, chercheur en sociologie et économie. Il est connu pour avoir surtout travaillé sur la société de consommation et le marketing et dénoncé, dans un autre ouvrage (La persuasion clandestine18), les abus des publicitaires en matière de manipulation mentale. Dans The naked Society comme dans The privacy invaders les mêmes thèmes sont déployés à propos des dispositifs de surveillance, entre les techniques d’enquêtes des banques sur leurs clients débiteurs, les écoutes téléphoniques, la surveillance audio et vidéo des employés sur les chaînes de montage, en somme toutes les stratégies privées ou publiques d’espionnage des individus et d’abus en tout genre qui sont autant d’atteintes à la vie privée. Il faut dire que la société américaine des années 1960 a vu aussi bien arriver sur le marché des biens de consommation le téléphone et la voiture à crédit mais aussi l’électronique et la miniaturisation croissante des dispositifs utiles dans ce genre d’activité. Or, les questions que soulignent Brenton et Packard, à travers de nombreux exemples, ne sont pas tant celles, plus ou moins spectaculaires, de la mise en œuvre, mais celles liées au droit des individus face à des puissances en recherche de données sur la vie privée extorquées aux sujets mêmes. En somme, ce que découvrent les lecteurs de ces ouvrages, c’est que la vie privée est une notion malléable, dans la réalité comme en droit, et qu’une bonne part de cette malléabilité est relative aux technologies et au médias. Packard ira légèrement plus loin sur l’aspect tragique de la société américaine en focalisant plus explicitement sur le respect de la vie privée dans le contexte des médias et de la presse à sensation et dans les contradictions apparente entre le droit à l’information, le droit à la vie privée et le Sixième Amendement. De là, il tire une sonnette d’alarme en se référant à Georges Orwell, et dénonçant l’effet panoptique obtenu par l’accessibilité des instruments de surveillance, la généralisation de leur emploi dans le quotidien, y compris pour les besoins du marketing, et leur impact culturel.

En réalité, si ces ouvrages connurent un grand succès, c’est parce que leur approche de la vie privée reposait sur un questionnement des pratiques à partir de la morale et du droit, c’est-à-dire sur ce que, dans une société, on est prêt à admettre ou non au sujet de l’intimité vue comme une part structurelle des relations sociales. Qu’est-ce qui relève de ma vie privée et qu’est-ce qui relève de la vie publique ? Que puis-je exposer sans crainte selon mes convictions, ma position sociale, la classe à laquelle j’appartiens, etc. Quelle est la légitimité de la surveillance des employés dans une usine, d’un couple dans une chambre d’hôtel, d’une star du show-biz dans sa villa ?

Il reste que cette approche manqua la grande révolution informatique naissante et son rapport à la vie privée non plus conçue comme l’image et l’estime de soi, mais comme un ensemble d’informations quantifiables à grande échelle et dont l’analyse peut devenir le mobile de décisions qui impactent la société en entier19. La révolution informatique relègue finalement la légitimité de la surveillance au second plan car la surveillance est alors conçue de manière non plus intentionnelle mais comme une série de faits : les données fournies par les sujets, auparavant dans un contexte fermé comme celui de la banque locale, finirent par se retrouver centralisées et croisées au gré des consortiums utilisant l’informatique pour traiter les données des clients. Le même schéma se retrouva pour ce qui concerne les institutions publiques dans le contexte fédéral américain.

Vie privée vs ordinateurs

Une autre approche commença alors à faire son apparition dans la sphère universitaire. Elle intervient dans la seconde moitié des années 1960. Il s’agissait de se pencher sur la gouvernance des rapports entre la vie privée et l’administration des données personnelles. Suivant au plus près les nouvelles pratiques des grands acteurs économiques et gouvernementaux, les universitaires étudièrent les enjeux de la numérisation des données personnelles avec en arrière-plan les préoccupations juridiques, comme celle de V. Packard, qui faisaient l’objet des réflexions de la décennie qui se terminait. Si, avec la société de consommation venait tout un lot de dangers sur la vie privée, cette dernière devrait être protégée, mais il fallait encore savoir sur quels plans agir. Le début des années 1970, en guise de résultat de ce brainstorming général, marquèrent alors une nouvelle ère de la privacy à l’Américaine à l’âge de l’informatisation et du réseautage des données personnelles. Il s’agissait de comprendre qu’un changement majeur était en train de s’effectuer avec les grands ordinateurs en réseau et qu’il fallait formaliser dans le droit les garde-fou les plus pertinents : on passait d’un monde où la vie privée pouvait faire l’objet d’une intrusion par des acteurs séparés, recueillant des informations pour leur propre compte en fonction d’objectifs différents, à un monde où les données éparses étaient désormais centralisées, avec des machines capables de traiter les informations de manière rapide et automatisée, capables d’inférer des informations sans le consentement des sujets à partir d’informations que ces derniers avaient données volontairement dans des contextes très différents.

La liste des publications de ce domaine serait bien longue. Par exemple, la Rand Corporation publia une longue liste bibliographique annotée au sujet des données personnelles informatisées. Cette liste regroupe près de 300 publications entre 1965 et 1967 sur le sujet20.

Des auteurs universitaires firent école. On peut citer :

  • Alan F. Westin : Privacy and freedom (1967), Civil Liberties and Computerized Data Systems (1971), Databanks in a Free Society: Computers, Record Keeping and Privacy (1972)21 ;
  • James B. Rule : Private lives and public surveillance: social control in the computer age (1974)22 ;
  • Arthur R. Miller : The assault on privacy. Computers, Data Banks and Dossier (1971)23 ;
  • Malcolm Warner et Mike Stone, The Data Bank Society : Organizations, Computers and Social Freedom (1970)24.

Toutes ces publications ont ceci en commun qu’elles procédèrent en deux étapes. La première consistait à dresser un tableau synthétique de la société américaine face à la captation des informations personnelles. Quatre termes peuvent résumer les enjeux du traitement des informations : 1) la légitimité de la captation des informations, 2) la permanence des données et leurs modes de rétention, 3) la transférabilité (entre différentes organisations), 4) la combinaison ou le recoupement de ces données et les informations ainsi inférées25.

La seconde étape consistait à choisir ce qui, dans cette « société du dossier (dossier society) » comme l’appelait Arthur R. Miller, devait faire l’objet de réformes. Deux fronts venaient en effet de s’ouvrir : l’État et les firmes.

Le premier, évident, était celui que la dystopie orwellienne pointait avec empressement : l’État de surveillance. Pour beaucoup de ces analystes, en effet, le fédéralisme américain et la multiplicité des agences gouvernementales pompaient allègrement la privacy des honnêtes citoyens et s’équipaient d’ordinateurs à temps partagé justement pour rendre interopérables les systèmes de traitement d’information à (trop) grande échelle. Un rapide coup d’œil sur les références citées, montre que, effectivement, la plupart des conclusions focalisaient sur le besoin d’adapter le droit aux impératifs constitutionnels américains. Tels sont par exemple les arguments de A. F. Westin pour lequel l’informatisation des données privées dans les différentes autorités administratives devait faire l’objet non d’un recul, mais de nouvelles règles portant sur la sécurité, l’accès des citoyens à leurs propres données et la pertinence des recoupements (comme par exemple l’utilisation restreinte du numéro de sécurité sociale). En guise de synthèse, le rapport de l’U.S. Department of health, Education and Welfare livré en 197326 (et où l’on retrouve Arthur R. Miller parmi les auteurs) repris ces éléments au titre de ses recommandations. Il prépara ainsi le Privacy Act de 1974, qui vise notamment à prévenir l’utilisation abusive de documents fédéraux et garantir l’accès des individus aux données enregistrées les concernant.

Le second front, tout aussi évident mais moins accessible car protégé par le droit de propriété, était celui de la récolte de données par les firmes, et en particulier les banques. L’un des auteurs les plus connus, Arthur R. Miller dans The assault on privacy, fit la synthèse des deux fronts en focalisant sur le fait que l’informatisation des données personnelles, par les agences gouvernementales comme par les firmes, est une forme de surveillance et donc un exercice du pouvoir. Se poser la question de leur légitimité renvoie effectivement à des secteurs différents du droit, mais c’est pour lui le traitement informatique (il utilise le terme « cybernétique ») qui est un instrument de surveillance par essence. Et cet instrument est orwellien :

« Il y a à peine dix ans, on aurait pu considérer avec suffisance Le meilleur des mondes de Huxley ou 1984 de Orwell comme des ouvrages de science-fiction excessifs qui ne nous concerneraient pas et encore moins ce pays. Mais les révélations publiques répandues au cours des dernières années au sujet des nouvelles formes de pratiques d’information ont fait s’envoler ce manteau réconfortant mais illusoire. »

Pourtant, un an avant la publication de Miller fut voté le Fair Credit Reporting Act, portant sur les obligations déclaratives des banques. Elle fut aussi l’une des premières lois sur la protection des données personnelles, permettant de protéger les individus, en particulier dans le secteur bancaire, contre la tenue de bases de données secrètes, la possibilité pour les individus d’accéder aux données et de les contester, et la limitation dans le temps de la rétention des informations.

Cependant, pour Miller, le Fair Credit Reporting Act est bien la preuve que la bureaucratie informatisée et le réseautage des données personnelles impliquent deux pertes de contrôle de la part de l’individu et pour lesquelles la régulation par le droit n’est qu’un pis-aller (pp. 25-38). On peut de même, en s’autorisant quelque anachronisme, s’apercevoir à quel point les deux types de perte de contrôles qu’il pointe nous sont éminemment contemporains.

  • The individual loss of control over personal information  : dans un contexte où les données sont mises en réseau et recoupées, dès lors qu’une information est traitée par informatique, le sujet et l’opérateur n’ont plus le contrôle sur les usages qui pourront en être faits. Sont en jeu la sécurité et l’intégrité des données (que faire en cas d’espionnage ? que faire en cas de fuite non maîtrisée des données vers d’autres opérateurs : doit-on exiger que les opérateurs en informent les individus ?).
  • The individual loss of control over the accuracy of his informational profil : la centralisation des données permet de regrouper de multiples aspects de la vie administrative et sociale de la personne, et de recouper toutes ces données pour en inférer des profils. Dans la mesure où nous assistons à une concentration des firmes par rachats successifs et l’émergence de monopoles (Miller prend toujours l’exemple des banques), qu’arrive-t-il si certaines données sont erronées ou si certains recoupements mettent en danger le droit à la vie privée : par exemple le rapport entre les données de santé, l’identité des individus et les crédits bancaires.

Et Miller de conclure (p. 79) :

« Ainsi, l’informatisation, le réseautage et la réduction de la concurrence ne manqueront pas de pousser l’industrie de l’information sur le crédit encore plus profondément dans le marasme du problème de la protection de la vie privée. »

Les échos du passé

La lutte pour la préservation de la vie privée dans une société numérisée passe par une identification des stratégies intentionnelles de la surveillance et par l’analyse des procédés d’extraction, rétention et traitement des données. La loi est-elle une réponse ? Oui, mais elle est loin de suffire. La littérature nord-américaine dont nous venons de discuter montre que l’économie de la surveillance dans le contexte du traitement informatisé des données personnelles est née il y a plus de 50 ans. Et dès le début il fut démontré, dans un pays où les droits individuels sont culturellement associés à l’organisation de l’État fédéral (la Déclaration des Droits), non seulement que la privacy changeait de nature (elle s’étend au traitement informatique des informations fournies et aux données inférées) mais aussi qu’un équilibre s’établissait entre le degré de sanctuarisation de la vie privée et les impératifs régaliens et économiques qui réclament une industrialisation de la surveillance.

Puisque l’intimité numérique n’est pas absolue mais le résultat d’un juste équilibre entre le droit et les pratiques, tout les jeux post-révolution informatique après les années 1960 consistèrent en une lutte perpétuelle entre défense et atteinte à la vie privée. C’est ce que montre Daniel J. Solove dans « A Brief History of Information Privacy Law »27 en dressant un inventaire chronologique des différentes réponses de la loi américaine face aux changements technologiques et leurs répercussions sur la vie privée.

Il reste néanmoins que la dimension industrielle de l’économie de la surveillance a atteint en 2001 un point de basculement à l’échelle mondiale avec le Patriot Act28 dans le contexte de la lutte contre le terrorisme. À partir de là, les principaux acteurs de cette économie ont vu une demande croissante de la part des États pour récolter des données au-delà des limites strictes de la loi sous couvert des dispositions propres à la sûreté nationale et au secret défense. Pour rester sur l’exemple américain, Thomas Rabino écrit à ce sujet29 :

« Alors que le Privacy Act de 1974 interdit aux agences fédérales de constituer des banques de données sur les citoyens américains, ces mêmes agences fédérales en font désormais l’acquisition auprès de sociétés qui, à l’instar de ChoicePoint, se sont spécialisées dans le stockage d’informations diverses. Depuis 2001, le FBI et d’autres agences fédérales ont conclu, dans la plus totale discrétion, de fructueux contrats avec ChoicePoint pour l’achat des renseignements amassés par cette entreprise d’un nouveau genre. En 2005, le budget des États-Unis consacrait plus de 30 millions de dollars à ce type d’activité. »

Dans un contexte plus récent, on peut affirmer que même si le risque terroriste est toujours agité comme un épouvantail pour justifier des atteintes toujours plus fortes à l’encontre de la vie privée, les intérêts économiques et la pression des lobbies ne peuvent plus se cacher derrière la Raison d’État. Si bien que plusieurs pays se mettent maintenant au diapason de l’avancement technologique et des impératifs de croissance économique justifiant par eux-mêmes des pratiques iniques. Ce fut le cas par exemple du gouvernement de Donald Trump qui, en mars 2017 et à la plus grande joie du lobby des fournisseurs d’accès, abroge une loi héritée du gouvernement précédent et qui exigeait que les FAI obtiennent sous conditions la permission de partager des renseignements personnels – y compris les données de localisation30.

Encore en mars 2017, c’est la secrétaire d’État à l’Intérieur Britannique Amber Rudd qui juge publiquement « inacceptable » le chiffrement des communications de bout en bout et demande aux fournisseurs de messagerie de créer discrètement des backdoors, c’est à dire renoncer au chiffrement de bout en bout sans le dire aux utilisateurs31. Indépendamment du caractère moralement discutable de cette injonction, on peut mesurer l’impact du message sur les entreprises comme Google, Facebook et consors : il existe des décideurs politiques capables de demander à ce qu’un fournisseur de services propose à ses utilisateurs un faux chiffrement, c’est-à-dire que le droit à la vie privée soit non seulement bafoué mais, de surcroît, que le mensonge exercé par les acteurs privés soit couvert par les acteurs publics, et donc par la loi.

Comme le montre Shoshana Zuboff, le capitalisme de surveillance est aussi une idéologie, celle qui instaure une hiérarchie entre les intérêts économiques et le droit. Le droit peut donc être une arme de lutte pour la sauvegarde de la vie privée dans l’économie de la surveillance, mais il ne saurait suffire dans la mesure où il n’y pas de loyauté entre les acteurs économiques et les sujets et parfois même encore moins entre les décideurs publics et les citoyens.

Dans ce contexte où la confiance n’est pas de mise, les portes sont restées ouvertes depuis les années 1970 pour créer l’industrie des big data dont le carburant principal est notre intimité, notre quotidienneté. C’est parce qu’il est désormais possible de repousser toujours un peu plus loin les limites de la captation des données personnelles que des théories économique prônent la fidélisation des clients et la prédiction de leurs comportements comme seuls points d’appui des investissements et de l’innovation. C’est vrai dans le marketing, c’est vrai dans les services et l’innovation numériques. Et tout naturellement c’est vrai dans la vie politique, comme le montre par exemple l’affaire des dark posts durant la campagne présidentielle de D. Trump : la possibilité de contrôler l’audience et d’influencer une campagne présidentielle via les réseaux sociaux comme Facebook est désormais démontrée.

Tant que ce modèle économique existera, aucune confiance ne sera possible. La confiance est même absente des pratiques elles-mêmes, en particulier dans le domaine du traitement algorithmique des informations. En septembre 2017, la chercheuse Zeynep Tufekci, lors d’une conférence TED32, reprenait exactement les questions d’Arthur R. Miller dans The assault on privacy, soit 46 ans après. Miller prenait comme étude de cas le stockage d’information bancaire sur les clients débiteurs, et Tufekci prend les cas des réservation de vols aériens en ligne et du streaming vidéo. Dans les deux réflexions, le constat est le même : le traitement informatique de nos données personnelles implique que nous (les sujets et les opérateurs eux-mêmes) perdions le contrôle sur ces données :

« Le problème, c’est que nous ne comprenons plus vraiment comment fonctionnent ces algorithmes complexes. Nous ne comprenons pas comment ils font cette catégorisation. Ce sont d’énormes matrices, des milliers de lignes et colonnes, peut-être même des millions, et ni les programmeurs, ni quiconque les regardant, même avec toutes les données, ne comprend plus comment ça opère exactement, pas plus que vous ne sauriez ce que je pense en ce moment si l’on vous montrait une coupe transversale de mon cerveau. C’est comme si nous ne programmions plus, nous élevons une intelligence que nous ne comprenons pas vraiment. »

Z. Tufekci montre même que les algorithmes de traitement sont en mesure de fournir des conclusions (qui permettent par exemple d’inciter les utilisateurs à visualiser des vidéos sélectionnées d’après leur profil et leur historique) mais que ces conclusions ont ceci de particulier qu’elle modélisent le comportement humain de manière à l’influencer dans l’intérêt du fournisseur. D’après Z. Tufekci : «  L’algorithme a déterminé que si vous pouvez pousser les gens à penser que vous pouvez leur montrer quelque chose de plus extrême (nda : des vidéos racistes dans l’exemple cité), ils ont plus de chances de rester sur le site à regarder vidéo sur vidéo, descendant dans le terrier du lapin pendant que Google leur sert des pubs. »

Ajoutons de même que les technologies de deep learning, financées par millions par les GAFAM, se prêtent particulièrement bien au jeu du traitement automatisé en cela qu’elle permettent, grâce à l’extrême croissance du nombre de données, de procéder par apprentissage. Cela permet à Facebook de structurer la grande majorité des données des utilisateurs qui, auparavant, n’était pas complètement exploitable33. Par exemple, sur les milliers de photos de chatons partagées par les utilisateurs, on peut soit se contenter de constater une redondance et ne pas les analyser davantage, soit apprendre à y reconnaître d’autres informations, comme par exemple l’apparition, en arrière-plan, d’un texte, d’une marque de produit, etc. Il en est de même pour la reconnaissance faciale, qui a surtout pour objectif de faire concorder les identités des personnes avec toutes les informations que l’on peut inférer à partir de l’image et du texte.

Si les techniques statistiques ont le plus souvent comme objectif de contrôler les comportements à l’échelle du groupe, c’est parce que le seul fait de catégoriser automatiquement les individus consiste à considérer que leurs données personnelles en constituent l’essence. L’économie de la surveillance démontre ainsi qu’il n’y a nul besoin de connaître une personne pour en prédire le comportement, et qu’il n’y a pas besoin de connaître chaque individu d’un groupe en particulier pour le catégoriser et prédire le comportement du groupe, il suffit de laisser faire les algorithmes : le tout est d’être en mesure de classer les sujets dans les bonnes catégories et même faire en sorte qu’ils y entrent tout à fait. Cela a pour effet de coincer littéralement les utilisateurs des services « capteurs de données » dans des bulles de filtres où les informations auxquelles ils ont accès leur sont personnalisées selon des profils calculés34. Si vous partagez une photo de votre chat devant votre cafetière, et que dernièrement vous avez visité des sites marchands, vous aurez de grandes chance pour vos futures annonces vous proposent la marque que vous possédez déjà et exercent, par effet de répétition, une pression si forte que c’est cette marque que vous finirez par acheter. Ce qui fonctionne pour le marketing peut très bien fonctionner pour d’autres objectifs, même politiques.

En somme tous les déterminants d’une société soumise au capitalisme de surveillance, apparus dès les années 1970, structurent le monde numérique d’aujourd’hui sans que les lois ne puissent jouer de rôle pleinement régulateur. L’usage caché et déloyal des big data, le trafic de données entre organisations, la dégradation des droits individuels (à commencer par la liberté d’expression et le droit à la vie privée), tous ces éléments ont permis à des monopoles d’imposer un modèle d’affaire et affaiblir l’État-nation. Combien de temps continuerons-nous à l’accepter ?

Sortir du marasme

En 2016, à la fin de son article synthétique sur le capitalisme de surveillance35, Shoshana Zuboff exprime personnellement un point de vue selon lequel la réponse ne peut pas être uniquement technologique :

« (…) les faits bruts du capitalisme de surveillance suscitent nécessairement mon indignation parce qu’ils rabaissent la dignité humaine. L’avenir de cette question dépendra des savants et journalistes indignés attirés par ce projet de frontière, des élus et des décideurs indignés qui comprennent que leur autorité provient des valeurs fondamentales des communautés démocratiques, et des citoyens indignés qui agissent en sachant que l’efficacité sans l’autonomie n’est pas efficace, la conformité induite par la dépendance n’est pas un contrat social et être libéré de l’incertitude n’est pas la liberté. »

L’incertitude au sujet des dérives du capitalisme de surveillance n’existe pas. Personne ne peut affirmer aujourd’hui qu’avec l’avènement des big data dans les stratégies économiques, on pouvait ignorer que leur usage déloyal était non seulement possible mais aussi que c’est bien cette direction qui fut choisie d’emblée dans l’intérêt des monopoles et en vertu de la centralisation des informations et des capitaux. Depuis les années 1970, plusieurs concepts ont cherché à exprimer la même chose. Pour n’en citer que quelques-uns : computocracie (M. Warner et M. Stone, 1970), société du dossier (Arthur R. Miller, 1971), surveillance de masse (J. Rule, 1973), dataveillance (R. Clarke, 1988), capitalisme de surveillance (Zuboff, 2015)… tous cherchent à démontrer que la surveillance des comportements par l’usage des données personnelles implique en retour la recherche collective de points de rupture avec le modèle économique et de gouvernance qui s’impose de manière déloyale. Cette recherche peut s’exprimer par le besoin d’une régulation démocratiquement décidée et avec des outils juridiques. Elle peut s’exprimer aussi autrement, de manière violente ou pacifiste, militante et/ou contre-culturelle.

Plusieurs individus, groupes et organisation se sont déjà manifestés dans l’histoire à ce propos. Les formes d’expression et d’action ont été diverses :

  • institutionnelles : les premières formes d’action pour garantir le droit à la vie privée ont consisté à établir des rapports collectifs préparatoires à des grandes lois, comme le rapport Records, computers and the rights of citizens, de 1973, cité plus haut ;
  • individualistes, antisociales et violentes : bien que s’inscrivant dans un contexte plus large de refus technologique, l’affaire Theodore Kaczynski (alias Unabomber) de 1978 à 1995 est un bon exemple d’orientation malheureuse que pourraient prendre quelques individus isolés trouvant des justifications dans un contexte paranoïaque ;
  • collectives – activistes – légitimistes : c’est le temps des manifestes cypherpunk des années 199036, ou plus récemment le mouvement Anonymous, auxquels on peut ajouter des collectifs « événementiels », comme le Jam Echelon Day ;
  • Associatives, organisées : on peut citer le mouvement pour le logiciel libre et la Free Software Foundation, l’Electronic Frontier Foundation, La Quadrature du Net, ou bien encore certaines branches d’activité d’organisation plus générales comme la Ligue des Droits de l’Homme, Reporter Sans Frontière, etc.

Les limites de l’attente démocratique sont néanmoins déjà connues. La société ne peut réagir de manière légale, par revendication interposée, qu’à partir du moment où l’exigence de transparence est remplie. Lorsqu’elle ne l’est pas, au pire les citoyens les plus actifs sont taxés de complotistes, au mieux apparaissent de manière épisodique des alertes, à l’image des révélations d’Edward Snowden, mais dont la fréquence est si rare malgré un impact psychologique certain, que la situation a tendance à s’enraciner dans un statu quo d’où sortent généralement vainqueurs ceux dont la capacité de lobbying est la plus forte.

À cela s’ajoute une difficulté technique due à l’extrême complexité des systèmes de surveillance à l’œuvre aujourd’hui, avec des algorithmes dont nous maîtrisons de moins en moins les processus de calcul (cf. Z. Tufekci). À ce propos on peut citer Roger Clarke37 :

« Dans une large mesure, la transparence a déjà été perdue, en partie du fait de la numérisation, et en partie à cause de l’application non pas des approches procédurales et d’outils de développement des logiciels algorithmiques du XXe siècle, mais à cause de logiciels de dernière génération dont la raison d’être est obscure ou à laquelle la notion de raison d’être n’est même pas applicable. »

Une autre option pourrait consister à mettre en œuvre un modèle alternatif qui permette de sortir du marasme économique dans lequel nous sommes visiblement coincés. Sans en faire l’article, le projet Contributopia de Framasoft cherche à participer, à sa mesure, à un processus collectif de réappropriation d’Internet et, partant:

  • montrer que le code est un bien public et que la transparence, grâce aux principes du logiciel libre (l’ouverture du code), permet de proposer aux individus un choix éclairé, à l’encontre de l’obscurantisme de la dataveillance ;
  • promouvoir des apprentissages à contre-courant des pratiques de captation des vies privées et vers des usages basés sur le partage (du code, de la connaissance) entre les utilisateurs ;
  • rendre les utilisateurs autonomes et en même temps contributeurs à un réseau collectif qui les amènera naturellement, par l’attention croissante portée aux pratiques des monopoles, à refuser ces pratiques, y compris de manière active en utilisant des solutions de chiffrement, par exemple.

Mais Contributopia de Framasoft ne concerne que quelques aspects des stratégies de sortie du capitalisme de surveillance. Par exemple, pour pouvoir œuvrer dans cet esprit, une politique rigide en faveur de la neutralité du réseau Internet doit être menée. Les entreprises et les institutions publiques doivent être aussi parmi les premières concernées, car il en va de leur autonomie numérique, que cela soit pour de simples questions économiques (ne pas dépendre de la bonne volonté d’un monopole et de la logique des brevets) mais aussi pour des questions de sécurité. Enfin, le passage du risque pour la vie privée au risque de manipulation sociale étant avéré, toutes les structures militantes en faveur de la démocratie et les droits de l’homme doivent urgemment porter leur attention sur le traitement des données personnelles. Le cas de la britannique Amber Rudd est loin d’être isolé : la plupart des gouvernements collaborent aujourd’hui avec les principaux monopoles de l’économie numérique et, donc, contribuent activement à l’émergence d’une société de la surveillance. Aujourd’hui, le droit à la vie privée, au chiffrement des communications, au secret des correspondances sont des droits à protéger coûte que coûte sans avoir à choisir entre la liberté et les épouvantails (ou les sirènes) agités par les communicants.

 




Merci de nous avoir donné les moyens de continuer !

Le 21 novembre dernier, à l’occasion de l’annonce du projet Framatube, nous avons lancé un appel aux dons : il nous manquait 90 000 € pour boucler notre budget 2018, sachant que notre principale ressource (90 % de notre budget), ce sont vos dons.

Mer-ci !

Aujourd’hui, nous avons atteint cette somme, alors nous voulons prendre le temps de vous dire, tout simplement : merci.

Soutenir et contribuer à nos actions

Chez Framasoft, nous voyons vraiment notre petite association (qui, rappelons-le, est et reste une bande de potes) comme un lieu d’expérimentation concrète des libertés numériques. Y’a des idées qui nous tentent, alors on se lance, et cela nous permet de nous rendre compte si l’idée parle et si sa réalisation est possible, reproductible, dans quelles limites et avec quels moyens.

Vos dons nous soutiennent en cela : nous vous racontons ce que nous faisons, nous annonçons ce que nous allons faire (par exemple avec notre feuille de route pour les trois années à venir : Contributopia). Si vous voulez nous voir avancer dans cette voie, une des manières (et pas la seule !) de nous soutenir et de contribuer, c’est de nous donner de l’argent. Considérer vos dons comme autant de contributions est quelque chose d’assez inhabituel, en fait.

Merci à Aryeom, du projet Ze Marmott pour cette bien belle illustration !

Aujourd’hui, dans la culture des financements participatifs (crowdfundings) où tout don est soumis à une contrepartie, on essaie de transformer la personne qui donne en une espèce de consommatrice, de « client-roi » qui aurait le droit d’afficher des caprices (« je donne si vous faites ceci ou ne faites plus cela », « je donne donc vous devez répondre oui à ma demande », etc.). Cela crée l’illusion de décider sur des détails, mais aucunement le pouvoir de participer à la production commune, ni de s’en emparer après coup.

Ce fonctionnement-là ne nous parle pas. Vos dons sont parmi les indices qui nous indiquent si nous tenons la barre vers le bon cap. Visiblement, affirmer que Dégoogliser c’est bien mais ça ne suffit pas, aller explorer les outils numériques des mondes de Contributopia, c’est un chemin que vous avez envie de parcourir avec nous. Mine de rien, savoir que nos envies résonnent avec les vôtres, voir votre enthousiasme, cela fait chaud au cœur, alors merci de votre confiance.

À quoi va servir votre argent ?

Alors nous avons déjà détaillé cela dans notre dernière newsletter, donc on peut vous dire que, dans les grandes lignes, nous allons continuer. Pour 2018, cela signifie :

Contribuons ensemble vers cette Contributopia.
Illustration de David Revoy – Licence : CC-By 4.0

Ça fait court, dit comme ça, mais mine de rien, nous allons avoir une année bien remplie, et des projets qui vont vous demander, régulièrement, d’intervenir et de vous en emparer si vous désirez que cela avance.

De fait, si nous avons atteint les moyens nécessaires pour accomplir ces actions en 2018, il n’est pas trop tard pour donner : nombreux sont les projets que nous avons budgetés de manière raisonnée, et qui seraient accélérés par des fonds supplémentaires. On pense, notamment, à l’avancement de Framatube après mars 2018 : plus nous dépasserons la barre fixée, mieux nous pourrons accompagner ce projet après ce lancement.

Essaimer c’est aimer

Ce n’est pas pour rien que l’on dit « copier, c’est aimer » : les projets libres sont des communs, et ils ne s’épanouissent que si chacun et chacune d’entre nous les cultivons. Par exemple, grâce à vous, nous avons pu accomplir de bien belles choses en 2017 :

Dégooglisons Internet, vu par Péhä (CC-By)

Encore une fois, un immense merci à toutes les personnes qui nous ont soutenus cette année (et aussi à celles qui ont soutenu d’autres associations comme, par exemple, La Quadrature du Net, Nos Oignons  ou l’April).

Et si ce n’est pas encore le cas : n’hésitez pas ! Rappelons que 100€ de dons en 2017 vous permettront de déduire 66€ de vos impôts en 2018… une belle manière de contribuer à nos actions en utilisant vos… contributions 🙂 !
Soutenez Framasoft

Toute l’équipe de Framasoft vous envoie plein de datalove, et vous souhaite de belles fêtes, dans le partage et la chaleur commune.




Framatube : nos réponses à vos questions pratiques !

Voici un florilège des questions variées que vous avez posées lors dans notre foire aux questions concernant PeerTube, le logiciel qui propulsera Framatube.

Avant de vous partager ces échanges, voici un petit résumé de la situation 😉

Expliquer Framatube en 3mn

Si vous n’avez pas encore entendu parler de Framatube et de PeerTube (ou si vous voulez en parler autour de vous), on a une astuce ! Hélène Chevallier, journaliste à France Inter, nous a interviewé et a résumé les enjeux et notre démarche dans sa chronique « C’est déjà demain » du 28 novembre dernier, que voici :

Pour rappel, n’hésitez pas à nous soutenir dans le financement de PeerTube et dans l’ensemble de nos actions, en faisant un don.

Mais revenons-en au propos de cet article : vos questions ! Nous avons regroupé les réponses à des questions plus techniques dans un autre article sur ce blog ^^. Sauf mention contraire, toutes les réponses sont de Chocobozzz, le développeur que nous avons accueilli dans notre équipe salariée afin qu’il puisse finaliser le code de PeerTube. De même, la plupart des questions ont été raccourcies ou reformulées pour plus de lisibilité, mais l’intégralité des échanges se trouve sur notre forum !

Olivier Massain a profité de notre foire aux questions pour proposer son aide sur le design de PeerTube : ça va péter la classe !

Quels contenus, quelles vidéos…?

TeemoT

— Je voudrais en savoir plus sur le type de contenus qui y seraient hébergés, n’importe quelle vidéo pourrait y être ? Ou y a-t-il des règles à respecter ?

Pouhiou souhaite répondre ici :

À vrai dire, cela dépendra de chaque hébergement PeerTube.

Car, et c’est important de le souligner : a priori, Framasoft n’hébergera pas vos vidéos sur Framatube.

En effet, notre but est que se monte une fédération d’instances PeerTube à la fois indépendantes et dans une entraide commune. Or, si nous ouvrons notre instance de PeerTube (qui sera donc Framatube) aux vidéos de tout le monde, la facilité fera que les vidéos seront postées chez nous et de ne pas chercher à créer sa propre instance ou a se regrouper par communauté d’intérêts.

Du coup, nous serons là pour aider et accompagner les personnes, associations, collectifs de vidéastes, lieux de formation, médias, etc. qui veulent monter leur instance et se fédérer. Mais ce sera à chacune de ces instances de choisir quelle porte d’entrée vers PeerTube elle veut être, donc par exemple de déterminer leurs conditions générales d’utilisation.

Du coup, le type de contenus vidéos dépendra forcément des personnes qui se regrouperont pour héberger des vidéos sur leurs instances et des vidéos qu’elles y accepteront ;).


arthurrambo

— Qu’en est-il des vidéos prônant l’homophobie, l’antisémitisme et le racisme ? Seront-elles supprimées comme sur YouTube ? Quelles conséquences pourra-t-il y avoir sur le créateur ?

Une vidéo peut-être signalée par un utilisateur. Le signalement va à l’administrateur/modérateurs du serveur sur lequel est enregistré l’utilisateur, plus à l’administrateur/modérateurs du serveur qui possède la vidéo.

C’est donc à eux d’évaluer s’ils veulent ou non supprimer la vidéo (puis potentiellement l’utilisateur) :

  • Si le serveur détient la vidéo elle est supprimée en local puis sur l’ensemble du réseau (par fédération) ;
  • Si le serveur ne détient pas la vidéo elle est simplement supprimée en local.

Pyg se permet d’ajouter :

À la réponse de Chocobozzz concernant l’outil, j’ajoute celle de la loi.

En effet, trop peu de contenus contenant des discours de haine sont signalés. Certes, les procédures sont longues, mais trop peu de gens les utilisent, ce qui a pour conséquence de laisser croire que la plateforme (Twitter, Facebook, ou ici une instance PeerTube) est « le » interlocuteur pour signaler les contenus.

Sur Mastodon, on a bien vu que beaucoup s’étaient crus, au départ, dans un nouveau Far West (« c’est mon instance, je fais ce que je veux »). Il faut rappeler la loi, encore et encore, et la faire vivre, car c’est elle qui est l’un des principaux supports du « vivre ensemble ».

Il va de soi, mais ça va mieux en le disant, que sur notre future instance PeerTube, aucun propos contraire à ces lois ne saura être toléré.


JonathanMM

— Est ce qu’à l’ouverture du service, il est prévu des vidéos de gens connus (style gros youtubeurs), histoire qu’il y ait déjà un peu de contenu grand public et que ça ne part pas de presque rien ?

Pouhiou a un début de réponse :

Pour l’instant, peu de choses sont prévues : on vient tout juste d’annoncer le projet !

L’idée est justement de commencer à entrer en contact avec divers collectifs pour voir s’ils ont envie d’avoir une instance PeerTube, de s’approprier leurs moyens de diffusion. Nous discutons actuellement avec des associations, des fédérations, et avec quelques vidéastes pour voir si et comment nous pourrions les accompagner. Mais ne mettons pas la charrue avant les bœufs : il faut d’abord avoir un code fonctionnel, une interface accueillante, bref un outil qui soit facile à installer et utiliser.

Du coup, ce travail d’accompagnement se fera entre janvier et février, et nous enjoignons tout groupe souhaitant devenir son propre hébergeur de vidéos (même si c’est en parallèle d’une chaîne YouTube, au moins au début) à nous contacter pour qu’on puisse les aider ;).

Mais soyons francs : en mars 2018, ce sera le début d’un nouveau réseau d’hébergement de vidéos, et non un bouquet final !


acryline

— J’aimerais savoir si un jour Peertube pourra permettre le live streaming ?

Ça risque d’être compliqué, car le torrent fonctionne sur des fichiers finis immuables.

Certains ont essayé en générant en boucle un fichier torrent toutes les x secondes, puis en l’envoyant aux autres clients. Je n’ai pas testé mais c’est plutôt ingénieux. Après est-ce que ça marche bien et efficacement, je ne sais pas parce que c’est un peu de la bidouille.

Au lieu d’utiliser BitTorrent on pourrait imaginer utiliser que la fédération de serveurs, on partagerait la bande passante entre les serveurs. Après ça ne reste qu’une idée. Mais c’est loin d’être pour tout de suite. 🙂


Illustration : CC-By-SA Emma Lidbury

Envoyer et partager les vidéos

ChristianW

— Y a-t-il un code d’incrustation html ?

Oui, il y a possibilité d’incruster la vidéo dans n’importe quelle page web.

 

— Comment se comporte PeerTube quand il y a des accès simultanés depuis un même réseau intranet ?

Que ce soit via intranet ou internet il y utilisation de WebRTC, qui regardera s’il y a un moyen pour ces différents utilisateurs de s’échanger de la donnée. S’il y a possibilité (pare-feu/routeur sympa) ça sera fait automatiquement. Sinon ça passera simplement par HTTP sans notion de pair-à-pair.


buyaman

— Comment procéder pour une transition en douceur entre les plateformes actuelles et la vôtre ? Ex: je suis un vidéaste au contenu prolifique (1000 vidéos) en combien de temps je fais le transfert ?

Tout dépend de votre plate-forme actuelle, mais on aimerait ajouter une interface d’import (depuis YouTube notamment).

 

— Et serait-ce une transition abrupte ou en douceur (les deux plateformes utilisées le temps de la transition) ?

C’est à vous de décider 😉


Aitua;

— J’imagine que si le filtrage automatique est inscrit dans la loi européenne, les serveurs dans l’UE seraient obligés d’imposer un tel filtrage ?

Pouhiou a été invité à répondre :

Question très très intéressante, car elle montre que ce projet de loi n’est pensé que pour des plateformes centralisatrices de gros hébergeurs (qui ont les moyens de mettre en place de tels filtres) et pénalise de fait l’auto-hébergement ou l’hébergement mutualisé, tout en déconsidérant d’emblée les systèmes décentralisés ou distribués.

Déjà, il faut se dire qu’entre le fait que cela entre dans une loi/directive européenne, le fait d’avoir des décrets d’application, le fait que cela ne soit pas démonté par le conseil constitutionnel (j’avais lu quelque part que cette proposition avait toutes les chances d’être écartée à ce niveau)… Bref : on a le temps de voir venir !

Et la question finale : qu’est-ce qu’un filtre automatique ? S’il suffit d’analyser le texte donné en titre à la vidéo ou d’ajouter une case à cocher lors de l’upload « promis je respecte le copyright« , ça peut facilement être implémenté…

Aitua

— J’ai envie de croire comme toi que cette loi ne passera pas, car les exemples que j’ai trouvés ne sont vraiment pas positifs pour les vidéastes.

Bref, c’est une des raisons pour laquelle moi aussi je veux passer à PeerTube et ne plus avoir à subir ces filtrages !


Nous n’avons clairement pas les mêmes moyens que Google !
Illustration : CC-By-SA Emma Lidbury

Parlons sous…

choosebzh

— Je vais peut-être poser la question qui fâche, mais qu’en est-il des annonceurs? Certains vidéastes prolifiques pourront-ils en retirer une source de revenus? Même faible, bien sûr. Car être libriste, oui, mais faut vivre aussi. 🙂

Techniquement il n’est pas prévu d’ajouter de la pub.

Rien n’empêche pour le vidéaste d’incorporer une annonce dans sa vidéo (ça commence à se faire sur les autres plate-formes) même si ça a ses limites.

Il est probable qu’on ajoute la possibilité d’afficher des boutons Liberapay, Tipeee, Patreon, etc., en dessous de la vidéo. Mais ce n’est pas notre priorité pour l’instant.

Pouhiou se permet d’ajouter :

Sur la question des annonceurs, et en tant qu’ancien « youtubeur » qui connaît encore beaucoup de monde dans le milieu, j’ajoute une précision.

L’annonce publicitaire est un modèle de rémunération qui paye très très mal les vidéastes. Avec l’explosion des créations vidéos, les annonces sont payées de moins en moins, et on est bien loin du « 1€ pour 1000 vues » de 2013… C’est un modèle qui marche encore pour les très très très gros succès (des millions de vues sur plusieurs vidéos), ce qui représente une infime partie des vidéastes.

Actuellement, si un·e vidéaste veut se faire de l’argent avec de la pub, le meilleur moyen reste les partenariats et placements de produits.

Le modèle économique le plus efficace pour les « petit·e·s vidéastes » semble encore être le modèle du don (Tipee, Patreon, Liberapay) qui, s’il n’est pas intégré à PeerTube dès sa bêta, sera relativement facile à implémenter (parce que PeerTube est un logiciel libre).


Framasoft

Et tant que nous parlons sous, faisons un petit point sur le financement…

(oui, nous avons rajouté cette question nous-mêmes, c’est triché… mais cela nous permet de faire le point avec vous, en toute transparence)

Et Framasoft de s’auto-répondre :

Comme nous l’affichons sur le site présentant le projet Framatube, nous finançons le développement de PeerTube sur le budget de l’association, dont 90 % des revenus proviennent de vos dons.

En effet, sur les 90 000 € qu’il nous manque pour boucler notre budget 2018 :

instantané des dons 9 jours après le lancement de la campagne PeerTube.

À la rédaction de cet article, nous avons déjà récolté pas loin de 20 000 € en une semaine, ce qui est formidable, parce que vous êtes des personnes formidables (n’en doutez jamais) ! Néanmoins, rien n’est gagné et si nous ne voulons pas revoir nos ambitions à la baisse, il faudrait que nous atteignions cette barre des 90 000 € d’ici le 31 décembre.

Pour rappel, notre association étant reconnue d’intérêt général, tout don de contribuables français·es peut être déduit de leurs impôts sur les revenus. Ainsi, un don de 100 € vous reviendra, après déduction fiscale, à 34 €.

Sachez que, si nous dépassons cet objectif des 90 000 €, notre priorité sera de permettre à Chocobozzz de poursuivre le développement de PeerTube, et donc d’ajouter à cette solution des fonctionnalités très attendues (ce ne sont pas les idées qui manquent, juste les moyens ^^).

Si vous le voulez et le pouvez, pensez à soutenir Framasoft !

 Pour aller plus loin :




La nouvelle dystopie, c’est maintenant

L’article qui suit n’est pas une traduction intégrale mais un survol aussi fidèle que possible de la conférence TED effectuée par la sociologue des technologies Zeynep Tufecki. Cette conférence intitulée : « Nous créons une dystopie simplement pour obliger les gens à cliquer sur des publicités »
(We’re building a dystopia just to make people click on ads) est en cours de traduction sur la plateforme Amara préconisée par TED, mais la révision n’étant pas effectuée, il faudra patienter pour en découvrir l’intégralité sous-titrée en français. est maintenant traduite en français \o/

En attendant, voici 4 minutes de lecture qui s’achèvent hélas sur des perspectives assez vagues ou plutôt un peu vastes : il faut tout changer. Du côté de Framasoft, nous proposons de commencer par outiller la société de contribution avec la campagne Contributopia… car dégoogliser ne suffira pas !

 

Mettez un peu à jour vos contre-modèles, demande Zeynep : oubliez les références aux menaces de Terminator et du 1984 d’Orwell, ces dystopies ne sont pas adaptées à notre débutant XXIe siècle.

Cliquez sur l'image pour afficher la vidéo sur le site de TED (vous pourrez afficher les sous-titres via un bouton en bas de la vidéo)
Cliquez sur l’image pour afficher la vidéo sur le site de TED (vous pourrez afficher les sous-titres via un bouton en bas de la vidéo)

Ce qui est à craindre aujourd’hui, car c’est déjà là, c’est plutôt comment ceux qui détiennent le pouvoir utilisent et vont utiliser l’intelligence artificielle pour exercer sur nous des formes de contrôle nouvelles et malheureusement peu détectables. Les technologies qui menacent notre liberté et notre jardin secret (celui de notre bulle d’intimité absolue) sont développées par des entreprises-léviathans qui le font d’abord pour vendre nos données et notre attention aux GAFAM (Tristan Nitot, dans sa veille attentive, signale qu’on les appelle les frightful five, les 5 qui font peur, aux États-Unis). Zeynep ajoute d’ailleurs Alibaba et Tencent. D’autres à venir sont sur les rangs, peut-on facilement concevoir.

Ne pas se figurer que c’est seulement l’étape suivante qui prolonge la publicité en ligne, c’est au contraire un véritable saut vers une autre catégorie « un monde différent » à la fois exaltant par son potentiel extraordinaire mais aussi terriblement dangereux.

Voyons un peu la mécanique de la publicité. Dans le monde physique, les friandises à portée des enfants au passage en caisse de supermarché sont un procédé d’incitation efficace, mais dont la portée est limitée. Dans le monde numérique, ce que Zeynep appelle l’architecture de la persuasion est à l’échelle de plusieurs milliards de consommateurs potentiels. Qui plus est, l’intelligence artificielle peut cibler chacun distinctement et envoyer sur l’écran de son smartphone (on devrait dire spyphone, non ?) un message incitatif qui ne sera vu que par chacun et le ciblera selon ses points faibles identifiés par algorithmes.

Prenons un exemple : quand hier l’on voulait vendre des billets d’avion pour Las Vegas, on cherchait la tranche d’âge idéale et la carte de crédit bien garnie. Aujourd’hui, les mégadonnées et l’apprentissage machine (machine learning) s’appuient sur tout ce que Facebook peut avoir collecté sur vous à travers messages, photos, « likes », même sur les textes qu’on a commencés à saisir au clavier et qu’on a ensuite effacés, etc. Tout est analysé en permanence, complété avec ce que fournissent des courtiers en données.

Les algos d’apprentissage, comme leur nom l’indique, apprennent ainsi non seulement votre profil personnel mais également, face à un nouveau compte, à quel type déjà existant on peut le rapprocher. Pour reprendre l’exemple, ils peuvent deviner très vite si telle ou telle personne est susceptible d’acheter un billet pour un séjour à Las Vegas.

Vous pensez que ce n’est pas très grave si on nous propose un billet pour Vegas.

Le problème n’est pas là.
Le problème c’est que les algorithmes complexes à l’œuvre deviennent opaques pour tout le monde, y compris les programmeurs, même s’ils ont accès aux données qui sont généralement propriétaires donc inaccessibles.

« Comme si nous cessions de programmer pour laisser se développer une forme d’intelligence que nous ne comprenons pas véritablement. Et tout cela marche seulement s’il existe une énorme quantité de données, donc ils encouragent une surveillance étendue : pour que les algos de machine learning puissent opérer. Voilà pourquoi Facebook veut absolument collecter le plus de données possible sur vous. Les algos fonctionneront bien mieux »

Que se passerait-il, continue Zeynep avec l’exemple de Las Vegas, si les algos pouvaient repérer les gens bipolaires, soumis à des phases de dépenses compulsives et donc bons clients pour Vegas, capitale du jeu d’argent ? Eh bien un chercheur qui a contacté Zeynep a démontré que les algos pouvaient détecter les profils à risques psychologiques avec les médias sociaux avant que des symptômes cliniques ne se manifestent…
Les outils de détection existent et sont accessibles, les entreprises s’en servent et les développent.

L’exemple de YouTube est également très intéressant : nous savons bien, continue Zeynep, que nous sommes incités par un algo à écouter/regarder d’autres vidéos sur la page où se trouve celle que nous avons choisie.

Eh bien en 2016, témoigne Zeynep, j’ai reçu de suggestions par YouTube : comme j’étudiais la campagne électorale en sociologue, je regardais des vidéos des meetings de Trump et YouTube m’a suggéré des vidéos de suprématistes (extrême-droite fascisante aux USA) !
Ce n’est pas seulement un problème de politique. L’algorithme construit une idée du comportement humain, en supposant que nous allons pousser toujours notre curiosité vers davantage d’extrêmes, de manière à nous faire demeurer plus longtemps sur un site pendant que Google vous sert davantage de publicités.
Pire encore, comme l’ont prouvé des expériences faites par ProPublica et BuzzFeed, que ce soit sur Facebook ou avec Google, avec un investissement minime, on peut présenter des messages et profils violemment antisémites à des personnes qui ne sont pas mais pourraient (toujours suivant les algorithmes) devenir antisémites.

L’année dernière, le responsable médias de l’équipe de Trump a révélé qu’ils avaient utilisé de messages « non-publics » de Facebook pour démobiliser les électeurs, les inciter à ne pas voter, en particulier dans des villes à forte population d’Afro-américains. Qu’y avait-il dans ces messages « non-publics » ? On ne le saura pas, Twitter ne le dira pas.

Les algorithmes peuvent donc aussi influencer le comportement des électeurs.

Facebook a fait une expérience en 2010 qui a été divulguée après coup.
Certains ont vu ce message les incitant à voter. Voici la version basique :

et d’autres ont vu cette version (avec les imagettes des contacts qui ont cliqué sur « j’ai voté »)

Ce message n’a été présenté qu’une fois mais 340 000 électeurs de plus ont voté lors de cette élection, selon cette recherche, confirmée par les listes électorales.
En 2012, même expérience, résultats comparables : 270 000 électeurs de plus.
De quoi laisser songeur quand on se souvient que l’élection présidentielle américaine de 2016 s’est décidée à environ 100 000 voix près…

« Si une plate-forme dotée d’un tel pouvoir décide de faire passer les partisans d’un candidat avant les autres, comment le saurions-nous ? »

Les algorithmes peuvent facilement déduire notre appartenance à une communauté ethnique, nos opinions religieuses et politiques, nos traits de personnalité, l’intelligence, la consommation de substances addictives, la séparation parentale, l’âge et le sexe, en se fondant sur les « j’aime » de Facebook. Ces algorithmes peuvent identifier les manifestants même si leurs visages sont partiellement dissimulés, et même l’orientation sexuelle des gens à partir de leurs photos de leur profil de rencontres.
Faut-il rappeler que la Chine utilise déjà la technologie de détection des visages pour identifier et arrêter les personnes ?

Le pire, souligne Zeynep est que

« Nous construisons cette infrastructure de surveillance autoritaire uniquement pour inciter les gens à cliquer sur les publicités. »

Si nous étions dans l’univers terrifiant de 1984 nous aurions peur mais nous saurions de quoi, nous détesterions et pourrions résister. Mais dans ce nouveau monde, si un état nous observe et nous juge, empêche par anticipation les potentiels fauteurs de trouble de s’opposer, manipule individus et masses avec la même facilité, nous n’en saurons rien ou très peu…

« Les mêmes algorithmes que ceux qui nous ont été lancés pour nous rendre plus flexibles en matière de publicité organisent également nos flux d’informations politiques, personnelles et sociales… »

Les dirigeants de Facebook ou Google multiplient les déclarations bien intentionnées pour nous convaincre qu’ils ne nous veulent aucun mal. Mais le problème c’est le business model qu’ils élaborent. Ils se défendent en prétendant que leur pouvoir d’influence est limité, mais de deux choses l’une : ou bien Facebook est un énorme escroquerie et les publicités ne fonctionnent pas sur leur site (et dans ce cas pourquoi des entreprises paieraient-elles pour leur publicité sur Facebook ?), ou bien leur pouvoir d’influence est terriblement préoccupant. C’est soit l’un, soit l’autre. Même chose pour Google évidemment.

Que faire ?
C’est toute la structure et le fonctionnement de notre technologie numérique qu’il faudrait modifier…

« Nous devons faire face au manque de transparence créé par les algorithmes propriétaires, au défi structurel de l’opacité de l’apprentissage machine, à toutes ces données qui sont recueillies à notre sujet. Nous avons une lourde tâche devant nous. Nous devons mobiliser notre technologie, notre créativité et aussi notre pouvoir politique pour construire une intelligence artificielle qui nous soutienne dans nos objectifs humains, mais qui soit aussi limitée par nos valeurs humaines. »

 

« Nous avons besoin d’une économie numérique où nos données et notre attention ne sont pas destinées à la vente aux plus offrants autoritaires ou démagogues. »

 




Caliopen, la messagerie libre sur la rampe de lancement

Le projet Caliopen, lancé il y a trois ans, est un projet ambitieux. Alors qu’il est déjà complexe de créer un nouveau logiciel de messagerie, il s’agit de proposer un agrégateur de correspondance qui permette à chacun d’ajuster son niveau de confidentialité.

Ce logiciel libre mûrement réfléchi est tout à fait en phase avec ce que Framasoft s’efforce de promouvoir à chaque fois que des libristes donnent aux utilisateurs et utilisatrices plus d’autonomie et de maîtrise, plus de sécurité et de confidentialité.

Après une nécessaire période d’élaboration, le projet Caliopen invite tout le monde à tester la version alpha et à faire remonter les observations et suggestions. La première version grand public ce sera pour dans un an environ.

Vous êtes curieux de savoir ce que ça donne ? Nous l’étions aussi, et nous avons demandé à Laurent Chemla, qui bidouillait déjà dans l’Internet alors que vous n’étiez même pas né⋅e, de nous expliquer tout ça, puisqu’il est le père tutélaire du projet Caliopen, un projet que nous devons tous soutenir et auquel nous pouvons contribuer.

Bonjour, pourrais-tu te présenter brièvement ?

J’ai 53 ans, dont 35 passés dans les mondes de l’informatique et des réseaux. Presque une éternité dans ce milieu – en tous cas le temps d’y vivre plusieurs vies (« pirate », programmeur, hacktiviste, entrepreneur…). Mais ces temps-ci je suis surtout le porteur du projet Caliopen, même si je conserve une petite activité au sein du CA de la Quadrature du Net. Et je fais des macarons.

Le projet Caliopen arrive ce mois-ci au stade de la version alpha, mais comment ça a commencé ?

Jérémie Zimmermann est venu me sortir de ma retraite nîmoise en me poussant à relancer un très ancien projet de messagerie après les révélations de Snowden. Ça faisait déjà un petit moment que je me demandais si je pouvais encore être utile à la communauté autrement qu’en publiant quelques billets de temps en temps, alors j’ai lancé l’idée en public, pour voir, et il y a eu un tel retour que je n’ai pas pu faire autrement que d’y aller, malgré ma flemme congénitale.

Quand tu as lancé le projet publiquement (sur une liste de diffusion il me semble) quelle était la feuille de route, ou plutôt la « bible » des spécifications que tu souhaitais voir apparaître dans Caliopen ?

Très vite on a vu deux orientations se dessiner : la première, très technique, allait vers une vision maximaliste de la sécurité (réinventer SMTP pour protéger les métadonnées, garantir l’anonymat, passer par du P2P, ce genre de choses), tandis que la seconde visait à améliorer la confidentialité des échanges sans tout réinventer. Ça me semblait plus réaliste – parce que compatible avec les besoins du grand public – et c’est la direction que j’ai choisi de suivre au risque de fâcher certains contributeurs.

J’ai alors essayé de lister toutes les fonctionnalités (aujourd’hui on dirait les « User Stories ») qui sont apparues dans les échanges sur cette liste, puis de les synthétiser, et c’est avec ça que je suis allé voir Stephan Ramoin, chez Gandi, pour lui demander une aide qu’il a aussitôt accepté de donner. Le projet a ensuite évolué au rythme des échanges que j’ai pu avoir avec les techos de Gandi, puis de façon plus approfondie avec Thomas Laurent pendant la longue étape durant laquelle nous avons imaginé le design de Caliopen. C’est seulement là, après avoir défini le « pourquoi » et le « quoi » qu’on a pu vraiment commencer à réfléchir au « comment » et à chercher du monde pour le réaliser.

La question qui fâche : quand on lit articles et interviews sur Caliopen, on a l’impression que le concept est encore super flou. C’est quoi l’elevator pitch pour vendre le MVP de la start-up aux business angels des internets digitaux ? (en français : tu dis quoi pour convaincre de nouveaux partenaires financiers ?)

Ça fait bien 3 ans que le concept de base n’a pas bougé : un agrégateur de correspondances qui réunit tous nos échanges privés (emails, message Twitter ou Facebook, messageries instantanées…), sous forme de conversations, définies par ceux avec qui on discute plutôt que par le protocole utilisé pour le faire. Voilà pour ton pitch.

Ce qui est vrai c’est qu’en fonction du public auquel on s’adresse on ne présente pas forcément le même angle.  Le document qui a été soumis à BPI France pour obtenir le financement actuel fait 23 pages, très denses. Il aborde les aspects techniques, financiers, l’état du marché, la raison d’être de Caliopen, ses objectifs sociétaux, ses innovations, son design, les différents modèles économiques qui peuvent lui être appliqués… ce n’est pas quelque chose qu’on peut développer en un article ou une interview unique.

Si j’aborde Caliopen sous l’angle de la vie privée, alors j’explique par exemple le rôle des indices de confidentialité, la façon dont le simple fait d’afficher le niveau de confidentialité d’un message va influencer l’utilisateur dans ses pratiques: on n’écrit pas la même chose sur une carte postale que dans une lettre sous enveloppe. Rien que sur ce sujet, on vient de faire une conférence entière (à Paris Web et à BlendWebMix) sans aborder aucun des autres aspects du projet.

Si je l’aborde sous l’angle technique, alors je vais peut-être parler d’intégration « verticale ». Du fait qu’on ne peut pas se contenter d’un nouveau Webmail, ou d’un nouveau protocole, si on veut tenir compte de tous les aspects qui font qu’un échange est plus ou moins secret. Ce qui fait de Caliopen un ensemble de différentes briques plutôt qu’une unique porte ou fenêtre. Ou alors je vais parler de la question du chiffrement, de la diffusion des clés publiques, de TOFU et du RFC 7929…

Mais on peut aussi débattre du public visé, de design, d’économie du Web, de décentralisation… tous ces angles sont pertinents, et chacun peut permettre de présenter Caliopen avec plus ou moins de détails.

Caliopen est un projet complexe, fondé sur un objectif (la lutte contre la surveillance de masse) et basé sur un moyen (proposer un service utile à tous), qui souhaite changer les habitudes des gens en les amenant à prendre réellement conscience du niveau d’exposition de leur vie privée. Il faut plus de talent que je n’en ai pour le décrire en quelques mots.

Il reste un intérêt pour les mails ? On a l’impression que tout passe par les webmails ou encore dans des applis de communication sur mobile, non ?

Même si je ne crois pas à la disparition de l’email, c’est justement parce qu’on a fait le constat qu’aujourd’hui la correspondance numérique passe par de très nombreux services qu’on a imaginé Caliopen comme un agrégateur de tous ces échanges.

C’est un outil qui te permet de lire et d’écrire à tes contacts sans avoir à te préoccuper du service, ou de l’application, où la conversation a commencé. Tu peux commencer un dialogue avec quelqu’un par message privé sur Twitter, la poursuivre par email, puis par messagerie instantanée… ça reste une conversation: un échange privé entre deux humains, qui peuvent aborder différents sujets, partager différents contenus. Et quand tu vas vouloir chercher l’information que l’autre t’a donné l’année passée, tu vas faire comment ?

C’est à ça que Caliopen veut répondre. Pour parler moderne, c’est l’User Story centrale du projet.

C’est quoi exactement cette histoire de niveaux de confidentialité ? Quel est son but ?

Il faut revenir à l’objectif principal du projet : lutter contre la surveillance de masse que les révélations d’Edward Snowden ont démontrée.

Pour participer à cette lutte, Caliopen vise à convaincre un maximum d’utilisateurs de la valeur de leur vie privée. Et pour ça, il faut d’abord leur montrer, de manière évidente, que leurs conversations sont très majoritairement espionnables, sinon espionnées. Notre pari, c’est que quand on voit le risque d’interception, on réagit autrement que lorsqu’on est seulement informé de son existence. C’est humain : regarde l’exemple de la carte postale que je te donne plus haut.

D’où l’idée d’associer aux messages (mais aussi aux contacts, aux terminaux, et même à l’utilisateur lui-même) un niveau de confidentialité. Représenté par une icône, des couleurs, des chiffres, c’est une question de design, mais ce qui est important c’est qu’en voyant le niveau de risque, l’utilisateur ne va plus pouvoir faire semblant de l’ignorer et qu’il va accepter de changer – au moins un peu – ses pratiques et ses habitudes pour voir ce niveau augmenter.

Bien sûr, il faudra l’accompagner. Lui proposer des solutions (techniques, comportementales, contextuelles) pour améliorer son « score ». Sans le culpabiliser (ce n’est pas la bonne manière de faire) mais en le récompensant  – par une meilleure note, de nouvelles fonctionnalités, des options gratuites si le service est payant… bref par une ludification de l’expérience utilisateur. C’est notre piste en tous cas.

Et c’est en augmentant le niveau global de confidentialité des échanges qu’on veut rendre plus difficile (donc plus chère) la surveillance de tous, au point de pousser les états – et pourquoi pas les GAFAM – à changer de pratiques, eux aussi.

Financièrement, comment vit le projet Caliopen ? C’était une difficulté qui a retardé l’avancement ?

Sans doute un peu, mais je voudrais quand même dire que, même si je suis bien conscient de l’impression de lenteur que peut donner le projet, il faut se rendre compte qu’on parle d’un outil complexe, qui a démarré de zéro, avec aucun moyen, et qui s’attaque à un problème dont les racines datent de plusieurs dizaines d’années. Si c’était facile et rapide à résoudre, ça se saurait.

Dès l’instant où nous avons pris conscience qu’on n’allait pas pouvoir continuer sur le modèle du bénévolat, habituel au milieu du logiciel libre, nous avons réagi assez vite : Gandi a décidé d’embaucher à plein temps un développeur front end, sur ses fonds propres. Puis nous avons répondu à un appel à projet de BPI France qui tombait à pic et auquel Caliopen était bien adapté. Nous avons défendu notre dossier, devant un comité de sélection puis devant un panel d’experts, et nous avons obtenu de quoi financer deux ans de développement, avec une équipe dédiée et des partenaires qui nous assurent de disposer de compétences techniques rares. Et tout ça est documenté sur notre blog, depuis le début (tout est public depuis le début, d’ailleurs, même si tous les documents ne sont pas toujours faciles à retrouver, même pour nous).

Et finalement c’est qui les partenaires ?

Gandi reste le partenaire principal, auquel se sont joints Qwant et l’UPMC (avec des rôles moins larges mais tout aussi fondamentaux).

Quel est le modèle économique ? Les développeurs (ou développeuses, y’en a au fait dans l’équipe ?) sont rémunérés autrement qu’en macarons ? Combien faudra-t-il payer pour ouvrir un compte ?

Je ne suis pas sûr qu’on puisse parler de « modèle économique » pour un logiciel libre : après tout chacun pourra en faire ce qu’il voudra et lui imaginer tel ou tel modèle (économique ou non d’ailleurs).

Une fois qu’on a dit ça, on peut quand même dire qu’il ne serait pas cohérent de baser des services Caliopen sur l’exploitation des données personnelles des utilisateurs, et donc que le modèle « gratuité contre données » n’est pas adapté. Nous imaginons plutôt des services ouverts au public de type freemium, d’autres fournis par des entreprises pour leurs salariés, ou par des associations pour leurs membres. On peut aussi supposer que se créeront des services pour adapter Caliopen à des situations particulières, ou encore qu’il deviendra un outil fourni en Saas, ou vendu sous forme de package associé, par exemple, à la vente d’un nom de domaine.

Bref : les modèles économiques ce n’est pas ce qui manque le plus.

L’équipe actuelle est salariée, elle comporte des développeuses, et tu peux voir nos trombinettes sur https://www.caliopen.org

L’équipe de Caliopen

 

Trouver des développeurs ou développeuses n’est jamais une mince affaire dans le petit monde de l’open source, comment ça s’est passé pour Caliopen ?

Il faut bien comprendre que – pour le moment – Caliopen n’a pas d’existence juridique propre. Les gens qui bossent sur le projet sont des employés de Gandi (et bientôt de Qwant et de l’UPMC) qui ont soit choisi de consacrer une partie de leur temps de travail à Caliopen (ce que Gandi a rendu possible) soit été embauchés spécifiquement pour le projet. Et parfois nous avons des bénévoles qui nous rejoignent pour un bout de chemin 🙂

Le projet est encore franco-français. Tu t’en félicites (cocorico) ou ça t’angoisse ?

J’ai bien des sujets d’angoisse, mais pas celui-là. C’est un problème, c’est vrai, et nous essayons de le résoudre en allant, par exemple, faire des conférences à l’étranger (l’an dernier au FOSDEM, et cette année au 34C3 si notre soumission est acceptée). Et le site est totalement trilingue (français, anglais et italien) grâce au travail (bénévole) de Daniele Pitrolo.

D’un autre côté il faut quand même reconnaître que bosser au quotidien dans sa langue maternelle est un vrai confort dont il n’est pas facile de se passer. Même si on est tous conscients, je crois, qu’il faudra bien passer à l’anglais quand l’audience du projet deviendra un peu plus internationale, et nous comptons un peu sur les premières versions publiques pour que ça se produise.

Et au fait, c’est codé en quoi, Caliopen ? Du JavaScript surtout, d’après ce qu’on voit sur GitHub, mais nous supposons qu’il y a pas mal de technos assez pointues pour un tel projet ?

Sur GitHub, le code de Caliopen est dans un mono-repository, il n’y a donc pas de paquet (ou dépôt) spécifique au front ou au back. Le client est développé en JavaScript avec la librarie ReactJS. Le backend (l’API ReST, les workers …) sont développés en python et en Go. On n’a pas le détail mais ce doit être autour de 50% JS+css, 25% python, 25% Go. L’architecture est basée sur Cassandra et ElasticSearch.

Ce n’est pas que l’on utilise des technos pointues, mais plutôt qu’ on évite autant que possible la dette technique en intégrant le plus rapidement possible les évolutions des langages et des librairies que l’on utilise.

Donc il faut vraiment un haut niveau de compétences pour contribuer ?

Difficile à dire. Si on s’arrête sur l’aspect développement pur, les technos employées sont assez grand public, et si on a suivi un cursus standard on va facilement retrouver ses habitudes (cf. https://github.com/kamranahmedse/developer-roadmap).

Effectivement quelqu’un qui n’a pas l’habitude de développer sur ces outils (docker, Go, webpack, ES6+ …) risque d’être un peu perdu au début. Mais on est très souvent disponibles sur IRC pour répondre directement aux questions.

Néanmoins nous avons de « simples » contributions qui ne nécessitent pas de connaître les patrons de conception par cœur ou de devoir monter un cluster; par exemple proposer des corrections orthographiques, de nouvelles traductions, décrire des erreurs JavaScript dans des issues sur github, modifier un bout de css…

Ou même aider la communauté sur https://feedback.caliopen.org/ ou sur les réseaux sociaux, tout ça en fait partie.

Et bien sûr les alpha-testeurs sont bienvenus surtout s’ils font des retours d’expérience.

Qu’est-ce qui différencie le projet Caliopen d’un projet comme Protonmail ?

Protonmail est un Gmail-like orienté vers la sécurité. Caliopen est un agrégateur de correspondance privée (ce qui n’est rien-like) orienté vers l’amélioration des pratiques du grand public via l’expérience utilisateur. Protonmail est centralisé, Caliopen a prévu tout un (futur) écosystème exclusivement destiné à garantir la décentralisation des échanges. Et puis Caliopen est un logiciel libre, pas Protonmail.

Mais au-delà de ces différences techniques et philosophiques, ce sont surtout deux visions différentes, et peut-être complémentaires, de la lutte contre la surveillance de masse: Protonmail s’attaque à la protection de ceux qui sont prêts à changer leurs habitudes (et leur adresse email) parce qu’ils sont déjà convaincus qu’il faut faire certains efforts pour leur vie privée. Caliopen veut changer les habitudes de tous les autres, en leur proposant un service différent (mais utile) qui va les sensibiliser à la question. Parce qu’il faut bien se rendre compte que, malgré son succès formidable, aujourd’hui le nombre d’utilisateurs de Protonmail ne représente qu’à peine un millième du nombre d’utilisateurs de Gmail, et que quand les premiers échangent avec les seconds ils ne sont pas mieux protégés que M. Michu.

Maintenant, si tu veux bien imaginer que Caliopen est aussi un succès (on a le droit de rêver) et qu’il se crée un jour disons une dizaine de milliers de services basés sur noooootre proooojet, chacun ne gérant qu’un petit dixième du nombre d’utilisateurs de Protonmail… Eh ben sauf erreur on équilibre le nombre d’utilisateurs de Gmail et – si on a raison de croire que l’affichage des indices de confidentialité va produire un effet – on a significativement augmenté le niveau global de confidentialité.

Et peut-être même assez pour que la surveillance de masse devienne hors de prix.

Est-ce que dans la future version de Caliopen les messages seront chiffrés de bout en bout ?

À chaque fois qu’un utilisateur de Caliopen va vouloir écrire à un de ses contacts, c’est le protocole le plus sécurisé qui sera choisi par défaut pour transporter son message. Prenons un exemple et imaginons que tu m’ajoutes à tes contacts dans Caliopen : tu vas renseigner mon adresse email, mon compte Twitter, mon compte Mastodon, mon Keybase… plus tu ajouteras de moyens de contact plus Caliopen aura de choix pour m’envoyer ton message. Et il choisira le plus sécurisé par défaut (mais tu pourras décider de ne pas suivre son choix).

Plus tes messages auront pu être sécurisés, plus hauts seront leurs indices de confidentialité affichés. Et plus les indices de confidentialité de tes échanges seront hauts, plus haut sera ton propre indice global (ce qui devrait te motiver à mieux renseigner ma fiche contact afin d’y ajouter l’adresse de mon email hébergé sur un service Caliopen, parce qu’alors le protocole choisi sera le protocole intra-caliopen qui aura un très fort indice de confidentialité).

Mais l’utilisateur moyen n’aura sans doute même pas conscience de tout ça. Simplement le système fera en sorte de ne pas envoyer un message en clair s’il dispose d’un moyen plus sûr de le faire pour tel ou tel contact.

Est-ce qu’on pourra (avec un minimum de compétences, par exemple pour des CHATONS) installer Caliopen sur un serveur et proposer à des utilisateurs et utilisatrices une messagerie à la fois sécurisée et respectueuse ?

C’est fondamental, et c’est un des enjeux de Caliopen. Souvent quand je parle devant un public technique je pose la question : « combien de temps mettez-vous à installer un site Web en partant de zéro, et combien de temps pour une messagerie complète ? ». Et les réponses aujourd’hui sont bien sûr diamétralement opposées à ce qu’elle auraient été 15 ans plus tôt, parce qu’on a énormément travaillé sur la facilité d’installation d’un site, depuis des années, alors qu’on a totalement négligé la messagerie.

Si on veut que Caliopen soit massivement adopté, et c’est notre objectif, alors il faudra qu’il soit – relativement – facile à installer. Au moins assez facile pour qu’une entreprise, une administration, une association… fasse le choix de l’installer plutôt que de déléguer à Google la gestion du courrier de ses membres. Il faudra aussi qu’il soit facilement administrable, et facile à mettre à jour. Et tout ceci a été anticipé, et analysé, durant tout ce temps où tu crois qu’on n’a pas été assez vite !

On te laisse le dernier mot comme il est de coutume dans nos interviews pour le blog…

À lire tes questions j’ai conscience qu’on a encore beaucoup d’efforts à faire en termes de communication. Heureusement pour nous, Julien Dubedout nous a rejoints récemment, et je suis sûr qu’il va beaucoup améliorer tout ça. 🙂




CoopCycle, le projet coopératif qui roule social

Depuis un an, l’actualité a régulièrement mis en lumière les premiers effets déstructurants pour le travail salarié de l’ubérisation de la société : hier les taxis, aujourd’hui les livreurs à vélo…

Et demain sans doute d’autres pans de l’économie réelle vont être confrontés au tech-libéralisme, nouvel avatar du capitalisme prédateur (pardon du pléonasme).
Confrontés de plein fouet à cette problématique, les membres de l’association CoopCycle ont élaboré une réponse originale et peut-être prometteuse : une structure coopérative et un outil crucial en cours de développement, une plateforme numérique.
Les militants de cette opération sont engagés dans une lutte pour un autre rapport à leur propre travail : il s’agit de « rééquilibrer les forces » dans un contexte où jusqu’alors, une poignée d’entreprises imposaient leurs conditions léonines.
Ils inscrivent également leur combat dans une continuité entre les coopératives éthiques-équitables et les biens communs où ils veulent verser leur code.
Bien sûr les libristes seront surpris et probablement critiques sur la licence particulière choisie pour des raisons qui laissent perplexe. Mais c’est l’occasion aussi pour nos lecteurs de suggérer avec bienveillance et bien sûr de contribuer au code, pour qu’aboutisse et se développe cette courageuse et fort intéressante démarche.
Aider cette association à affiner les outils numériques qui rendent plus libres et modifient les rapports sociaux, c’est tout à fait dans la logique de Contributopia.
Comme l’écrivait récemment un certain Bram dans une suite de messages rageurs sur son compte Mastodon :
La techno ça sert à rien si ça change pas la vie des gens.

Voici les prénoms des CoopCycle qui nous ont répondu : Alexandre, Aurélien, Aloïs, Antoine, Basile, Jérôme, Kevin, Laury-Anne, Liova, Lison, Paul, Pauline, Vincent.

Logo de CoopCycle

D’habitude on demande à nos interviewés de se présenter mais je vois bien que vous avez depuis quelques mois une sacrée visibilité médiatique et c’est tant mieux…

Coopcycle – L’explosion médiatique est détaillée sur notre blog Médiapart en toute transparence. Effectivement, ça a explosé au mois d’août en parallèle des rassemblements de livreurs suite au changement de tarification de Deliveroo. Non seulement les journaux ont beaucoup parlé de ces « cyber-grèves » (des travailleurs numériques qui appellent à la déconnexion, ou qui vont empêcher l’utilisation d’un iPad dans un restaurant, c’est original), mais en plus tous étaient unanimes pour condamner le modèle des plateformes.

Tout le monde a entendu parler de votre initiative et s’y intéresse, pourquoi à votre avis ? 

Photo par Shopblocks (CC-BY 2.0)

– L’intérêt pour notre initiative vient à notre avis de l’attente qui existait face à un manque d’alternatives permettant de lutter contre une ubérisation de la société parfois perçue comme une fatalité. Le modèle qui se généralise, c’est l’individu auto-entrepreneur dans la « gig economy », l’économie des petits boulots. Face à des plateformes dotées de très gros moyens, tout le monde est un peu les bras ballants, les pouvoirs publics en tête, qui ont même tendance à encourager, « sécuriser » le modèle des plateformes : en penchant pour une jurisprudence qui empêche la requalification des contrats précaires en contrats salariés, en encourageant la délégation de service public, ou en réduisant les normes sur les activités classiques pour leur permettre de faire face à la concurrence à moindre coût des plateformes…

Photo par Môsieur J. (CC BY-SA 2.0)

En somme, les pouvoirs publics semblent accompagner l’ubérisation (comme le développe le Conseil d’État au sein de ce document), et accepter le dumping et la casse sociale que ces modèles impliquent, tandis que les livreurs, les restaurateurs et les clients se débrouillent avec une évolution qui semble être un fait accompli.
De plus en plus de monde prend conscience que c’est l’ensemble des régimes de protection sociale qui sont menacés, et personne ne savait comment faire pour répondre à ces problématiques.
Notre initiative cristallise donc beaucoup d’espoirs car c’est une proposition positive, mais qui soulève des problématiques structurelles et interroge la possibilité d’une économie des Communs. En tout cas, ce n’est pas une énième réaction de critique passive à une logique que l’on ne serait pas en position de ralentir ou contrecarrer aujourd’hui. Nous pensons qu’une alternative est possible, et nous allons plus loin en concrétisant nos idées. Dans le débat tel qu’il existe aujourd’hui, c’est déjà une perspective séduisante.

À cause de Nuit Debout ? C’est là que tout a commencé ? À cause des conflits sociaux autour de Deliveroo et autres starteupes qui font tourner les jambes des livreurs pour des rémunérations de misère ?

– Ce n’est pas « à cause de Nuit Debout », c’est plutôt « grâce à Nuit Debout » !
Selon nous, c’est plus la possibilité d’une alternative qui intéresse les gens. Le fait que le projet « vienne de » Nuit Debout, la plupart des gens ne le savent pas.
Mais effectivement ce projet n’existerait pas sans Nuit Debout. C’est un des rares événements politiques qui a eu lieu ces dernières années en France, et même si tout ça paraît déjà lointain, il a suscité une vague d’espoir.

Photo issue du site Alternative Libertaire

Ce qui nous a réunis sur la place de la République, c’est la lutte contre la loi El Khomri et la précarisation de nos conditions de travail. À partir de là, on se retrouve à participer aux manifestations, on rencontre le Collectif des Livreurs Autonomes de Paris alors que l’idée n’était encore qu’une idée… C’est ce qui a permis l’émergence de groupes de personnes engagées, militantes ou non, qui cherchent des solutions, mènent des campagnes, montent des projets ensemble. Et un de ces projets, c’est CoopCycle.

 

 

Elle est destinée à qui cette plateforme en cours de réalisation ? Aux livreurs à vélo, aux restaurateurs, aux consommateurs qui se font livrer ?

– La plateforme est destinée avant tout aux livreurs et aux commerçants, c’est un outil d’émancipation. Les collectivités territoriales ont également une place dans ce genre dispositif car cela leur permet de reprendre le contrôle sur l’espace public ainsi que sur les modes de vivre ensemble.

Mais au final, la plateforme en version « communs » est là pour servir à tout le monde, et pour outiller tout le monde. Quant aux clients finaux, nous sommes persuadés que beaucoup de consommateurs seraient prêts à payer un peu plus cher pour que les livreurs aient de bonnes conditions de travail.

Regardez l’engouement pour les Biocoop, regardez aussi la réussite d’Enercoop, qui fournit de l’énergie durable. À leurs débuts, ces derniers étaient 50 % plus chers que l’opérateur historique et pourtant, ils ont réussi à séduire des clients conscients, qui veulent consommer autrement.

Pour la livraison de repas à domicile, qu’on soit client ou restaurateur, on peut très bien vouloir consommer et commercer de façon éthique et équitable, mais si les seuls outils disponibles sont ceux des capitalistes, on se retrouve à consommer et travailler au profit du capitalisme, qu’on le veuille ou non.
CoopCycle est donc une initiative de reprise en main de la logique des plateformes afin de permettre un rééquilibrage du rapport de force en faveur des livreurs et des restaurateurs dans le secteur de la livraison.

C’est quoi cette licence bizarre que vous avez exhumée des tréfonds du web ? pourquoi celle-là plutôt que d’autres parmi les nombreuses licences libres ?
— La licence qui encadre l’application que nous développons restreint l’utilisation à des groupes de livreurs qui se lancent en coopérative ou respectent des critères de réciprocité. Le fait que dans ce cadre son utilisation serait gratuite fait que la marge qu’ils peuvent proposer aux restaurateurs peut être largement moindre que celle des plateformes capitalistes. Si les livreurs ne veulent pas adhérer à la SCIC nationale sur laquelle nous travaillons ils pourront également y avoir accès.

Néanmoins, cette licence n’est pas parfaite ! Premièrement car nous ne savons pas concrètement comment elle est reconnue et s’inscrit à l’échelle de la France ou plus largement à l’échelle européenne. Plus largement, le respect et la défense des licences est difficile à réellement mettre en œuvre dans le cadre de l’économie numérique. Comment pourrions-nous réellement prouver qu’une entité lucrative privée, fermée par nature, utilise des bouts d’un code développé par le travail Commun ? La problématique est la même dans le cadre d’une utilisation propriétaire du code source. Car une fois la captation identifiée, comment pourrions-nous financer les frais judiciaires qu’un procès impliquerait et qui resteraient à notre charge ?

Enfin ce type de licence ne permet pas l’élaboration d’une cotisation qui permettrait de rémunérer le travail à l’origine de ce Commun. Dès lors, aucun retour de la valeur économique produite ne pourrait être assuré aux contributeurs d’un commun dans la mesure ou ce dernier n’a ni périmètre juridique clairement établi, ni force d’opposition face à un grand groupe. Le cadre légal doit être repensé et c’est toutes ces questions que nous souhaitons traiter au cours des conférences suivantes du cycle que nous avons lancé le 20 septembre.

Et au fait pourquoi open source et pas « libre » ?

Le code n’est pas libre car s’il l’était, n’importe qui pourrait se le réapproprier et l’utiliser pour faire du profit. Aujourd’hui dans le libre, c’est souvent la loi du plus fort qui l’emporte, avec toutes les conséquences que l’on connaît. Il faut donc une licence qui permet de protéger l’utilisation de ce code pour la réserver aux coopératives qui ne veulent pas exploiter les gens. Nous savons qu’il faut travailler sur cette histoire de licence et nous sommes en contact avec des avocats spécialisés sur le sujet. D’ailleurs, si vous en connaissez, on les accueille avec plaisir !

Dans ce monde, on est malheureusement toujours ramené au célèbre « there is no alternative » prononcé par Margaret Thatcher. Il faut être « pragmatique», à savoir accepter les règles du jeu capitaliste, pour que rien ne change.

Aujourd’hui, on voit des gens qui «travaillent » sur des alternatives à Uber, par exemple. Pour certains, le premier réflexe, c’est de vérifier que leur modèle peut avoir des retombées commerciales, qu’ils peuvent financer leur développement avant même d’avoir produit une seule ligne de code…
Ça n’est certainement pas notre approche. You don’t need to know how to do it, you just need to start comme dirait l’autre sur un article Medium.
À l’heure où les plateformes représentent une source non négligeable d’emplois (précaires), l’open source offre une vraie possibilité d’implémenter enfin la copropriété d’usage de l’outil de travail.
Mais il faut des règles pour garantir que l’essentiel de la valeur créée aille aux travailleurs, afin de poursuivre sur le chemin de l’émancipation. Sinon, ce seront forcément ceux qui auront les capitaux qui pourront enclencher les effets de réseau, tout ça en utilisant du « travail gratuit ».
Il est temps d’en finir avec le solutionnisme technologique, il faut ajouter une dimension sociale, sans quoi on retombe dans l’aliénation.

Votre projet n’est donc pas simplement de développer une plateforme informatique, aussi open source soit-elle, c’est aussi un tout autre modèle social, celui de la coopérative. C’est possible de nous expliquer ça simplement ?

Nous n’avons pas envie de créer une startup de l’économie sociale et solidaire. Ce qui nous intéresse, c’est justement le projet politique. Il existe aujourd’hui tout un archipel de sites et d’initiatives qui espèrent « changer le monde » et pourtant, rien de bouge vraiment au niveau macro-économique. Les structures qui permettent l’exploitation des travailleurs sont toujours bien en place. Nous aimerions « secouer le cocotier », et faire du lobbying citoyen pour essayer de modifier ces structures. Certes, nous n’avons pas encore une loi anti-ubérisation dans nos cartons, mais réunir des gens de différents milieux permet de faire réfléchir, de rassembler et à terme d’influencer le jeu politique.

Sur le choix de la coopérative, il s’est assez simplement imposé à nous. Nous sommes en passe d’avoir ce bel outil numérique mais sommes conscients que face aux géants de la foodtech et malgré la surmédiatisation ponctuelle, il ne suffira pas de dire « voici le moyen de vous réapproprier votre outil de travail, à vous de jouer ».

La question qui se pose à nous est celle de l’articulation entre une ressource que l’on gère comme un commun et un circuit économique composé de coopératives qui permettent une rémunération et des conditions de travail correctes pour ceux qui y travaillent. La forme coopérative nous semble la plus adaptée puisqu’elle permet des règles économiques et démocratiques plus équitables (statut salarié, intégration de l’ensemble des acquis sociaux y afférant, mutualisation des moyens comme des risques, une personne une voix, etc.).

Mais nous ne sommes pas dupes évidemment, le développement de ces modèles « sociaux et solidaires » est un mouvement positif, témoignant d’une certaine prise de conscience nécessaire mais non suffisante. La création de structures privées socialisées dans un marché libéral combat le capitalisme sur ses terres mais n’emporte pas de sortie réelle de ce système. Pire encore, on peut également considérer que ce développement parallèle organise le désengagement de l’état in fine, puisque la mutualisation se réorganise à plus petite échelle.

C’est pour cela que nous tenons à agir sur les 3 plans :

  • développer un outil open source et libre d’accès sous condition, pour créer l’outil de travail ;
  • construire une structure coopérative nationale et des structures locales pour organiser les moyens du travail ;
  • questionner les problématiques macro-économiques et structurelles qui se posent aux différentes étapes de notre construction à travers des cycles de conférences thématiques.

Si l’initiative de Coopcycle faisait tache d’huile ? Ici, solidarité avec les livreurs espagnols.

Bon alors où en est-il ce code open source de plateforme ?  Vous êtes combien là-derrière ? Vous auriez peut-être besoin d’un coup de main, de patches, de bêta-testeurs, de pintes de bières, enfin tous les trucs qu’on s’échange dans le petit monde du logiciel libre. C’est le moment de lancer un appel à contributions hein…

Notre code est sur GitHub : https://github.com/coopcycle

Pour l’instant il y a 3 personnes qui ont contribué. Notre but est de construire une communauté autour du code, pour assurer la pérennité du projet notamment. On a posé les premiers jalons avec des règles de contribution et une installation en local facile (crash testée !). Nous avons reçu plusieurs propositions spontanées d’aide, mais cherchons encore à voir comment intégrer chacun suivant son temps disponible et ses langages de prédilection. De même nous devons établir une roadmap claire pour le projet. Tout cela explique que nous n’ayons pas encore fait d’appel à contribution.
En tout cas tous les repos ont des issues ouvertes, et n’attendent que vous !
Le feedback sur la démo (UI/UX ou bugs) est plus que bienvenu. Vous pouvez contacter l’équipe dev à dev@coopcycle.org.

Toutefois il ne faut pas résumer notre approche au groupe de développeurs, nous sommes une bonne quinzaine à travailler sur ce projet ; journalisme, portage politique, propagande, représentation, construction du modèle économique, lien avec les livreurs et les restaurateurs. Tous ces travaux sont complémentaires et nous essayons justement de ne pas tomber dans le solutionnisme de l’outil en assumant toutes ces tâches collectivement.

On vous laisse le mot de la fin, comme de coutume sur le Framablog !

Merci pour tous vos outils, c’est un plaisir de pouvoir bâtir son projet avec des logiciels libres ! En attente de Framameet pour nos apéros devs 🙂