Les Pages Framasite : plus c’est facile, plus on partage !

Notre service d’hébergement et de création de sites web s’enrichit d’une belle contribution, pour que quiconque puisse créer une page web en quelques clics seulement.

Framasite, un service que vous avez fait grandir

Dès son lancement en octobre dernier, nous avions annoncé la couleur : le service Framasite était loin d’être « prêt-à-l’emploi ». Notre feuille de route Contributopia est claire : proposer moins d’outils, pour prendre le temps de les imaginer avec vous. Nous avons donc proposé un Framasite tout vert, avec deux options (faire un site web ou faire un wiki). Cette sortie permettait d’avoir une base pour commencer à échanger avec vous, à récolter vos retours et contributions afin de faire évoluer ce service selon vos attentes.

Cliquez pour découvrir le monde des services de Contributopia.
Illustration de David Revoy – Licence : CC-By 4.0

L’option Wiki (propulsée par le logiciel libre Dokuwiki) a très vite trouvé son public : elle est relativement facile à utiliser. De plus, une personne qui crée un wiki sait en général pourquoi elle choisit ce genre de site très particulier. Les options Blog, Page ou Site (propulsées par le logiciel libre Grav), quant à elles, ont plus fait débat : les enthousiastes de la souris les ont vite adoptées, les blogueurs et blogueuses les ont apprivoisées, mais elles ne sont pas vraiment faciles à dompter pour qui n’aime pas mettre les mains dans le cambouis numérique…

 

Robin : développeur en herbe, et pas que

Framasite, illustré par David Revoy – Licence : CC-By 4.0

C’est en voulant changer le monde (un octet à la fois) que Robin s’est retrouvé à faire un stage en développement chez Framasoft. Cet aquarelliste à la formation d’éducateur a été fasciné par les modes d’organisations collectives qui naissaient dans les Nuits Debout Nîmoises. Nous reparlerons prochainement, sur ce blog, du projet qui l’a poussé à apprendre à coder… Mais la motivation est bien connue des libristes : « si le logiciel de mes rêves n’existe pas, je m’en vais le coder moi-même ! »

Robin a donc commencé son stage avec pour but de faciliter l’utilisation de Grav (le logiciel libre qui permettait, jusqu’à aujourd’hui, de créer une Page, un Blog ou un Site Framasite). Après quelques bidouillages, fausses pistes, et échanges avec d’autres développeurs qui avaient tenté de prendre le même chemin, il arrive au pied du mur. Le logiciel Grav est conçu de manière si élégante, si complète, que modifier un de ses éléments-clés (les modules, le markdown…) reviendrait à devoir le refondre en entier.

Qu’à cela ne tienne, Robin vient nous annoncer : « Il me reste un mois, si je pars de zéro, je peux faire la solution dont j’aurais rêvé pour faire mes sites d’aquarelles, lorsque je n’y connaissais rien au code… » On va vous le dire franchement : vu les délais, nous, on y croyait moyen… Mais si un stage n’est pas l’occasion d’expérimenter (pour la ou le stagiaire) et de faire confiance (pour l’encadrant·e), quand peut-on suivre son enthousiasme, hein ?

Les Pages Framasite : beau, beau, beau et con à la fois

Le moins que l’on puisse dire, c’est que Robin nous a bluffé·e·s ! En un mois, il a conçu PrettyNoémieCMS, un logiciel qui permet de créer hyper simplement une belle page web (un site à page unique pour présenter son association, son CV, ses travaux artistiques ou son artisanat…).

Pourquoi c’est facile ? Parce que c’est limité (ah ben y’a pas de secret, hein…). Bien sûr on peut choisir des thèmes de couleurs, des jeux de polices… Mais tout est déjà pré-mâché pour vous, vous ne pourrez pas trifouiller les bordures, emplacements et autres joies du CSS…

Donc oui : c’est limité et limitant, c’est même conçu comme ça… Car ce sont ces limites qui permettent d’avoir un résultat vraiment joli. C’est donc un outil à réserver aux personnes qui apprécieront un principe fondamental de cet outil…

Le principe est simple : à aucun moment vous ne verrez du code.

Il vous suffit d’aller sur votre site, vous vous connectez à l’interface d’administration, et là des boutons s’affichent par dessus votre Page web.

Cet exemple sert à un défi que nous vous lançons aujourd’hui même !

Vous ? Vous n’avez qu’à cliquer. Vous cliquez pour rajouter un bandeau de titre, des colonnes de textes, un carrousel ou une galerie d’images, un formulaire de contact ou une carte OpenStreetMap… Vous cliquez encore pour changer les textes, les mettre en forme ou pour charger vos images.

Les boutons sont explicites, il y a une aide si jamais vous êtes perdu·e·s, mais franchement… c’est vraiment, vraiment facile. Le résultat, pour la personne qui crée le site comme pour celles qui iront le voir, est franchement sympa.

Tiens, si vous voulez voir, Robin vous a même préparé une vidéo :


Vidéo « Créer le site de votre association avec les Pages Framasite » sur YouTube

cliquez sur l’image pour visionner la vidéo (YouTube)

À vous de créer vos Pages Framasite !

Voici une nouvelle étape dans l’évolution contributive de Framasite. Ce n’est pas fini : le logiciel derrière les Pages Framasite, PrettyNoemieCMS, est vert et frais comme un mojito ! Voyons ensemble, avec vos retours, comment il maturera. Les autres solutions (les Wikis, les Blogs, les Sites complexes) restent bien sûr disponibles et vouées à évoluer. Ces nouvelles Pages Framasite ne sont qu’une corde de plus à cet arc qui vous permet de vous exprimer pour faire vibrer la toile !

Désormais, si vous connectez à votre compte Frama.site et que vous choisissez de « créer un nouveau site », les possibilités seront classées par facilité d’utilisation :

  • les Pages Framasite : créer une page unique hyper-facilement (ce dont on vient de parler aujourd’hui)
  • les Wikis Framasite : pour faire un site collaboratif assez aisément
  • les Blogs Framasite : tenir un journal de bord, nécessite quelques petites connaissances
  • (utilisation avancée) : les Sites Framasite, pour qui veut avoir toutes les options 😉

Pour fêter l’arrivée de ce charmant petit outil, on vous a concocté un exemple doublé d’un défi : êtes-vous prêt·e à créer une Page Framasite déclarant votre amour pour un logiciel libre ?

Si oui, rendez-vous sur cet article du blog !

Et quoi qu’il en soit, n’hésitez pas à nous dire ce que vous pensez de cette nouvelle solution !

Pour aller plus loin & Contribuer :

 




Les bibliothèques sous le règne du capitalisme

Les bibliothèques ont toujours joué un rôle de gardiens de nos biens littéraires. Mais face à la tendance croissante à l’appropriation de la culture par le marché, elles sont peu à peu devenues de véritables ovnis dans le paysage culturel nord-américain.

Gus Bagakis est professeur de philosophie à la retraite de l’Université d’État de San Francisco. Il revient ici sur ce mouvement destructeur qui vise à transformer les bibliothèques publiques en simples institutions privées à but lucratif.

Traduction Framalang : paul, Edgar Lori, Mannik, Aiseant, claire, jums, Goofy

Source : revue en ligne Truth-out : Libraries Under Capitalism: The Enclosure of the Literary Commons

bibliothèque et nombreux lecteurs
Photo Steven Ramirez (Domaine public)

 

L’une des institutions les plus subversives des États-Unis,

c’est la bibliothèque publique.

– Bell Hooks

Nos biens communs littéraires des bibliothèques publiques sont peu à peu mis sous cloche et deviennent inaccessibles au public à cause d’une série de lois de nos gouvernements – à la fois locaux, nationaux et fédéraux – qui s’inclinent devant les diktats et les priorités des entreprises. La bibliothèque publique est l’un des rares endroits où les gens peuvent entrer gratuitement, accéder gratuitement aux documents et y séjourner sans devoir acheter quoi que ce soit. La valeur des bibliothèques publiques ne réside pas seulement dans les documents qu’elles prêtent ou dans le modèle non commercial qu’elles incarnent, mais aussi dans le bien commun qu’elles représentent : un endroit public qui offre aux citoyens des espaces intellectuels libérés, propices aux dialogues et à l’organisation de la communauté.

Les bibliothèques sont en train de passer d’un modèle de service public à celui d’entreprises à but lucratif, ce qui conduit à la destruction d’un espace public.

En riposte à cet emprisonnement, le New York Times plaide pour des moyens supplémentaires en faveur des bibliothèques. Le quotidien de la Grosse Pomme présente les bibliothèques comme des lieux où les enfants pauvres viennent « apprendre à lire et à aimer la littérature, où les immigrés apprennent l’anglais, où les chômeurs perfectionnent leurs CV et lettres de motivation, et où ceux qui n’ont pas accès à Internet peuvent franchir le fossé numérique… Ce sont des refuges pour penser, rêver, étudier, lutter et – c’est le cas de nombreux enfants et personnes âgées – pour être simplement en lieu sûr, à l’abri de la chaleur. »

Un article de la revue Public Library Quarterly intitulé « Les bibliothèques et le déclin de l’utilité publique » ajoute : « [les bibliothèques] contribuent à rendre possible la sphère démocratique publique ». L’auteur alerte également sur le fait que les bibliothèques sont en train de passer d’un modèle de service public à celui d’entreprises à but lucratif qui entraînent la destruction d’un véritable espace public.
Nous avons besoin de moyens supplémentaires pour permettre aux bibliothèques publiques de survivre. Nous devons empêcher la transformation de nos bibliothèques, institutions culturelles, éducatives et communes, en entreprises privées. Afin de comprendre plus clairement d’où viennent ces problèmes, nous devons d’abord comprendre comment les bibliothèques ont historiquement été influencées par le capitalisme.

Les bibliothèques comme système de contrôle social

Lorsqu’on étudie le développement et le déclin des bibliothèques publiques, on constate que les changements sont souvent imputables à l’objectif premier du capitalisme : le profit. Si quelque chose évolue défavorablement – autrement dit, si une chose menace la possibilité de profit – celle-ci devient un bouc émissaire opportun pour réduire les moyens dans les budgets des administrations locales, nationales ou fédérales. Les bibliothèques publiques, l’éducation publique et l’espace public représentent trois victimes actuelles de l’influence du capitalisme car elles sont devenues des « dépenses inutiles » qui entravent l’accroissement des profits.

Afin de contextualiser notre étude, rappelons que le capitalisme est un système économique fondé sur une main-d’œuvre salariée (travail contre salaire), la propriété privée ou le contrôle des moyens de production (usines, machines, exploitations agricoles, bureaux) et la production de marchandises en vue d’un profit. Dans ce système, un petit nombre de personnes qui travaillent pour de très grandes entreprises utilise sa puissance financière et politique pour orienter les priorités, les financements et les mesures gouvernementales en fonction de leurs propres intérêts. Même si le capitalisme a connu des évolutions, l’une de ses composantes demeure inchangée : la lutte pour la richesse et le pouvoir qui oppose les entrepreneurs et les travailleurs. Dans la mesure où les entreprises capitalistes possèdent l’argent et le pouvoir, on peut soutenir qu’elles contrôlent la société en général.

Mais en période de dépression, la classe ouvrière, bien plus nombreuse, souffre et réagit ; elle s’organise et se bat pour de meilleures rémunérations, davantage de bénéfices et de puissance. Ainsi, la réaction des travailleurs face à la Grande Dépression qui a conduit au New Deal de Franklin D. Roosevelt dans les années 1930, a permis de réguler le capitalisme, pour mieux le préserver. La rébellion des travailleurs était due en partie à une répartition excessivement inégale des richesses durant cet Âge d’Or, période où la classe capitaliste accumulait une richesse considérable aux dépens des travailleurs. Un contexte d’inégalité d’ailleurs semblable à celui que nous vivons aujourd’hui, à l’ère de notre Nouvel Age d’Or.

Ce conflit entre les patrons et les travailleurs transparaît aussi dans l’histoire des bibliothèques publiques. Les bibliothèques font partie d’un système de contrôle social : elles fournissent des ressources et une éducation aux immigrants. Quand les patrons encouragent la création de bibliothèques, c’est qu’ils les voient comme terrain d’essai pour immigrés au service de leur industrie. Par exemple, à Butte Montana, en 1893, la nouvelle bibliothèque Carnegie a été présentée par les propriétaires de mines comme « un antidote au penchant des mineurs pour la boisson, les prostituées et le jeu » et comme un moyen de favoriser la création d’une communauté d’immigrés afin de limiter la rotation du personnel.

Andrew Carnegie, capitaliste philanthrope en son temps, offre un bel exemple de la volonté de la classe capitaliste de maintenir le système de profits et d’empêcher une révolte ouvrière. Dans son article « Le Gospel de la Richesse », publié en 1889, il défend l’idée que les riches peuvent diminuer la contestation sociale par le biais de la philanthropie. Il est préférable selon lui de ponctionner les salaires ouvriers, collecter les sommes puis les redistribuer à la communauté. S’adressant aux ouvriers avec condescendance, Carnegie expliquait : « Si j’augmente vos salaires, vous allez dépenser votre argent pour acheter une meilleure pièce de viande ou plus de boissons. Mais ce dont vous avez besoin, même si vous l’ignorez, ce sont mes bibliothèques et mes salles de concert ».

La générosité de Carnegie était bien comprise : diminuer les possibilités de révolte ouvrière et maintenir ou augmenter ses propres profits. Certes c’était un homme généreux, mais il n’était pas vraiment impliqué dans un changement de société, comme il l’a démontré par ses multiples actions autour de la ségrégation. À l’époque de la ségrégation raciale, les Noirs n’avaient généralement pas accès aux bibliothèques publiques dans le Sud des États-Unis. Plutôt que de favoriser l’intégration raciale dans ses bibliothèques, Carnegie a fondé des bibliothèques distinctes pour les Afro-Américains. Par exemple, à Houston, Carnegie a ouvert la Bibliothèque Carnegie pour Personnes de Couleur en 1909. Même si l’on doit reconnaître néanmoins sa générosité dans la construction de plus de la moitié des bibliothèques sur le territoire des États-Unis avant 1930. En outre, les bibliothèques se sont multipliées en réponse au besoin d’éducation publique, notamment pour les quelque 20 millions d’immigrés arrivés dans le pays entre 1880 et 1920,dans le but de fournir de la main-d’œuvre bon marché et de soutenir le système capitaliste.

Dans notre monde régi par le capitalisme, les guerres sont presque toujours le fait de deux classes dirigeantes (ou davantage) qui se disputent l’accès à des profits, des ressources ou des territoires. Dans ces luttes, la propagande est un outil précieux. Ainsi, durant la Première Guerre Mondiale, la vocation des bibliothèques a basculé vers une américanisation progressive des immigrés, y compris par l’élimination d’ouvrages « antipatriotiques car pro-Allemands ». Durant la Seconde Guerre Mondiale, par opposition aux autodafés nazis, les bibliothécaires américains ont considéré les livres comme des armes de guerre. Pendant la Guerre Froide (1947-1991), certaines bibliothèques publiques ont également servi d’instruments de propagande pour la politique étrangère du gouvernement fédéral : comme la loi sur l’enregistrement des agents étrangers (Foreign Agents Registration Act, FARA) qui a conduit les bibliothèques à filtrer des documents soviétiques.

À la même époque, l’association ultraconservatrice John Birch Society dépêchait ses membres dans toutes les bibliothèques publiques du pays pour vérifier si le Livre bleu de l’association était bien disponible dans leurs rayonnages. Ce Livre bleu mettait en garde contre l’ennemi qui s’apprêtait à transformer les États-Unis en état policier communiste et laissait entendre que le Président Eisenhower était un agent communiste. En 1953, au plus fort de la chasse aux sorcières, un membre de la Commission des recueils de textes de l’Indiana a dénoncé l’œuvre Robin des bois comme une œuvre de propagande communiste, et demandé son retrait des écoles et des bibliothèques au prétexte que le héros prenait aux riches pour donner aux pauvres. Fort heureusement, quelques étudiants courageux de l’Université d’Indiana ont résisté et organisé le mouvement de la plume verte (Green Feather Movement) en référence à la plume sur le chapeau de Robin des bois.

L’offensive économique contre les bibliothèques

À la fin des années 1970, la formation des travailleurs immigrés n’est plus la préoccupation des entreprises capitalistes car la main-d’œuvre ne manque plus. À partir de ce moment également, le financement des bibliothèques publiques commence à reculer. Après le 11 septembre 2001, la peur s’intensifie dans la population, tout comme s’intensifie la surveillance d’État. L’une des mesures prises par le gouvernement, conformément à la section 215 du Patriot Act, consiste à forcer les bibliothèques à divulguer des informations sur leurs usagers.

Quelques bibliothécaires courageux protestent, comprenant qu’une telle exigence représente un danger pour les libertés individuelles. Ainsi, l’association des bibliothécaires du Vermont adresse une lettre au Congrès pour s’opposer aux dispositions du Patriot Act concernant les bibliothèques. La propagande des États-Unis face à la montée des tensions au Moyen-Orient pose problème à un certain nombre de bibliothécaires qui s’alarment des symboles hyper-patriotiques affichés dans les bibliothèques juste après les attaques du 11 septembre (affiches, posters, pamphlets). Dans une lettre cosignée faisant état de leurs inquiétudes, ils écrivent : « ce type de communications inhabituelles risque de créer une atmosphère intimidante pour certains usagers des bibliothèques. »

Dès la fin du XXe siècle et au début du XXIe, la plupart des bibliothèques publiques offrent un espace commun et accueillant, qui encourage l’exploration, la création et la collaboration entre étudiants, enseignants et citoyens. Innovantes, elles combinent des supports physiques et numériques pour proposer des environnements d’apprentissage. En 1982, l’American Library Association (ALA) organise la semaine des livres censurés (Banned Books Week) pour attirer l’attention sur les livres qui expriment des opinions non orthodoxes ou impopulaires et mettent ces ouvrages à disposition de tous les lecteurs intéressés.

Mais à l’époque, la classe capitaliste est mal à l’aise et craint des « effets de démocratisation » liés à l’activisme des années 1960 : droits civiques, droits LGBTQ, sensibilisation écologique, mouvements étudiants et actions de dénonciation de la guerre du Vietnam. Les milieux d’affaires conservateurs contestent alors le capitalisme régulé hérité du New Deal et introduisent le néolibéralisme, une variante du capitalisme favorisant le libre échange, la privatisation, l’intervention minimum de l’État dans les affaires, la baisse des dépenses publiques allouées aux services sociaux (dont les bibliothèques) et l’affaiblissement du pouvoir de la classe ouvrière. Certains d’entre eux se réfèrent au Mémorandum Powell (1971), une feuille de route destinée aux milieux d’affaires conservateurs pour les encourager à s’élever et se défendre contre une prétendue attaque de la libre entreprise par des activistes comme Ralph Nader, Herbert Marcuse et d’autres qui étaient censés avoir pris le contrôle des universités, des médias et du gouvernement. À l’autre bout du spectre, les internationalistes progressistes de la Commission trilatérale publient un document intitulé La crise de la démocratie (1975), qui suggère que l’activisme des années 1960 a transformé des citoyens auparavant passifs et indifférents en activistes capables d’ébranler les équilibres en place.

Le ralentissement de l’immigration des travailleurs dans les années 1970 et le stress de l’austérité due à la montée du néo-libéralisme ont provoqué le déclin des services sociaux, dont le système des bibliothèques publiques. Certaines d’entre elles dérivent vers un modèle d’entreprise lucrative qui considère les utilisateurs comme des clients et suivent un modèle entrepreneurial. Elles utilisent les relations publiques, la marchandisation de l’information, l’efficacité, l’image de marque et le mécénat pour augmenter leurs capacités de financements. L’argent qui provenait de taxes locales, nationales et fédérales, indispensable au maintien des services publics, a été transféré dans les poches des sociétés privées, dans l’entretien du complexe militaro-industriel, ou entassé dans des paradis fiscaux. La classe moyenne s’est fait berner par les promesses de réductions d’impôt, parce qu’on lui a dit que la baisse des taxes allait augmenter les dépenses, et donc dynamiser l’économie américaine. Elle a donc suivi, à tort, les grandes entreprises, alors que la perte des institutions publiques nuit à tous sauf aux riches.

Et pourtant toutes ces attaques contre les bibliothèques publiques ont eu lieu en dépit du fait qu’elles sont un excellent investissement pour les contribuables. Par exemple, une étude de 2007 à propos de la bibliothèque de San Francisco a montré que pour chaque dollar dépensé par la bibliothèque, les citoyens avaient reçu 3 dollars en biens et services.

Bien qu’utilisées par un nombre croissant de personnes, les bibliothèques ont encore vu leurs moyens diminuer sous l’effet de la récession de 2008. En Californie, les aides d’État pour les bibliothèques ont été complètement supprimées en 2011. La Louisiane a suivi l’exemple de la Californie en 2012. Des coupes budgétaires sévères ont frappé simultanément les bibliothèques publiques de la ville de New York, la bibliothèque de Dallas, celles de l’État du Massachusetts et bien d’autres. Le budget fédéral actuel contient un plan qui élimine l’agence de support des musées et bibliothèques (Institute of Museum and Library Services) dont les ressources ont été progressivement réduites par les administrations précédentes, qu’elles soient démocrates ou républicaines.

Le renforcement des coupes budgétaires cause l’extinction de nos biens communs littéraires. Alors, comment les défenseurs des bibliothèques publiques peuvent-ils aider celles-ci à survivre et à promouvoir des valeurs démocratiques réelles et une pensée critique ? Tout d’abord, nous devons bien cerner le sort des bibliothèques publiques à la lumière de l’histoire du capitalisme. Ensuite, nous devons nous organiser et mener une lutte pour protéger les bibliothèques publiques comme espaces de lien communautaire et d’action potentielle, contre ce fléau qu’est l’asservissement au capitalisme oligopolistique.




Le nuage de Cozy monte au troisième étage

Tristan Nitot est un compagnon de route de longue date pour l’association Framasoft et nous suivons régulièrement ses aventures libristes, depuis son implication désormais « historique » pour Mozilla jusqu’à ses fonctions actuelles au sein de Cozy, en passant par la publication de son livre Surveillance://

Nous profitons de l’actualité de Cozy pour retrouver son enthousiasme et lui poser quelques questions qui nous démangent…

— Bonjour Tristan, je crois bien qu’on ne te présente plus. Voyons, depuis 2015 où tu es entré chez Cozy, comment vis-tu tes fonctions et la marche de l’entreprise ?

Tristan Nitot par Matthias Dugué, licence CC-BY

— Ça va faire bientôt trois ans que je suis chez Cozy, c’est incroyable comme le temps passe vite ! Il faut dire qu’on ne chôme pas car il y a beaucoup à faire. Ce job est pour moi un vrai bonheur car je continue à faire du libre, et en plus c’est pour résoudre un problème qui me tient énormément à cœur, celui de la vie privée. Autant j’étais fan de Mozilla, de Firefox et de Firefox OS, autant je détestais l’idée de faire un logiciel libre côté navigateur… qui poussait malgré lui les gens dans les bras des GAFAM ! Heureusement Framasoft est là avec Degooglisons-Internet.org et CHATONS, mais il y a de la place pour d’autres solutions plus orientées vers la gestion des données personnelles.

C’est quoi l’actualité de Cozy ?

La grosse actu du moment, c’est le lancement de Cozy pour le grand public. Le résultat de plusieurs années de travail va enfin être mis à disposition du grand public, c’est très excitant !

Fin 2016, nous avons commencé une réécriture complète de Cozy. Ces deux derniers mois, nous avons ouvert une Bêta privée pour près de 20 000 personnes qui en avaient fait la demande. Et puis hier, nous avons terminé cette phase Bêta pour ouvrir l’inscription de Cozy en version finale à tous. Autrement dit, chacun peut ouvrir son Cozy sur https://cozy.io/ et disposer instantanément de son espace de stockage personnel.

Allez, dis-nous tout : qu’est-ce qui a changé depuis le départ de Frank Rousseau ? Cozy a changé de politique ou bien reste fidèle à ses principes initiaux ?

En 18 mois, Cozy a bien grandi, nous sommes dorénavant 35 employés à temps plein, donc plus de structure qu’avant, plus de méthode, ce qui implique une accélération du développement. Par ailleurs, nous avons réécrit une très grosse partie du code, qui donne cette fameuse Cozy V3, plus rapide, plus économe en énergie et en ressources (c’est important !) et aussi plus jolie et beaucoup plus ergonomique. Nous avons aussi développé des applications de synchro pour GNU/Linux, MacOS, Windows, Android et iOS. Ce qui n’a pas changé, par contre, c’est notre attachement au logiciel libre, à la sécurité des données et au respect de la vie privée.

On peut avoir les chiffres ? Combien de particuliers se sont installé une instance cozycloud sur leur serveur/raspberry/autre ?

C’est difficile à dire car nous ne pistons pas nos utilisateurs. On sait juste qu’il y a eu quelques centaines de téléchargements de la version 3 par des gens qui veulent s’auto-héberger. Nous faisons des ateliers pour apprendre à installer Cozy et les places y sont rares tellement elles sont demandées ! Mais on imagine que pour des raisons de sécurité et de simplicité, la plupart des gens vont choisir de se faire héberger par Cozy Cloud. Je viens de vérifier, nous avons plus de 8000 instances Cozy sur notre infrastructure en Bêta fermée. Maintenant que nous venons de passer en version finale, nous espérons que ça va grimper très vite !

On voit bien quel intérêt est pour Cozy de s’appuyer sur une communauté de développeurs qui vont enrichir son magasin d’applications. Mais l’intérêt de la communauté, il est où ? Si je suis développeur et que j’ai une bonne idée, pourquoi irais-je la développer pour Cozy plutôt que pour un autre projet ?

C’est une excellente question ! Développer pour Cozy, c’est avant tout développer pour le Web, avec des technos Web, avec une spécificité : disposer d’une API pour accéder aux données personnelles de l’individu et donc fournir des applications innovantes. Cozy, c’est un espace sur un serveur où je peux stocker mes données personnelles, avec en plus des connecteurs pour récupérer des données stockées chez des tiers (données de consommation électrique ou téléphonique, bancaires, factures, etc.) et enfin c’est une plateforme applicative. C’est la combinaison de ces trois choses qui fait de Cozy une solution unique : en tant que développeur, tu peux écrire des applications qui utilisent ces données personnelles. Personne d’autre à ma connaissance ne peut faire pareil. Et en plus, elle est libre et auto-hébergeable !

Cozy en est à la version 3 et on a l’impression que ça évolue peu, malgré le numéro de version qui passe de 1 à 2 et de 2 à 3. Normal ? Est-ce qu’il existe des remaniements importants en arrière-plan qui ne seraient pas perceptibles par les utilisateurs et utilisatrices ?

Cozy est avant tout une plateforme, ce qui veut dire que c’est quand même une grosse base de code. Ça n’est pas juste une application, c’est un truc fait pour faire tourner des applications, donc c’est normal que ça prenne du temps de développement. Ces douze derniers mois ont été consacrés à la réécriture en langage Go pour plus de performance et d’ergonomie. La version 2 était encore très geek et pouvait rebuter les Dupuis-Morizeau, mais maintenant nous sommes dans un logiciel libre avec une finition et une ergonomie visant le plus grand nombre. Nous avons aussi profité de la réécriture du back-end pour revoir les applications Fichiers et Photos ainsi que les connecteurs. Par ailleurs, nous proposons une nouvelle application, Cozy Banks, qui est un agrégateur bancaire.

Un clin d’œil côté CGU – Leur détail est disponible aussi

 

On peut lire les engagements de Cozy sur cette page vie privée et ça fait plaisir. Mais au fait pour la sécurité comment on se débrouille ? C’est compliqué à administrer une instance Cozy sur son serveur personnel ?

J’aimerais pouvoir dire à tout le monde de s’auto-héberger, mais franchement ça ne serait pas raisonnable. Pour le faire, il faut des compétences, du temps, et de l’envie, et c’est trop vite arrivé de mal paramétrer sa machine pour ensuite se retrouver « à poil sur Internet ». Je déplore cette situation, mais il faut voir tout de même que qu’Internet est un milieu hostile, patrouillé par des robots qui attaquent toutes les adresses IP qu’ils trouvent. L’autre jour, lors d’un atelier Cozy sur l’auto-hébergement, on a créé des serveurs temporaires avec des mots de passe un peu trop simples (pour pouvoir les partager avec les stagiaires qui n’avaient pas de serveurs à eux). Résultat : la première attaque a été enregistrée au bout de 37 minutes seulement. Elle a réussi au bout de 3 h, alors qu’on finissait l’atelier ! Monter son serveur est relativement facile, c’est vrai, mais le maintenir en sécurité est nettement plus complexe et nécessite un vrai savoir-faire et l’envie d’y passer du temps. Donc c’est à chacun de décider ce qui lui convient. Cozy laisse le choix à chacun.

Ces applications sont sympas mais pourquoi elles ne fonctionnent pas hors de l’univers Cozy Cloud ? Pas de standalone ? En particulier, pourquoi développer une application pour Cozy, avec les contraintes techniques qui feront qu’elle ne pourra fonctionner que dans Cozy ? Est-ce que cela ne fractionne pas l’écosystème libre ?

En fait, une application Cozy, c’est une application Web, avec la possibilité de faire appel à des API pour accéder à des données personnelles. Comme tu le soulignes, Cozy n’a aucun intérêt à fragmenter l’écosystème libre. Par contre, Cozy veut innover et proposer des choses jamais vues ailleurs, comme l’accès à des données personnelles, et ça passe par les API que nous avons créées, pour aller chercher la donnée dans le file system ou la base de données Couch

On comprend bien que vous souhaitez combattre les silos, mais est-ce que les contraintes de croissance de la startup ne vont pas à l’encontre de cet objectif, menant à une possible dérive de Cozy en tant que silo ? Quelles mesures adoptez-vous pour éviter que Cozy ne devienne un nouveau silo ?

Encore une excellente question. Effectivement, il ne faut pas que Cozy devienne un silo, puisque c’est contraire à nos valeurs. Pour cela, nous avons dès le départ pensé à un certain nombre de choses qui permettent d’éviter cela. Tout d’abord, Cozy est un logiciel Libre, donc son code source est librement téléchargeable (sur https://github.com/cozy/ ) et ceux qui le veulent peuvent l’auto-héberger. Il y a donc une indépendance forte de l’utilisateur qui peut rapatrier ses données quand il le veut. Par ailleurs, pour ceux qui ne veulent pas s’auto-héberger, il est prévu que plusieurs hébergeurs proposent une offre Cozy, pour qu’on puisse déménager son instance et reprendre son indépendance. Si Cozy réussit, ça devient un standard libre. Reprocherait-on à GNU/Linux de s’être imposé sur les serveurs ? Au contraire, on s’en félicite !

Tu parles de SIRCUS (Système Informatique Redonnant le Contrôle aux UtilisateurS) dans ton livre Surveillance:// ; est-ce que CozyCloud en est un, autrement dit est-ce qu’il respecte tous les critères des SIRCUS ?

Avec le concept de SIRCUS, je définis plus des principes que des critères « durs ». La façon dont nous concevons Cozy fait que c’est un SIRCUS à la base, mais ça n’est pas juste Cozy qui décide de cela. L’utilisateur et son hébergeur ont aussi leur mot à dire. Par exemple, si vous installez une application propriétaire sur votre Cozy, vous vous éloignez du concept de SIRCUS. Ou si un hébergeur vous propose de l’espace disque gratuit en échange de publicité ou de fouiller dans vos données, ou si vous désactivez le chiffrement… c’est pareil : ça n’est plus vraiment un SIRCUS (voire plus du tout !).

En même temps, on l’a vu avec la problématique de l’auto-hébergement, c’est difficile d’avoir un SIRCUS «100 % pur ». Je redoute cette idée de pureté absolue, parce qu’elle est difficile à atteindre et peut décourager le plus grand nombre qui se dira « à quoi bon » voire « je n’ai rien à cacher », juste parce que ça semble inatteignable. Chez Cozy, on veut toucher le plus grand nombre avec la meilleure solution possible, pas se limiter à une élite geek, à un 1 % numérique.

Est-ce que toutes mes données personnelles stockées sur Cozy transitent et restent uniquement chez Cozy, et non chez l’un de ses partenaires ?

En fait, ça dépend de plusieurs critères, à commencer par la solution d’hébergement choisie : si vous êtes auto-hébergé, les données sont chez vous. Si vous avez une instance Cozy, ça reste sur les serveurs que Cozy loue à OVH. Si vous utilisez l’application Cozy Banks, laquelle fonctionne en partenariat avec Linxo (nous utilisons leurs connecteurs bancaires), alors vos données bancaires transitent via les machines de Linxo.

Parmi les missions qui sont les tiennes au sein de Cozy, il y a l’objectif de mobiliser la communauté. Est-ce que cette mobilisation a répondu à tes/vos attentes ? Quel message souhaites-tu transmettre à la communauté libriste aujourd’hui ?

La réécriture de Cozy pour faire la v3 a été difficile de ce point de vue-là. Je suis ravi du résultat en termes de performance, de fonctionnalités et d’ergonomie, mais cela a gêné le développement de la communauté, puisque nous sommes restés de longs mois sans « os à ronger » : les anciens connecteurs ne fonctionnaient plus avec la v3, les outils changeaient, la v2 ne progressait plus, bref, pas facile d’animer une communauté dans de telles conditions.

Mais tout cela est maintenant derrière nous avec l’arrivée de Cozy V3 : c’est le moment d’essayer Cozy, d’en parler autour de soi, d’y stocker ses données. J’espère qu’on va réussir avec Cozy ce qu’on a fait avec Firefox, à savoir un produit libre et bien fichu que les non-geeks ont envie d’utiliser et que les geeks et/ou libristes ont envie de recommander. L’arrivée de Cozy V3, c’est aussi l’occasion de l’utiliser comme plateforme pour développer des applications qui tirent parti de données personnelles. Allez voir sur Github ! On organise aussi des meetups et ateliers pour ça, venez et participez ! On peut même voir comment en organiser en régions 🙂

Parlons un peu business. Après une grosse (deuxième) levée de fonds, Cozy peut progresser, mais pour aller vers où ? Est-ce que l’expérience en cours avec la MAIF est un exemple que Cozy veut voir se multiplier ? Selon toi, pourquoi des entreprises comme la MAIF (aussi La Poste, INRIA, EDF, Orange…) adoptent-elles Cozy Cloud ou s’y intéressent-elles? Ce ne serait pas parce qu’elles ont peur de se faire dépasser dans leur domaine d’activité par le grand méchant Google ?

La vérité, c’est que presque personne n’a intérêt à ce que les GAFAM dominent le monde : ni les consommateurs, qui sont transformés en bétail produisant de la donnée et consommant de la pub ciblée, ni les entreprises qui sont à deux doigts de se faire uberiser. Les États aussi ont beaucoup à perdre, vu l’optimisation fiscale hyper agressive des GAFAM. Donc redonner aux entreprises les moyens de repenser leur relation client avec des moyens techniques permettant de respecter la donnée personnelle, ça a du sens, beaucoup de sens ! Donc nous avons la chance d’avoir la MAIF qui est très mûre dans cette approche, qui pourrait nous aider, en proposant un jour des instances à ses clients. Ça nous permettrait de toucher un public plus large avec du logiciel libre respectueux de la vie privée. Je trouve cette perspective très excitante, bien plus que ce qu’on constate actuellement avec des plateformes centralisées et privatrices. Et c’est pour ça que je me lève le matin avec autant d’enthousiasme 🙂

Le respect de la confidentialité des données est un atout majeur de Cozy par rapport à des solutions de cloud hégémoniques. Comment ça se traduit concrètement pour une entreprise qui s’adresse à vous ? Est-ce que c’est perçu comme un avantage décisif ?

Oui, absolument, c’est une des particularités de la solution Cozy. Mais surtout, c’est une opportunité pour les entreprises de battre les GAFAM en changeant les règles du jeu. Les géants de l’Internet veulent les données personnelles pour désintermédier les entreprises ? Ces dernières aident leurs clients à reprendre la main sur leurs données personnelles pour entrer dans une relation client/fournisseur plus saine.

Et finalement comment vous comptez gagner des sous ? Vos investisseurs (MAIF et Innovacom) attendent quoi de votre réussite ?

C’est une question essentielle ! Nous avons annoncé hier le modèle de financement de Cozy, qui est un modèle dit freemium, c’est-à-dire un mix entre un modèle gratuit et un modèle payant. En bref, on peut avoir son espace Cozy gratuitement, mais il est limité à 5Go de stockage. Si vous voulez disposer de plus, il est possible d’avoir 50Go de stockage pour 2,99€ par mois ou pour les gloutons de la donnée, 1000 Go pour 9,99€ par mois. Évidemment, ceux qui veulent s’auto-héberger n’auront pas à payer : le logiciel est libre et gratuit (téléchargeable depuis https://docs.cozy.io/fr/install/debian/ ). Cozy est un logiciel libre et le restera !

Merci d’avoir répondu à nos questions, on te laisse comme il est de coutume le mot de la fin !

On voit bien le succès des services Dégooglisons Internet, on constate que le mouvement CHATONS prend de l’ampleur, et dans quelques jours, c’est le FOSDEM où j’aide à l’organisation d’une salle dédiée à la décentralisation d’Internet et à la vie privée. Et hier, c’était le lancement public de Cozy. Même Mark Zuckerberg, le patron de Facebook, annonçait dans ses vœux qu’il voulait réparer Facebook (attention les yeux, lien vers FB ) et remettre la décentralisation d’Internet à l’ordre du jour, pour redonner à chacun plus de pouvoir sur ses données, donc sur sa vie numérique, donc sa vie tout court. Je pense que ce moment est venu. Nous entrons doucement dans l’ère post-GAFAM. Comme le dit une association que j’aime beaucoup, le chemin est long, mais la voie est libre !

 

 




21 degrés de liberté – 02

Voici le deuxième article de la série écrite par Falkvinge. Ce militant des libertés numériques qui a porté son combat (notamment contre le copyright1) sur le terrain politique en fondant le Parti Pirate suédois n’hésite pas à afficher des opinions tranchées parfois provocatrices 2.

Le groupe Framalang a trouvé intéressant de soumettre à votre réflexion la série d’articles qu’il a entreprise récemment. Son fil directeur, comme il l’indique dans le premier épisode que nous vous avons déjà livré, c’est la perte de certaines libertés dont nous disposions encore assez récemment, avant que le passage au tout-numérique ne nous en prive.

Nous nous efforcerons de vous traduire ces articles, semaine après semaine. Les commentaires, comme toujours, sont ouverts.

De l’analogique au numérique : la correspondance

Par Rick Falkvinge, source : Private Internet Access
Traduction Framalang : draenog, wyatt, mo, simon

Au sein de leur monde analogique nos parents considéraient leurs libertés comme acquises. Ces mêmes libertés qui ne sont pas transmises à nos enfants dans la transition numérique — telles que simplement le droit d’envoyer une lettre sans mention externe de l’expéditeur.

Lors d’interventions, il m’arrive de demander aux personnes du public combien d’entre elles approuveraient des sites tels que The Pirate Bay, alors même qu’ils engendrent une perte de revenus pour les artistes (je pose la question en partant du principe que cette assertion est vraie). La proportion de spectateurs qui lèvent la main varie selon le public et le lieu.

Les défenseurs du droit d’auteur affirment que les lois hors ligne ne sont pas respectées sur Internet, lorsqu’ils souhaitent poursuivre en justice les personnes partageant savoir et culture. Ils n’ont pas tort, mais pas comme ils l’imaginent. Ils ont raison sur un point, il est clair que les lois relatives au droit d’auteur s’appliquent aussi en ligne. Mais ce n’est pas le cas des lois sur la protection de la vie privée, or cela devrait l’être.

Dans le monde hors ligne, le courrier bénéficiait d’un certain niveau de protection. Il n’était pas censé uniquement s’appliquer à la lettre elle-même, mais à toute correspondance ; la lettre était simplement l’unique moyen de correspondance lors de la conception de ces libertés.

D’abord, le courrier était anonyme. Libre à l’expéditeur de se faire connaître à l’extérieur ou seulement à l’intérieur de l’enveloppe (de cette façon l’expéditeur était inconnu du service postal, seul le destinataire en avait connaissance), ou pas du tout.

De plus, le courrier n’était pas pisté durant son transport. Les quelques gouvernements qui suivaient à la trace la correspondance de leurs citoyens étaient largement méprisés.

Troisièmement, la lettre était secrète. Jamais l’enveloppe n’était ouverte durant son transfert.

Quatrièmement, le transporteur n’était jamais tenu responsable du contenu, pour la simple et bonne raison qu’il lui était interdit d’examiner ce contenu. Quand bien même il aurait pu le faire, avec les cartes postales sans enveloppe par exemple, il ne pouvait être tenu responsable de faire son travail de transporteur — ce principe d’immunité du transporteur ou du messager remonte à l’Empire Romain.

Ces principes de liberté de correspondance devraient s’appliquer à la correspondance qu’elle soit hors ligne (la lettre) ou en ligne. Mais ça n’est pas le cas. En ligne vous n’êtes pas libre d’envoyer ce que vous souhaitez à qui vous le souhaitez, parce que cela pourrait constituer une atteinte au droit d’auteur — nos parents jouissaient pourtant de cette liberté dans leur monde hors ligne.

Les défenseurs du droit d’auteur ont raison — envoyer par courrier la copie d’un dessin est une violation du droit d’auteur, tout autant qu’envoyer une musique piratée via Internet. Seulement hors ligne, ces lois ont des pondérations. Hors ligne, quand bien même cela constitue une violation du droit d’auteur, personne n’est autorisé à ouvrir une lettre en transit simplement pour vérifier si son contenu n’enfreint pas la loi, parce que le secret de la correspondance privée est considéré comme plus important que la découverte d’une violation de droit d’auteur. C’est primordial. Ce principe de hiérarchie n’a pas été appliqué dans le monde numérique.

Le seul moment où une lettre est ouverte et bloquée, c’est lorsqu’une personne à titre individuel est suspectée au préalable d’un crime grave. Les mots « grave » et « au préalable » sont importants : l’ouverture de lettres simplement pour vérifier si elles contiennent un élément de crime sans grande gravité, tel qu’une violation du droit d’auteur, n’est tout bonnement pas autorisée du tout.

Il n’y a aucune raison que les libertés concédées à nos parents dans le monde hors ligne ne soient pas transposées en ligne de la même manière à nos enfants, peu importe si cela signifie que des modèles économiques deviennent caducs.

Après avoir mis ces points en évidence, je repose la question aux spectateurs pour savoir combien d’entre eux approuveraient des sites tel que The Pirate Bay, alors même qu’ils engendrent une perte de revenus pour les artistes. Mon argumentaire terminé, tous les spectateurs lèvent la main pour signifier leur approbation ; ils souhaiteraient que nos enfants jouissent des mêmes libertés que nos parents, et que le respect des acquis du monde hors ligne soit également appliqués en ligne.

Dans la suite de la série nous aborderons des sujets apparentés – les annonces publiques anonymes et le rôle essentiel rempli par les tribunes improvisées dans l’exercice de la liberté.

Votre vie privée est votre propre responsabilité.




Les nouveaux Léviathans IV. La surveillance qui vient

Dans ce quatrième numéro de la série Nouveaux Léviathans, nous allons voir dans quelle mesure le modèle économique a développé son besoin vital de la captation des données relatives à la vie privée. De fait, nous vivons dans le même scénario dystopique depuis une cinquantaine d’années. Nous verrons comment les critiques de l’économie de la surveillance sont redondantes depuis tout ce temps et que, au-delà des craintes, le temps est à l’action d’urgence.

Note : voici le quatrième volet de la série des Nouveaux (et anciens) Léviathans, initiée en 2016, par Christophe Masutti, alias Framatophe. Pour retrouver les articles précédents, une liste vous est présentée à la fin de celui-ci.

Aujourd’hui

Avons-nous vraiment besoin des utopies et des dystopies pour anticiper les rêves et les cauchemars des technologies appliquées aux comportements humains ? Sempiternellement rabâchés, le Meilleur de mondes et 1984 sont sans doute les romans les plus vendus parmi les best-sellers des dernières années. Il existe un effet pervers des utopies et des dystopies, lorsqu’on les emploie pour justifier des arguments sur ce que devrait être ou non la société : tout argument qui les emploie afin de prescrire ce qui devrait être se trouve à un moment ou à un autre face au mur du réel sans possibilité de justifier un mécanisme crédible qui causerait le basculement social vers la fiction libératrice ou la fiction contraignante. C’est la raison pour laquelle l’île de Thomas More se trouve partout et nulle part, elle est utopique, en aucun lieu. Utopie et dystopie sont des propositions d’expérience et n’ont en soi aucune vocation à prouver ou prédire quoi que ce soit bien qu’elles partent presque toujours de l’expérience commune et dont tout l’intérêt, en particulier en littérature, figure dans le troublant cheminement des faits, plus ou moins perceptible, du réel vers l’imaginaire.

Pourtant, lorsqu’on se penche sur le phénomène de l’exploitation des données personnelles à grande échelle par des firmes à la puissance financière inégalable, c’est la dystopie qui vient à l’esprit. Bien souvent, au gré des articles journalistiques pointant du doigt les dernières frasques des GAFAM dans le domaine de la protection des données personnelles, les discussions vont bon train : « ils savent tout de nous », « nous ne sommes plus libres », « c’est Georges Orwell », « on nous prépare le meilleur des mondes ». En somme, c’est l’angoisse  pendant quelques minutes, juste le temps de vérifier une nouvelle fois si l’application Google de notre smartphone a bien enregistré l’adresse du rendez-vous noté la veille dans l’agenda.

Un petit coup d’angoisse ? allez… que diriez-vous si vos activités sur les réseaux sociaux, les sites d’information et les sites commerciaux étaient surveillées et quantifiées de telle manière qu’un système de notation et de récompense pouvait vous permettre d’accéder à certains droits, à des prêts bancaires, à des autorisations officielles, au logement, à des libertés de circulation, etc. Pas besoin de science-fiction. Ainsi que le rapportait Wired en octobre 20173, la Chine a déjà tout prévu d’ici 2020, c’est-à-dire demain. Il s’agit, dans le contexte d’un Internet déjà ultra-surveillé et non-neutre, d’établir un système de crédit social en utilisant les big data sur des millions de citoyens et effectuer un traitement qui permettra de catégoriser les individus, quels que soient les risques : risques d’erreurs, risques de piratage, crédibilité des indicateurs, atteinte à la liberté d’expression, etc.

Évidemment les géants chinois du numérique comme Alibaba et sa filiale de crédit sont déjà sur le coup. Mais il y a deux choses troublantes dans cette histoire. La première c’est que le crédit social existe déjà et partout : depuis des années on évalue en ligne les restaurants et les hôtels sans se priver de critiquer les tenanciers et il existe toute une économie de la notation dans l’hôtellerie et la restauration, des applications terrifiantes comme Peeple4 existent depuis 2015, les banques tiennent depuis longtemps des listes de créanciers, les fournisseurs d’énergie tiennent à jour les historiques des mauvais payeurs, etc.  Ce que va faire la Chine, c’est le rêve des firmes, c’est la possibilité à une gigantesque échelle et dans un cadre maîtrisé (un Internet non-neutre) de centraliser des millions de gigabits de données personnelles et la possibilité de recouper ces informations auparavant éparses pour en tirer des profils sur lesquels baser des décisions.

Le second élément troublant, c’est que le gouvernement chinois n’aurait jamais eu cette idée si la technologie n’était pas déjà à l’œuvre et éprouvée par des grandes firmes. Le fait est que pour traiter autant d’informations par des algorithmes complexes, il faut : de grandes banques de données, beaucoup d’argent pour investir dans des serveurs et dans des compétences, et espérer un retour sur investissement de telle sorte que plus vos secteurs d’activités sont variés plus vous pouvez inférer des profils et plus votre marketing est efficace. Il est important aujourd’hui pour des monopoles mondialisés de savoir combien vous avez de chance d’acheter à trois jours d’intervalle une tondeuse à gazon et un canard en mousse. Le profilage de la clientèle (et des utilisateurs en général) est devenu l’élément central du marché à tel point que notre économie est devenue une économie de la surveillance, repoussant toujours plus loin les limites de l’analyse de nos vies privées.

La dystopie est en marche, et si nous pensons bien souvent au cauchemar orwellien lorsque nous apprenons l’existence de projets comme celui du gouvernement chinois, c’est parce que nous n’avons pas tous les éléments en main pour en comprendre le cheminement. Nous anticipons la dystopie mais trop souvent, nous n’avons pas les moyens de déconstruire ses mécanismes. Pourtant, il devient de plus en plus facile de montrer ces mécanismes sans faire appel à l’imaginaire : toutes les conditions sont remplies pour n’avoir besoin de tracer que quelques scénarios alternatifs et peu différents les uns des autres. Le traitement et l’analyse de nos vies privées provient d’un besoin, celui de maximiser les profits dans une économie qui favorise l’émergence des monopoles et la centralisation de l’information. Cela se retrouve à tous les niveaux de l’économie, à commencer par l’activité principale des géants du Net : le démarchage publicitaire. Comprendre ces modèles économiques revient aussi à comprendre les enjeux de l’économie de la surveillance.

Données personnelles : le commerce en a besoin

Dans le petit monde des études en commerce et marketing, Frederick Reichheld fait figure de référence. Son nom et ses publications dont au moins deux best sellers, ne sont pas vraiment connus du grand public, en revanche la plupart des stratégies marketing des vingt dernières années sont fondées, inspirées et même modélisées à partir de son approche théorique de la relation entre la firme et le client. Sa principale clé de lecture est une notion, celle de la fidélité du client. D’un point de vue opérationnel cette notion est déclinée en un concept, celui de la valeur vie client (customer lifetime value) qui se mesure à l’aune de profits réalisés durant le temps de cette relation entre le client et la firme. Pour Reichheld, la principale activité du marketing consiste à optimiser cette valeur vie client. Cette optimisation s’oppose à une conception rétrograde (et qui n’a jamais vraiment existé, en fait5) de la « simple » relation marchande.

En effet, pour bien mener les affaires, la relation avec le client ne doit pas seulement être une série de transactions marchandes, avec plus ou moins de satisfaction à la clé. Cette manière de concevoir les modèles économiques, qui repose uniquement sur l’idée qu’un client satisfait est un client fidèle, a son propre biais : on se contente de donner de la satisfaction. Dès lors, on se place d’un point de vue concurrentiel sur une conception du capitalisme marchand déjà ancienne. Le modèle de la concurrence « non faussée » est une conception nostalgique (fantasmée) d’une relation entre firme et client qui repose sur la rationalité de ce dernier et la capacité des firmes à produire des biens en réponse à des besoins plus ou moins satisfaits. Dès lors la décision du client, son libre arbitre, serait la variable juste d’une économie auto-régulée (la main invisible) et la croissance économique reposerait sur une dynamique de concurrence et d’innovation, en somme, la promesse du « progrès ».

Évidemment, cela ne fonctionne pas ainsi. Il est bien plus rentable pour une entreprise de fidéliser ses clients que d’en chercher de nouveaux. Prospecter coûte cher alors qu’il est possible de jouer sur des variables à partir de l’existant, tout particulièrement lorsqu’on exerce un monopole (et on comprend ainsi pourquoi les monopoles s’accommodent très bien entre eux en se partageant des secteurs) :

  1. on peut résumer la conception de Reichheld à partir de son premier best seller, The Loyalty Effect (1996) : avoir des clients fidèles, des employés fidèles et des propriétaires loyaux. Il n’y a pas de main invisible : tout repose sur a) le rapport entre hausse de la rétention des clients / hausse des dépenses, b) l’insensibilité aux prix rendue possible par la fidélisation (un client fidèle, ayant dépassé le stade du risque de défection, est capable de dépenser davantage pour des raisons qui n’ont rien à voir avec la valeur marchande), c) la diminution des coûts de maintenance (fidélisation des employés et adhésion au story telling), d) la hausse des rendements et des bénéfices. En la matière la firme Apple rassemble tous ces éléments à la limite de la caricature.
  2. Reichheld est aussi le créateur d’un instrument d’évaluation de la fidélisation : le NPS (Net Promoter Score). Il consiste essentiellement à catégoriser les clients, entre promoteurs, détracteurs ou passifs. Son autre best-seller The Ultimate Question 2.0: How Net Promoter Companies Thrive in a Customer-Driven World déploie les applications possibles du contrôle de la qualité des relations client qui devient dès lors la principale stratégie de la firme d’où découlent toutes les autres stratégies (en particulier les choix d’innovation). Ainsi il cite dans son ouvrage les plus gros scores NPS détenus par des firmes comme Apple, Amazon et Costco.

Il ne faut pas sous-estimer la valeur opérationnelle du NPS. Notamment parce qu’il permet de justifier les choix stratégiques. Dans The Ultimate Question 2.0 Reichheld fait référence à une étude de Bain & Co. qui montre que pour une banque, la valeur vie client d’un promoteur (au sens NPS) est estimée en moyenne à 9 500 dollars. Ce modèle aujourd’hui est une illustration de l’importance de la surveillance et du rôle prépondérant de l’analyse de données. En effet, plus la catégorisation des clients est fine, plus il est possible de déterminer les leviers de fidélisation. Cela passe évidemment par un système de surveillance à de multiples niveaux, à la fois internes et externes :

  • surveiller des opérations de l’organisation pour les rendre plus agiles et surveiller des employés pour augmenter la qualité des relations client,
  • rassembler le plus de données possibles sur les comportements des clients et les possibilités de déterminer leurs choix à l’avance.

Savoir si cette approche du marketing est née d’un nouveau contexte économique ou si au contraire ce sont les approches de la valeur vie client qui ont configuré l’économie d’aujourd’hui, c’est se heurter à l’éternel problème de l’œuf et de la poule. Toujours est-il que les stratégies de croissance et de rentabilité de l’économie reposent sur l’acquisition et l’exploitation des données personnelles de manière à manipuler les processus de décision des individus (ou plutôt des groupes d’individus) de manière à orienter les comportements et fixer des prix non en rapport avec la valeur des biens mais en rapport avec ce que les consommateurs (ou même les acheteurs en général car tout ne se réduit pas à la question des seuls biens de consommation et des services) sont à même de pouvoir supporter selon la catégorie à laquelle ils appartiennent.

Le fait de catégoriser ainsi les comportements et les influencer, comme nous l’avons vu dans les épisodes précédents de la série Léviathans, est une marque stratégique de ce que Shoshana Zuboff a appelé le capitalisme de surveillance6. Les entreprises ont aujourd’hui un besoin vital de rassembler les données personnelles dans des silos de données toujours plus immenses et d’exploiter ces big data de manière à optimiser leurs modèles économiques. Ainsi, du point de vue des individus, c’est le quotidien qui est scruté et analysé de telle manière que, il y a à peine une dizaine d’années, nous étions à mille lieues de penser l’extrême granularité des données qui cartographient et catégorisent nos comportements. Tel est l’objet du récent rapport publié par Cracked Lab Corporate surveillance in everyday life7 qui montre à quel point tous les aspect du quotidien font l’objet d’une surveillance à une échelle quasi-industrielle (on peut citer les activités de l’entreprise Acxiom), faisant des données personnelles un marché dont la matière première est traitée sans aucun consentement des individus. En effet, tout le savoir-faire repose essentiellement sur le recoupement statistique et la possibilité de catégoriser des milliards d’utilisateurs de manière à produire des représentations sociales dont les caractéristiques ne reflètent pas la réalité mais les comportements futurs. Ainsi par exemple les secteurs bancaires et des assurances sont particulièrement friands des possibilités offertes par le pistage numérique et l’analyse de solvabilité.

Cette surveillance a été caractérisée déjà en 1988 par le chercheur en systèmes d’information Roger Clarke8 :

  • dans la mesure où il s’agit d’automatiser, par des algorithmes, le traitement des informations personnelles dans un réseau regroupant plusieurs sources, et d’en inférer du sens, on peut la qualifier de « dataveillance », c’est à dire « l’utilisation systématique de systèmes de traitement de données à caractère personnel dans l’enquête ou le suivi des actions ou des communications d’une ou de plusieurs personnes » ;
  • l’un des attributs fondamentaux de cette dataveillance est que les intentions et les mécanismes sont cachés aux sujets qui font l’objet de la surveillance.

En effet, l’accès des sujets à leurs données personnelles et leurs traitements doit rester quasiment impossible car après un temps très court de captation et de rétention, l’effet de recoupement fait croître de manière exponentielle la somme d’information sur les sujets et les résultats, qu’ils soient erronés ou non, sont imbriqués dans le profilage et la catégorisation de groupes d’individus. Plus le monopole a des secteurs d’activité différents, plus les comportements des mêmes sujets vont pouvoir être quantifiés et analysés à des fins prédictives. C’est pourquoi la dépendance des firmes à ces informations est capitale ; pour citer Clarke en 20179 :

« L’économie de la surveillance numérique est cette combinaison d’institutions, de relations institutionnelles et de processus qui permet aux entreprises d’exploiter les données issues de la surveillance du comportement électronique des personnes et dont les sociétés de marketing deviennent rapidement dépendantes. »

Le principal biais que produit cette économie de la surveillance (pour S. Zuboff, c’est de capitalisme de surveillance qu’il s’agit puisqu’elle intègre une relation d’interdépendance entre centralisation des données et centralisation des capitaux) est qu’elle n’a plus rien d’une démarche descriptive mais devient prédictive par effet de prescription.

Elle n’est plus descriptive (mais l’a-t-elle jamais été ?) parce qu’elle ne cherche pas à comprendre les comportements économiques en fonction d’un contexte, mais elle cherche à anticiper les comportements en maximisant les indices comportementaux. On ne part plus d’un environnement économique pour comprendre comment le consommateur évolue dedans, on part de l’individu pour l’assigner à un environnement économique sur mesure dans l’intérêt de la firme. Ainsi, comme l’a montré une étude de Propublica en 201610, Facebook dispose d’un panel de pas moins de 52 000 indicateurs de profilage individuels pour en établir une classification générale. Cette quantification ne permet plus seulement, comme dans une approche statistique classique, de déterminer par exemple si telle catégorie d’individus est susceptible d’acheter une voiture. Elle permet de déterminer, de la manière la plus intime possible, quelle valeur économique une firme peut accorder à un panel d’individus au détriment des autres, leur valeur vie client.

Tout l’enjeu consiste à savoir comment influencer ces facteurs et c’est en cela que l’exploitation des données passe d’une dimension prédictive à une dimension prescriptive. Pour prendre encore l’exemple de Facebook, cette firme a breveté un système capable de déterminer la solvabilité bancaire des individus en fonction de la solvabilité moyenne de leur réseau de contacts11. L’important ici, n’est pas vraiment d’aider les banques à diminuer les risques d’insolvabilité de leurs clients, car elles savent très bien le faire toutes seules et avec les mêmes procédés d’analyse en big data. En fait, il s’agit d’influencer les stratégies personnelles des individus par le seul effet panoptique12 : si les individus savent qu’ils sont surveillés, toute la stratégie individuelle consistera à choisir ses amis Facebook en fonction de leur capacité à maximiser les chances d’accéder à un prêt bancaire (et cela peut fonctionner pour bien d’autres objectifs). L’intérêt de Facebook n’est pas d’aider les banques, ni de vendre une expertise en statistique (ce n’est pas le métier de Facebook) mais de normaliser les comportements dans l’intérêt économique et augmenter la valeur vie client potentielle de ses utilisateurs : si vous avez des problèmes d’argent, Facebook n’est pas fait pour vous. Dès lors il suffit ensuite de revendre des profils sur-mesure à des banques. On se retrouve typiquement dans un épisode d’anticipation de la série Black Mirror (Chute libre)13.

 

La fiction, l’anticipation, la dystopie… finalement, c’est-ce pas un biais que de toujours analyser sous cet angle l’économie de la surveillance et le rôle des algorithmes dans notre quotidien ? Tout se passe en quelque sorte comme si nous découvrions un nouveau modèle économique, celui dont nous venons de montrer que les préceptes sont déjà anciens, et comme si nous appréhendions seulement aujourd’hui les enjeux de la captation et l’exploitation des données personnelles. Au risque de décevoir tous ceux qui pensent que questionner la confiance envers les GAFAM est une activité d’avant-garde, la démarche a été initiée dès les prémices de la révolution informatique.

La vie privée à l’époque des pattes d’eph.

Face au constat selon lequel nous vivons dans un environnement où la surveillance fait loi, de nombreux ouvrages, articles de presse et autres témoignages ont sonné l’alarme. En décembre 2017, ce fut le soi-disant repentir de Chamath Palihapitya, ancien vice-président de Facebook, qui affirmait avoir contribué à créer « des outils qui déchirent le tissu social »14. Il ressort de cette lecture qu’après plusieurs décennies de centralisation et d’exploitation des données personnelles par des acteurs économiques ou institutionnels, nous n’avons pas fini d’être surpris par les transformations sociales qu’impliquent les big data. Là où, effectivement, nous pouvons accorder un tant soit peu de de crédit à C. Palihapitya, c’est dans le fait que l’extraction et l’exploitation des données personnelles implique une économie de la surveillance qui modèle la société sur son modèle économique. Et dans ce modèle, l’exercice de certains droits (comme le droit à la vie privée) passe d’un état absolu (un droit de l’homme) à un état relatif (au contexte économique).

Comme cela devient une habitude dans cette série des Léviathans, nous pouvons effectuer un rapide retour dans le temps et dans l’espace. Situons-nous à la veille des années 1970, aux États-Unis, plus exactement dans la période charnière qui vit la production en masse des ordinateurs mainframe (du type IBM 360), à destination non plus des grands laboratoires de recherche et de l’aéronautique, mais vers les entreprises des secteurs de la banque, des assurances et aussi vers les institutions gouvernementales. L’objectif premier de tels investissements (encore bien coûteux à cette époque) était le traitement des données personnelles des citoyens ou des clients.

Comme bien des fois en histoire, il existe des périodes assez courtes où l’on peut comprendre les événements non pas parce qu’ils se produisent suivant un enchaînement logique et linéaire, mais parce qu’ils surviennent de manière quasi-simultanée comme des fruits de l’esprit du temps. Ainsi nous avons d’un côté l’émergence d’une industrie de la donnée personnelle, et, de l’autre l’apparition de nombreuses publications portant sur les enjeux de la vie privée. D’aucuns pourraient penser que, après la publication en 1949 du grand roman de G. Orwell, 1984, la dystopie orwellienne pouvait devenir la clé de lecture privilégiée de l’informationnalisation (pour reprendre le terme de S. Zuboff) de la société américaine dans les années 1960-1970. Ce fut effectivement le cas… plus exactement, si les références à Orwell sont assez courantes dans la littérature de l’époque15, il y avait deux lectures possibles de la vie privée dans une société aussi bouleversée que celle de l’Amérique des années 1960. La première questionnait la hiérarchie entre vie privée et vie publique. La seconde focalisait sur le traitement des données informatiques. Pour mieux comprendre l’état d’esprit de cette période, il faut parcourir quelques références.

Vie privée vs vie publique

Deux best-sellers parus en été 1964 effectuent un travail introspectif sur la société américaine et son rapport à la vie privée. Le premier, écrit par Myron Brenton, s’intitule The privacy invaders16. Brenton est un ancien détective privé qui dresse un inventaire des techniques de surveillance à l’encontre des citoyens et du droit. Le second livre, écrit par Vance Packard, connut un succès international. Il s’intitule The naked Society17, traduit en français un an plus tard sous le titre Une société sans défense. V. Packard est alors universitaire, chercheur en sociologie et économie. Il est connu pour avoir surtout travaillé sur la société de consommation et le marketing et dénoncé, dans un autre ouvrage (La persuasion clandestine18), les abus des publicitaires en matière de manipulation mentale. Dans The naked Society comme dans The privacy invaders les mêmes thèmes sont déployés à propos des dispositifs de surveillance, entre les techniques d’enquêtes des banques sur leurs clients débiteurs, les écoutes téléphoniques, la surveillance audio et vidéo des employés sur les chaînes de montage, en somme toutes les stratégies privées ou publiques d’espionnage des individus et d’abus en tout genre qui sont autant d’atteintes à la vie privée. Il faut dire que la société américaine des années 1960 a vu aussi bien arriver sur le marché des biens de consommation le téléphone et la voiture à crédit mais aussi l’électronique et la miniaturisation croissante des dispositifs utiles dans ce genre d’activité. Or, les questions que soulignent Brenton et Packard, à travers de nombreux exemples, ne sont pas tant celles, plus ou moins spectaculaires, de la mise en œuvre, mais celles liées au droit des individus face à des puissances en recherche de données sur la vie privée extorquées aux sujets mêmes. En somme, ce que découvrent les lecteurs de ces ouvrages, c’est que la vie privée est une notion malléable, dans la réalité comme en droit, et qu’une bonne part de cette malléabilité est relative aux technologies et au médias. Packard ira légèrement plus loin sur l’aspect tragique de la société américaine en focalisant plus explicitement sur le respect de la vie privée dans le contexte des médias et de la presse à sensation et dans les contradictions apparente entre le droit à l’information, le droit à la vie privée et le Sixième Amendement. De là, il tire une sonnette d’alarme en se référant à Georges Orwell, et dénonçant l’effet panoptique obtenu par l’accessibilité des instruments de surveillance, la généralisation de leur emploi dans le quotidien, y compris pour les besoins du marketing, et leur impact culturel.

En réalité, si ces ouvrages connurent un grand succès, c’est parce que leur approche de la vie privée reposait sur un questionnement des pratiques à partir de la morale et du droit, c’est-à-dire sur ce que, dans une société, on est prêt à admettre ou non au sujet de l’intimité vue comme une part structurelle des relations sociales. Qu’est-ce qui relève de ma vie privée et qu’est-ce qui relève de la vie publique ? Que puis-je exposer sans crainte selon mes convictions, ma position sociale, la classe à laquelle j’appartiens, etc. Quelle est la légitimité de la surveillance des employés dans une usine, d’un couple dans une chambre d’hôtel, d’une star du show-biz dans sa villa ?

Il reste que cette approche manqua la grande révolution informatique naissante et son rapport à la vie privée non plus conçue comme l’image et l’estime de soi, mais comme un ensemble d’informations quantifiables à grande échelle et dont l’analyse peut devenir le mobile de décisions qui impactent la société en entier19. La révolution informatique relègue finalement la légitimité de la surveillance au second plan car la surveillance est alors conçue de manière non plus intentionnelle mais comme une série de faits : les données fournies par les sujets, auparavant dans un contexte fermé comme celui de la banque locale, finirent par se retrouver centralisées et croisées au gré des consortiums utilisant l’informatique pour traiter les données des clients. Le même schéma se retrouva pour ce qui concerne les institutions publiques dans le contexte fédéral américain.

Vie privée vs ordinateurs

Une autre approche commença alors à faire son apparition dans la sphère universitaire. Elle intervient dans la seconde moitié des années 1960. Il s’agissait de se pencher sur la gouvernance des rapports entre la vie privée et l’administration des données personnelles. Suivant au plus près les nouvelles pratiques des grands acteurs économiques et gouvernementaux, les universitaires étudièrent les enjeux de la numérisation des données personnelles avec en arrière-plan les préoccupations juridiques, comme celle de V. Packard, qui faisaient l’objet des réflexions de la décennie qui se terminait. Si, avec la société de consommation venait tout un lot de dangers sur la vie privée, cette dernière devrait être protégée, mais il fallait encore savoir sur quels plans agir. Le début des années 1970, en guise de résultat de ce brainstorming général, marquèrent alors une nouvelle ère de la privacy à l’Américaine à l’âge de l’informatisation et du réseautage des données personnelles. Il s’agissait de comprendre qu’un changement majeur était en train de s’effectuer avec les grands ordinateurs en réseau et qu’il fallait formaliser dans le droit les garde-fou les plus pertinents : on passait d’un monde où la vie privée pouvait faire l’objet d’une intrusion par des acteurs séparés, recueillant des informations pour leur propre compte en fonction d’objectifs différents, à un monde où les données éparses étaient désormais centralisées, avec des machines capables de traiter les informations de manière rapide et automatisée, capables d’inférer des informations sans le consentement des sujets à partir d’informations que ces derniers avaient données volontairement dans des contextes très différents.

La liste des publications de ce domaine serait bien longue. Par exemple, la Rand Corporation publia une longue liste bibliographique annotée au sujet des données personnelles informatisées. Cette liste regroupe près de 300 publications entre 1965 et 1967 sur le sujet20.

Des auteurs universitaires firent école. On peut citer :

  • Alan F. Westin : Privacy and freedom (1967), Civil Liberties and Computerized Data Systems (1971), Databanks in a Free Society: Computers, Record Keeping and Privacy (1972)21 ;
  • James B. Rule : Private lives and public surveillance: social control in the computer age (1974)22 ;
  • Arthur R. Miller : The assault on privacy. Computers, Data Banks and Dossier (1971)23 ;
  • Malcolm Warner et Mike Stone, The Data Bank Society : Organizations, Computers and Social Freedom (1970)24.

Toutes ces publications ont ceci en commun qu’elles procédèrent en deux étapes. La première consistait à dresser un tableau synthétique de la société américaine face à la captation des informations personnelles. Quatre termes peuvent résumer les enjeux du traitement des informations : 1) la légitimité de la captation des informations, 2) la permanence des données et leurs modes de rétention, 3) la transférabilité (entre différentes organisations), 4) la combinaison ou le recoupement de ces données et les informations ainsi inférées25.

La seconde étape consistait à choisir ce qui, dans cette « société du dossier (dossier society) » comme l’appelait Arthur R. Miller, devait faire l’objet de réformes. Deux fronts venaient en effet de s’ouvrir : l’État et les firmes.

Le premier, évident, était celui que la dystopie orwellienne pointait avec empressement : l’État de surveillance. Pour beaucoup de ces analystes, en effet, le fédéralisme américain et la multiplicité des agences gouvernementales pompaient allègrement la privacy des honnêtes citoyens et s’équipaient d’ordinateurs à temps partagé justement pour rendre interopérables les systèmes de traitement d’information à (trop) grande échelle. Un rapide coup d’œil sur les références citées, montre que, effectivement, la plupart des conclusions focalisaient sur le besoin d’adapter le droit aux impératifs constitutionnels américains. Tels sont par exemple les arguments de A. F. Westin pour lequel l’informatisation des données privées dans les différentes autorités administratives devait faire l’objet non d’un recul, mais de nouvelles règles portant sur la sécurité, l’accès des citoyens à leurs propres données et la pertinence des recoupements (comme par exemple l’utilisation restreinte du numéro de sécurité sociale). En guise de synthèse, le rapport de l’U.S. Department of health, Education and Welfare livré en 197326 (et où l’on retrouve Arthur R. Miller parmi les auteurs) repris ces éléments au titre de ses recommandations. Il prépara ainsi le Privacy Act de 1974, qui vise notamment à prévenir l’utilisation abusive de documents fédéraux et garantir l’accès des individus aux données enregistrées les concernant.

Le second front, tout aussi évident mais moins accessible car protégé par le droit de propriété, était celui de la récolte de données par les firmes, et en particulier les banques. L’un des auteurs les plus connus, Arthur R. Miller dans The assault on privacy, fit la synthèse des deux fronts en focalisant sur le fait que l’informatisation des données personnelles, par les agences gouvernementales comme par les firmes, est une forme de surveillance et donc un exercice du pouvoir. Se poser la question de leur légitimité renvoie effectivement à des secteurs différents du droit, mais c’est pour lui le traitement informatique (il utilise le terme « cybernétique ») qui est un instrument de surveillance par essence. Et cet instrument est orwellien :

« Il y a à peine dix ans, on aurait pu considérer avec suffisance Le meilleur des mondes de Huxley ou 1984 de Orwell comme des ouvrages de science-fiction excessifs qui ne nous concerneraient pas et encore moins ce pays. Mais les révélations publiques répandues au cours des dernières années au sujet des nouvelles formes de pratiques d’information ont fait s’envoler ce manteau réconfortant mais illusoire. »

Pourtant, un an avant la publication de Miller fut voté le Fair Credit Reporting Act, portant sur les obligations déclaratives des banques. Elle fut aussi l’une des premières lois sur la protection des données personnelles, permettant de protéger les individus, en particulier dans le secteur bancaire, contre la tenue de bases de données secrètes, la possibilité pour les individus d’accéder aux données et de les contester, et la limitation dans le temps de la rétention des informations.

Cependant, pour Miller, le Fair Credit Reporting Act est bien la preuve que la bureaucratie informatisée et le réseautage des données personnelles impliquent deux pertes de contrôle de la part de l’individu et pour lesquelles la régulation par le droit n’est qu’un pis-aller (pp. 25-38). On peut de même, en s’autorisant quelque anachronisme, s’apercevoir à quel point les deux types de perte de contrôles qu’il pointe nous sont éminemment contemporains.

  • The individual loss of control over personal information  : dans un contexte où les données sont mises en réseau et recoupées, dès lors qu’une information est traitée par informatique, le sujet et l’opérateur n’ont plus le contrôle sur les usages qui pourront en être faits. Sont en jeu la sécurité et l’intégrité des données (que faire en cas d’espionnage ? que faire en cas de fuite non maîtrisée des données vers d’autres opérateurs : doit-on exiger que les opérateurs en informent les individus ?).
  • The individual loss of control over the accuracy of his informational profil : la centralisation des données permet de regrouper de multiples aspects de la vie administrative et sociale de la personne, et de recouper toutes ces données pour en inférer des profils. Dans la mesure où nous assistons à une concentration des firmes par rachats successifs et l’émergence de monopoles (Miller prend toujours l’exemple des banques), qu’arrive-t-il si certaines données sont erronées ou si certains recoupements mettent en danger le droit à la vie privée : par exemple le rapport entre les données de santé, l’identité des individus et les crédits bancaires.

Et Miller de conclure (p. 79) :

« Ainsi, l’informatisation, le réseautage et la réduction de la concurrence ne manqueront pas de pousser l’industrie de l’information sur le crédit encore plus profondément dans le marasme du problème de la protection de la vie privée. »

Les échos du passé

La lutte pour la préservation de la vie privée dans une société numérisée passe par une identification des stratégies intentionnelles de la surveillance et par l’analyse des procédés d’extraction, rétention et traitement des données. La loi est-elle une réponse ? Oui, mais elle est loin de suffire. La littérature nord-américaine dont nous venons de discuter montre que l’économie de la surveillance dans le contexte du traitement informatisé des données personnelles est née il y a plus de 50 ans. Et dès le début il fut démontré, dans un pays où les droits individuels sont culturellement associés à l’organisation de l’État fédéral (la Déclaration des Droits), non seulement que la privacy changeait de nature (elle s’étend au traitement informatique des informations fournies et aux données inférées) mais aussi qu’un équilibre s’établissait entre le degré de sanctuarisation de la vie privée et les impératifs régaliens et économiques qui réclament une industrialisation de la surveillance.

Puisque l’intimité numérique n’est pas absolue mais le résultat d’un juste équilibre entre le droit et les pratiques, tout les jeux post-révolution informatique après les années 1960 consistèrent en une lutte perpétuelle entre défense et atteinte à la vie privée. C’est ce que montre Daniel J. Solove dans « A Brief History of Information Privacy Law »27 en dressant un inventaire chronologique des différentes réponses de la loi américaine face aux changements technologiques et leurs répercussions sur la vie privée.

Il reste néanmoins que la dimension industrielle de l’économie de la surveillance a atteint en 2001 un point de basculement à l’échelle mondiale avec le Patriot Act28 dans le contexte de la lutte contre le terrorisme. À partir de là, les principaux acteurs de cette économie ont vu une demande croissante de la part des États pour récolter des données au-delà des limites strictes de la loi sous couvert des dispositions propres à la sûreté nationale et au secret défense. Pour rester sur l’exemple américain, Thomas Rabino écrit à ce sujet29 :

« Alors que le Privacy Act de 1974 interdit aux agences fédérales de constituer des banques de données sur les citoyens américains, ces mêmes agences fédérales en font désormais l’acquisition auprès de sociétés qui, à l’instar de ChoicePoint, se sont spécialisées dans le stockage d’informations diverses. Depuis 2001, le FBI et d’autres agences fédérales ont conclu, dans la plus totale discrétion, de fructueux contrats avec ChoicePoint pour l’achat des renseignements amassés par cette entreprise d’un nouveau genre. En 2005, le budget des États-Unis consacrait plus de 30 millions de dollars à ce type d’activité. »

Dans un contexte plus récent, on peut affirmer que même si le risque terroriste est toujours agité comme un épouvantail pour justifier des atteintes toujours plus fortes à l’encontre de la vie privée, les intérêts économiques et la pression des lobbies ne peuvent plus se cacher derrière la Raison d’État. Si bien que plusieurs pays se mettent maintenant au diapason de l’avancement technologique et des impératifs de croissance économique justifiant par eux-mêmes des pratiques iniques. Ce fut le cas par exemple du gouvernement de Donald Trump qui, en mars 2017 et à la plus grande joie du lobby des fournisseurs d’accès, abroge une loi héritée du gouvernement précédent et qui exigeait que les FAI obtiennent sous conditions la permission de partager des renseignements personnels – y compris les données de localisation30.

Encore en mars 2017, c’est la secrétaire d’État à l’Intérieur Britannique Amber Rudd qui juge publiquement « inacceptable » le chiffrement des communications de bout en bout et demande aux fournisseurs de messagerie de créer discrètement des backdoors, c’est à dire renoncer au chiffrement de bout en bout sans le dire aux utilisateurs31. Indépendamment du caractère moralement discutable de cette injonction, on peut mesurer l’impact du message sur les entreprises comme Google, Facebook et consors : il existe des décideurs politiques capables de demander à ce qu’un fournisseur de services propose à ses utilisateurs un faux chiffrement, c’est-à-dire que le droit à la vie privée soit non seulement bafoué mais, de surcroît, que le mensonge exercé par les acteurs privés soit couvert par les acteurs publics, et donc par la loi.

Comme le montre Shoshana Zuboff, le capitalisme de surveillance est aussi une idéologie, celle qui instaure une hiérarchie entre les intérêts économiques et le droit. Le droit peut donc être une arme de lutte pour la sauvegarde de la vie privée dans l’économie de la surveillance, mais il ne saurait suffire dans la mesure où il n’y pas de loyauté entre les acteurs économiques et les sujets et parfois même encore moins entre les décideurs publics et les citoyens.

Dans ce contexte où la confiance n’est pas de mise, les portes sont restées ouvertes depuis les années 1970 pour créer l’industrie des big data dont le carburant principal est notre intimité, notre quotidienneté. C’est parce qu’il est désormais possible de repousser toujours un peu plus loin les limites de la captation des données personnelles que des théories économique prônent la fidélisation des clients et la prédiction de leurs comportements comme seuls points d’appui des investissements et de l’innovation. C’est vrai dans le marketing, c’est vrai dans les services et l’innovation numériques. Et tout naturellement c’est vrai dans la vie politique, comme le montre par exemple l’affaire des dark posts durant la campagne présidentielle de D. Trump : la possibilité de contrôler l’audience et d’influencer une campagne présidentielle via les réseaux sociaux comme Facebook est désormais démontrée.

Tant que ce modèle économique existera, aucune confiance ne sera possible. La confiance est même absente des pratiques elles-mêmes, en particulier dans le domaine du traitement algorithmique des informations. En septembre 2017, la chercheuse Zeynep Tufekci, lors d’une conférence TED32, reprenait exactement les questions d’Arthur R. Miller dans The assault on privacy, soit 46 ans après. Miller prenait comme étude de cas le stockage d’information bancaire sur les clients débiteurs, et Tufekci prend les cas des réservation de vols aériens en ligne et du streaming vidéo. Dans les deux réflexions, le constat est le même : le traitement informatique de nos données personnelles implique que nous (les sujets et les opérateurs eux-mêmes) perdions le contrôle sur ces données :

« Le problème, c’est que nous ne comprenons plus vraiment comment fonctionnent ces algorithmes complexes. Nous ne comprenons pas comment ils font cette catégorisation. Ce sont d’énormes matrices, des milliers de lignes et colonnes, peut-être même des millions, et ni les programmeurs, ni quiconque les regardant, même avec toutes les données, ne comprend plus comment ça opère exactement, pas plus que vous ne sauriez ce que je pense en ce moment si l’on vous montrait une coupe transversale de mon cerveau. C’est comme si nous ne programmions plus, nous élevons une intelligence que nous ne comprenons pas vraiment. »

Z. Tufekci montre même que les algorithmes de traitement sont en mesure de fournir des conclusions (qui permettent par exemple d’inciter les utilisateurs à visualiser des vidéos sélectionnées d’après leur profil et leur historique) mais que ces conclusions ont ceci de particulier qu’elle modélisent le comportement humain de manière à l’influencer dans l’intérêt du fournisseur. D’après Z. Tufekci : «  L’algorithme a déterminé que si vous pouvez pousser les gens à penser que vous pouvez leur montrer quelque chose de plus extrême (nda : des vidéos racistes dans l’exemple cité), ils ont plus de chances de rester sur le site à regarder vidéo sur vidéo, descendant dans le terrier du lapin pendant que Google leur sert des pubs. »

Ajoutons de même que les technologies de deep learning, financées par millions par les GAFAM, se prêtent particulièrement bien au jeu du traitement automatisé en cela qu’elle permettent, grâce à l’extrême croissance du nombre de données, de procéder par apprentissage. Cela permet à Facebook de structurer la grande majorité des données des utilisateurs qui, auparavant, n’était pas complètement exploitable33. Par exemple, sur les milliers de photos de chatons partagées par les utilisateurs, on peut soit se contenter de constater une redondance et ne pas les analyser davantage, soit apprendre à y reconnaître d’autres informations, comme par exemple l’apparition, en arrière-plan, d’un texte, d’une marque de produit, etc. Il en est de même pour la reconnaissance faciale, qui a surtout pour objectif de faire concorder les identités des personnes avec toutes les informations que l’on peut inférer à partir de l’image et du texte.

Si les techniques statistiques ont le plus souvent comme objectif de contrôler les comportements à l’échelle du groupe, c’est parce que le seul fait de catégoriser automatiquement les individus consiste à considérer que leurs données personnelles en constituent l’essence. L’économie de la surveillance démontre ainsi qu’il n’y a nul besoin de connaître une personne pour en prédire le comportement, et qu’il n’y a pas besoin de connaître chaque individu d’un groupe en particulier pour le catégoriser et prédire le comportement du groupe, il suffit de laisser faire les algorithmes : le tout est d’être en mesure de classer les sujets dans les bonnes catégories et même faire en sorte qu’ils y entrent tout à fait. Cela a pour effet de coincer littéralement les utilisateurs des services « capteurs de données » dans des bulles de filtres où les informations auxquelles ils ont accès leur sont personnalisées selon des profils calculés34. Si vous partagez une photo de votre chat devant votre cafetière, et que dernièrement vous avez visité des sites marchands, vous aurez de grandes chance pour vos futures annonces vous proposent la marque que vous possédez déjà et exercent, par effet de répétition, une pression si forte que c’est cette marque que vous finirez par acheter. Ce qui fonctionne pour le marketing peut très bien fonctionner pour d’autres objectifs, même politiques.

En somme tous les déterminants d’une société soumise au capitalisme de surveillance, apparus dès les années 1970, structurent le monde numérique d’aujourd’hui sans que les lois ne puissent jouer de rôle pleinement régulateur. L’usage caché et déloyal des big data, le trafic de données entre organisations, la dégradation des droits individuels (à commencer par la liberté d’expression et le droit à la vie privée), tous ces éléments ont permis à des monopoles d’imposer un modèle d’affaire et affaiblir l’État-nation. Combien de temps continuerons-nous à l’accepter ?

Sortir du marasme

En 2016, à la fin de son article synthétique sur le capitalisme de surveillance35, Shoshana Zuboff exprime personnellement un point de vue selon lequel la réponse ne peut pas être uniquement technologique :

« (…) les faits bruts du capitalisme de surveillance suscitent nécessairement mon indignation parce qu’ils rabaissent la dignité humaine. L’avenir de cette question dépendra des savants et journalistes indignés attirés par ce projet de frontière, des élus et des décideurs indignés qui comprennent que leur autorité provient des valeurs fondamentales des communautés démocratiques, et des citoyens indignés qui agissent en sachant que l’efficacité sans l’autonomie n’est pas efficace, la conformité induite par la dépendance n’est pas un contrat social et être libéré de l’incertitude n’est pas la liberté. »

L’incertitude au sujet des dérives du capitalisme de surveillance n’existe pas. Personne ne peut affirmer aujourd’hui qu’avec l’avènement des big data dans les stratégies économiques, on pouvait ignorer que leur usage déloyal était non seulement possible mais aussi que c’est bien cette direction qui fut choisie d’emblée dans l’intérêt des monopoles et en vertu de la centralisation des informations et des capitaux. Depuis les années 1970, plusieurs concepts ont cherché à exprimer la même chose. Pour n’en citer que quelques-uns : computocracie (M. Warner et M. Stone, 1970), société du dossier (Arthur R. Miller, 1971), surveillance de masse (J. Rule, 1973), dataveillance (R. Clarke, 1988), capitalisme de surveillance (Zuboff, 2015)… tous cherchent à démontrer que la surveillance des comportements par l’usage des données personnelles implique en retour la recherche collective de points de rupture avec le modèle économique et de gouvernance qui s’impose de manière déloyale. Cette recherche peut s’exprimer par le besoin d’une régulation démocratiquement décidée et avec des outils juridiques. Elle peut s’exprimer aussi autrement, de manière violente ou pacifiste, militante et/ou contre-culturelle.

Plusieurs individus, groupes et organisation se sont déjà manifestés dans l’histoire à ce propos. Les formes d’expression et d’action ont été diverses :

  • institutionnelles : les premières formes d’action pour garantir le droit à la vie privée ont consisté à établir des rapports collectifs préparatoires à des grandes lois, comme le rapport Records, computers and the rights of citizens, de 1973, cité plus haut ;
  • individualistes, antisociales et violentes : bien que s’inscrivant dans un contexte plus large de refus technologique, l’affaire Theodore Kaczynski (alias Unabomber) de 1978 à 1995 est un bon exemple d’orientation malheureuse que pourraient prendre quelques individus isolés trouvant des justifications dans un contexte paranoïaque ;
  • collectives – activistes – légitimistes : c’est le temps des manifestes cypherpunk des années 199036, ou plus récemment le mouvement Anonymous, auxquels on peut ajouter des collectifs « événementiels », comme le Jam Echelon Day ;
  • Associatives, organisées : on peut citer le mouvement pour le logiciel libre et la Free Software Foundation, l’Electronic Frontier Foundation, La Quadrature du Net, ou bien encore certaines branches d’activité d’organisation plus générales comme la Ligue des Droits de l’Homme, Reporter Sans Frontière, etc.

Les limites de l’attente démocratique sont néanmoins déjà connues. La société ne peut réagir de manière légale, par revendication interposée, qu’à partir du moment où l’exigence de transparence est remplie. Lorsqu’elle ne l’est pas, au pire les citoyens les plus actifs sont taxés de complotistes, au mieux apparaissent de manière épisodique des alertes, à l’image des révélations d’Edward Snowden, mais dont la fréquence est si rare malgré un impact psychologique certain, que la situation a tendance à s’enraciner dans un statu quo d’où sortent généralement vainqueurs ceux dont la capacité de lobbying est la plus forte.

À cela s’ajoute une difficulté technique due à l’extrême complexité des systèmes de surveillance à l’œuvre aujourd’hui, avec des algorithmes dont nous maîtrisons de moins en moins les processus de calcul (cf. Z. Tufekci). À ce propos on peut citer Roger Clarke37 :

« Dans une large mesure, la transparence a déjà été perdue, en partie du fait de la numérisation, et en partie à cause de l’application non pas des approches procédurales et d’outils de développement des logiciels algorithmiques du XXe siècle, mais à cause de logiciels de dernière génération dont la raison d’être est obscure ou à laquelle la notion de raison d’être n’est même pas applicable. »

Une autre option pourrait consister à mettre en œuvre un modèle alternatif qui permette de sortir du marasme économique dans lequel nous sommes visiblement coincés. Sans en faire l’article, le projet Contributopia de Framasoft cherche à participer, à sa mesure, à un processus collectif de réappropriation d’Internet et, partant:

  • montrer que le code est un bien public et que la transparence, grâce aux principes du logiciel libre (l’ouverture du code), permet de proposer aux individus un choix éclairé, à l’encontre de l’obscurantisme de la dataveillance ;
  • promouvoir des apprentissages à contre-courant des pratiques de captation des vies privées et vers des usages basés sur le partage (du code, de la connaissance) entre les utilisateurs ;
  • rendre les utilisateurs autonomes et en même temps contributeurs à un réseau collectif qui les amènera naturellement, par l’attention croissante portée aux pratiques des monopoles, à refuser ces pratiques, y compris de manière active en utilisant des solutions de chiffrement, par exemple.

Mais Contributopia de Framasoft ne concerne que quelques aspects des stratégies de sortie du capitalisme de surveillance. Par exemple, pour pouvoir œuvrer dans cet esprit, une politique rigide en faveur de la neutralité du réseau Internet doit être menée. Les entreprises et les institutions publiques doivent être aussi parmi les premières concernées, car il en va de leur autonomie numérique, que cela soit pour de simples questions économiques (ne pas dépendre de la bonne volonté d’un monopole et de la logique des brevets) mais aussi pour des questions de sécurité. Enfin, le passage du risque pour la vie privée au risque de manipulation sociale étant avéré, toutes les structures militantes en faveur de la démocratie et les droits de l’homme doivent urgemment porter leur attention sur le traitement des données personnelles. Le cas de la britannique Amber Rudd est loin d’être isolé : la plupart des gouvernements collaborent aujourd’hui avec les principaux monopoles de l’économie numérique et, donc, contribuent activement à l’émergence d’une société de la surveillance. Aujourd’hui, le droit à la vie privée, au chiffrement des communications, au secret des correspondances sont des droits à protéger coûte que coûte sans avoir à choisir entre la liberté et les épouvantails (ou les sirènes) agités par les communicants.

 




PeerTube : les réponses à vos questions techniques !

Attention, ici ça parle technique ! Voici un florilège des questions les plus pointues que vous avez posées lors dans notre foire aux questions concernant PeerTube, le logiciel qui propulsera Framatube.

Si vous cherchez des réponses à des questions moins techniques et plus pratiques, nous avons un autre article sur les questions qui ne parlent pas de code, protocoles et autres serveurs ^^. Sachez que, sauf mention contraire, toutes les réponses sont de Chocobozzz, le développeur que nous avons accueilli dans notre équipe salariée afin qu’il puisse finaliser le code de PeerTube. De même, la plupart des questions ont été raccourcies ou reformulées pour plus de lisibilité, mais l’intégralité des échanges se trouve sur notre forum !

Illustration : CC-By-SA Emma Lidbury

Sous le capot, la techno

Skippythekangoo

— J’ai actuellement un petit serveur de 10 Go, mais qui grossira l’année prochaine, qui tourne sous Archlinux. Quelle méthode utiliser pour partager une partie de mes ressources pour le projet peertube ?

Pour l’instant le projet n’est pas encore en bêta donc attendre quelques mois. 😉

— Qu’utilisez-vous, python, ruby, asm… 🙂 ???

Le projet tourne via NodeJS/PostgreSQL, un peu de Shell et aura besoin de ffmpeg pour générer les miniatures et faire le transcoding (qui est en option).


Guyou

— Est-ce que le pari c’est que tout le monde regarde la même vidéo en même temps ? Mon usage de Youtube consiste à regarder, de temps à autre, des vidéos de 15-30 minutes. Mais ces vidéos ne font pas forcément l’objet du buzz du moment. Parfois, j’imagine même que Youtube doit commencer à fouiller son disque pour la retrouver.

Sinon, on va vite se retrouver avec de petits serveurs qui reçoivent plein de demandes pour différentes vidéos et qui se retrouvent vite dans l’impossibilité de servir tout le monde à cause de leur propre bande passante limitée.

Tu as tout à fait raison. Pour l’instant l’aspect P2P limite le facteur bande passante mais c’est pas une recette miracle : si 1000 personnes regardent 1000 vidéos différentes le serveur tombera.

— Est-il envisagé/envisageable de faire évoluer le modèle pour que chaque serveur du réseau puisse à son tour se joindre au réseau P2P d’une vidéo demandée par l’un de ses utilisateurs ?

À court terme il n’est pas prévu d’améliorer cet aspect. En revanche si la campagne de dons est un grand succès, on peut espérer que Framasoft continue de financer le projet pour ajouter de la redondance dans PeerTube → un autre serveur télécharge la vidéo puis la seed pour aider le serveur d’origine.

Du coup tout dépendra des donateurs. 🙂


ropoussiere

— On parle de fédération mais grosso-modo, j’imagine qu’il y aura une seule fédération non ? (comme Diaspora ou Mastodon)

Ce sera une fédération comme Mastodon, oui, à l’exception que ce seront les administrateurs de serveurs qui choisiront quel(s) serveur(s) suivre. Ça leur donne le contrôle sur les vidéos indexées (et donc affichées) sur leur serveur. Il sera possible de copier les « follows » d’autres serveurs bien sûr, sinon ça risquerait vite d’être pénible.

— Je suis jeune hébergeur, comment je trouve des amis qui veulent bien héberger les vidéos de mon instance pour la soulager / comment je suis tenu au courant des vidéos qui viennent d’être ajoutées sur les instances de mes amis, ça peut se faire automatiquement ?

Il n’y a pas pour l’instant de système de redondance donc pas moyen de choisir quelles vidéos tu veux redonder. À l’heure actuelle les vidéos « uploadées » sur ton serveur restent sur ton serveur, et seul ce dernier possède les fichiers physiques.

— Je viens de regarder une vidéo. À partir de quel moment je cesse de la partager ? (quand je quitte le site ? quand je ferme mon navigateur ? quand je redémarre mon pc ?)

Au moment où tu quittes la page de la vidéo (là où y’a le lecteur).

— On peut supposer que Framatube sera une instance PeerTube très majoritairement utilisée et qu’une très grande partie des utilisateurs ajouteront leurs vidéos via Framatube sans trop se poser de questions. Est-ce qu’un mécanisme est prévu pour téléverser la vidéo directement sur une autre instance pour ne pas remplir le disque dur de Framatube de vidéos de chats en quelques jours ?

À voir si Framatube ouvre et s’ils ouvrent à tout le monde pour n’importe quelles vidéos (je ne peux pas personnellement répondre), mais non il n’y a pas de mécanisme pour téléverser des vidéos sur d’autres instances. Par contre on peut fermer les inscriptions lorsqu’on atteint un certain nombre d’utilisateurs, et mettre un quota en octets par utilisateur. Si tu fais bien ton calcul tu peux donc gérer ton serveur sans remplir totalement le disque. Après à toi de voir si tu veux ouvrir d’autres instances pour accueillir de nouveaux utilisateurs.

— Suggestion : une interface pour ajouter des sous-titres ?

Ça tombe bien y’a une issue 🙂

— Autre suggestion : flux RSS sur des catégories ou un auteur ?

Ça tombe bien y’a aussi une issue 🙂


Chilperik

— Bonjour, l’installation sur un raspberry3 est-elle possible ? Viable ?

J’ai jamais testé mais « normalement » ça devrait être possible. Les seuls points bloquants pourraient être la compilation de certains modules Node (mais y’en a pas tant que ça).

— Est il possible d’utiliser un autre répertoire pour les médias ? Où sont ils stockés ?

Il stocke les vidéos dans le dossier spécifié dans la configuration.


JonathanMM

— Pourquoi ne pas se reposer sur le protocole torrent, qui propose déjà un catalogue et un réseau déjà pas mal ? Le lecteur vidéo ne serait alors qu’un client comme un autre, et le serveur servirait à la fois de serveur de trackers (et même aussi d’un client comme un autre, histoire d’augmenter les peers).

Ce serait bien mais malheureusement :

  • la plupart des vidéos sont dans un format incompatible avec le Web (.avi, .mkv etc.) ;
  • le navigateur ne peut se connecter aux autres pairs que via WebRTC, pas directement en TCP/UDP. Donc ton navigateur ne peut pas se connecter à un client Transmission/uTorrent par exemple ;
  • ça reste le protocole BitTorrent mais sur WebRTC, donc si les principales librairies de torrent ajoutent le support de WebRTC il sera possible de « seeder » une vidéo via un client torrent classique pour ton navigateur. Une issue est en cours pour suivre les évolutions d’implémentation de WebRTC dans les principales librairies torrent ;
  • encore une fois l’aspect P2P dans PeerTube c’est du BitTorrent, donc chaque serveur a effectivement un tracker (ton navigateur s’y connecte via websocket).

JonathanMM

— Ok, je comprends mieux […] Après, un truc qui je pense pourrait-être sympa serait d’avoir pour l’admin un système d’ajout rapide d’une vidéo sur le serveur, où on balance un lien ou un fichier torrent, et le système regarde si la vidéo est OK ou pas avant de la mettre sur son réseau. Ça permettrait d’avoir déjà une base de sources pour le jour où les libs utiliseront le WebRTC. Voir ça permettrait aux serveurs de s’échanger entre eux des vidéos ?

Yep, un import via torrent ou via URL serait utile. Un import via YouTube serait aussi le top.


Aitua

— Faut-il avoir son ordinateur connecté 24h/24 pour que la vidéo que l’on héberge soit disponible à tout moment ? Ou le serveur fait le relais ?

Le serveur fait relais, c’est lui qui s’occupe de constamment « seeder » la vidéo pour qu’elle soit toujours disponible. Pour info, il seed la vidéo via HTTP (ce qui ne demande aucun effort constant) via l’extension WebSeed du protocole BitTorrent


CamilleKaze57

— Est-ce que Peertube utilisera le protocole ActivityPub pour se fédérer avec Mastodon et GnuSocial ? Une vidéo pourrait apparaître sous la forme d’une publication et les commentaires comme des réponses. Je rappelle qu’Activitypub est soutenu par le W3C et a vocation à devenir un standard. En plus pouvoir se connecter avec son compte Mastodon ce serait génial !

Oui, PeerTube utilisera ActivityPub.

Donc, oui, en théorie on pourra se fédérer avec Mastodon et consorts (ça demandera quand même des adaptations au niveau code), et c’est tout ce qu’on espère. 🙂


Olivier Massain a profité de notre foire aux questions pour proposer son aide sur le design de PeerTube : ça va péter la classe !

« Ça ressemblerait pas un peu à… »

sossa

— Connaissez-vous BitChute qui fonctionne sur exactement le même principe ? Y-a-t-il un problème inhérent à BitChute qui vous pousserait à créer un autre outil ?

BitChute n’est pas libre, pas installable sur son serveur et pas fédéré.

Le seul point commun avec PeerTube est qu’il utilise WebTorrent, afin de soulager la bande passante pour ses propres besoins.

sossa

— OK, c’est très clair, merci ! Il est vrai que je l’avais regardé à son lancement, où ils parlaient d’ouverture et « d’installabilité », et deux ans après, rien n’a bougé, ce qui est au minimum suspicieux.


hyamanieu

— Je me demandais si vous aviez remarqué qu’il y a un projet similaire, dont le premier commit date d’août 2015 (quelques mois avant vous), et qui a beaucoup plus d’élan? Ils sont toujours en bêta (vous alpha), mais ils ont déjà ramené beaucoup de YouTubers anglophones et bientôt des francophones : lbry

Je ne connaissais pas lbry, que je viens de découvrir.

Si j’ai bien compris il s’agit plus d’un protocole, s’utilisant via un démon que tu lances et qui écoute sur un port particulier ? Et ils veulent utiliser un plugin pour pouvoir être disponible via le web. Le projet veut faire de la décentralisation avec un système de financement pour les créateurs.

PeerTube quant à elle est une application web donc difficilement comparable à lbry. De plus notre idée est de pouvoir faire communiquer différentes plateformes web (MediaGoblin, Mastodon etc) via ActivityPub, pas de s’enfermer dans un protocole particulier (que je ne remets pas en question, hein :)).

hyamanieu

— En effet, il s’agit d’un protocole. Quelles que soient les solutions techniques envisagées, ce qui compte est l’utilisation finale. Mais je ne pense pas que ça cause de grands problèmes la compétition, peut-être même l’inverse. Sur des projets open source c’est un peu dommage, c’est tout.

Je suis bien d’accord, c’est pour ça qu’on migre le protocole de fédération vers ActivityPub pour avoir une coopération entre plateformes différentes plutôt que de la compétition.


www

— Que pensez-vous de DTube ? (basé sur STEEM et IPFS)

Je n’en pense pas grand-chose, je ne connais pas assez les deux technos.

J’ai juste l’impression qu’IPFS n’est pas tout à fait prêt (d’où leur ajout de WebTorrent en secours si j’ai bien compris) et assez complexe (faut mettre en place des passerelles etc.).

Il ne me semble pas que DTube soit libre non plus.

Mais je suis le projet, c’est assez innovant comme manière de fonctionner.


 Pour aller plus loin :




Le nouveau servage

Depuis les années 1950 et l’apparition des premiers hackers, l’informatique est porteuse d’un message d’émancipation. Sans ces pionniers, notre dépendance aux grandes firmes technologiques aurait déjà été scellée.

Aujourd’hui, l’avènement de l’Internet des objets remet en question l’autonomisation des utilisateurs en les empêchant de « bidouiller » à leur gré. Pire encore, les modèles économiques apparus ces dernières années remettent même en question la notion de propriété. Les GAFAM et compagnie sont-ils devenus nos nouveaux seigneurs féodaux ?

Une traduction de Framalang : Relec’, Redmood, FranBAG, Ostrogoths, simon, Moutmout, Edgar Lori, Luc, jums, goofy, Piup et trois anonymes

L’Internet des objets nous ramène au Moyen Âge

Par Joshua A. T. Fairfield

Source : The ‘internet of things’ is sending us back to the Middle Ages

Est-ce vraiment ainsi que se définissent maintenant nos rapports avec les entreprises de technologie numérique ? Queen Mary Master

 

Les appareils connectés à Internet sont si courants et si vulnérables que des pirates informatiques ont récemment pénétré dans un casino via… son aquarium ! Le réservoir était équipé de capteurs connectés à Internet qui mesuraient sa température et sa propreté. Les pirates sont entrés dans les capteurs de l’aquarium puis dans l’ordinateur utilisé pour les contrôler, et de là vers d’autres parties du réseau du casino. Les intrus ont ainsi pu envoyer 10 gigaoctets de données quelque part en Finlande.

En observant plus attentivement cet aquarium, on découvre le problème des appareils de « l’Internet des objets » : on ne les contrôle pas vraiment. Et il n’est pas toujours évident de savoir qui tire les ficelles, bien que les concepteurs de logiciels et les annonceurs soient souvent impliqués.

Dans mon livre récent intitulé Owned : Property, Privacy, and the New Digital Serfdom (Se faire avoir : propriété, protection de la vie privée et la nouvelle servitude numérique), je définis les enjeux liés au fait que notre environnement n’a jamais été truffé d’autant de capteurs. Nos aquariums, téléviseurs intelligents, thermostats d’intérieur reliés à Internet, Fitbits (coachs électroniques) et autres téléphones intelligents recueillent constamment des informations sur nous et notre environnement. Ces informations sont précieuses non seulement pour nous, mais aussi pour les gens qui veulent nous vendre des choses. Ils veillent à ce que les appareils connectés soient programmés de manière à ce qu’ils partagent volontiers de l’information…

Prenez, par exemple, Roomba, l’adorable robot aspirateur. Depuis 2015, les modèles haut de gamme ont créé des cartes des habitations de ses utilisateurs, pour mieux les parcourir tout en les nettoyant. Mais comme Reuters et Gizmodo l’ont rapporté récemment, le fabricant de Roomba, iRobot, pourrait envisager de partager ces plans de surface d’habitations privées avec ses partenaires commerciaux.

Les atteintes à la sécurité et à la vie privée sont intégrées

Comme le Roomba, d’autres appareils intelligents peuvent être programmés pour partager nos informations privées avec les annonceurs publicitaires par le biais de canaux dissimulés. Dans un cas bien plus intime que le Roomba, un appareil de massage érotique contrôlable par smartphone, appelé WeVibe, recueillait des informations sur la fréquence, les paramètres et les heures d’utilisation. L’application WeVibe renvoyait ces données à son fabricant, qui a accepté de payer plusieurs millions de dollars dans le cadre d’un litige juridique lorsque des clients s’en sont aperçus et ont contesté cette atteinte à la vie privée.

Ces canaux dissimulés constituent également une grave faille de sécurité. Il fut un temps, le fabricant d’ordinateurs Lenovo, par exemple, vendait ses ordinateurs avec un programme préinstallé appelé Superfish. Le programme avait pour but de permettre à Lenovo — ou aux entreprises ayant payé — d’insérer secrètement des publicités ciblées dans les résultats de recherches web des utilisateurs. La façon dont Lenovo a procédé était carrément dangereuse : l’entreprise a modifié le trafic des navigateurs à l’insu de l’utilisateur, y compris les communications que les utilisateurs croyaient chiffrées, telles que des transactions financières via des connexions sécurisées à des banques ou des boutiques en ligne.

Le problème sous-jacent est celui de la propriété

L’une des principales raisons pour lesquelles nous ne contrôlons pas nos appareils est que les entreprises qui les fabriquent semblent penser que ces appareils leur appartiennent toujours et agissent clairement comme si c’était le cas, même après que nous les avons achetés. Une personne peut acheter une jolie boîte pleine d’électronique qui peut fonctionner comme un smartphone, selon les dires de l’entreprise, mais elle achète une licence limitée à l’utilisation du logiciel installé. Les entreprises déclarent qu’elles sont toujours propriétaires du logiciel et que, comme elles en sont propriétaires, elles peuvent le contrôler. C’est comme si un concessionnaire automobile vendait une voiture, mais revendiquait la propriété du moteur.

Ce genre de disposition anéantit le fondement du concept de propriété matérielle. John Deere a déjà annoncé aux agriculteurs qu’ils ne possèdent pas vraiment leurs tracteurs, mais qu’ils ont, en fait, uniquement le droit d’en utiliser le logiciel — ils ne peuvent donc pas réparer leur propre matériel agricole ni même le confier à un atelier de réparation indépendant. Les agriculteurs s’y opposent, mais il y a peut-être des personnes prêtes à l’accepter, lorsqu’il s’agit de smartphones, souvent achetés avec un plan de paiement échelonné et échangés à la première occasion.

Combien de temps faudra-t-il avant que nous nous rendions compte que ces entreprises essaient d’appliquer les mêmes règles à nos maisons intelligentes, aux téléviseurs intelligents dans nos salons et nos chambres à coucher, à nos toilettes intelligentes et à nos voitures connectées à Internet ?

Un retour à la féodalité ?

La question de savoir qui contrôle la propriété a une longue histoire. Dans le système féodal de l’Europe médiévale, le roi possédait presque tout, et l’accès à la propriété des autres dépendait de leurs relations avec le roi. Les paysans vivaient sur des terres concédées par le roi à un seigneur local, et les ouvriers ne possédaient même pas toujours les outils qu’ils utilisaient pour l’agriculture ou d’autres métiers comme la menuiserie et la forge.

Au fil des siècles, les économies occidentales et les systèmes juridiques ont évolué jusqu’à notre système commercial moderne : les individus et les entreprises privées achètent et vendent souvent eux-mêmes des biens de plein droit, possèdent des terres, des outils et autres objets. Mis à part quelques règles gouvernementales fondamentales comme la protection de l’environnement et la santé publique, la propriété n’est soumise à aucune condition.

Ce système signifie qu’une société automobile ne peut pas m’empêcher de peindre ma voiture d’une teinte rose pétard ou de faire changer l’huile dans le garage automobile de mon choix. Je peux même essayer de modifier ou réparer ma voiture moi-même. Il en va de même pour ma télévision, mon matériel agricole et mon réfrigérateur.

Pourtant, l’expansion de l’Internet des objets semble nous ramener à cet ancien modèle féodal où les gens ne possédaient pas les objets qu’ils utilisaient tous les jours. Dans cette version du XXIe siècle, les entreprises utilisent le droit de la propriété intellectuelle — destiné à protéger les idées — pour contrôler les objets physiques dont les utilisateurs croient être propriétaires.

Mainmise sur la propriété intellectuelle

Mon téléphone est un Samsung Galaxy. Google contrôle le système d’exploitation ainsi que les applications Google Apps qui permettent à un smartphone Android de fonctionner correctement. Google en octroie une licence à Samsung, qui fait sa propre modification de l’interface Android et me concède le droit d’utiliser mon propre téléphone — ou du moins c’est l’argument que Google et Samsung font valoir. Samsung conclut des accords avec de nombreux fournisseurs de logiciels qui veulent prendre mes données pour leur propre usage.

Mais ce modèle est déficient, à mon avis. C’est notre droit de pouvoir réparer nos propres biens. C’est notre droit de pouvoir chasser les annonceurs qui envahissent nos appareils. Nous devons pouvoir fermer les canaux d’information détournés pour les profits des annonceurs, pas simplement parce que nous n’aimons pas être espionnés, mais aussi parce que ces portes dérobées constituent des failles de sécurité, comme le montrent les histoires de Superfish et de l’aquarium piraté. Si nous n’avons pas le droit de contrôler nos propres biens, nous ne les possédons pas vraiment. Nous ne sommes que des paysans numériques, utilisant les objets que nous avons achetés et payés au gré des caprices de notre seigneur numérique.

Même si les choses ont l’air sombres en ce moment, il y a de l’espoir. Ces problèmes deviennent rapidement des cauchemars en matière de relations publiques pour les entreprises concernées. Et il y a un appui bipartite important en faveur de projets de loi sur le droit à la réparation qui restaurent certains droits de propriété pour les consommateurs.

Ces dernières années, des progrès ont été réalisés dans la reconquête de la propriété des mains de magnats en puissance du numérique. Ce qui importe, c’est que nous identifiions et refusions ce que ces entreprises essaient de faire, que nous achetions en conséquence, que nous exercions vigoureusement notre droit d’utiliser, de réparer et de modifier nos objets intelligents et que nous appuyions les efforts visant à renforcer ces droits. L’idée de propriété est encore puissante dans notre imaginaire culturel, et elle ne mourra pas facilement. Cela nous fournit une opportunité. J’espère que nous saurons la saisir.




Le chemin vers une informatique éthique

Le logiciel « open source » a gagné, tant mieux, c’est un préalable pour une informatique éthique, explique Daniel Pascot, qui a tout au long d’une carrière bien remplie associé enseignement et pratique de l’informatique, y compris en créant une entreprise.

Du côté de nos cousins d’Outre-Atlantique, on lui doit notamment d’avoir présidé aux destinées de l’association libriste FACIL (c’est un peu l’April du Québec) et milité activement pour la promotion de solutions libres jusqu’aux instances gouvernementales.

On peut se réjouir de l’ubiquité du logiciel libre mais les fameuses quatre libertés du logiciel libre (merci Mr Stallman) ne semblent en réalité concerner que les créateurs de logiciels. Les utilisateurs, peu réceptifs au potentiel ouvert par les licences libres, sont intéressés essentiellement par l’usage libre des logiciels et les services proposés par des entreprises intermédiaires. Hic jacet lupus… Quand ces services échappent à la portée des licences libres, comment garantir qu’ils sont éthiques ? La réflexion qu’entame Daniel Pascot à la lumière d’exemples concrets porte de façon très intéressante sur les conditions d’un contrat équilibré entre utilisateurs et fournisseurs de services. Les propositions de charte qu’il élabore ressemblent d’ailleurs plutôt à une liste des droits des utilisateurs et utilisatrices 😉

Chez Framasoft, nous trouvons que ce sont là des réflexions et propositions fort bien venues pour le mouvement de CHATONS qui justement vous proposent des services divers en s’engageant par une charte.

Comme toujours sur le Framablog, les commentaires sont ouverts…



Le logiciel « open source » a gagné, oui mais…

Photo Yann Doublet

Les « libristes »1 se rendent progressivement compte que bien des combats qu’ils ont livrés étaient une cause perdue d’avance car ils sous-estimaient les conséquences de la complexité des logiciels. Quels que soient les bienfaits des logiciels libres, les utiliser exige une compétence et un entretien continu qui ne sont pas envisageables pour la grande majorité des individus ou organisations2.

Richard Stallman a fait prendre conscience de la nécessité de contrôler les programmes pour garantir notre liberté. La dimension éthique était importante : il parlait du bon et du mauvais logiciel. L’importance de ce contrôle a été mise en évidence par Lawrence Lessig avec son « Code is law »3. La nature immatérielle et non rivale du logiciel faisait que les libristes le considéraient naturellement comme un bien commun. Il leur semblait évident qu’il devait être partagé. Comme on vivait alors dans un monde où les ordinateurs étaient autonomes, la licence GPL avec ses libertés offrait un socle satisfaisant sur lequel les libristes s’appuyaient.

J’ai depuis plus de 20 ans enseigné et milité pour le logiciel libre que j’utilise quotidiennement. Comme tout bon libriste convaincu, j’ai présenté les quatre libertés de la GPL, et je reconnais que je n’ai pas convaincu grand monde avec ce discours. Qu’il faille garder contrôle sur le logiciel, parfait ! Les gens comprennent, mais la solution GPL ne les concerne pas parce que ce n’est absolument pas dans leur intention d’installer, étudier, modifier ou distribuer du logiciel. Relisez les licences et vous conviendrez qu’elles sont rédigées du point de vue des producteurs de logiciels plus que des utilisateurs qui n’envisagent pas d’en produire eux-mêmes.

Mais un objet technique et complexe, c’est naturellement l’affaire des professionnels et de l’industrie. Pour eux, la morale ou l’éthique n’est pas une préoccupation première, ce sont des techniciens et des marchands qui font marcher l’économie dans leur intérêt. Par contre, la liberté du partage du code pour des raisons d’efficacité (qualité et coût) les concerne. Ils se sont alors débarrassés de la dimension éthique en créant le modèle open source4. Et ça a marché rondement au point que ce modèle a gagné la bataille du logiciel. Les cinq plus grandes entreprises au monde selon leurs capitalisations boursières, les GAFAM, reposent sur ce modèle. Microsoft n’est plus le démon privatif à abattre, mais est devenu un acteur du libre. Enlevez le code libre et plus de Web, plus de courrier électronique, plus de réseaux sociaux comme Facebook, plus de service Google ou Amazon, ou de téléphone Apple ou Android. Conclusion : le logiciel libre a gagné face au logiciel propriétaire, c’est une question de temps pour que la question ne se pose plus.

Oui, mais voilà, c’est du logiciel libre débarrassé de toute évidence de sa dimension éthique, ce qui fait que du point de vue de l’utilisateur qui dépend d’un prestataire, le logiciel libre n’apporte rien. En effet, les prestataires de services, comme les réseaux sociaux ou les plates-formes de diffusion, ne distribuent pas de logiciel, ils en utilisent et donc échappent tout à fait légalement aux contraintes éthiques associées aux licences libres. Ce qui importe aux utilisateurs ce ne sont pas les logiciels en tant qu’objets, mais le service qu’ils rendent qui, lui, n’est pas couvert par les licences de logiciel libre. Circonstance aggravante, la gratuité apparente de bien des services de logiciel anesthésie leurs utilisateurs face aux conséquences de leur perte de liberté et de l’appropriation de leurs données et comportements (méta données) souvent à leur insu5.

Pourtant, aujourd’hui, nous ne pouvons plus nous passer de logiciel, tout comme nous ne pouvons pas nous passer de manger. Le logiciel libre c’est un peu comme le « bio » : de plus en plus de personnes veulent manger bio, tout simplement parce que c’est bon pour soi (ne pas s’empoisonner), bon pour la planète (la préserver de certaines pollutions) ou aussi parce que cela permet d’évoluer vers une économie plus humaine à laquelle on aspire (économie de proximité). Le « bio » est récent, mais en pleine expansion, il y a de plus en plus de producteurs, de marchands, et nos gouvernements s’en préoccupent par des lois, des règlements, des certifications ou la fiscalité. Ainsi le « bio » ce n’est pas seulement un produit, mais un écosystème complexe qui repose sur des valeurs : si le bio s’était limité à des « écolos » pour auto-consommation, on n’en parlerait pas. Eh bien le logiciel c’est comme le bio, ce n’est pas seulement un produit mais aussi un écosystème complexe qui concerne chacun de nous et la société avec tous ses acteurs.

Dans l’écosystème logiciel, les éditeurs et les prestataires de service qui produisent et opèrent le logiciel, ont compris que le logiciel libre (au sens open source) est bon pour eux et s’en servent, car ils le contrôlent. Par contre il n’en va pas de même pour ceux qui ne contrôlent pas directement le logiciel. La licence du logiciel ne suffit pas à leur donner contrôle. Mais alors que faire pour s’assurer que le service rendu par le logiciel via un prestataire soit bon pour nous, les divers utilisateurs dans cet écosystème numérique complexe ?

Je vais ici commenter la dimension éthique de deux projets de nature informatique qui s’appuient sur du logiciel libre sur lesquels je travaille actuellement en tentant d’intégrer ma réflexion de militant, d’universitaire et de praticien. PIAFS concerne les individus et donc le respect de nos vies privées pour des données sensibles, celles de notre santé dans un contexte de partage limité, la famille. REA vise à garantir à une organisation le contrôle de son informatisation dans le cadre d’une relation contractuelle de nature coopérative.

Deux cas qui ont alimenté ma réflexion

PIAFS : Partage des Informations Avec la Famille en Santé

PIAFS est projet qui répond à un besoin non satisfait : un serveur privé pour partager des données de santé au sein d’une unité familiale à des fins d’entr’aide (http://piafs.org/). Cette idée, dans un premier temps, a débouché sur un projet de recherche universitaire pour en valider et préciser la nature. Pour cela il nous fallait un prototype.

Au-delà de la satisfaction d’un besoin réel, je cherchais en tant que libriste comment promouvoir le logiciel libre. Je constatais que mes proches n’étaient pas prêts à renoncer à leurs réseaux sociaux même si je leur en montrais les conséquences. Il fallait éviter une première grande difficulté : changer leurs habitudes. J’avais là une opportunité : mes proches, comme beaucoup de monde, n’avaient pas encore osé organiser leurs données de santé dans leur réseau social.

Si ce projet avait dès le départ une dimension éthique, il n’était pas question de confier ces données sensibles à un réseau social. J’étais dès le départ confronté à une dimension pratique au-delà de la disponibilité du logiciel. De plus, pour les utilisateurs de PIAFS, l’auto-hébergement n’est pas une solution envisageable. Il fallait recourir à un fournisseur car un tel service doit être assuré d’une manière responsable et pérenne. Même si l’on s’appuyait sur des coopératives de santé pour explorer le concept, il est rapidement apparu qu’il fallait recourir à un service professionnel classique dont il faut alors assumer les coûts6. Il fallait transposer les garanties apportées par le logiciel libre au fournisseur de service : l’idée de charte que l’on voyait émerger depuis quelques années semblait la bonne approche pour garantir une informatique éthique, et en même temps leur faire comprendre qu’ils devaient eux-mêmes assurer les coûts du service.

REA : Pour donner au client le contrôle de son informatisation

J’ai enseigné la conception des systèmes d’information dans l’université pendant près de 40 ans (à Aix-en-Provence puis à Québec), et eu l’occasion de travailler dans des dizaines de projets. J’ai eu connaissance de nombreux dérapages de coût ou de calendrier et j’ai étudié la plupart des méthodologies qui tentent d’y remédier. J’ai aussi appris qu’une des stratégies commerciales de l’industrie informatique (ils ne sont pas les seuls !) est la création de situations de rente pas toujours à l’avantage du client. Dans tout cela je n’ai pas rencontré grande préoccupation éthique.

J’ai eu, dès le début de ma carrière de professeur en systèmes d’information (1971), la chance d’assister, sinon participer, à la formalisation de la vision de Jean-Louis Le Moigne7 : un système d’information consiste à capturer, organiser et conserver puis distribuer et parfois traiter les informations créées par l’organisation. Cette vision s’opposait aux méthodologies naissantes de l’analyse structurée issues de la programmation structurée. Elle établissait que l’activité de programmation devait être précédée par une compréhension du fonctionnement de l’organisation à partir de ses processus. L’approche qui consiste à choisir une « solution informatique » sans vraiment repenser le problème est encore largement dominante. J’ai ainsi été conduit à développer, enseigner et pratiquer une approche dite à partir des données qui s’appuie sur la réalisation précoce de prototypes fonctionnels afin de limiter les dérapages coûteux (je l’appelle maintenant REA pour Référentiel d’Entreprise Actif, le code de REA est bien sûr libre).

Mon but est, dans ma perspective libriste, de redonner le contrôle au client dans la relation client-fournisseur de services d’intégration. Si ce contrôle leur échappe trop souvent du fait de leur incompétence technique, il n’en reste pas moins que ce sont eux qui subissent les conséquences des systèmes informatiques « mal foutus ». Là encore le logiciel libre ne suffit pas à garantir le respect du client et le besoin d’une charte pour une informatique éthique s’impose8 .

Photo EOI (CC-BY-SA 2.0)

Vers une charte de l’informatique libre, c’est-à-dire bonne pour l’écosystème numérique

Dans les deux cas, si l’on a les ressources et la compétence pour se débrouiller seul, les licences libres comme la GPL ou une licence Creative Commons pour la méthodologie garantissent une informatique éthique (respect de l’utilisateur, contribution à un bien commun). S’il faut recourir à un hébergeur ou un intégrateur, les garanties dépendent de l’entente contractuelle entre le client-utilisateur et le fournisseur.

Il y a une différence fondamentale entre le logiciel et le service. Le logiciel est non rival, il ne s’épuise pas à l’usage, car il peut être reproduit sans perte pour l’original, alors que le service rendu est à consommation unique. Le logiciel relève de l’abondance alors que le service relève de la rareté qui est le fondement de l’économie qui nous domine, c’est la rareté qui fait le prix. Le logiciel peut être mis en commun et partagé alors que le service ne le peut pas. L’économie d’échelle n’enlève pas le caractère rival du service. Et c’est là que la réalité nous rattrape : la mise en commun du logiciel est bonne pour nous tous, mais cela n’a pas de sens pour le service car aucun fournisseur ne rendra ce service gratuitement hormis le pur bénévolat.

Des propositions balisant un comportement éthique existent, en voici quelques exemples:

  • dans Le Manifeste pour le développement Agile de logiciels, des informaticiens ont proposé une démarche dite agile qui repose sur 4 valeurs et 12 principes. Sans être explicitement une charte éthique, la démarche est clairement définie dans l’optique du respect du client. Ce manifeste est utile dans le cas REA ;
  • la charte du collectif du mouvement CHATONS concerne les individus, elle est pensée dans un contexte d’économie sociale et solidaire, elle est inspirante pour le cas PIAFS ;
  • la charte de Framasoft définit un internet éthique, elle est inspirante pour le cas PIAFS mais aussi pour la définition d’un cadre global;
  • dernièrement sous forme de lettre ouverte, un collectif issu du Techfestival de Copenhague propose une pratique éthique, utile pour les deux cas et qui permet de réfléchir au cadre global.

Les libristes, mais dieu merci ils ne sont pas les seuls, ont une bonne idée des valeurs qui président à une informatique éthique, bonne pour eux, à laquelle ils aspirent lorsqu’ils utilisent les services d’un fournisseur. Les exigences éthiques ne sont cependant pas les mêmes dans les deux cas car l’un concerne un service qui n’inclut pas de développement informatique spécifique et l’autre implique une activité de développement significative (dans le tableau ci-dessous seuls des critères concernant l’éthique sont proposés):

Critères pour le client Dans le cas de PIAFS Dans le cas d’un projet REA
Respect de leur propriété Les données qu’ils produisent leur appartiennent, ce n’est pas négociable Tout document produit (analyse, …) est propriété du client
Respect de leur identité Essentiel Le client doit contrôler la feuille de route, ce sont ses besoins que l’on doit satisfaire par ceux du fournisseur
Respect de leur indépendance vis à vis du fournisseur Important, préside au choix des logiciels et des formats Critique : mais difficile à satisfaire.
Proximité du service : favoriser l’économie locale et protection contre les monopoles Important Important
Pérennité du service Important, mais peut être tempéré par la facilité du changement Essentiel : le changement est difficile et coûteux, mais la « prise en otage » est pire
Payer le juste prix Important Important
Partage équitable des risques Risque faible Essentiel car le risque est élevé
Mise en réseau Essentiel : la connexion « sociale » est impérative mais dans le respect des autres valeurs Plus aucune organisation vit en autarcie
Contribution (concerne le fournisseur) Non discutable, obligatoire Important mais aménageable

Entente sur le logiciel

Le client, individu ou organisation, doit avoir l’assurance que les logiciels utilisés par le fournisseur de services font bien et seulement ce qu’ils doivent faire. Comme il n’a pas la connaissance requise pour cette expertise, il doit faire confiance au fournisseur. Or, parce que celui-ci n’offre pas toute la garantie requise (volonté et capacité de sa part), il faut, dans cette situation, recourir à un tiers de confiance. Cette expertise externe par un tiers de confiance est très problématique. Il faut d’une part que le fournisseur donne accès aux logiciels et d’autre part trouver un expert externe qui accepte d’étudier les logiciels, autrement dit résoudre la quadrature du cercle !

Le logiciel libre permet de la résoudre. Il est accessible puisqu’il est public, il est produit par une communauté qui a les qualités requises pour jouer ce rôle de tiers de confiance. Ainsi, pour une informatique éthique :

  • tout logiciel utilisé par le fournisseur doit être public, couvert par une licence libre, ce qui le conduit à ne pas redévelopper un code existant ou le moins possible,
  • s’il est amené à produire du nouveau code,
    • le fournisseur doit le rendre libre. C’est à l’avantage de la société mais aussi du client dans un contexte de partage et de protection contre les situations de rente qui le tiennent en otage,
    • ou du moins le rendre accessible au client,
  • garantir que seul le code montré est utilisé,
  • utiliser des formats de données et documents libres.

L’éthique est complexe, il est difficile sinon impossible d’anticiper tous les cas. L’exigence de logiciel libre peut être adaptée à des situations particulières, par exemple si le prestataire est engagé pour un logiciel que le client ne désire pas partager il en prend alors la responsabilité, ou si la nécessité de poursuivre l’utilisation de logiciels non libres est non contournable temporairement.

Entente sur le bien ou service

Le critère du coût est propre au service. Dans une approche éthique le juste coût n’est pas la résultante du jeu de l’offre et de la demande, ni d’un jeu de négociation basé sur des secrets, et encore moins le résultat d’une rente de situation. Il s’agit pour le fournisseur de couvrir ses coûts et de rentabiliser son investissement (matériel, formation…). Une approche éthique impose  de la transparence, le client  :

  • doit savoir ce qu’il paye,
  • doit avoir la garantie que le contrat couvre tous les frais pour l’ensemble du service (pas de surprise à venir),
  • doit être capable d’estimer la valeur de ce qu’il paye,
  • doit connaître les coûts de retrait du service et en estimer les conséquences.

Le partage équitable du risque concerne essentiellement les projets d’informatisation avec un intégrateur. Il est rare que l’on puisse estimer correctement l’ampleur d’un projet avant de l’avoir au moins partiellement réalisé. Une part du risque provient de l’organisation et de son environnement, une autre part du risque provient des capacités du fournisseur et de ses outils. Ceci a un impact sur le découpage du projet, chaque étape permet d’estimer les suivantes :

  • tout travail réalisé par le fournisseur contributif au projet :
    • doit être payé,
    • appartient au client,
    • doit pouvoir être utilisé indépendamment du fournisseur.
  • le travail dont le volume est dépendant du client est facturé au temps,
  • le travail sous le contrôle du fournisseur doit si possible être facturé sur une base forfaitaire,
  • le client est maître de la feuille de route,
  • tout travail entamé par le fournisseur doit être compris et accepté par le client,
  • la relation entre le client et le fournisseur est de nature collaborative, le client participe au projet qui évolue au cours de la réalisation à la différence d’une relation contractuelle dans laquelle le client commande puis le fournisseur livre ce qui est commandé.

Conclusion : l’informatique éthique est possible

Pour tous les utilisateurs de l’informatique, c’est à dire pratiquement tout le monde et toutes les organisations de notre société numérique, il est aussi difficile de nier l’intérêt d’une informatique éthique que de rejeter le « bio », mais encore faut-il en être conscient. Le débat au sein des producteurs de logiciels reste difficile à comprendre. Ce qui est bon pour un libriste c’est un logiciel qui avant tout le respecte, alors que pour les autres informaticiens, c’est à dire la grande majorité, c’est un logiciel qui ne bogue pas. Fait aggravant : la vérité des coûts nous est cachée. Cependant au-delà de cette différence philosophique, l’intérêt du logiciel partagé est tel qu’un immense patrimoine de logiciel libre ou open source est disponible. Ce patrimoine est le socle sur lequel une informatique éthique est possible. Les deux cas présentés nous montent que les conditions existent dès maintenant.

Une informatique éthique est possible, mais elle ne sera que si nous l’exigeons. Les géants du Net sont de véritables états souverains devant lesquels même nos états baissent pavillon. La route est longue, chaotique et pleine de surprises, comme elle l’a été depuis la naissance de l’ordinateur, mais un fait est acquis, elle doit reposer sur le logiciel libre.

Le chemin se fait en marchant, comme l’écrivait le poète Antonio Machado, et c’est à nous libristes de nous donner la main et de la tendre aux autres. Ce ne sera pas facile car il faudra mettre la main à la poche et la bataille est politique. Il nous faut exiger, inspirés par le mouvement « bio », un label informatique éthique et pourquoi pas un forum mondial de l’écosystème numérique. La piste est tracée (à l’instar de la Quadrature du Net), à nous de l’emprunter.


Notes

  1. J’ai utilisé ce mot de libriste pour rendre compte de la dimension militante et à certains égards repliée sur elle-même, qu’on leur reproche souvent à raison.
  2. Voir sur ce point le blog NullPointerException, « Que faut-il pour XXX? Du logiciel libre! Non, une gouvernance éthique », 21/02/2017.
  3. Dans un article paru en 2000, Lawrence Lessig -auquel on doit les licences Creative Commons- a clairement mis en lumière que l’usage d’internet (et donc des logiciels) nous contraint, tout comme nous sommes contraint par les lois. Il nous y a alerté sur les conséquences relatives à notre vie privée. Voir la traduction française sur Framablog « Le code fait loi – De la liberté dans le cyberespace » (publié le 22/05/2010),
  4. Dans l’optique open source, un bon logiciel est un logiciel qui n’a pas de bogue. Dans l’optique logiciel libre, un bon logiciel est un logiciel éthique qui respecte son utilisateur et contribue au patrimoine commun. Dans les deux cas il est question d’accès au code source mais pour des raisons différentes, ce qui au plan des licences peut sembler des nuances : « Né en 1998 d’une scission de la communauté du logiciel libre (communauté d’utilisateurs et de développeurs) afin de conduire une politique jugée plus adaptée aux réalités économiques et techniques, le mouvement open source défend la liberté d’accéder aux sources des programmes qu’ils utilisent, afin d’aboutir à une économie du logiciel dépendant de la seule vente de prestations et non plus de celle de licences d’utilisation ». Voir la page Wikipédia, « Open Source Initiative ».
  5. Voir par exemple Tristan Nitot, « Surveillance:// Les libertés au défi du numérique : comprendre et agir », C&F éditions, 2016. L’interview de T. Nitot sur le Framablog. Le site « Social Cooling » (« Les données conduisent au refroidissement social »).
  6. La question de recourir à une organisation de l’économie sociale et solidaire s’est posée et ce n’est pas exclu.Cela n’a pas été retenu pour des raisons pratiques et aussi parce que la démarche visait à promouvoir une informatique éthique de la part des fournisseurs traditionnels locaux.
  7. Avant d’être connu comme un constructiviste Jean-Louis Le Moigne, alors professeur à l’IAE d’Aix-en-Provence, créait un enseignement de systèmes d’information organisationnels et lançait avec Huber Tardieu la recherche qui a conduit à la méthode Merise à laquelle j’ai participé car j’étais alors assistant dans sa petite équipe universitaire et il a été mon directeur de doctorat.
  8. Cela se dégage par exemple de la thèse de Balla Diop que j’ai dirigée. Il a comparé des implantations de ERP libres et propriétaires : du point de vue du client hormis les coûts il y a peu de différence. Voir Balla Diop, L’effet de la stratégie logicielle (ERP open source vs ERP commercial) sur le développement du capital humain des PME, Thèse de doctorat dirigée par D. Pascot, Université Laval, 2015.