Détruire le capitalisme de surveillance – 5

Voici la cinquième partie de l’essai que consacre Cory Doctorow au capitalisme de surveillance (parcourir sur le blog les épisodes précédents – parcourir les cinq premiers épisodes en un seul PDF de 50 pages ).

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Traduction Framalang : Claire, Fabrice, goofy, Jums, Susyl, anonymes

Dignité et sanctuaire

Quand bien même nous exercerions un contrôle démocratique sur nos États et les forcerions à arrêter de piller les silos de données comportementales du capitalisme de surveillance, ce dernier continuera à nous maltraiter. Nous vivons une époque parfaitement éclairée par Zuboff. Son chapitre sur le sanctuaire – ce sentiment de ne pas être observé – est une magnifique ode à l’introspection, au calme, à la pleine conscience et à la tranquillité.

Quand nous sommes observé⋅e, quelque chose change. N’importe quel parent sait ce que cela signifie. Vous pouvez lever la tête de votre bouquin (ou plus vraisemblablement de votre téléphone) et observer votre enfant dans un état profond de réalisation de soi et d’épanouissement, un instant où il est en train d’apprendre quelque chose à la limite de ses capacités, qui demande une concentration intense. Pendant un court laps de temps, vous êtes sidéré⋅e, et vous observez ce moment rare et beau de concentration qui se déroule devant vos yeux, et puis votre enfant lève la tête, vous voit le regarder, et ce moment s’évanouit. Pour grandir, vous devez être vous-même et donner à voir votre moi authentique, c’est à ce moment que vous devenez vulnérable, tel un bernard-l’hermite entre deux coquilles.

Cette partie de vous, tendre et fragile, que vous exposez au monde dans ces moments-là, est bien trop délicate pour être révélée à autrui, pas même à une personne à laquelle vous faites autant confiance qu’un enfant à ses parents.

À l’ère numérique, notre moi authentique est inextricablement mêlé à de notre vie en ligne. Votre historique de recherche est un enregistrement en continu des questions que vous vous posez. Votre historique de géolocalisation est un registre des endroits que vous cherchiez et des expériences que vous avez vécues en ces lieux. Votre réseau social révèle les différentes facettes de votre personnalité ainsi que les gens avec qui vous êtes en contact.

Être observé pendant ces activités, c’est perdre le sanctuaire de votre moi authentique. Mais il y a une autre manière pour le capitalisme de surveillance de nous dérober notre capacité d’être véritablement nous-même : nous rendre anxieux. Ce capitalisme de surveillance n’est pas vraiment un rayon de contrôle mental, pas besoin de ça pour rendre quelqu’un anxieux. Après tout, l’anxiété est le synonyme d’agitation, et pour qu’une personne se sente agitée, il n’y a pas vraiment besoin de la secouer. Il suffit d’aiguillonner et de piquer et de notifier et de bourdonner autour et de bombarder de manière intermittente et juste assez aléatoire pour que notre système limbique ne puisse jamais vraiment s’y habituer.

Nos appareils et nos services sont polyvalents dans le sens où ils peuvent connecter n’importe quoi ou n’importe qui à n’importe quoi ou à n’importe qui d’autre, et peuvent aussi exécuter n’importe quel programme. Cela signifie que ces rectangles de distractions dans nos poches détiennent nos plus précieux moments avec nos proches, tout comme les communications les plus urgentes et les plus sensibles (de « je suis en retard, peux-tu aller chercher les gamins ? » jusqu’à « mauvaise nouvelle du docteur, il faut qu’on parle TOUT DE SUITE »), mais aussi les pubs pour les frigos et les messages de recrutement nazis.

À toute heure du jour ou de la nuit, nos poches sonnent, font voler en éclat notre concentration, détruisent le fragile maillage de nos réflexions quand nous avons besoin de penser des situations difficiles. Si vous enfermiez quelqu’un dans une cellule et que vous l’agitiez de la sorte, on appellerait ça de la torture par privation de sommeil, et ce serait considéré comme un crime de guerre par la Convention de Genève.

Affliger les affligés

Les effets de la surveillance sur notre capacité à être nous-mêmes ne sont pas les mêmes pour tout le monde. Certain⋅e⋅s d’entre nous ont la chance de vivre à une époque et dans un lieu où tous les faits les plus importants de leur vie sont socialement acceptés et peuvent être exposés au grand jour sans en craindre les conséquences sociales.

Mais pour beaucoup d’entre nous, ce n’est pas le cas. Rappelez-vous que, d’aussi loin qu’on s’en souvienne, de nombreuses façons d’être, considérées aujourd’hui comme socialement acceptables, ont donné lieu à de terribles condamnations sociales, voire à des peines d’emprisonnement. Si vous avez 65 ans, vous avez connu une époque où les personnes vivant dans des « sociétés libres » pouvaient être emprisonnées ou punies pour s’être livrées à des pratiques homosexuelles, pour être tombées amoureuses d’une personne dont la peau était d’une couleur différente de la leur, ou pour avoir fumé de l’herbe.

Aujourd’hui, non seulement ces pratiques sont dépénalisées dans une grande partie du monde, mais en plus, elles sont considérées comme normales, et les anciennes prohibitions sont alors vues comme des vestiges d’un passé honteux et regrettable.

Comment sommes-nous passés de la prohibition à la normalisation ? Par une activité privée et personnelle : les personnes dont l’homosexualité étaient secrète ou qui fumaient de l’herbe en secret, ou qui aimaient quelqu’un d’une couleur de peau différente de la leur en secret, étaient susceptibles de représailles si elles dévoilaient leur moi authentique. On les empêchait de défendre leur droit à exister dans le monde et à être en accord avec elles-mêmes. Mais grâce à la sphère privée, ces personnes pouvaient former des liens forts avec leurs amis et leurs proches qui ne partageaient pas leurs manières de vivre mal vues par la société. Elles avaient des conversations privées dans lesquelles elles se dévoilaient, elles révélaient leur moi authentique à leurs proches, puis les ralliaient à leur cause au fil des conversations.

Le droit de choisir le moment et la manière d’aborder ces conversations a joué un rôle fondamental dans le renversement des normes. C’est une chose de faire son coming out à son père au cours d’une sortie de pêche à l’écart du monde, c’en est une autre de tout déballer pendant le repas de Noël, en présence de son oncle raciste sur Facebook prêt à faire une scène.

Sans sphère privée, il est possible qu’aucun de ces changements n’aurait eu lieu et que les personnes qui en ont bénéficié auraient subi une condamnation sociale pour avoir fait leur coming out face à un monde hostile ou alors elles n’auraient jamais pu révéler leur moi authentique aux personnes qu’elles aiment.

Et donc, à moins que vous ne pensiez que notre société ait atteint la perfection sociale – et que vos petits-enfants vous demanderont dans 50 ans de leur raconter comment, en 2020, toutes les injustices ont été réparées et qu’il n’y avait plus eu de changement à apporter –, vous devez vous attendre à ce qu’en ce moment même figurent parmi vos proches des personnes, dont le bonheur est indissociable du vôtre, et dont le cœur abrite un secret qui les empêche toujours de dévoiler leur moi authentique en votre présence. Ces personnes souffrent et emporteront leur chagrin secret dans leur tombe, et la source de ce chagrin, ce sera les relations faussées qu’elles entretenaient avec vous.

Une sphère privée est nécessaire au progrès humain.

Toute donnée collectée et conservée finit par fuiter

L’absence de vie privée peut empêcher les personnes vulnérables d’exprimer leur moi authentique et limiter nos actions en nous privant d’un sanctuaire. Mais il existe un autre risque, encouru par tous et pas seulement par les personnes détenant un secret : la criminalité.

Les informations d’identification personnelle présentent un intérêt très limité pour contrôler l’esprit des gens, mais le vol d’identité – terme fourre-tout pour désigner toute une série de pratiques délictueuses graves, susceptibles de détruire vos finances, de compromettre votre intégrité personnelle, de ruiner votre réputation, voire de vous exposer à un danger physique – est en pleine expansion.

Les attaquants ne se limitent pas à utiliser des données issues de l’intrusion dans une seule et même source.

De nombreux services ont subi des violations qui ont révélé des noms, des adresses, des numéros de téléphone, des mots de passe, des préférences sexuelles, des résultats scolaires, des réalisations professionnelles, des démêlés avec la justice, des informations familiales, des données génétiques, des empreintes digitales et autres données biométriques, des habitudes de lecture, des historiques de recherche, des goûts littéraires, des pseudonymes et autres données sensibles. Les attaquants peuvent fusionner les données provenant de ces violations pour constituer des dossiers très détaillés sur des sujets choisis au hasard, puis utiliser certaines parties des données pour commettre divers délits.

Les attaquants peuvent, par exemple, utiliser des combinaisons de noms d’utilisateur et de mots de passe dérobés pour détourner des flottes entières de véhicules commerciaux équipés de systèmes de repérage GPS et d’immobilisation antivol, ou pour détourner des babyphones afin de terroriser les tout-petits en diffusant du contenu audio pornographique. Les attaquants utilisent les données divulguées pour tromper les opérateurs téléphoniques afin qu’ils leur communiquent votre numéro de téléphone, puis ils interceptent des codes d’authentification à deux facteurs par SMS pour pirater votre courrier électronique, votre compte bancaire ou vos portefeuilles de crypto-monnaie.

Les attaquants rivalisent de créativité pour trouver des moyens de transformer les données divulguées en armes. Ces données sont généralement utilisées pour pénétrer dans les entreprises afin d’accéder à davantage de données.

Tout comme les espions, les fraudeurs en ligne dépendent entièrement des entreprises qui collectent et conservent nos données à outrance. Les agences d’espionnage paient voire intimident parfois des entreprises pour avoir accès à leurs données, elles peuvent aussi se comporter comme des délinquants et dérober du contenu de bases de données d’entreprises.

La collecte excessive de données entraîne de graves conséquences sociales, depuis la destruction de notre moi authentique jusqu’au recul du progrès social, de la surveillance de l’État à une épidémie de cybercriminalité. La surveillance commerciale est également une aubaine pour les personnes qui organisent des campagnes d’influence, mais c’est le cadet de nos soucis.

L’exceptionnalisme technologique critique reste un exceptionnalisme technologique

Les géants de la tech ont longtemps pratiqué un exceptionnalisme technologique : cette idée selon laquelle ils ne devraient pas être soumis aux lois et aux normes du commun des mortels. Des devises comme celle de Facebook « Move fast and break things » [avancer vite et casser des choses, NdT] ont provoqué un mépris compréhensible envers ces entreprises à la rhétorique égoïste.

L’exceptionnalisme technologique nous a tous mis dans le pétrin. Il est donc assez ironique et affligeant de voir les critiques des géants de la tech commettre le même péché.

Les géants de la tech ne forment pas un « capitalisme voyou » qui ne peut être guéri par les remèdes traditionnels anti-monopole que sont le démantèlement des trusts (forcer les entreprises à se défaire des concurrents qu’elles ont acquis) et l’interdiction des fusions monopolistiques et autres tactiques anticoncurrentielles. Les géants de la tech n’ont pas le pouvoir d’utiliser l’apprentissage machine pour influencer notre comportement de manière si approfondie que les marchés perdent la capacité de punir les mauvais acteurs et de récompenser les concurrents vertueux. Les géants de la tech n’ont pas de rayon de contrôle mental qui réécrit les règles, si c’était le cas, nous devrions nous débarrasser de notre vieille boîte à outils.

Cela fait des siècles que des gens prétendent avoir mis au point ce rayon de contrôle mental et cela s’est toujours avéré être une arnaque, même si parfois les escrocs se sont également arnaqués entre eux.

Depuis des générations, le secteur de la publicité améliore constamment sa capacité à vendre des services publicitaires aux entreprises, tout en ne réalisant que des gains marginaux sur la vente des produits de ces entreprises. La complainte de John Wanamaker selon laquelle « La moitié de l’argent que je dépense en publicité est gaspillée, mais je ne sais pas quelle moitié » témoigne du triomphe des directeurs de la publicité qui ont réussi à convaincre Wanamaker que la moitié seulement de ce qu’il dépense était gaspillée.

L’industrie technologique a fait d’énormes progrès dans la capacité à convaincre les entreprises qu’elles sont douées pour la publicité, alors que leurs améliorations réelles en matière de publicité, par opposition au ciblage, ont été plutôt modestes. La vogue de l’apprentissage machine – et l’invocation mystique de l’« intelligence artificielle » comme synonyme de techniques d’inférence statistique directe – a considérablement renforcé l’efficacité du discours commercial des géants de la tech, car les spécialistes du marketing ont exploité le manque de connaissance technique des clients potentiels pour s’en tirer avec énormément de promesses et peu de résultats.

Il est tentant de penser que si les entreprises sont prêtes à déverser des milliards dans un projet, celui-ci doit être bon. Pourtant, il arrive souvent que cette règle empirique nous fasse faire fausse route. Par exemple, on n’a pratiquement jamais entendu dire que les fonds d’investissement surpassent les simples fonds indiciels, et les investisseurs qui confient leur argent à des gestionnaires de fonds experts s’en sortent généralement moins bien que ceux qui confient leur épargne à des fonds indiciels. Mais les fonds gérés représentent toujours la majorité de l’argent investi sur les marchés, et ils sont soutenus par certains des investisseurs les plus riches et les plus pointus du monde. Leur vote de confiance dans un secteur aussi peu performant est une belle leçon sur le rôle de la chance dans l’accumulation de richesses, et non un signe que les fonds de placement sont une bonne affaire.

Les affirmations du système de contrôle mental des géants de la tech laissent à penser que cette pratique est une arnaque. Par exemple, avec le recours aux traits de personnalité des « cinq grands » comme principal moyen d’influencer les gens, même si cette théorie des cinq grands n’est étayée par aucune étude à grande échelle évaluée par des pairs, et qu’elle est surtout l’apanage des baratineurs en marketing et des psychologues pop.

Le matériel promotionnel des géants de la tech prétend aussi que leurs algorithmes peuvent effectuer avec précision une « analyse des sentiments » ou détecter l’humeur des gens à partir de leurs « micro-expressions », mais il s’agit là d’affirmations marketing et non scientifiques. Ces méthodes n’ont pas été testées par des scientifiques indépendants, et lorsqu’elles l’ont été, elles se sont révélées très insuffisantes. Les micro-expressions sont particulièrement suspectes car il a été démontré que les entreprises spécialisées dans la formation de personnes pour les détecter sont moins performantes que si on laissait faire le hasard.

Les géants de la tech ont été si efficaces pour commercialiser leurs soi-disant super-pouvoirs qu’il est facile de croire qu’elles peuvent commercialiser tout le reste avec la même habileté, mais c’est une erreur de croire au baratin du marketing. Aucune déclaration d’une entreprise sur la qualité de ses produits n’est évidemment impartiale. Le fait que nous nous méfions de tout ce que disent les géants de la tech sur le traitement des données, le respect des lois sur la protection de la vie privée, etc. est tout à fait légitime, car pourquoi goberions-nous la littérature marketing comme s’il s’agissait d’une vérité d’évangile ? Les géants de la tech mentent sur à peu près tout, y compris sur le fonctionnement de leurs systèmes de persuasion alimentés par l’apprentissage automatique.

Ce scepticisme devrait imprégner toutes nos évaluations des géants de la tech et de leurs capacités supposées, y compris à la lecture attentive de leurs brevets. Zuboff confère à ces brevets une importance énorme, en soulignant que Google a revendiqué de nouvelles capacités de persuasion dans ses dépôts de brevets. Ces affirmations sont doublement suspectes : d’abord parce qu’elles sont très intéressées, et ensuite parce que le brevet lui-même est notoirement une invitation à l’exagération.

Les demandes de brevet prennent la forme d’une série de revendications et vont des plus étendues aux plus étroites. Un brevet typique commence par affirmer que ses auteurs ont inventé une méthode ou un système permettant de faire absolument tout ce qu’il est possible d’imaginer avec un outil ou un dispositif. Ensuite, il réduit cette revendication par étapes successives jusqu’à ce que nous arrivions à l’« invention » réelle qui est le véritable objet du brevet. L’espoir est que la personne qui passe en revue les demandes de brevets – qui est presque certainement surchargée de travail et sous-informée – ne verra pas que certaines (ou toutes) ces revendications sont ridicules, ou du moins suspectes, et qu’elle accordera des prétentions plus larges du brevet. Les brevets portant sur des choses non brevetables sont tout de même très utiles, car ils peuvent être utilisés contre des concurrents qui pourraient accorder une licence sur ce brevet ou se tenir à l’écart de ses revendications, plutôt que de subir le long et coûteux processus de contestation.

De plus, les brevets logiciels sont couramment accordés même si le déposant n’a aucune preuve qu’il peut faire ce que le brevet prétend. C’est-à-dire que vous pouvez breveter une « invention » que vous n’avez pas réellement faite et que vous ne savez pas comment faire.

Avec ces considérations en tête, il devient évident que le fait qu’un Géant de la tech ait breveté ce qu’il qualifie de rayon efficace de contrôle mental ne permet nullement de savoir si cette entreprise peut effectivement contrôler nos esprits.

Les géants de la tech collectent nos données pour de nombreuses raisons, y compris la diminution du rendement des stocks de données existants. Mais de nombreuses entreprises technologiques collectent également des données en raison d’une croyance exceptionnaliste erronée aux effets de réseau des données. Les effets de réseau se produisent lorsque chaque nouvel utilisateur d’un système augmente sa valeur. L’exemple classique est celui des télécopieurs [des fax NdT] : un seul télécopieur ne sert à rien, deux télécopieurs sont d’une utilité limitée, mais chaque nouveau télécopieur mis en service après le premier double le nombre de liaisons possibles de télécopie à télécopie.

Les données exploitées pour les systèmes prédictifs ne produisent pas nécessairement ces bénéfices. Pensez à Netflix : la valeur prédictive des données extraites d’un million d’utilisateurs anglophones de Netflix n’est guère améliorée par l’ajout des données de visualisation d’un utilisateur supplémentaire. La plupart des données que Netflix acquiert après ce premier échantillon minimum viable font double emploi avec des données existantes et ne produisent que des gains minimes. En attendant, le recyclage des modèles avec de nouvelles données devient plus cher à mesure que le nombre de points de données augmente, et les tâches manuelles comme l’étiquetage et la validation des données ne deviennent pas moins chères lorsqu’on augmente l’ordre de grandeur.

Les entreprises font tout le temps la course aux modes au détriment de leurs propres profits, surtout lorsque ces entreprises et leurs investisseurs ne sont pas motivés par la perspective de devenir rentables mais plutôt par celle d’être rachetés par un Géant de la tech ou d’être introduits en Bourse. Pour ces entreprises, cocher des cases à la mode comme « collecte autant de données que possible » pourrait permettre d’obtenir un meilleur retour sur investissement que « collecte une quantité de données adaptée à l’entreprise ».

C’est un autre dommage causé par l’exceptionnalisme technologique : la croyance selon laquelle davantage de données produit toujours plus de profits sous la forme de plus d’informations qui peuvent être traduites en de meilleurs rayons de contrôle mental. Cela pousse les entreprises à collecter et à conserver des données de manière excessive, au-delà de toute rationalité. Et comme les entreprises se comportent de manière irrationnelle, bon nombre d’entre elles vont faire faillite et devenir des navires fantômes dont les cales sont remplies de données qui peuvent nuire aux gens de multiples façons, mais dont personne n’est plus responsable. Même si les entreprises ne font pas faillite, les données qu’elles collectent sont maintenues en-deça de la sécurité minimale viable – juste assez de sécurité pour maintenir la viabilité de l’entreprise en attendant d’être rachetées par un Géant de la tech, un montant calculé pour ne pas dépenser un centime de trop pour la protection des données.

Comment les monopoles, et non le contrôle de la pensée, conduisent à la surveillance capitaliste : le cas de Snapchat

Pendant la première décennie de son existence, Facebook est entré en concurrence avec les réseaux sociaux de l’époque (Myspace, Orkut, etc) en se présentant comme l’alternative respectant de la vie privée. De fait, Facebook a justifié son jardin clos, qui permet aux utilisateurs d’y amener des données du Web, mais empêche les services tels que Google Search d’indexer et de mémoriser les pages Facebook, en tant que mesure de respect de la vie privée qui protège les utilisateurs des heureux gagnants de la bataille des réseaux sociaux comme Myspace.

En dépit des fréquentes promesses disant qu’il ne collecterait ou n’analyserait jamais les données de ses utilisateurs, Facebook a lancé à intervalles réguliers des initiatives exactement dans ce but, comme le sinistre Beacon tool, qui vous espionne lorsque vous surfez sur le Web puis ajoute vos activités sur le web à votre timeline publique, permettant à vos amis de surveiller vos habitudes de navigation. Beacon a suscité une révolte des utilisateurs. À chaque fois, Facebook a renoncé à ses actions de surveillance, mais jamais complètement ; inévitablement, le nouveau Facebook vous surveillera plus que l’ancien Facebook, mais moins que le Facebook intermédiaire qui suit le lancement d’un nouveau produit ou service.

Le rythme auquel Facebook a augmenté ses efforts de surveillance semble lié au climat compétitif autour de Facebook. Plus Facebook avait de concurrents, mieux il se comportait. À chaque fois qu’un concurrent majeur s’est effondré, le comportement de Facebook s’est notablement dégradé.

Dans le même temps, Facebook a racheté un nombre prodigieux d’entreprises, y compris une société du nom de Onavo. À l’origine, Onavo a créé une application mobile pour suivre l’évolution de la batterie. Mais les permissions que demandaient Onavo étaient telles que l’appli était capable de recueillir de façon très précise l’intégralité de ce que les utilisateurs font avec leurs téléphones, y compris quelles applis ils utilisent et comment.

Avec l’exemple d’Onavo, Facebook a découvert qu’il était en train de perdre des parts de marché au profit de Snapchat, une appli qui, comme Facebook une décennie plus tôt, se vend comme l’alternative qui respecte la vie privée par rapport au statu quo . À travers Onavo, Facebook a pu extraire des données des appareils des utilisateurs de Snapchat, que ce soient des utilisateurs actuels ou passés. Cela a poussé Facebook à racheter Instagram, dont certaines fonctionnalités sont concurrentes de Snapchat, et a permis à Facebook d’ajuster les fonctionnalités d’Instagram ainsi que son discours marketing dans le but d’éroder les gains de Snapchat et s’assurer que Facebook n’aurait pas à faire face aux pressions de la concurrence comme celles subies par le passé par Myspace et Orkut.

La manière dont Facebook a écrasé Snapchat révèle le lien entre le monopole et le capitalisme de surveillance. Facebook a combiné la surveillance avec une application laxiste des lois antitrust pour repérer de loin la menace de la concurrence par Snapchat et pour prendre des mesures décisives à son encontre. Le capitalisme de surveillance de Facebook lui a permis d’éviter la pression de la concurrence avec des tactiques anti-compétitives. Les utilisateurs de Facebook veulent toujours de la confidentialité, Facebook n’a pas utilisé la surveillance pour les convaincre du contraire, mais ils ne peuvent pas l’obtenir car la surveillance de Facebook lui permet de détruire tout espoir d’émergence d’un rival qui lui fait concurrence sur les fonctionnalités de confidentialité.

Un monopole sur vos amis

Un mouvement de décentralisation a essayé d’éroder la domination de Facebook et autres entreprises des géants de la tech en proposant des alternatives sur le Web indépendant (indieweb) : Mastodon en alternative à Twitter, Diaspora en alternative à Facebook, etc, mais ces efforts ont échoué à décoller.

Fondamentalement, chacun de ces services est paralysé par le même problème : tout utilisateur potentiel d’une alternative de Facebook ou Twitter doit convaincre tous ses amis de le suivre sur une alternative décentralisée pour pouvoir continuer à avoir les bénéfices d’un média social. Pour beaucoup d’entre nous, la seule raison pour laquelle nous avons un compte Facebook est parce que nos amis ont des comptes Facebook, et la raison pour laquelle ils ont des comptes Facebook est que nous avons des comptes Facebook.

Tout cela a contribué à faire de Facebook, et autres plateformes dominantes, des « zones de tir à vue » dans lesquelles aucun investisseur ne financera un nouveau venu.

Et pourtant, tous les géants d’aujourd’hui sont apparus malgré l’avantage bien ancré des entreprises qui existaient avant eux. Pour comprendre comment cela a été possible, il nous faut comprendre l’interopérabilité et l’interopérabilité antagoniste.

Le gros problème de nos espèces est la coordination.

L’« interopérabilité » est la capacité qu’ont deux technologies à fonctionner l’une avec l’autre : n’importe qui peut fabriquer un disque qui jouera sur tous les lecteurs de disques, n’importe qui peut fabriquer un filtre que vous pourrez installer sur la ventilation de votre cuisinière, n’importe qui peut fabriquer l’essence pour votre voiture, n’importe qui peut fabriquer un chargeur USB pour téléphone qui fonctionnera dans votre allume-cigare, n’importe qui peut fabriquer une ampoule qui marchera dans le culot de votre lampe, n’importe qui peut fabriquer un pain qui grillera dans votre grille-pain.

L’interopérabilité est souvent une source d’innovation au bénéfice du consommateur : Apple a fabriqué le premier ordinateur personnel viable commercialement, mais des millions de vendeurs de logiciels indépendants ont fait des programmes interopérables qui fonctionnaient sur l’Apple II Plus. La simple antenne pour les entrées analogiques à l’arrière des téléviseurs a d’abord permis aux opérateurs de câbles de se connecter directement aux télévisions, puis ont permis aux entreprises de consoles de jeux et ensuite aux ordinateurs personnels d’utiliser une télévision standard comme écran. Les prises téléphoniques RJ11 standardisées ont permis la production de téléphones par divers vendeurs avec divers formes, depuis le téléphone en forme de ballon de foot reçu en cadeau d’abonnement de Sports Illustrated, aux téléphones d’affaires avec haut-parleurs, mise en attente, et autres, jusqu’aux répondeurs et enfin les modems, ouvrant la voie à la révolution d’Internet.

On utilise souvent indifféremment « interopérabilité » et « standardisation », qui est le processus pendant lequel les fabricants et autres concernés négocient une liste de règles pour l’implémentation d’une technologie, comme les prises électriques de vos murs, le bus de données CAN utilisé par le système de votre voiture, ou les instructions HTML que votre navigateur internet interprète.

Mais l’interopérabilité ne nécessite pas la standardisation, en effet la standardisation émerge souvent du chaos de mesures d’interopérabilité ad hoc. L’inventeur du chargeur USB dans l’allume-cigare n’a pas eu besoin d’avoir la permission des fabricants de voitures ou même des fabricants des pièces du tableau de bord. Les fabricants automobiles n’ont pas mis en place des contre-mesures pour empêcher l’utilisation de ces accessoires d’après-vente par leurs consommateurs, mais ils n’ont pas non plus fait en sorte de faciliter la vie des fabricants de chargeurs. Il s’agit d’une forme d’« interopérabilité neutre ».

Au-delà de l’interopérabilité neutre, il existe l’« interopérabilité antagoniste ». C’est quand un fabricant crée un produit qui interagit avec le produit d’un autre fabricant en dépit des objections du deuxième fabricant, et cela même si ça nécessite de contourner un système de sécurité conçu pour empêcher l’interopérabilité.

Le type d’interopérabilité antagoniste le plus usuel est sans doute les cartouches d’encre d’imprimantes par des fournisseurs tiers. Les fabricants d’imprimantes affirment qu’ils vendent les imprimantes en-dessous de leur coût et que leur seul moyen de récupérer les pertes est de se constituer une marge élevée sur les encres. Pour empêcher les propriétaires d’imprimantes d’acheter leurs cartouches ailleurs, les entreprises d’imprimantes appliquent une série de systèmes de sécurité anti-consommateurs qui détectent et rejettent les cartouches re-remplies ou par des tiers.

Les propriétaires d’imprimantes quant à eux défendent le point de vue que HP et Epson et Brother ne sont pas des œuvres caritatives et que les consommateurs de leurs produits n’ont aucune obligation à les aider à survivre, et donc que si ces entreprises choisissent de vendre leurs produits à perte, il s’agit de leur choix stupide et à eux d’assumer les conséquences. De même, les compétiteurs qui fabriquent des cartouches ou les re-remplissent font remarquer qu’ils ne doivent rien aux entreprises d’imprimantes, et que le fait qu’ils érodent les marges de ces entreprises est le problème de celles-ci et non celui de leurs compétiteurs. Après tout, les entreprises d’imprimantes n’ont aucun scrupule à pousser un re-remplisseur à fermer boutique, donc pourquoi est-ce que les re-remplisseurs devraient se soucier de la bonne santé économique des entreprises d’imprimantes ?

L’interopérabilité antagoniste a joué un rôle hors normes dans l’histoire de l’industrie tech : depuis la création du « alt.* » dans l’architecture de Usenet (qui a commencé à l’encontre des souhaits des responsables de Usenet et qui s’est développé au point d’être plus important que tout le Usenet combiné) à la guerre des navigateurs (lorsque Netscape et Microsoft ont dépensé d’énormes ressources en ingénierie pour faire en sorte que leur navigateur soit incompatible avec les fonctionnalités spéciales et autres peccadilles de l’autre) à Facebook (dont le succès a entre autres été dû au fait qu’il a aidé ses nouveaux utilisateurs en leur permettant de rester en contact avec les amis qu’ils ont laissés sur Myspace parce que Facebook leur a fourni un outil pour s’emparer des messages en attente sur Myspace et les importer sur Facebook, créant en pratique un lecteur Myspace basé sur Facebook).

Aujourd’hui, la validation par le nombre est considérée comme un avantage inattaquable. Facebook est là où tous vos amis sont, donc personne ne peut fonder un concurrent à Facebook. Mais la compatibilité antagoniste retourne l’avantage concurrentiel : si vous êtes autorisés à concurrencer Facebook en proposant un outil qui importe les messages en attente sur Facebook de tous vos utilisateurs dans un environnement qui est compétitif sur des terrains que Facebook ne pourra jamais atteindre, comme l’élimination de la surveillance et des pubs, alors Facebook serait en désavantage majeur. Vous aurez rassemblé tous les potentiels ex-utilisateurs de Facebook sur un unique service facile à trouver. Vous les auriez éduqués sur la façon dont un service Facebook-like fonctionne et quels sont ses potentiels avantages, et vous aurez fourni un moyen simple aux utilisateurs mécontents de Facebook pour dire à leurs amis où ils peuvent trouver un meilleur traitement.

L’interopérabilité antagoniste a été la norme pendant un temps et une contribution clef à une scène tech dynamique et vibrante, mais à présent elle est coincée derrière une épaisse forêt de lois et règlements qui ajoutent un risque légal aux tactiques éprouvées de l’interopérabilité antagoniste. Ces nouvelles règles et les nouvelles interprétations des règles existantes signifient qu’un potentiel « interopérateur » antagoniste aura besoin d’échapper aux réclamations de droits d’auteurs, conditions de service, secret commercial, ingérence et brevets.

En l’absence d’un marché concurrentiel, les faiseurs de lois ont délégué des tâches lourdes et gouvernementales aux sociétés de Big Tech, telles que le filtrage automatique des contributions des utilisateurs pour la violation des droits d’auteur ou pour des contenus terroristes et extrémistes ou pour détecter et empêcher le harcèlement en temps réel ou encore pour contrôler l’accès au contenu sexuel.

Ces mesures ont fixé une taille minimale à partir de laquelle on peut faire du Big Tech, car seules les très grandes entreprises peuvent se permettre les filtres humains et automatiques nécessaires pour se charger de ces tâches.

Mais ce n’est pas la seule raison pour laquelle rendre les plateformes responsables du maintien de l’ordre parmi leurs utilisateurs mine la compétition. Une plateforme qui est chargée de contrôler le comportement de ses utilisateurs doit empêcher de nombreuses techniques vitales à l’interopérabilité antagoniste de peur qu’elles ne contreviennent à ses mesures de contrôle. Par exemple si quelqu’un utilisant un remplaçant de Twitter tel que Mastodon est capable de poster des messages sur Twitter et de lire des messages hors de Twitter, il pourrait éviter les systèmes automatiques qui détectent et empêchent le harcèlement (tels que les systèmes qui utilisent le timing des messages ou des règles basées sur les IP pour estimer si quelqu’un est un harceleur).

Au point que nous sommes prêts à laisser les géants de la tech s’autocontrôler, plutôt que de faire en sorte que leur industrie soit suffisamment limitée pour que les utilisateurs puissent quitter les mauvaises plateformes pour des meilleures et suffisamment petites pour qu’une réglementation qui ferait fermer une plateforme ne détruirait pas l’accès aux communautés et données de milliards d’utilisateurs, nous avons fait en sorte que les géants de la tech soient en mesure de bloquer leurs concurrents et qu’il leur soit plus facile de demander un encadrement légal des outils pour bannir et punir les tentatives à l’interopérabilité antagoniste.

En définitive, nous pouvons essayer de réparer les géants de la tech en les rendant responsables pour les actes malfaisants de ses utilisateurs, ou bien nous pouvons essayer de réparer Internet en réduisant la taille de géants. Mais nous ne pouvons pas faire les deux. Pour pouvoir remplacer les produits des géants d’aujourd’hui, nous avons besoin d’éclaircir la forêt légale qui empêche l’interopérabilité antagoniste de façon à ce que les produits de demain, agiles, personnels, de petite échelle, puissent se fédérer sur les géants tels que Facebook, permettant aux utilisateurs qui sont partis à continuer à communiquer avec les utilisateurs qui ne sont pas encore partis, envoyant des vignes au-dessus du mur du jardin de Facebook afin que les utilisateurs piégés de Facebook puissent s’en servir afin de grimper aux murs et de s’enfuir, accédant au Web ouvert et global.

(à suivre)




Le logiciel éducatif GCompris fête ses 20 ans

Si je vous dis GCompris, ce nom résonnera aux oreilles de beaucoup d’entre vous. Même si nous l’avons évoqué à plusieurs reprises sur le Framablog, nous n’avons jusqu’ici jamais eu le plaisir de consacrer un article à cette référence du jeu éducatif libre. Quoi de mieux que les 20 ans du logiciel pour réparer ce manque. Entrevue avec Timothée Giet pour fêter cet anniversaire.

Pour ceux qui n’ont pas eu d’enfant dans leur entourage ces vingt dernières années, vous pouvez nous expliquer ce qu’est GCompris ?

GCompris est un logiciel éducatif libre pour les enfants de 2 à 10 ans et plus. Il propose de nombreuses activités (159 dans la dernière version) couvrant un large éventail de sujets : découverte de l’ordinateur, lecture, mathématiques, sciences, art, histoire, géographie…  Il fonctionne sur de nombreuses plateformes : nous fournissons des paquets pour les systèmes GNU/Linux, Raspberry Pi, Android, Windows et macOS.

Pouvez-vous nous présenter les personnes qui sont derrière le projet GCompris ? S’agit-il des mêmes aujourd’hui qu’au début de l’aventure ?

Le logiciel a été créé par Bruno Coudoin, qui l’a maintenu pendant plus de 15 ans. En 2016, il a finalement dû arrêter par manque de temps et nous a donc confié la maintenance du projet. Nous sommes maintenant deux co-mainteneurs, Johnny Jazeix et moi (Timothée Giet). Johnny est un développeur qui contribue sur son temps libre. Il s’occupe principalement des parties les plus compliquées du code, de l’intégration des contributions et de la coordination pour les traductions. De mon côté, je suis illustrateur/graphiste/développeur, et on peut dire que je travaille actuellement à mi-temps sur le projet. Je m’occupe principalement de la partie graphisme et design du logiciel, mais également de corriger des bugs et d’améliorer l’expérience utilisateur. Après, nous nous répartissons le reste des tâches en fonctions de nos disponibilités et de nos compétences.

Moment nostalgie : le site GCompris en 2005

GCompris a 20 ans… Ça veut dire que certains de vos joueuses et joueurs aussi ! Ça vous fait quoi ? Pas trop un coup de vieux ?

C’est toujours réjouissant lorsque nous voyons des commentaires de personnes relatant leurs bons souvenirs de jeunesse avec GCompris. Après, comme Johnny et moi sommes arrivés sur le projet en 2014, cela nous motive surtout à continuer d’apporter cette expérience positive aux nouvelles générations.

 

Il va falloir nous expliquer comment vous êtes passés de la version 15.10 à la version 0.5. Une envie, un soir en regardant Retour vers le futur ?

En 2014, Bruno a décidé de commencer une réécriture complète avec de nouveaux outils, principalement pour permettre au logiciel de tourner sur les plateformes mobiles. Après quelques recherches sur les diverses technologies disponibles à cette époque, il a choisi de développer la nouvelle version en QtQuick (Qt + QML/JavaScript), qui offrait selon lui le meilleur support multi-plateforme avec des outils permettant de créer une interface moderne, tout en étant relativement facile d’accès pour les nouveaux développeurs. C’est d’ailleurs à ce moment là que Johnny et moi avons rejoint l’équipe.

Pour l’occasion, et pour permettre de conserver quelque temps en parallèle l’ancienne version, cette nouvelle version a été renommée en interne « gcompris-qt », et la numérotation est logiquement repartie de zéro.

 

Quel a été le plus gros chamboulement dans l’histoire de GCompris ?  Le changement de moteur au milieu des années 2010 ?

Le plus gros chamboulement a en effet été cette réécriture complète du logiciel. Avec le passage de Gtk+ à Qt, le projet a logiquement migré de la communauté Gnome vers la communauté KDE. Ce travail de réécriture a demandé plusieurs années de travail, et n’est pas encore tout à fait fini. Nous avons perdu au passage quelques activités de l’ancienne version qui n’ont pas été portées, mais nous en avons aussi développé de nouvelles. De même pour les traductions, certaines langues supportées par l’ancienne version ne le sont pas encore dans la nouvelle.

Par ailleurs, pour cette nouvelle version, ma première contribution a été de créer une charte graphique adaptée, et de créer de nouveaux graphismes pour les nombreuses activités en suivant cette charte. Cette tâche n’est pas encore tout à fait terminée, mais le logiciel est déjà bien plus agréable et harmonieux visuellement pour les enfants, et les nombreux retours que nous avons eus depuis confirment que ce changement est très apprécié par nos utilisateurs.

Au niveau communautaire, comment se déroulent les contributions à votre logiciel ? Plutôt liées aux traductions ou aux activités ?

Les contributions de traductions par la communauté sont un point essentiel pour permettre aux enfants du monde entier d’utiliser le logiciel. Nous avons une consigne en interne de n’inclure les traductions que si elles sont au moins complètes à 80%, pour éviter que les enfants ne se retrouvent avec un logiciel à moitié traduit. Le nombre de textes à traduire est assez élevé, cela demande donc un certain effort pour les contributeurs de fournir les traductions pour une nouvelle langue. Une bonne partie des traductions est faite par les traducteurs de la communauté KDE, mais il y a aussi des traducteurs externes qui nous contactent directement pour plusieurs langues. La nouvelle version 1.0 est entièrement traduite en 22 langues, et partiellement traduite en 4 langues. Depuis sa sortie il y a une dizaine de jours, nous avons déjà été contactés par plusieurs personnes qui souhaitent participer pour ajouter de nouvelles traductions. Nous ferons donc très certainement bientôt une nouvelle version mineure pour les inclure.

Pour les activités, c’est assez variable. Nous avons eu de nombreux contributeurs au fil du temps, en particulier des étudiants participant à des programmes comme le GSoC (Google Summer of Code) et SoK (Season of KDE), qui ont chacun ajouté quelques activités. Mais la plupart restent seulement le temps de leur session et ne contribuent plus vraiment ensuite, ce qui est dommage. Il y a aussi des instituteurs et des parents qui nous aident en donnant des retours sur le contenu pédagogique.

Avancement des principales traductions de GCompris

Vous avez besoin de contributrices ? Sur quels aspects ?

Nous recherchons toujours des traducteurs pour de nouvelles langues ou pour aider à maintenir les traductions existantes. De même, il reste beaucoup d’enregistrements de voix à fournir pour la plupart des langues (pour le français les voix sont complètes actuellement).

Au plan pédagogique, nous venons de démarrer un projet de cookbook (livre de cuisine) pour présenter des exemples d’utilisation du logiciel en classe. Les instituteurs sont donc bienvenus pour y partager leurs recettes.

Et bien sûr, nous sommes toujours ouverts aux développeurs qui souhaitent ajouter de nouvelles activités, tant qu’elles restent dans le cadre de la philosophie du logiciel.

 

L’année 2020 a aussi été marquée par une évolution importante pour GCompris, financière celle-ci, avec l’abandon du système de code d’activation sur certains OS. Pourquoi ce changement ?

C’est un changement que j’avais en tête depuis un bon moment. Ma motivation principale était l’envie de fournir le logiciel complet au maximum d’enfants possible. C’est déjà assez compliqué pour certains d’avoir accès au matériel. L’accès à l’éducation gratuite pour tous est un sujet important.

Un autre point qui me dérangeait un peu avec le code d’activation pour les OS non libres : étant moi même un défenseur des valeurs du logiciel libre, je voyais une certaine contradiction dans le fait que mes revenus dépendaient des gens qui continuent d’utiliser des logiciels privateurs.

Enfin, l’élément déclencheur a malheureusement été l’arrivée de la pandémie… Dès le début de l’année, voyant la situation arriver au loin, j’ai vite compris qu’il était plus que jamais nécessaire de fournir notre logiciel éducatif gratuitement à tous les enfants qui allaient se retrouver confinés. Et par la suite j’ai pu constater qu’en effet, cela a été d’une grande aide pour les instituteurs, les parents, et surtout pour les enfants.

 

Une question qu’on nous pose souvent, « Alors c’est quoi votre modèle économique ? » (© startup magazine)

Désormais notre modèle économique est uniquement basé sur le financement participatif. Avec l’abandon de la version payante, j’ai fait le pari de continuer à financer mon travail sur GCompris via ma page Patreon. J’espère que suffisamment de personnes soutiendront le projet pour que cela tienne sur le long terme.

Il y a une dizaine d’années, le paysage éducatif comportait plusieurs suites éducatives libres (Childsplay, Omnitux, suite pédagogique d’Abuledu). Actuellement, GCompris semble être la seule avec un développement actif. Vous avez écrasé la concurrence ?

Je ne connais pas en détail l’évolution de ces autres suites éducatives libres. Cependant, je suppose que le manque de budget pour les logiciels éducatifs en général, et en particulier pour ceux qui sont libres, est un facteur important.

 

Plus globalement, quel regard portez-vous sur l’évolution du libre dans l’éducation sur ces 20 dernières années ?

En lisant des articles comme celui-ci, on voit bien que le logiciel libre n’est plus du tout soutenu par l’éducation nationale dans notre pays. Si seulement le budget était correctement utilisé pour développer des solutions éducatives libres…

On peut voir dans d’autres pays des solutions libres déployées efficacement. Par exemple au Kerala (état du sud de l’Inde), l’état utilise exclusivement des logiciels libres pour les écoles publiques et a financé le développement d’une distribution GNU/Linux déployée sur tous les ordinateurs de toutes les écoles. Les instituteurs sont formés sur ces logiciels et les élèves apprennent à utiliser des outils qu’ils peuvent ensuite utiliser librement chez eux. Plus proche de chez nous, plusieurs régions d’Espagne ont développé et déployé des distributions GNU/Linux dans leurs écoles.

Il y a donc beaucoup de progrès à (re)faire dans ce domaine en France.

 

C’est quoi la feuille de route pour les 20 prochaines années ?… Bon au moins pour les 20 prochains mois ?

Nous travaillons actuellement sur un nouvel outil « serveur » qui permettra aux instituteurs de personnaliser le contenu des activités et d’interagir avec le logiciel sur les postes des élèves. Il s’agit cependant d’un énorme projet qui va demander beaucoup de travail, il est donc difficile pour l’instant de prédire quand il sera prêt.

De mon côté, il me reste plusieurs activités à refaire au niveau des graphismes et de l’interface. Comme les activités doivent être conçues de manière responsive, en plus de créer des nouvelles images, il faut souvent ré-écrire une bonne partie de l’interface pour qu’elles soient utilisables aussi bien sur un écran d’ordinateur que sur un téléphone en mode vertical ou horizontal. Chaque activité ayant ses propres contraintes, c’est parfois un vrai challenge.

Enfin, nous allons probablement avoir un peu de travail à l’avenir pour porter le logiciel sur la nouvelle version de Qt (Qt 6), qui apporte son lot de changements à prendre en compte.




Pour un monde avec un million de Netflix

À l’occasion du #DayAgainstDRM, attardons-nous sur un des géants du web.

Cette multinationale dont l’initiale n’est pas dans GAFAM a eu un rôle déterminant pour imposer des verrous numériques (les DRM) dans nos appareils, nos logiciels et jusque dans ce qui fait le web.

À noter : cet article bénéficie désormais d’une version audio.
Merci à Sualtam, auteur de lectureaudio.fr pour cette contribution active.

Il est temps qu’on parle de Netflix.

Pour en savoir plus sur le #DayAgainstDRM.

 

Le péché originel : le droit d’auteur

La convention de Berne, initialement signée en 1886 par moins d’une dizaine d’états de la zone européenne, implique aujourd’hui 179 membres. Lire cette convention permet de reprendre la mesure des interdits qu’elle pose. Elle stipule notamment que le droit de communiquer au public la représentation d’une œuvre est soumise à l’autorisation de son auteur. C’est ce que l’on appelle le droit patrimonial : « l’auteur d’une œuvre de l’esprit jouit sur cette œuvre, du seul fait de sa création, d’un droit de propriété incorporelle exclusif et opposable à tous » (article L111-1 du code de la propriété intellectuelle français).

mimiandeunice.com — ♡ Copying is an act of love. Please copy & share.

En France le droit patrimonial s’installe dans la loi en 1791, juste après la révolution, il est alors octroyé pour une durée couvrant la durée de la vie de l’auteur plus cinq ans. Petit à petit cette durée a été augmentée pour atteindre aujourd’hui 70 ans après la mort de l’auteur. Certaines exceptions font que c’est parfois un peu plus (je vous le mets quand même ?), parfois moins, notamment dans le cas des œuvres collectives (où ce n’est « que » 70 ans après la publication de l’œuvre). Dans d’autres pays c’est également parfois plus, parfois moins (c’est « seulement » 50 ans après la mort de l’auteur au Canada). On peut retenir qu’une œuvre publiée en 2020 ne pourra pas être reproduite sans autorisation de l’auteur au moins jusqu’en 2070, souvent 2090. Au XXIIe siècle quoi. C’est dans longtemps.

Oui, on sait, il faut bien que les industries culturelles vivent, que les auteurs soient rémunérés, etc. On aurait des choses à dire, mais ce n’est pas le sujet… Quand même, il faut garder en tête que ces lois ont été envisagées d’un point de vue industriel, de façon à garantir un retour sur investissement à des sociétés qui mobilisaient des moyens techniques lourds et onéreux. L’habillage sous terme de « droit d’auteur » n’est qu’une apparence sémantique : ce qui importe, c’est de sécuriser la filière de captation industrielle de la valeur.

En résumé, les créations ne sont pas librement exploitables en général et on parle d’ayant-droits pour désigner les personnes qui ont le contrôle d’une œuvre.

Le droit d’auteur, allégorie.

La gestion des droits numériques aka le DRM

La copie étant devenue plus facile — mais pas plus légale — avec les facilités ouvertes par la numérisation des œuvres, puis les facilités de circulation prolongées par Internet puis le Web, les ayants droit ont cherché des moyens de lutter contre ce qui profitait à presque tout le monde. Sauf eux donc. Notons qu’un ayant droit n’est en général pas un auteur. Celui-ci a généralement cédé ses droits patrimoniaux à l’ayant droit qui les exploite et lui reverse une partie des bénéfices. La répartition occasionne d’ailleurs régulièrement des négociations et souvent des conflits, comme lors de la grève des scénaristes américains, fortement syndiqués, qui bloqua une partie de la production audiovisuelle états-unienne en 2007-2008.

Les ayants droits, qui ont donc des droits à faire valoir même quand ils n’ont en rien contribué à l’œuvre — c’est le cas des héritiers des écrivains par exemple — ont déployé de nombreuses stratégies pour défendre leurs droits. Dont les DRM. Un DRM c’est un programme informatique dont l’objectif est de faire dysfonctionner la lecture d’un fichier dans le cas général. C’est un buggeur. Informatiquement c’est assez étonnant comme pratique, ça consiste à faire en sorte que les programmes fonctionnent moins bien. Donc si vous avez un contenu sous DRM, vous devez disposer du moyen technique (un logiciel non libre le plus souvent) fourni par celui qui gère l’accès au contenu pour le lire.

Brendan Mruk and Matt Lee — CC BY-SA

On pourrait aussi parler des nombreuses occasions où les DRM empêchent les programmes de fonctionner même dans le cas où a été légitimement acquis le contenu — parce que quand vous vous amusez à faire exprès de faire dysfonctionner des programmes, eh bien c’est plus facile que de les faire de nouveau fonctionner après — mais ce n’est pas non plus le sujet. On pourrait aussi expliquer que les DRM n’empêchent pas ceux qui veulent vraiment accéder aux contenus de le faire tout de même et donc qu’ils ont surtout comme conséquence de compliquer la vie de tout le monde sans rien résoudre en réalité. Mais ce n’est toujours pas notre sujet. Gardez néanmoins en tête que le vendeur peut ainsi effacer un de vos livres, même d’Orwell, avec toutes vos notes, voire votre bibliothèque complète car il ne trouve pas cette activité assez rentable.

En résumé il est illégal de diffuser le contenu de quelqu’un sans son accord et il existe des techniques pour compliquer la vie de ceux qui voudraient le faire quand même.

Quand les fabricants du Web ont laissé entrer les DRM

Le web n’a pas échappé aux DRM. Cela s’appelle les EME (Encrypted Media Extension). Il y a eu des oppositions, la FSF, l’Electronic Frontier Foundation, les associations militantes du libre. Et il y a eu aussi des acteurs, dont le W3C et Mozilla qui ont cédé devant la puissance des industriels souhaitant exploiter le droit d’auteur et devant les pratiques déjà en place. Ce fut certainement le processus de standardisation du web le plus controversé, et ce sont les promoteurs des DRM qui ont gagné.

https://www.w3.org/TR/encrypted-media

Et aujourd’hui cela verrouille le web.

Le composant de gestion des DRM dans le navigateur n’est pas libre. Mozilla Firefox, ainsi que la majorité des autres navigateurs non libres utilisent Widevine de Google. Il est très difficile techniquement et totalement interdit légalement de chercher à en connaître les codes sources. Il est donc illégal de connaître le fonctionnement de l’un des outils que l’on utilise le plus au quotidien. Oui, même si c’est Firefox.

De plus le mécanisme DRM rend la construction de nouveaux navigateurs plus compliquée, voire même impossible selon Cory Doctorow. En fait il reste possible de fabriquer un nouveau navigateur mais il ne pourra pas lire les contenus sous DRM. Parce qu’un éventuel système DRM alternatif, c’est compliqué à faire, et que ça n’aurait de toutes façons pas la confiance des ayants droit. Et puis parce que Google, l’acteur dominant sur ce terrain (oui, sur ce terrain-là aussi) n’acceptera pas de licencier un lecteur Widevine libre.

Notez bien, même si vous avez bien acquis le droit d’accéder à ces contenus, que vous avez tout bien payé, vous ne pourrez pas les lire. Un tel navigateur libre a donc peu de chance de survivre, en dehors du cercle militant (c’est par exemple le cas du Tor Browser construit sur la base de Mozilla Firefox mais n’intégrant pas le composant propriétaire Widevine).

En résumé, il est aujourd’hui impossible de diffuser de la vidéo, et des médias en général, sous droit d’auteur sur le Web sans un accord avec un géant du numérique.

L’émergence du continent Netflix

Mettre en place un serveur d’accès libre à des fichiers ne coûte pas grand chose. En 2020, c’est vrai même pour des vidéos. Avec une machine solide qui coûtera quelques centaines d’euros par mois à amortir (accès Internet, disques, énergie, etc…), on peut diffuser quelques milliers de films à quelques milliers d’utilisateurs (peut être pas de la 4K en streaming à toute heure, mais ce serait tout de même une offre suffisante pour de nombreux utilisateurs relativement modestes dans leurs usages). Donc en théorie de nombreuses sociétés commerciales devraient être en mesure d’offrir un tel service. On devrait être en situation de concurrence forte.

Mais ce n’est pas ce que l’on observe. On observe une domination oligarchique avec Netflix qui confisque environ la moitié du marché en Europe et une vingtaine d’acteurs au dessus de 5% de parts de marché.

Netflix et les DRM, par la FSF.

Pourquoi est-on dans cette situation ? Parce que la mise en place du service implique surtout d’acheter des droits. Et qu’il faut ensuite une infrastructure technique solide pour gérer les données, les chiffrer, les diffuser à ceux qui ont acquis le privilège d’y accéder et pas aux autres, etc. Sinon on risque d’être poursuivi en justice par les ayants droits.

Donc il faut des moyens. Beaucoup de moyens.

En résumé, c’est à cause de l’état du droit international qu’il est coûteux de diffuser la culture par des voies légales. Et c’est parce que c’est coûteux que l’on assiste à l’émergence de cet acteur proto-monopolistique qu’est Netflix.

Plus, c’est mieux

À noter que le monopole est une stratégie de développement industriel à part entière1, consciemment appliquée. Il signifie donc être et rester seul tout en haut. Cela implique une guerre commerciale permanente avec d’éventuels concurrents (guerre alimentée par la puissance financière des actionnaires).

Or le monopole pose problème. Il permet, une fois établi, des pratiques commerciales inégales, c’est donc un problème pour les consommateurs qui deviennent dépendants d’un système, sans alternative. C’est même pour ça qu’il est combattu depuis très longtemps2, même dans des zones où l’économie de marché n’est pas discutée3.

L’Oncle Sam peint par James Montgomery Flagg pendant la Première Guerre mondiale — Wikipédia, Public Domain

Mais, notamment quand il touche à la culture, le monopole pose d’autres problèmes, que d’aucuns considéreront comme plus importants.

Il engendre la concentration de la distribution. Qu’un diffuseur choisisse ce qu’il veut diffuser est légitime. C’est son business. Son catalogue c’est son business, s’il ne veut pas gérer de vieux films lents en noir et blanc, c’est son droit. S’il ne veut pas de film chinois ou français, il fait bien ce qu’il veut sur ses serveurs. S’il veut entraîner des IA à pousser des utilisateurs à regarder tout le temps les mêmes genres de trucs, c’est son problème (bon, et un peu celui des utilisateurs si c’est fait à leur insu, mais disons qu’ils donnent leur consentement, même moyennement éclairé, à un moteur de recommandation, donc qu’ils ne sont pas totalement innocents).

Mais dès lors qu’il n’y a plus qu’un seul diffuseur, c’est différent, car il décide alors de ce qui est diffusé. Tout court. Il acquiert le pouvoir de faire disparaître des pans entier de la culture. Et de décider de ce que sera celle de demain.

En résumé, la recherche du monopole est une stratégie économique des géants du web ; appliquée aux domaines culturels, elle engendre un contrôle de la culture.

Le pouvoir de fabriquer la culture

Mais ça ne s’arrête pas là. L’acteur monopolistique devient riche, très riche. Si c’est un vendeur de livres, il se met à commercialiser d’autres trucs rentables (comme des médicaments). Si c’est un diffuseur de films et de séries, il se met aussi à produire des films et des séries. C’est lui qui paye les acteurs, les scénaristes et qui choisit ce qu’il va diffuser. Il rachètera ou créera ensuite des écoles du cinéma qui expliqueront comment faire les choses comme il pense qu’il faut les faire. Il conçoit ses propres appareils pour imposer son format exclusif non-standard, en ne permettant pas la lecture d’autres formats, ouverts.

Bref il se déploie. Il acquiert le pouvoir de faire la culture. Il devient la culture. Mais ce n’est pas un être humain, un artiste, un poète, c’est un système industriel qui a pour but de grossir pour générer des profits financiers. Il va donc fourbir ses outils pour servir ces buts. Des recettes de storytelling sont définies, puis usées jusqu’à la trame tant qu’un retour sur investissement suffisant est réalisé. Un marketing de plus en plus précis va tenter de définir des communautés, des profils, à servir selon des algorithmes toujours plus précis, nourris d’informations collectées de façon pantagruélique. L’expérience utilisateur sera étudiée, affinée, optimisée afin de contraindre l’usager par des moyens détournés à demeurer dans l’écosystème contrôlé par l’industrie. Ses concurrents vont s’efforcer de le dépasser en y consacrant plus de moyens techniques et financiers, en appliquant le même genre de recettes, pour servir les mêmes objectifs.

Un démocrate, une pièce de Julie Timmerman et un dossier : Edward Bernays, petit prince de la propagande (C&F Éditions https://cfeditions.com/bernays)

Le but est désormais de s’arroger le plus de temps de cerveau disponible que possible.

C’est là que réside le véritable souci : la place hégémonique de ce modèle économique fait qu’il définit nos horizons d’une façon mondialisée uniforme. En cherchant à capter notre attention, cela définit nos protentions, notre attente de l’avenir d’une façon univoque. Il assèche notre écosystème symbolique des possibles. Il limite nos portes de sortie. Il renforce sa propre vision du monde. Le modèle dominant issu d’une société anglo-saxonne capitaliste, avec ses présupposés et ses valeurs, finit ainsi par être essentialisé.

En résumé, plus petit est le nombre d’acteurs qui font la culture et plus restreinte est cette culture, qui tend à l’uniforme.

Un monde sans Netflix ? Non, un monde avec un million de Netflix !

Est-il possible de faire autrement ? Is there an alternative ? Oui et non. On peut imaginer.

Dimitri Damasceno — CC BY-SA https://www.flickr.com/photos/dimidam/12380371

On peut imaginer le soutien par chaque état de sa propre industrie numérique de façon à disposer de, disons 100 Netflix, deux ou trois par pays qui aurait l’envie et les moyens4.

On pourrait aussi imaginer de réduire les contraintes législatives et techniques liées au droit d’auteur. On arriverait peut-être à 1000 Netflix en réduisant ainsi le coût d’entrée juridique. On garderait des interdits (la reproduction massive), des embargos (6 mois, 1 an, 3 ans, mais pas 70 ans), etc. On resterait globalement dans le cadre actuel, mais selon une équation plus équilibrée entre ayants droits et utilisateurs.

Et puis allons plus loin, imaginons un monde où la culture serait sous licences libres. Chacun pourrait librement créer une activité basée sur l’exploitation des œuvres. On ouvrirait un site de diffusion de musique ou de séries comme on ouvre un commerce de proximité ou un chaton. Ça ferait sûrement un million de Netflix. Un archipel de Netflix où chaque îlot aurait sa vision, avec des archipels qui ne pourraient pas se voir. Mais on s’en foutrait, s’il y avait un million de Netflix, il y en aurait bien un qui nous correspondrait (même si on est d’un naturel exigeant).

On peut donc imaginer. Mais on peut aussi commencer dès aujourd’hui à mettre les voiles.

Les auteurs peuvent déposer leurs œuvres sous licence libre, pour préparer le monde de demain. Ils peuvent le faire quelques mois, voire années, après une exploitation commerciale classique. Ça permettra à d’autres d’en vivre. À la culture de se diffuser. Et même ça les aidera peut-être en tant que créateurs et créatrices, à faire émerger d’autres modèles de financement de la culture, moins mortifères que ceux qui existent actuellement pour les créateurs et créatrices5.

Les utilisateurs de culture peuvent agir via leurs usages, c’est à dire avec leurs porte-monnaie comme le propose la FSF :

 

Cancel your subscription to Netflix, and tell them why. https://defectivebydesign.org/cancelnetflix.

Il est également possible de soutenir directement des créateurs et créatrices qui tentent de sortir de ces ornières, en proposant leur travail sous licences libres.

Les citoyens peuvent jouer de leur influence en interpellant les détenteurs du pouvoir politique, ou en soutenant les acteurs associatifs qui militent contre les DRM, comme la FSF ou La Quadrature Du Net.

En résumé ? Coupez votre abonnement Netflix et envoyez les sous à une asso, un·e artiste de votre choix, qui milite pour un truc chouette ou qui simplement produit des contenus à votre goût. Même si c’est juste pour un mois ou deux, histoire de voir comment ça fait…




Refuser les rapports et soutenances de stages confidentiels

Aujourd’hui, nous vous proposons de sortir un peu des sentiers (re)battus du libre et des communs pour explorer un peu plus ceux de l’éducation et du partage. Stéphane Crozat, membre de Framasoft et prof. à l’Université de Technologie de Compiègne, souhaite partager ici une réflexion autour des conditions de publication des rapports de stage. Profitons du fait que le Framablog est aussi le blog des membres de l’association Framasoft pour lui donner la parole.

Stéphane Crozat, Framasoft

Chaque semestre, une partie significative des entreprises qui accueillent des stagiaires de l’Université Technologique de Compiègne dont je suis suiveur font une demande de procédure de confidentialité concernant le rapport et/ou la soutenance de l’étudiant. Je suis opposé à cette pratique.

Récemment encore une grande société française impliquée notamment dans des activités en lien avec la défense m’a fait une telle demande.

Ce semestre, j’ai pris le temps de poser mes arguments à plat, à la suite de quoi la demande a été retirée. Le mail que j’ai reçu en réponse faisait état du bien-fondé de ces arguments. Je les partage donc afin de contribuer peut-être à rendre les demandes de confidentialité plus marginales.

Préambule : la confidentialité est un droit de l’entreprise

Je ne suis pas opposé aux besoins de confidentialité des entreprises. De nombreux contextes l’exigent. À titre personnel il est par exemple évident que les informations dont je dispose sur les étudiants ne sauraient être divulguées publiquement.

Il est à noter que :

  • le principe de confidentialité est inclus par défaut dans le droit de travail : « le contrat de travail est exécuté de bonne foi (article L1222–1 du Code du travail) » ce qui implique notamment la loyauté, la non-concurrence ou la confidentialité ;
  • le stagiaire n’est pas complètement soumis au code du travail mais le principe de confidentialité reste présent dans la logique du stage et est communément explicité par une clause de non divulgation qui peut être ajoutée au contrat de travail ou à la convention de stage.

Donc, la confidentialité est une règle qui s’applique légitimement par défaut.

Entretien d'embauche. À la question "pouvez-vous m'en dire plus sur votre stage" le candidat répond "euh, non".

Argument 1 : Le rapport de l’étudiant est un élément de son CV, s’il est confidentiel, il ne pourra pas le produire.

Si un rapport est confidentiel, alors il ne pourra pas être produit pour faire valoir le travail réalisé, lors de la recherche d’un stage ultérieur ou lors de la recherche d’un emploi.

  • Un mémoire de stage est un travail personnel significatif pour le stagiaire qui mérite de figurer au rang des choses dont il peut être fier et qu’il peut montrer. C’est le déposséder de quelque chose d’important que de lui interdire de produire le résultat de son travail.
  • À défaut, c’est minorer l’importance de ce travail de restitution, ce qui peut conduire à des rapports sans intérêt, puisqu’en fin de compte personne ne les lira (à part peut-être à des fins d’évaluation, une fois, peut-être distraitement).

Proposition 1 : faire un rapport court et public

Je propose d’écrire un rapport synthétique et de bonne facture, non confidentiel et éventuellement de lui annexer un document confidentiel (qu’il n’est pas nécessaire de diffuser hors de l’entreprise).

On aura d’emblée l’ambition que ce rapport soit public, destiné à être diffusé sur le Web typiquement.

Le stagiaire cherchera à faire valoir les actions qu’il a pu mener sans divulguer d’information sensible. On peut pour cela procéder à de l’anonymisation, ou encore à la troncature d’information, sans nuire à la bonne compréhension du propos général. C’est en soi un bon exercice. La stagiaire pourra bien entendu mentionner en préambule qu’il a rédigé son rapport sous cette contrainte (un exemple d’approche : librecours.net/module/ing/rap).

Cette proposition a également le mérite de simplifier la gestion de la confidentialité et d’éviter les entre-deux inconfortables où personne ne sait exactement ce qu’il peut faire et laisser faire :

  1. un rapport public accessible à tous tout le temps,
  2. un rapport privé accessible à l’entreprise uniquement.

Argument 2 : La soutenance est un moment de mise en commun, cela ne peut pas fonctionner si tout le monde ne joue pas le jeu.

La soutenance est un moment d’échange entre étudiants, enseignants et entreprises. Les sessions sont organisées de telle façon que chacun profite des expériences des autres. Lorsque quelqu’un demande une soutenance confidentielle, il exclut de fait les autres de ce partage, c’est donc un appauvrissement de cette phase de restitution de stage. Si tout le monde procède ainsi, l’exercice perd tout intérêt, c’est en quelque sort un cas de dilemme du prisonnier6 : si personne ne se fait confiance, alors tout le monde perd.

Les paroles de l'étudiant sont "caviardées" dans sa bulle

Pour que la situation reste équitable, les soutenances confidentielles doivent se dérouler à part, en dehors de l’espace commun partagé par les autres. Ainsi ceux qui refusent de partager leur expérience se privent de la possibilité de profiter de l’expérience des autres.

C’est donc une dégradation de la situation d’apprentissage pour le stagiaire.

Proposition 2 : sélectionner ce qui est présenté en excluant ce qui est confidentiel

Je propose une soutenance non confidentielle sans information sensible. Il est possible qu’une soutenance ne porte pas sur l’ensemble du stage, c’est même souvent le cas, on peut donc se focaliser sur quelques-unes des tâches les moins sensibles et les exposer avec soin.

Le but d’une soutenance n’est pas de rendre compte dans le détail de tout ce qui a été fait, le temps ne le permettrait pas, mais de donner à voir une partie de ce que l’on a appris, ce que l’on sait faire, et, peut être en premier lieu : de communiquer des choses intéressantes au public.

Le public de la soutenance : ses oreilles sont bouchées de gros tampons d'ouate.

Une bonne soutenance est pour moi une soutenance à l’issue de laquelle on a appris des choses que l’on ignorait grâce à la clarté de l’exposé du stagiaire.

Cela n’implique pas de révéler des secrets spécifiques, mais au contraire d’avoir été capable de monter en généralité pour présenter en dehors du contexte les compétences et connaissances acquises. C’est ce qui fait leur valeur pour le stagiaire et ses futurs collaborateurs.

Conclusion : un argument personnel complémentaire

Accepter un travail d’encadrement de stage correspond à la perspective d’instaurer un échange. On consacre un peu de temps, on fait éventuellement bénéficier un peu de son expérience lorsque c’est utile, et en échange on apprend des choses que l’on peut réinvestir dans sa propre pratique professionnelle.

Le métier d’un enseignant-chercheur consistant à publier de la connaissance au service de tous, les informations confidentielles lui sont mal utiles. Donc le bilan est négatif : on ne gagne rien et on perd un peu de ce temps si précieux pour tous.

Je refuse a priori tout engagement dans le suivi de stages comprenant des rapports ou soutenances confidentielles.




Détruire le capitalisme de surveillance – 4

Voici la quatrième  partie de l’essai que consacre Cory Doctorow au capitalisme de surveillance (parcourir sur le blog les épisodes précédents – parcourir les trois premiers épisodes en PDF : doctorow-1-2-3).

Traduction Framalang : Claire, Fabrice, goofy,  jums, mo, ngfchristian, retrodev, tykayn

Billet original sur le Medium de OneZero : How To Destroy Surveillance Capitalism

Les monopoles n’engendrent pas la surveillance, mais ils l’encouragent certainement

par Cory Doctorow

Les industries compétitives sont fragmentées dans le sens où elles sont composées d’entreprises qui s’entre-déchirent en permanence et qui rognent sur leurs marges respectives lorsqu’elles proposent des offres à leurs meilleurs clients. Ce qui leur laisse moins d’investissement afin d’obtenir des règles plus favorables. Cette situation rend aussi plus difficile la mutualisation des ressources de chaque entreprise au profit de l’industrie toute entière.

La rencontre entre la surveillance et l’apprentissage machine est censé être l’aboutissement d’une crise existentielle, un moment particulier pour l’espèce humaine où notre libre arbitre serait très proche de l’extinction pure et simple. Même si je reste sceptique quant à cette hypothèse, je pense tout de même que la technologie pose de réelles menaces existentielles à notre société (et aussi plus généralement pour notre espèce entière).
Et ces menaces viennent des monopoles.

L’une des conséquences de l’emprise de la technologie sur la réglementation est qu’elle peut rejeter la responsabilité de mauvaises décisions en matière de sécurité sur ses clients et sur la société en général. Il est tout à fait banal dans le domaine de la technologie que les entreprises dissimulent les mécanismes de leurs produits, qu’elles en rendent le fonctionnement difficile à comprendre et qu’elles menacent les chercheurs en sécurité indépendants qui auditent ces objets.

L’informatique est le seul domaine dans lequel ces pratiques existent : personne ne construit un pont ou un hôpital en gardant secret la composition de l’acier ou les équations utilisées pour calculer les contraintes de charge. C’est une pratique assez bizarre qui conduit, encore et toujours, à des défauts de sécurité grotesques à une échelle tout aussi grotesque, des pans entiers de dispositifs étant révélés comme vulnérables bien après qu’ils ont été déployées et placés dans des endroits sensibles.

Le pouvoir monopolistique qui tient à distance toute conséquence significative de ces violations, signifie que les entreprises technologiques continuent à créer des produits exécrables, mal conçus et qui finissent par être intégrés à nos vies, par posséder nos données, et être connectés à notre monde physique. Pendant des années, Boeing s’est battu contre les conséquences d’une série de mauvaises décisions technologiques qui ont fait de sa flotte de 737 un paria mondial, c’est l’un des rares cas où des décisions technologiques de piètre qualité ont été sérieusement sanctionnées par le marché.

Ces mauvaises décisions en matière de sécurité sont encore aggravées par l’utilisation de verrous de copyright pour faire appliquer des décisions commerciales à l’encontre des consommateurs. Souvenez-vous que ces verrous sont devenus un moyen incontournable de façonner le comportement des consommateurs, qui rend techniquement impossible l’utilisation de cartouches d »encre compatibles, d’insuline, d’applications mobiles ou de dépôts de services tiers en relation avec vos biens acquis légalement.

Rappelez-vous également que ces verrous sont soutenus par une législation (telle que la section 1201 du DMCA ou l’article 6 de la directive européenne sur le droit d’auteur de 2001) qui interdit de les altérer (de les « contourner »), et que ces lois ont été utilisées pour menacer les chercheurs en sécurité qui divulguent des vulnérabilités sans la permission des fabricants.

Cela revient à un véritable veto des fabricants sur les alertes de sécurité et les critiques. Bien que cela soit loin de l’intention législative du DMCA (et de son équivalent dans d’autres juridictions dans le monde), le Congrès n’est pas intervenu pour clarifier la loi et ne le fera jamais, car cela irait à l’encontre des intérêts des puissantes entreprises dont le lobbying est imparable.

Les verrous de copyright sont une arme à double tranchant. D’abord parce qu’ils provoquent de mauvaises décisions en matière de sécurité qui ne pourront pas être librement étudiées ni discutées. Si les marchés sont censés être des machines à agréger l’information (et si les rayons de contrôle mental fictif du capitalisme de surveillance en font un « capitalisme voyou » parce qu’il refuse aux consommateurs le pouvoir de prendre des décisions), alors un programme qui impose légalement l’ignorance sur les risques des produits rend le monopole encore plus « voyou » que les campagnes d’influence du capitalisme de surveillance.

Et contrairement aux rayons de contrôle mental, ce silence imposé sur la sécurité est un problème brûlant et documenté qui constitue une menace existentielle pour notre civilisation et peut-être même pour notre espèce. La prolifération des dispositifs non sécurisés – en particulier ceux qui nous espionnent et surtout lorsque ces dispositifs peuvent également manipuler le monde physique, par exemple, qui tourne le volant de votre voiture ou en actionnant un disjoncteur dans une centrale électrique – est une forme de dette technique.
En conception logicielle, la « dette technique » fait référence à des décisions anciennes et bien calculées qui, avec le recul, s’avèrent être mauvaises. Par exemple, un développeur de longue date a peut-être décidé d’intégrer un protocole réseau exigé par un fournisseur, qui a depuis cessé de le prendre en charge.

Mais tout dans le produit repose toujours sur ce protocole dépassé. Donc, à chaque révision, des équipes doivent travailler autour de ce noyau obsolète, en y ajoutant des couches de compatibilité, en l’entourant de contrôles de sécurité qui tentent de renforcer ses défenses, etc. Ces mesures de fortune aggravent la dette technique, car chaque révision ultérieure doit en tenir compte, tout comme les intérêts d’un crédit revolving. Et comme dans le cas d’un prêt à risque, les intérêts augmentent plus vite que vous ne pouvez espérer les rembourser : l’équipe en charge du produit doit consacrer tellement d’énergie au maintien de ce système complexe et fragile qu’il ne lui reste plus de temps pour remanier le produit de fond en comble et « rembourser la dette » une fois pour toutes.

En général, la dette technique entraîne une faillite technologique : le produit devient si fragile et instable qu’il finit par échouer de manière catastrophique. Pensez aux systèmes bancaires et comptables désuets basés sur du COBOL qui se sont effondrés au début de la pandémie lorsque les demandes d’allocations chômage se sont multipliées. Parfois, cela met fin au produit, parfois, cela entraîne l’entreprise dans sa chute. Être pris en défaut de paiement d’une dette technique est effrayant et traumatisant, tout comme lorsque l’on perd sa maison pour cause de faillite.
Mais la dette technique créée par les verrous de copyright n’est pas individuelle, elle est systémique. Chacun dans le monde est exposé à ce surendettement, comme ce fut le cas lors de la crise financière de 2008. Lorsque cette dette arrivera à échéance – lorsque nous serons confrontés à des violations de sécurité en cascade qui menacent le transport et la logistique mondiales, l’approvisionnement alimentaire, les processus de production pharmaceutique, les communications d’urgence et autres systèmes essentiels qui accumulent de la dette technique en partie due à la présence de verrous de copyright délibérément non sécurisés et délibérément non vérifiables – elle constituera en effet un risque existentiel.

Vie privée et monopole

De nombreuses entreprises technologiques sont prisonnières d’une orthodoxie : si elles recueillent assez de données sur suffisamment de nos activités, tout devient possible – le contrôle total des esprits et des profits infinis. C’est une hypothèse invérifiable : en effet, si des données permettent à une entreprise technologique d’améliorer ne serait-ce que légèrement ses prévisions de comportements, alors elle déclarera avoir fait le premier pas vers la domination mondiale sans retour en arrière possible. Si une entreprise ne parvient pas à améliorer la collecte et l’analyse des données, alors elle déclarera que le succès est juste au coin de la rue et qu’il sera possible de l’atteindre une fois qu’elle disposera de nouvelles données.

La technologie de surveillance est loin d’être la première industrie à adopter une croyance absurde et égoïste qui nuit au reste du monde, et elle n’est pas la première industrie à profiter largement d’une telle illusion. Bien avant que les gestionnaires de fonds spéculatifs ne prétendent (à tort) pouvoir battre le S&P 500 (l’équivalent du CAC40 américain), de nombreuses autres industries « respectables » se sont révélées être de véritables charlatans. Des fabricants de suppositoires au radium (si, si, ça existe!) aux cruels sociopathes qui prétendaient pouvoir « guérir » les homosexuels, l’histoire est jonchée de titans industriels autrefois respectables qui ont mal fini.

Cela ne veut pas dire que l’on ne peut rien reprocher aux Géants de la tech et à leurs addictions idéologiques aux données. Si les avantages de la surveillance sont généralement surestimés, ses inconvénients sont, à tout le moins, sous-estimés.

Cette situation est très ironique. La croyance que le capitalisme de surveillance est un « capitalisme voyou » s’appuie sur l’hypothèse que les marchés ne toléreraient pas des entreprises engluées dans de fausses croyances. Une compagnie pétrolière qui se trompe souvent sur l’endroit où se trouve le pétrole finira par faire faillite en creusant tout le temps des puits déjà secs.

Mais les monopoles peuvent faire des choses graves pendant longtemps avant d’en payer le prix. Imaginez comment la concentration dans le secteur financier a permis à la crise des subprimes de s’envenimer alors que les agences de notation, les régulateurs, les investisseurs et les critiques sont tous tombés sous l’emprise d’une fausse croyance selon laquelle les mathématiques complexes pourraient construire des instruments de dette « entièrement couverts », qui ne pourraient pas faire défaut. Une petite banque qui se livrerait à ce genre de méfaits ferait tout simplement faillite au lieu d’échapper à une crise inévitable, à moins qu’elle ait pris une telle ampleur qu’elle l’aurait évitée. Mais les grandes banques ont pu continuer à attirer les investisseurs, et lorsqu’elles ont finalement réussi à s’en sortir, les gouvernements du monde entier les ont renflouées. Les pires auteurs de la crise des subprimes sont plus importants qu’ils ne l’étaient en 2008, rapportant plus de profits et payant leurs dirigeants des sommes encore plus importantes.

Les grandes entreprises technologiques sont en mesure de surveiller non seulement parce qu’elles sont technologiques, mais aussi parce qu’elles sont énormes. La raison pour laquelle tous les éditeurs de sites web intègrent le bouton «J’aime » de Facebook, est que Facebook domine les recommandations des médias sociaux sur Internet – et chacun de ces boutons « J’aime » espionne tous les utilisateurs qui visitent sur une page qui les contient (voir aussi : intégration de Google Analytics, boutons Twitter, etc.).

Si les gouvernements du monde entier ont tardé à mettre en place des sanctions significatives pour atteintes à la vie privée, c’est parce que la concentration des grandes entreprises technologiques génère d’énormes profits qui peuvent être utilisés pour faire pression contre ces sanctions.
La raison pour laquelle les ingénieurs les plus intelligents du monde veulent travailler pour les Géants de la tech est que ces derniers se taillent la part du lion des emplois dans l’industrie technologique.

Si les gens se sont horrifiés des pratiques de traitement des données de Facebook, Google et Amazon mais qu’ils continuent malgré tout d’utiliser ces services, c’est parce que tous leurs amis sont sur Facebook, que Google domine la recherche et qu’Amazon a mis tous les commerçants locaux en faillite.

Des marchés concurrentiels affaibliraient le pouvoir de lobbying des entreprises en réduisant leurs profits et en les opposant les unes aux autres à l’intérieur d’une réglementation commune. Cela donnerait aux clients d’autres endroits où aller pour obtenir leurs services en ligne. Les entreprises seraient alors suffisamment petites pour réglementer et ouvrir la voie à des sanctions significatives en cas d’infraction. Cela permettrait aux ingénieurs, dont les idées remettent en cause l’orthodoxie de la surveillance, de lever des capitaux pour concurrencer les opérateurs historiques. Cela donnerait aux éditeurs de sites web de multiples moyens d’atteindre leur public et de faire valoir leurs arguments contre l’intégration de Facebook, Google et Twitter.

En d’autres termes, si la surveillance ne provoque pas de monopoles, les monopoles encouragent certainement la surveillance…

Ronald Reagan, pionnier du monopole technologique

L’exceptionnalisme technologique est un péché, qu’il soit pratiqué par les partisans aveugles de la technologie ou par ses détracteurs. Ces deux camps sont enclins à expliquer la concentration monopolistique en invoquant certaines caractéristiques particulières de l’industrie technologique, comme les effets de réseau ou l’avantage du premier arrivé. La seule différence réelle entre ces deux groupes est que les apologistes de la technologie disent que le monopole est inévitable et que nous devrions donc laisser la technologie s’en tirer avec ses abus tandis que les régulateurs de la concurrence aux États-Unis et dans l’UE disent que le monopole est inévitable et que nous devrions donc punir la technologie pour ses abus mais sans essayer de briser les monopoles.

Pour comprendre comment la technologie est devenue aussi monopolistique, il est utile de se pencher sur l’aube de l’industrie technologique grand public : 1979, l’année où l’Apple II Plus a été lancé et est devenu le premier ordinateur domestique à succès. C’est également l’année où Ronald Reagan a fait campagne pour la présidentielle de 1980, qu’il a remportée, ce qui a entraîné un changement radical dans la manière dont les problèmes de concurrence sont traités en Amérique. Toute une cohorte d’hommes politiques de Reagan – dont Margaret Thatcher au Royaume-Uni, Brian Mulroney au Canada, Helmut Kohl en Allemagne et Augusto Pinochet au Chili – a ensuite procédé à des réformes similaires qui se sont finalement répandues dans le monde entier.

L’histoire de la lutte antitrust a commencé près d’un siècle avant tout cela avec des lois comme la loi Sherman, qui ciblait les monopoles au motif qu’ils étaient mauvais en soi – écrasant les concurrents, créant des « déséconomies d’échelle » (lorsqu’une entreprise est si grande que ses parties constitutives vont mal et qu’elle semble impuissante à résoudre les problèmes), et assujettissant leurs régulateurs à un point tel qu’ils ne peuvent s’en tirer sans une foule de difficultés.

Puis vint un affabulateur du nom de Robert Bork, un ancien avocat général que Reagan avait nommé à la puissante Cour d’appel américaine pour le district de Columbia et qui avait inventé de toutes pièces une histoire législative alternative de la loi Sherman et des lois suivantes. Bork a soutenu que ces lois n’ont jamais visé les monopoles (malgré de nombreuses preuves du contraire, y compris les discours retranscrits des auteurs des de ces lois) mais qu’elles visaient plutôt à prévenir les « préjudices aux consommateurs » – sous la forme de prix plus élevés.
Bork était un hurluberlu, certes, mais les riches aimaient vraiment ses idées. Les monopoles sont un excellent moyen de rendre les riches plus riches en leur permettant de recevoir des « rentes de monopole » (c’est-à-dire des profits plus importants) et d’assujettir les régulateurs, ce qui conduit à un cadre réglementaire plus faible et plus favorable, avec moins de protections pour les clients, les fournisseurs, l’environnement et les travailleurs.

Les théories de Bork étaient particulièrement satisfaisantes pour les mêmes personnalités influentes qui soutenaient Reagan. Le ministère de la Justice et d’autres agences gouvernementales de l’administration Reagan ont commencé à intégrer la doctrine antitrust de Bork dans leurs décisions d’application (Reagan a même proposé à Bork de siéger à la Cour suprême, mais Bork a été tellement mauvais à l’audience de confirmation du Sénat que, 40 ans plus tard, les experts de Washington utilisent le terme « borked » pour qualifier toute performance politique catastrophique).

Peu à peu, les théories de Bork se sont répandues, et leurs partisans ont commencé à infiltrer l’enseignement du droit, allant même jusqu’à organiser des séjours tous frais payés, où des membres de la magistrature étaient invités à de copieux repas, à participer à des activités de plein air et à assister à des séminaires où ils étaient endoctrinés contre la théorie antitrust et les dommages qu’elle cause aux consommateurs. Plus les théories de Bork s’imposaient, plus les monopolistes gagnaient de l’argent – et plus ils disposaient d’un capital excédentaire pour faire pression en faveur de campagnes d’influence antitrust à la Bork.

L’histoire des théories antitrust de Bork est un très bon exemple du type de retournements d’opinion publique obtenus secrètement et contre lesquels Zuboff nous met en garde, où les idées marginales deviennent peu à peu l’orthodoxie dominante. Mais Bork n’a pas changé le monde du jour au lendemain. Il a été très endurant, pendant plus d’une génération, et il a bénéficié d’un climat favorable parce que les forces qui ont soutenu les théories antitrust oligarchiques ont également soutenu de nombreux autres changements oligarchiques dans l’opinion publique. Par exemple, l’idée que la fiscalité est un vol, que la richesse est un signe de vertu, etc. – toutes ces théories se sont imbriquées pour former une idéologie cohérente qui a élevé l’inégalité au rang de vertu.

Aujourd’hui, beaucoup craignent que l’apprentissage machine permette au capitalisme de surveillance de vendre « Bork-as-a-Service », à la vitesse de l’Internet, afin qu’on puisse demander à une société d’apprentissage machine de provoquer des retournements rapides de l’opinion publique sans avoir besoin de capitaux pour soutenir un projet multiforme et multigénérationnel mené aux niveaux local, étatique, national et mondial, dans les domaines des affaires, du droit et de la philosophie. Je ne crois pas qu’un tel projet soit réalisable, bien que je sois d’accord avec le fait que c’est essentiellement ce que les plateformes prétendent vendre. Elles mentent tout simplement à ce sujet. Les (entreprises de la) Big Tech mentent tout le temps, y compris dans leur documentation commerciale.

L’idée que la technologie forme des « monopoles naturels » (des monopoles qui sont le résultat inévitable des réalités d’une industrie, comme les monopoles qui reviennent à la première entreprise à exploiter des lignes téléphoniques longue distance ou des lignes ferroviaires) est démentie par la propre histoire de la technologie : en l’absence de tactiques anticoncurrentielles, Google a réussi à détrôner AltaVista et Yahoo, et Facebook a réussi à se débarrasser de Myspace. La collecte de montagnes de données présente certains avantages, mais ces montagnes de données ont également des inconvénients : responsabilité (en raison de fuites), rendements décroissants (en raison d’anciennes données) et inertie institutionnelle (les grandes entreprises, comme la science, progressent en liquidant les autres à mesure).

En effet, la naissance du Web a vu l’extinction en masse des technologies propriétaires géantes et très rentables qui disposaient de capitaux, d’effets de réseau, de murs et de douves autour de leurs entreprises. Le Web a montré que lorsqu’une nouvelle industrie est construite autour d’un protocole, plutôt que d’un produit, la puissance combinée de tous ceux qui utilisent le protocole pour atteindre leurs clients, utilisateurs ou communautés, dépasse même les produits les plus massivement diffusés. CompuServe, AOL, MSN et une foule d’autres jardins clos propriétaires ont appris cette leçon à la dure : chacun croyait pouvoir rester séparé du Web, offrant une « curation » et une garantie de cohérence et de qualité au lieu du chaos d’un système ouvert. Chacun a eu tort et a fini par être absorbé dans le Web public.

Oui, la technologie est fortement monopolisée et elle est maintenant étroitement associée à la concentration de l’industrie, mais c’est davantage lié à une question de temps qu’à des tendances intrinsèquement monopolistiques. La technologie est née au moment où l’application de la législation antitrust était démantelée, et la technologie est tombée exactement dans les mêmes travers contre lesquels l’antitrust était censé se prémunir. En première approximation, il est raisonnable de supposer que les monopoles de Tech sont le résultat d’un manque d’action anti-monopole et non des caractéristiques uniques tant vantées de Tech, telles que les effets de réseau, l’avantage du premier arrivé, etc.

À l’appui de cette théorie, je propose de considérer la concentration que tous les autres secteurs ont connue au cours de la même période. De la lutte professionnelle aux biens de consommation emballés, en passant par le crédit-bail immobilier commercial, les banques, le fret maritime, le pétrole, les labels discographiques, la presse écrite et les parcs d’attractions, tous les secteurs ont connu un mouvement de concentration massif. Il n’y a pas d’effets de réseau évidents ni d’avantage de premier arrivé dans ces secteurs. Cependant, dans tous les cas, ils ont atteint leur statut de concentration grâce à des tactiques qui étaient interdites avant le triomphe de Bork : fusion avec des concurrents majeurs, rachat de nouveaux venus innovants sur le marché, intégration horizontale et verticale, et une série de tactiques anticoncurrentielles qui étaient autrefois illégales mais ne le sont plus.

Encore une fois : lorsque vous modifiez les lois destinées à empêcher les monopoles, puis que les monopoles se forment exactement comme la loi était censée les empêcher, il est raisonnable de supposer que ces faits sont liés. La concentration de Tech peut être facilement expliquée sans avoir recours aux théories radicales des effets de réseau – mais seulement si vous êtes prêt à accuser les marchés non réglementés de tendre vers le monopole. Tout comme un fumeur de longue date peut vous fournir une foule de raisons selon lesquelles ce n’est pas son tabagisme qui a provoqué son cancer (« Ce sont les toxines environnementales »), les vrais partisans des marchés non réglementés ont toute une série d’explications peu convaincantes pour prétendre que le monopole de la technologie ne modifie pas le capitalisme.

Conduire avec les essuie-glaces

Cela fait quarante ans que le projet de Bork pour réhabiliter les monopoles s’est réalisé, soit une génération et demie, c’est à dire suffisamment de temps pour qu’une idée commune puisse devenir farfelue ou l’inverse. Avant les années 40, les Américains aisés habillaient leurs petits garçons en rose alors que les filles portaient du bleu (une couleur « fragile et délicate »). Bien que les couleurs genrées soient totalement arbitraires, beaucoup découvriront cette information avec étonnement et trouveront difficile d’imaginer un temps où le rose suggérait la virilité.

Après quarante ans à ignorer scrupuleusement les mesures antitrust et leur mise en application, il n’est pas surprenant que nous ayons presque tous oublié que les lois antitrust existent, que la croissance à travers les fusions et les acquisitions était largement interdite par la loi, et que les stratégies d’isolation d’un marché, comme par l’intégration verticale, pouvait conduire une entreprise au tribunal.

L’antitrust, c’est le volant de cette voiture qu’est la société de marché, l’outil principal qui permet de contrôler la trajectoire de ces prétendants au titre de maîtres de l’univers. Mais Bork et ses amis nous ont arraché ce volant des mains il y a quarante ans. Puisque la voiture continue d’avancer, nous appuyons aussi fort que possible sur toutes les autres commandes de la voiture, de même que nous ouvrons et fermons les portes, montons et descendons les vitres dans l’espoir qu’une de ces commandes puisse nous permettre de choisir notre direction et de reprendre le contrôle avant de foncer dans le décor.

Ça ressemble à un scénario de science-fiction des années 60 qui deviendrait réalité : voyageant à travers les étoiles, des humains sont coincés dans un « vaisseau générationnel » autrefois piloté par leurs ancêtres, et maintenant, après une grande catastrophe, l’équipage a complètement oublié qu’il est dans un vaisseau et ne se souvient pas où est la salle de contrôle. À la dérive, le vaisseau court à sa perte, et, à moins que nous puissions reprendre le contrôle et corriger le cap en urgence, nous allons tout fonçons droit vers une mort ardente dans le cœur d’un soleil.

La surveillance a toujours son importance

Rien de tout cela ne doit minimiser les problèmes liés à la surveillance. La surveillance est importante, et les Géants de la tech qui l’utilisent font peser un véritable risque existentiel sur notre espèce, mais ce n’est pas parce que la surveillance et l’apprentissage machine nous subtilisent notre libre arbitre.

La surveillance est devenue bien plus efficace avec les Géants de la tech. En 1989, la Stasi — la police secrète est-allemande — avait l’intégralité du pays sous surveillance, un projet titanesque qui recrutait une personne sur 60 en tant qu’informateur ou comme agent de renseignement.

Aujourd’hui, nous savons que la NSA espionne une partie significative de la population mondiale, et le ratio entre agents de renseignement et population surveillée est plutôt de l’ordre de 1 pour 10 000 (ce chiffre est probablement sous-estimé puisqu’il suppose que tous les Américains détenant un niveau de confidentialité top secret travaillent pour la NSA — en fait on ne sait pas combien de personnes sont autorisées à espionner pour le compte de la NSA, mais ce n’est certainement pas toutes les personnes classées top secret).

Comment ce ratio de citoyens surveillés a-t-il pu exploser de 1/60 à 1/10 000 en moins de trente ans ? C’est bien grâce aux Géants de la tech. Nos appareils et leurs services collectent plus de données que ce que la NSA collecte pour ses propres projets de surveillance. Nous achetons ces appareils, nous nous connectons à leurs services, puis nous accomplissons laborieusement les tâches nécessaires pour insérer des données sur nous, notre vie, nos opinions et nos préférences. Cette surveillance de masse s’est révélée complètement inutile dans la lutte contre le terrorisme : la NSA évoque un seul et unique cas, dans lequel elle a utilisé un programme de collection de données pour faire échouer une tentative de transfert de fond de quelques milliers de dollars d’un citoyen américain vers un groupe terroriste basé à l’étranger. Les raisons de cette inefficacité déconcertante sont les mêmes que pour l’échec du ciblage publicitaire par les entreprises de surveillance commerciale : les personnes qui commettent des actes terroristes, tout comme celles qui achètent un frigo, se font très rares. Si vous voulez détecter un phénomène dont la probabilité de base est d’un sur un million avec un outil dont la précision n’est que de 99 %, chaque résultat juste apparaîtra au prix de 9 999 faux positifs.

Essayons de le formuler autrement : si une personne sur un million est terroriste, alors nous aurons seulement un terroriste dans un échantillon d’un million de personnes. Si votre test de détecteur à terroristes est précis à 99 %, il identifiera 10 000 terroristes dans votre échantillon d’un million de personnes (1 % d’un million = 10 000). Pour un résultat juste, vous vous retrouvez avec 9 999 faux positifs.

En réalité, la précision algorithmique de la détection de terroriste est bien inférieure à 99 %, tout comme pour les publicités de frigo. La différence, c’est qu’être accusé à tort d’être un potentiel acheteur de frigo est une nuisance somme toute assez faible, alors qu’être accusé à tort de planifier un attentat terroriste peut détruire votre vie et celle de toutes les personnes que vous aimez.

L’État ne peut surveiller massivement que parce que le capitalisme de surveillance et son très faible rendement existent, ce qui demande un flux constant de données personnelles pour pouvoir rester viable. L’échec majeur du capitalisme de surveillance vient des publicités mal ciblées, tandis que celui de la surveillance étatique vient des violations éhontées des Droits de l’humain, qui ont tendance à dériver vers du totalitarisme.

La surveillance de l’État n’est pas un simple parasite des Géants de la tech, qui pomperait les données sans rien accorder en retour. En réalité, ils sont plutôt en symbiose : les Géants pompent nos données pour le compte des agences de renseignement, et ces dernières s’assurent que le pouvoir politique ne restreint pas trop sévèrement les activités des Géants de la tech jusqu’à devenir inutile aux besoins du renseignement. Il n’y a aucune distinction claire entre la surveillance d’État et le capitalisme de surveillance, ils sont tous deux co-dépendants.

Pour comprendre comment tout cela fonctionne aujourd’hui, pas besoin de regarder plus loin que l’outil de surveillance d’Amazon, la sonnette Ring et son application associée Neighbors. Ring — un produit acheté et non développé par Amazon — est une sonnette munie d’une caméra qui diffuse les images de l’entrée devant votre porte sur votre téléphone. L’application Neighbors vous permet de mettre en place un réseau de surveillance à l’échelle de votre quartier avec les autres détenteurs de sonnette Ring autour de chez vous, avec lesquels vous pouvez partager des vidéos de « personnes suspectes ». Si vous pensez que ce système est le meilleur moyen pour permettre aux commères racistes de suspecter toute personne de couleur qui se balade dans le quartier, vous avez raison. Ring est devenu de facto, le bras officieux de la police sans s’embêter avec ces satanées lois et règlements.

À l’été 2019, une série de demande de documents publics a révélé qu’Amazon a passé des accords confidentiels avec plus de 400 services de police locaux au travers desquelles ces agences font la promotion de Ring and Neighbors en échange de l’accès à des vidéos filmées par les visiophones Ring. En théorie, la police devrait réclamer ces vidéos par l’intermédiaire d’Amazon (et des documents internes ont révélé qu’Amazon consacre des ressources non-négligeables pour former les policiers à formuler des histoires convaincantes dans ce but), mais dans la pratique, quand un client Ring refuse de transmettre ses vidéos à la police, Amazon n’exige de la police qu’une simple requête formelle à adresser à l’entreprise, ce qu’elle lui remet alors.

Ring et les forces de police ont trouvé de nombreuses façons de mêler leurs activités . Ring passe des accords secrets pour avoir un accès en temps réel aux appels d’urgence (le 911) pour ensuite diffuser à ses utilisateurs les procès-verbaux de certaines infractions, qui servent aussi à convaincre n’importe quelle personne qui envisage d’installer un portier de surveillance mais qui ne sait pas vraiment si son quartier est suffisamment dangereux pour que ça en vaille le coup.

Plus les flics vantent les mérites du réseau de surveillance capitaliste Ring, plus l’État dispose de capacités de surveillance. Les flics qui s’appuient sur des entités privées pour faire respecter la loi s’opposent ensuite à toute régulation du déploiement de cette technologie, tandis que les entreprises leur rendent la pareille en faisant pression contre les règles qui réclament une surveillance publique de la technologie de surveillance policière. Plus les flics s’appuient sur Ring and Neighbors, plus il sera difficile d’adopter des lois pour les freiner. Moins il y aura de lois contre eux, plus les flics se reposeront sur ces technologies.




La dégooglisation de l’éditeur

Il y a quelques mois, avant que la covid19 ne vienne chambouler notre quotidien, Angie faisait le constat que nous n’avions finalement que très peu documenté sur ce blog les démarches de passage à des outils libres réalisées au sein des organisations. Celles-ci sont pourtant nombreuses à s’être questionnées et à avoir entamé une « degooglisation ». Il nous a semblé pertinent de les interviewer pour comprendre pourquoi et comment elles se sont lancées dans cette aventure. Ce retour d’expérience est, pour Framasoft, l’occasion de prouver que c’est possible, sans ignorer les difficultés et les freins rencontrés, les écueils et erreurs à ne pas reproduire, etc. Peut-être ces quelques témoignages parviendront-ils à vous convaincre de passer au libre au sein de votre structure et à la libérer des outils des géants du Web ?

La maison d’édition Pourpenser a attiré notre attention sur Mastodon avec ses prises de position libristes. En discutant un peu nous avons compris qu’elle a joint le geste à la parole en faisant évoluer ses outils informatiques. Ça n’est pas si fréquent, une entreprise qui se dégooglise. Nous lui avons demandé un retour d’expérience.

N’hésitez pas à consulter les autres articles de cette série consacrée à l’autonomisation numérique des organisations.

Bonjour, peux-tu te présenter brièvement ? Qui es-tu ? Quel est ton parcours ?

Albert, co-fondateur des éditions Pourpenser avec ma sœur Aline en 2002.

Petit je voulais être garde forestier ou cuisinier… autant dire que j’ai raté ma vocation 🙂 (même si j’adore toujours cuisiner).

En 1987 j’avais un voisin de palier qui travaillait chez Oracle. Après les cours je passais du temps sur un ordinateur qu’il me mettait à disposition : j’ai donc commencé avec un ordi sur MS-DOS et des tables SQL.

1987, c’était aussi le tout début de la PAO. Il y avait un logiciel dont j’ai perdu le nom dans lequel je mettais le texte en forme avec des balises du genre <A>ça fait du gras</A>, je trouvais ça beaucoup plus intéressant que PageMaker et lorsque j’ai découvert Ventura Publisher qui mariait les deux mondes, j’ai été conquis.

Par la suite j’ai travaillé une dizaine d’années dans la localisation de jeux vidéo et de CD-ROM : nous traduisions le contenu et le ré-intégrions dans le code. Ma première connexion à internet remonte à 1994 avec FranceNet, j’avais 25 ans. Je découvrais ce monde avec de grands yeux en m’intéressant au logiciel libre, à la gouvernance d’internet (je me rappelle notamment de l’ISOC et des rencontres d’Autrans) et ça bousculait pas mal de schémas que je pouvais avoir.

2000 : naissance de ma fille aînée, je quitte Paris, je prends un grand break : envie de donner plus de sens à ma vie.

2002 : naissance de mon fils et création de la maison d’édition avec ma sœur.

 

Tu nous parles de ton entreprise ?

Dans sa forme, Pourpenser est une SARL classique. Régulièrement, nous nous posons la question de revoir les statuts mais ça demande du temps et de l’argent que nous préférons mettre ailleurs. Finalement, le mode SARL est plutôt souple et dans les faits, nous avons une organisation très… anarchique. Même si avec Aline nous sentons bien qu’en tant que fondateurs notre voix compte un peu plus, l’organisation est très horizontale et les projets partent souvent dans tous les sens.

L'équipe des Éditions Pourpenser

Que fait-elle ?

Dès le départ, nous avons eu à cœur de proposer des livres « avec du sens ». Aborder des questions existentielles, des questions de sociétés ou autour de notre relation au vivant. La notion d’empreinte nous interpelle régulièrement. Ne pas laisser d’empreinte est compliqué. Mais peut-être pouvons-nous choisir de laisser une empreinte aussi légère qu’utile ? La cohérence entre le contenu des livres que nous éditons et la manière dont nous produisons et amenons ces livres aux lecteurs et lectrices a toujours été centrale… même si rester cohérent est loin d’être toujours simple.

Nous aimons dire que notre métier n’est pas de faire des livres mais de transmettre du questionnement. Ceci dit, depuis 2002, nous avons édité environ 120 titres et une soixantaines d’auteur·e·s. Nous aimons éditer des contes, des romans, des BD, des jeux, des contes musicaux qui vont amener à une discussion, à une réflexion. Mais qui sait si un jour nous n’irons pas vers du spectacle vivant, de la chanson…

Combien êtes-vous ?

Normalement, nous sommes 8 personnes à travailler quasi-quotidiennement sur le catalogue de la maison et cela fait l’équivalent d’environ 5 temps plein, mais avec la crise actuelle nous avons nettement plus de temps libre… À côté de ça, nous accompagnons une soixantaine d’auteur·e·s, travaillons avec une centaine de points de vente en direct et avons quelques dizaines de milliers de contacts lecteurs.

 

Est-ce que tout le monde travaille au même endroit ?

L’équipe de huit est principalement située dans l’ouest, et l’une de nous est du côté de Troyes. Nous nous réunissons environ deux fois par an et utilisons donc beaucoup le réseau pour échanger. Le confinement de mars n’a fondamentalement rien changé à notre façon de travailler en interne. Par contre, les salons et les festivals ou nous aimons présenter les livres de la maison nous manquent et le fait que les librairies fonctionnent au ralenti ne nous aide pas.


Tu dirais que les membres de l’organisation sont plutôt à l’aise avec le numérique ? Pas du tout ? Ça dépend ? Kamoulox ?

Globalement, la culture « utilisateur du numérique » est bien présente dans toute l’équipe. Mais je dirais que nous sommes surtout deux : Dominique et moi, que la question de « jouer avec » amuse. Pour le reste de l’équipe, il faut que ça fonctionne et soit efficace sans prise de tête.

 

Avant de lancer cette démarche, vous utilisiez quels outils / services numériques ?

Lors de la création en 2002, j’ai mis en place un site que j’avais développé depuis un ensemble de scripts PHP liés à une base MySQL. Pour la gestion interne et la facturation, j’utilisais Filemaker (lorsque je ne suis pas sur Linux, je suis sur MacOS), et au fur et à mesure de l’arrivée des outils de Google (gmail, partage de documents…) nous les avons adoptés : c’était tellement puissant et pratique pour une mini structure éclatée comme la nôtre.

Par la suite, nous avons remplacé Filemaker par une solution ERP-CRM qui était proposée en version communautaire et que j’hébergeais chez OVH (LundiMatin – LMB) et le site internet a été séparé en 2 : un site B2C avec Emajine une solution locale mais sous licence propriétaire (l’éditeur Medialibs est basé à Nantes) et un site B2B sous Prestashop.

Pour les réseaux sociaux : Facebook, Instagram Twitter, Youtube.

En interne, tout ce qui est documents de travail léger passaient par Google Drive, Hubic (solution cloud de chez OVH) et les documents plus lourds (illustrations, livres mis en page) par du transfert de fichiers (FTP ou Wetransfer).

 

Qu’est-ce qui posait problème ?

La version communautaire de LMB n’a jamais vraiment décollé et au bout de 3 ans nous avons été contraints de migrer vers la solution SaS, et là, nous avons vraiment eu l’impression de nous retrouver enfermés. Impossible d’avoir accès à nos tables SQL, impossible de modifier l’interface. À côté de ça une difficulté grandissante à utiliser les outils de Google pour des raisons éthiques (alors que je les portais aux nues au début des années 2000…)

 

Vous avez entamé une démarche en interne pour migrer vers des outils numériques plus éthiques. Qu’est-ce qui est à l’origine de cette démarche ?

La démarche est en cours et bien avancée.

J’ai croisé l’existence de Framasoft au début des années 2000 et lorsque l’association a proposé des outils comme les Framapad, framacalc et toutes les framachoses ; j’en ai profité pour diffuser ces outils plutôt que ceux de Google auprès des associations avec lesquelles j’étais en contact. Mes activités associatives m’ont ainsi permis de tester petit à petit les outils avant de les utiliser au niveau de l’entreprise.

Des outils (LMB, Médialibs) propriétaires avec de grandes difficultés et/ou coûts pour disposer de fonctionnalités propre à notre métier d’éditeur. Des facturations pour utilisation des systèmes existants plutôt que pour du développement. Un sentiment d’impuissance pour répondre à nos besoins numériques et d’une non écoute de nos problématiques : c’est à nous de nous adapter aux solutions proposées… Aucune liberté.

« un besoin de cohérence »

Quelle était votre motivation ?

La motivation principale est vraiment liée à un besoin de cohérence.

Nous imprimons localement sur des papiers labellisés, nous calculons les droits d’auteurs sur les quantités imprimées, nos envois sont préparés par une entreprise adaptée, nous avons quitté Amazon dès 2013 (après seulement 1 an d’essai)…

À titre personnel j’ai quitté Gmail en 2014 et j’avais écrit un billet sur mon blog à ce sujet. Mais ensuite, passer du perso à l’entreprise, c’était plus compliqué, plus lent aussi.

Par ailleurs nous devions faire évoluer nos systèmes d’information et remettre tout à plat.

 

…et vos objectifs ?

Il y a clairement plusieurs objectifs dans cette démarche.

  • Une démarche militante : montrer qu’il est possible de faire autrement.
  • Le souhait de mieux maîtriser les données de l’entreprise et de nos clients.
  • Le besoin d’avoir des outils qui répondent au mieux à nos besoins et que nous pouvons faire évoluer.
  • Quitte à développer quelque chose pour nous autant que cela serve à d’autres.
  • Les fonds d’aides publiques retournent au public sous forme de licence libre.
  • Création d’un réseau d’acteurs et actrices culturelles autour de la question du numérique libre.

 

Quel lien avec les valeurs de votre maison d’édition ?

Les concepts de liberté et de responsabilité sont régulièrement présents dans les livres que nous éditons. Réussir à gagner petit à petit en cohérence est un vrai plaisir.
Partage et permaculture… Ce que je fais sert à autre chose que mon besoin propre…

 

Qui a travaillé sur cette démarche ?

Aujourd’hui ce sont surtout Dominique et moi-même qui travaillons sur les tests et la mise en place des outils.

Des entreprises associées : Symétrie sur Lyon, B2CK en Belgique , Dominique Chabort au début sur la question de l’hébergement.

Un des problèmes aujourd’hui est clairement le temps insuffisant que nous parvenons à y consacrer.

Aujourd’hui, la place du SI est pour nous primordiale pour prendre soin comme nous le souhaitons de nos contacts, lecteurs, pour diffuser notre catalogue et faire notre métier.

 

Vous avez les compétences pour faire ça dans l’entreprise ?

Il est clair que nous avons plus que des compétences basiques. Elles sont essentiellement liées à nos parcours et à notre curiosité : si Dominique a une expérience de dev et chef de projet que je n’ai pas, depuis 1987 j’ai eu le temps de comprendre les fonctionnements, faire un peu de code, et d’assemblages de briques 😉

 

Combien de temps ça vous a pris ?

Je dirais que la démarche est réellement entamée depuis 2 ans (le jour ou j’ai hébergé sauvagement un serveur NextCloud sur un hébergement mutualisé chez OVH). Et aujourd’hui il nous faudrait un équivalent mi-temps pour rester dans les délais que nous souhaitons.

 

Ça vous a coûté de l’argent ?

Aujourd’hui ça nous coûte plus car les systèmes sont un peu en parallèle et que nous sommes passés de Google « qui ne coûte rien » à l’hébergement sur un VPS pour 400 € l’année environ. Mais en fait ce n’est pas un coût, c’est réellement un investissement.

Nous ne pensons pas que nos systèmes nous coûteront moins chers qu’actuellement. Mais nous estimons que pour la moitié du budget, chaque année, les coûts seront en réalité des investissements.

Les coûts ne seront plus pour l’utilisation des logiciels, mais pour les développements. Ainsi nous pensons maîtriser les évolutions, pour qu’ils aillent dans notre sens, avec une grande pérennité.

 

Quelles étapes avez-vous suivi lors de cette démarche  de dégooglisation ?

Ah… la méthodologie 🙂

Elle est totalement diffuse et varie au fil de l’eau.

Clairement, je n’ai AUCUNE méthode (c’est même très gênant par moment). Je dirais que je teste, je regarde si ça marche ou pas, et si ça marche moyen, je teste autre chose. Heureusement que Dominique me recadre un peu par moment.

Beaucoup d’échanges et de controverse. Surtout que le choix que nous faisons fait reposer la responsabilité sur nous si nous ni parvenons pas. Nous ne pouvons plus nous reposer sur « c’est le système qui ne fonctionne pas », « nous sommes bloqué·e·s par l’entreprise ». C’est ce choix qui est difficile à faire.

La démarche c’est les rencontres, les échanges, les témoignages d’expériences des uns et des autres…

Et puis surtout : qu’avons nous envie de faire, réellement…

Dans un premier cas, est-ce que cela me parle, me met en joie d’avoir un jolie SI tout neuf ? Ou cela nous aiderait au quotidien, mais aucune énergie de plus.

Dans l’option que nous prenons, l’idée de faire pour que cela aide aussi les autres éditeurs, que ce que nous créons participe à une construction globale est très réjouissant…

La stratégie est là : joie et partage.

Au début ?

Un peu perdu, peur de la complexité, comment trouver les partenaires qui ont la même philosophie que nous…

Mais finalement le monde libre n’est pas si grand, et les contacts se font bien.

 

Ensuite ?

Trouver les financements, et se lancer.

 

Et à ce jour, où en êtes-vous ?

À ce jour nous avons totalement remplacé les GoogleDrive, Hubic et Wetransfer par Nextcloud ; remplacé également GoogleHangout par Talk sur Nextcloud.

Facebook, Instagram et Twitter sont toujours là… Mais nous avons un compte sur Mastodon !

Youtube est toujours là… Mais le serveur Peertube est en cours de création et Funkwhale pour l’audio également.

Concernant l’administration de ces outils, je suis devenu un grand fan de Yunohost : une solution qui permet l’auto-hébergement de façon assez simple et avec communauté très dynamique.

Notre plus gros projet est dans le co-développement d’un ERP open source : Oplibris

Ce projet est né en 2018 après une étude du Coll.LIBRIS (l’association des éditeurs en Pays de la Loire) auprès d’une centaine d’éditeurs de livres. Nous avons constaté qu’il n’existait à ce jour aucune solution plébiscité par les éditeurs indépendants qui ont entre 10 et 1000 titres au catalogue. Nous avons rencontré un autre éditeur (Symétrie, sur Lyon) qui avait de son côté fait le même constat et commencé à utiliser Tryton. (je profite de l’occasion pour lancer un petit appel : si des dev flask et des designers ont envie de travailler ensemble sur ce projet, nous sommes preneurs !)

Migrer LMB, notre ERP actuel, vers Oplibris est vraiment notre plus gros chantier.

À partir de là, nous pourrons revoir nos sites internet qui viendront se nourrir dans ses bases et le nourrir en retour.

 

Combien de temps entre la décision et le début des actions ?

Entre la décision et le début des actions : environ 15 secondes. Par contre, entre le début des actions et les premières mise en place utilisateur environ 6 mois. Ceci dit, de nombreuses graines plantées depuis des années ne demandaient qu’à germer.

« Nous mettons de grosses contraintes éthiques »

Avant de migrer, avez-vous testé plusieurs outils au préalable ?

J’ai l’impression d’être toujours en test. Par exemple, Talk/Discussion sur Nextcloud ne répond qu’imparfaitement à notre besoin. Je préférerais Mattermost, mais le fait que Talk/Discussion soit inclus dans Nextcloud est un point important côté utilisateurs.

Nous mettons de grosses contraintes éthiques, de ce fait les choix se réduisent d’eux-mêmes, il ne reste plus beaucoup de solutions. Lorsqu’on en trouve une qui nous correspond c’est déjà énorme !

 

Avez-vous organisé un accompagnement des utilisateur⋅ices ?

L’équipe est assez réduite et plutôt que de prévoir de la documentation avec des captures écran ou de la vidéo, je préfère prendre du temps au téléphone ou en visio.

 

Prévoyez-vous des actions plus élaborées ?

Nous n’en sommes pas à ce stade, probablement que si le projet se développe et est apprécié par d’autres, des formations entre nous seront nécessaires.

 

Quels ont été les retours ?

Il y a régulièrement des remarques du genre : « Ah mais pourquoi je ne peux plus faire ça » et il faut expliquer qu’il faut faire différemment. Compliqué le changement des habitudes, ceci dit l’équipe est bien consciente de l’intérêt de la démarche.

 

Comment est constituée « l’équipe projet » ?

Dominique, B2CK, Symétrie.

 

Quelles difficultés avez-vous rencontrées ?

La difficulté majeure est de trouver le bon équilibre entre la cohérence des outils et l’efficacité nécessaire dans le cadre d’une entreprise.

Le frein majeur côté utilisateurs est de faire migrer les personnes qui utilisent encore Gmail pour le traitement de leur courriel. L’interface est si pratique et la recherche tellement puissante et rapide qu’il est compliqué de le quitter.

Une autre difficulté est d’ordre comptable et financier : comment contribuer financièrement à ce monde du logiciel libre ? Comment donner ? A quelles structures ? (aujourd’hui nos financements vont principalement au développement de Tryton).

 

Et l’avenir ? Envisagez-vous de continuer cette démarche pour l’appliquer à d’autres aspects de votre organisation ?

Côté création, j’aimerais beaucoup que nous puissions utiliser des outils libres tels que Scribus, Inkscape, Krita ou GIMP plutôt que la suite Adobe. Mais aujourd’hui ces outils ne sont pas adoptés par l’équipe de création car trop compliqués d’utilisation et pas nativement adaptés à l’impression en CMJN. Une alternative serait d’utiliser la suite Affinity (mais qui n’est pas open source…)

Quels conseils donneriez-vous à d’autres organisations qui se lanceraient dans la même démarche ?

Y prendre du plaisir ! Mine de rien, la démarche demande du temps et de l’attention. Il faut confier ça à des personnes qui prennent ça comme un jeu. Oubliez la notion de temps et de délais, optez pour les valeurs qui soient plus la finalité et le plaisir. Au pied de la montagne entre prendre le téléphérique ou le chemin à pied ce n’est pas le même projet, vous n’avez pas besoin des même moyens.

 

Le mot de la fin, pour donner envie de migrer vers les outils libres ?

Sommes-nous les outils que nous utilisons ? Libres ?

Quitter les réseaux sociaux centralisés est extrêmement complexe. Je manque encore de visibilité à ce sujet et ça risque d’être encore très long. J’ai proposé à l’équipe une migration totale sans clore les comptes mais avec un mot régulièrement posté pour dire « rejoignez-nous ici plutôt que là ». Mon rêve serait d’embarquer au moins une centaine d’entreprises dans une telle démarche pour tous faire sécession le même jour. Des volontaires ? 🙂

 

Aller plus loin

  • Fair-play, Albert ne nous l’a jamais demandé, il sait qu’on est un peu allergique à la pub, mais on vous donne quand même le lien vers le site des Éditions Pourpenser

Crédits

  • Illustrations réalisées par Albert sur Gégé  à partir de dessins de Gee
  • Photo de l’équipe avec des illustrations d’Aline de Pétigny et Laura Edon
  • Logo de pourpenser mis en couleurs par Galou



S’y retrouver dans le framabazar, nous parler, nous soutenir : édition 2020

Vous ne l’avez peut-être pas remarqué car on ne s’en est pas vanté, mais certains de nos sites web ont connu de notables améliorations ces derniers mois.

Ainsi, notre page de contact et notre page de dons ont vu leur design (structuration des contenus, ergonomie, valorisation graphique, etc. ) évoluer et l’ensemble de nos sites sont désormais dotés d’un nouveau menu.

Avec cet article, nous voulons non seulement vous informer de ces mises à jour, mais aussi vous accompagner dans leur prise en main. Par ailleurs, l’ensemble de ces améliorations s’inscrit dans une démarche que nous avons envie de décrire, afin qu’elle puisse être ouverte à la critique ou, pourquoi pas, recevoir les hommages de la copie.

Un million de personnes à accompagner autonomiser

En général, quand on décide de mettre à jour un site web, c’est parce qu’on a constaté que des améliorations pouvaient y être apportées. Notre motivation première derrière ces améliorations est de permettre aux internautes utilisant nos services d’être davantage autonomes dans leurs usages. Après avoir présenté, notamment lors de la campagne Degooglisons Internet, les possibilités offertes par les logiciels libres, Framasoft souhaite offrir un accès plus simple et plus rapide à la galaxie des services, projets et ressources qu’elle met à disposition de toutes et tous.

Cette infographie présente Framasoft en janvier 2020… Donc dans le monde d’avant.

Accueillant chaque mois plus d’un million de visiteur⋅ses sur nos sites web, nous faisons le constat que nous ne pouvons accompagner humainement chacun⋅e dans la découverte de notre univers. Et parce que cet univers est foisonnant, nous sommes conscient⋅es que c’est souvent frustrant pour vous de ne pas bénéficier de cet accompagnement. Mais, contrairement aux géants du web qui appliquent un design de l’autorité sur leurs plateformes, vous mettant dans une position infantilisante d’hyper-consommateur⋅ices, chez Framasoft, nous vous considérons comme des contributeur⋅ices. Et c’est à ce titre qu’il est pour nous essentiel de repenser nos interfaces afin que vous puissiez, en toute autonomie, davantage vous y retrouver.

En parallèle, nous avons aussi constaté que nous recevons énormément de questions via notre formulaire de contact dont les réponses sont déjà publiées dans notre foire aux questions, dans les guides d’utilisation des outils que nous proposons ou bien sur notre forum d’entraide Framacolibri. Répondre à ces demandes (en renvoyant vers ces ressources) est une tâche répétitive assez peu valorisante pour les personnes en charge du support. En nous lançant dans cette refonte, nous avions donc aussi en tête la nécessité de cesser l’augmentation de ces demandes.

illustration : David Revoy (CC-By)

Cependant, simplifier l’accès à un ensemble de contenus nous a beaucoup questionné. Comment mettre cela en œuvre ? Comment ne pas tomber dans le piège du dédale de clics ? Comment autonomiser nos utilisateur⋅ices sans que cela créé avec elleux une relation froide et distante ? En gardant en tête que sur un site web, l’internaute doit identifier rapidement où il est (est-ce la page que je souhaitais voir ?), où il peut aller (vais-je pouvoir trouver facilement ce que je cherche sur ce site ?) et d’où il vient (quel chemin m’a amené à cette page ?), nous avons décidé de repenser totalement le menu de nos sites web et l’expérience d’utilisation de notre page de contact tout en améliorant la structuration des contenus et l’ergonomie de notre page de dons.

Une page de contact actualisée

Cette nouvelle page de contact vous informe dès votre arrivée de qui nous sommes et des moyens que nous mettons à votre disposition pour vous aider lorsque vous rencontrez des difficultés. L’accès au formulaire de contact n’est plus aussi immédiat qu’auparavant car nous espérons que vous n’aurez au final plus besoin de vous en servir, ayant trouvé l’information que vous recherchiez. C’est d’ailleurs en cherchant comment résoudre au mieux vos problèmes que nous avons trouvé comment résoudre le nôtre (l’augmentation de l’activité du support).

Notre page de contact, avant refonte

Vous l’aurez sûrement remarqué, nous avons revu totalement le design de cette page. Pour vous accueillir, la magnifique illustration de David Revoy se veut douce et rassurante. Car même si nous ne sommes pas en mesure d’accompagner humainement chacun⋅e d’entre vous, cette page de contact ne vous laisse pas seul⋅e face à votre question. C’est d’ailleurs en étant à l’écoute de vos besoins que nous avons reformulé les intitulés des six catégories de contact. En attribuant une couleur spécifique à chacune de ces catégories, vous pouvez vérifier à chaque moment de votre navigation que vous êtes sur le bon chemin.

Structuré en 4 étapes (pré-requis, service concerné, FAQ, formulaire), ce nouveau parcours est pensé pour que vous puissiez prendre connaissance des questions auxquelles nous avons préalablement répondu dans notre foire aux questions (FAQ) avant de nous contacter. Nous vous incitons aussi très fortement à consulter nos guides et astuces d’utilisation lorsque vous avez des questions sur un service en particulier. Nous avons d’ailleurs revu et enrichi les contenus de ces deux ressources pour qu’elles soient plus faciles à comprendre.

Notre page de contact, après refonte.

Si vous ne trouvez réponse à votre question ni dans la FAQ, ni dans nos guides d’utilisation, peut-être votre question vaut-elle la peine d’être publiée sur notre forum. Framacolibri est un espace d’entraide où de nombreuses personnes pourront vous aider à comprendre pourquoi vous n’arrivez pas à utiliser telle fonctionnalité de tel service. D’ailleurs, dans l’article Ce que Framasoft a fait durant le (premier) confinement que nous avons publié il y a quelques jours, nous rappelions que pendant cette période si particulière, une communauté d’aidant⋅es numériques avaient spontanément proposé leur aide sur le forum (merci à elleux !). Cette dynamique d’entraide collective ne s’est pas essoufflée et nous vous invitons à en faire l’expérience.

La catégorie « entraide » de notre forum des contributions.

Ce nouveau dispositif d’aiguillage (catégorie, faq, guides, forum) nous permet d’identifier au plus vite votre besoin afin d’y répondre au mieux en mettant en avant des ressources adaptées pour que vous puissiez vous les approprier. Mais il peut arriver que nos ressources ne répondent pas à votre besoin. Dans ce cas, ou si votre question doit rester confidentielle, qu’elle implique de devoir divulguer des informations personnelles et privées, alors nous vous invitons à utiliser notre formulaire de contact.

Un menu enrichi pour mieux vous orienter

Avant, tous nos sites web étaient dotés d’un menu situé, de manière très classique, en haut de toutes les pages. Ce menu vous permettait d’accéder à notre galaxie de sites web. Mais comme on est plutôt prolixe en la matière, ce menu avait grossi avec le temps et la multiplication de nos projets, ce qui ne le rendait plus vraiment utilisable facilement. C’était particulièrement le cas si vous vous rendiez sur nos sites web à partir d’un appareil mobile, doté d’un écran plus petit : certaines rubriques du menu étaient si longues qu’elles ne pouvaient s’afficher en entier. De plus, sur certains de nos services, cette barre de menu pouvait être perturbante car elle se superposait au menu de l’outil lui-même, pouvant troubler certain·es internautes.

La « framanav », le menu avant, lorsqu’il était une barre en haut de nos sites.

On a donc repensé totalement la façon dont vous pouvez accéder à nos contenus dans ce nouveau menu désormais accessible via un bouton situé en haut à droite de chacun de nos sites web. Placé ainsi, il ne perturbe plus l’affichage des menus des outils que nous proposons et il s’adapte de façon automatique à la taille de votre écran. Reproduit sur l’ensemble de nos sites web, ce nouveau menu vous permet de savoir d’un seul coup d’œil que vous êtes sur l’un des sites de la galaxie Framasoft. Une fois que vous avez cliqué sur ce bouton, une barre latérale s’affiche à droite, en surimpression du site sur lequel vous êtes.

Par défaut, ce menu vous est proposé selon une vue par catégories (4 en l’occurrence) pour favoriser la découvrabilité des actions de Framasoft. Vous avez la possibilité de modifier cet affichage en sélectionnant la vue sous forme de grille pour trouver plus aisément un service ou un outil spécifique (puisqu’ils sont classés par ordre alphabétique). Nous avons aussi ajouté un bloc de recherche où vous pouvez directement indiquer ce que vous cherchez. Lorsque vous utilisez la recherche directe, il vous est proposé d’étendre votre recherche sur le web ou à l’ensemble des sites de Framasoft, au Framablog, au forum Framacolibri, à l’annuaire Framalibre ou à notre instance PeerTube de diffusion de vidéos, Framatube.

Conceptualisée en 2012, la structuration du menu n’était plus pertinente au regard de l’évolution de nos projets. Nous nous sommes donc questionné⋅es sur la meilleure façon de vous mener vers nos différents outils. Pour cela, nous avons pris en compte des remarques qui nous ont été faites. Nous avons, par exemple, décidé d’archiver certains de nos projets, certes pertinents au moment de leur création, mais n’ayant pas été mis à jour depuis plusieurs années. De plus, nous avons souhaité que ce menu vous donne accès directement à davantage d’informations. Ainsi, vous n’avez plus besoin de vous rendre sur la page d’un outil ou d’un projet pour savoir exactement de quoi il s’agit.

En plus d’un accès totalement remanié à nos contenus, ce nouveau menu s’enrichit d’un bloc intitulé Entraide qui vous donne immédiatement accès à plusieurs ressources. Notez que les contenus qui apparaissent lorsque vous cliquez sur la rubrique « Obtenir des réponses » sont adaptés au service (ou projet) que vous êtes en train de consulter. Nous vous affichons l’information la plus adaptée à votre usage pour que vous puissiez y accéder en seulement 2 clics. Notez aussi que nous utilisons le même habillage graphique pour ces ressources.

Une nouvelle peau pour notre page de dons

Alors que ça faisait un moment qu’on y pensait (quasiment 2 ans), alors qu’il s’agit du fameux « nerf de la guerre » (Framasoft ne vit que grâce à vos dons), notre page de dons a finalement fait peau neuve, elle aussi. Nous avons repensé l’organisation des contenus afin de vous apporter plus facilement des réponses, mais sans vous surcharger d’informations.

Cette page se compose désormais de 4 blocs horizontaux :

On a cherché des jeux de couleurs chaleureux, sereins, et loin des bleu glacés de la french tech disruptive du digital ;)

Vous aurez peut-être remarqué que le design du formulaire de dons change désormais de couleur en fonction du type de dons (entourage jaune pour les dons mensuels et entourage bleu pour les dons ponctuels). Nous recevions de temps en temps un message de certain⋅es donateur⋅ices qui croyaient avoir complété leurs informations pour un don ponctuel alors qu’iels avaient réalisé un don mensuel. Nous nous sommes donc dit que cette différence n’était pas assez explicite sur le formulaire et que nous devions penser un nouveau design pour que cette situation ne se reproduise pas. C’est aussi suite à plusieurs de vos retours que nous avons ajouté à ce formulaire une case (cochée par défaut) « Je souhaite recevoir un reçu fiscal » qui automatise l’envoi de votre reçu fiscal chaque année.

En mettant à jour les textes explicitant à quoi servent vos dons, nous avons souhaité mieux expliquer comment nous fonctionnons, quelles sont nos principales actions et quelles valeurs nous portons. Ces textes sont moins longs, plus synthétiques, car nous voulons aller à l’essentiel. Nous avons repensé le bloc Framasoft en quelques chiffres pour ne faire apparaître que quelques chiffres-clés. Nous n’étions plus très à l’aise avec cet effet un peu racoleur de « performance » qui arrive lorsqu’on met en valeur certains chiffres. Nous avons choisi un affichage qui, nous l’espérons, rend sobrement compte de nos actions, sans se pavaner, et sans fausse modestie.

voir la page « Soutenir Framasoft »

Vos retours font leur chemin !

Ce n’est pas facile de réfléchir aux interfaces qui nous permettent de vous mettre en relation avec nos actions : voilà donc une bonne chose de faite ! On espère que vous partagez notre enthousiasme pour cette refonte.

Prenez le temps de vous approprier la nouvelle version de ces outils et n’hésitez pas, ensuite, à nous dire ce que vous en pensez sur le forum : ça nous permettra de réfléchir à de futures améliorations. Mais, ne vous emballez pas trop tout de même, on ne vous promet pas une nouvelle refonte tous les ans !

Un grand merci à l’équipe salarié⋅es pour le travail réalisé, et un grand merci à vous de continuer à nous soutenir.




Apple a posé le verrou final

La sécurité est pour Apple un argument marketing de poids, comme on le voit sur une page qui vante les mérites de la dernière version Big Sur de macOS  :

Sécurité. Directement  intégrée. Nous avons intégré dans le matériel et les logiciels du Mac des technologies avancées qui travaillent ensemble pour exécuter les apps de façon plus sécurisée, protéger vos données et garantir votre sécurité sur le Web.

(source)

On sait que le prix des appareils Apple les met hors de portée de beaucoup d’internautes, mais c’est un autre prix que les inconditionnels d’Apple vont devoir accepter de payer, celui de la liberté de faire « tourner » des applications. Comme l’explique ci-dessous un responsable de la sécurité chez Librem (*la traduction Framalang conserve au dernier paragraphe quelques lignes qui font la promotion de Purism/Librem), la dernière version de macOS donne l’illusion du contrôle mais verrouille l’utilisateur, tant au niveau logiciel que matériel désormais.

Article original : Apple Users Got Owned, licence CC-By-SA 4.0

Traduction Framalang : goofy, Julien / Sphinx, framasky, Steampark, mo

Apple a pris le contrôle sur ses utilisateurs

par Kyle Rankin

portrait au crayon de Kyle Rankin, souriant, de trois-quarts
Kyle est Chief Security Officer chez Librem (Mastodon )

On entend souvent dire des pirates informatiques qu’ils ont « pris le contrôle » (en anglais owned ou pwned) d’un ordinateur. Cela ne veut pas dire qu’ils ont pris possession physiquement de l’ordinateur, mais qu’ils ont compromis l’ordinateur et qu’ils ont un contrôle à distance si étendu qu’ils peuvent en faire ce qu’ils veulent. Lorsque les pirates informatiques contrôlent un ordinateur, ils peuvent empêcher l’exécution de logiciels, installer les logiciels de leur choix et contrôler le matériel à distance, même contre la volonté du propriétaire et généralement à son insu.

Les pirates informatiques comprennent intuitivement une chose que beaucoup d’utilisateurs d’ordinateurs ne comprennent pas : la propriété n’est pas une question de possession, mais de contrôle. Si votre entreprise vous donne un ordinateur, ou même si vous apportez le vôtre, mais qu’elle contrôle à distance la façon dont vous l’utilisez et peut passer outre à vos souhaits, c’est l’ordinateur de l’entreprise, pas le vôtre. Selon cette définition, la plupart des téléphones, aujourd’hui, sont la propriété du vendeur, et non de l’utilisateur, et comme je l’ai exposé dans The General Purpose Computer in Your Pocket 7 :

L’un des plus beaux tours que Big Tech ait jamais joué a été de convaincre les gens que les téléphones ne sont pas des ordinateurs à usage général et qu’ils devraient suivre des règles différentes de celles des ordinateurs portables ou de bureau. Ces règles donnent commodément au vendeur un plus grand contrôle, de sorte que vous ne possédez pas un smartphone mais que vous le louez. Maintenant que le public a accepté ces nouvelles règles pour les téléphones, les vendeurs commencent à appliquer les mêmes règles aux ordinateurs portables et aux ordinateurs de bureau

L’illusion du contrôle

L’illusion selon laquelle les utilisateurs d’Apple ont le contrôle de leurs ordinateurs a été rapidement mise à mal cette semaine quand Apple a distribué dans le monde entier sa nouvelle version de macOS  « Big Sur ». Des utilisateurs ont commencé à remarquer dès la diffusion de la mise à jour qu’ils avaient des problèmes pour exécuter des applications locales : ces applications bégayaient et macOS lui-même ne répondait plus par moments, même si l’utilisateur n’avait pas encore mis à jour son OS vers Big Sur. Drôle de coïncidence que la sortie d’un nouvel OS puisse bloquer des applications locales et même des applications ne venant pas d’Apple.

Comme cet article d’Ars Technica l’explique, des utilisateurs ont été capables de déboguer ce problème assez rapidement :

Il n’a pas fallu longtemps à certains utilisateurs de Mac pour se rendre compte que trustd, le processus de macOS chargé de vérifier avec les serveurs d’Apple si une application est authentifiée, tentait de se connecter au domaine ocsp.apple.com mais échouait de manière répétée.

… ce qui a provoqué des ralentissements sur tout le système, entre autres quand les applications essayaient de se lancer. Pour résumer le problème, à chaque fois que vous lancez une application signée sur macOS, un service d’enregistrement « notarial » envoie des informations sur l’application aux serveurs d’Apple pour vérifier que les signatures concordent. Si c’est le cas, votre système d’exploitation autorise l’application à démarrer. Quand l’ordinateur est hors connexion, la vérification échoue mais l’application est encore autorisée à fonctionner. Mais quand l’ordinateur est connecté, la signature est appliquée et comme le service était actif mais lent, les applications se sont arrêtées pendant que le système d’exploitation attendait une réponse.

La prise de contrôle à distance grâce à la signature du code.

Les applications utilisent souvent la signature du code comme moyen pour l’utilisateur de détecter les altérations. Le développeur signe le logiciel avec sa clé privée et l’utilisateur peut vérifier cette signature avec une clé publique. Seul le logiciel qui n’a pas été modifié correspondra à la signature. Dans le monde du logiciel libre, les distributions comme PureOS comprennent des clés publiques installées sur l’ordinateur local, et les mises à jour de logiciels vérifient automatiquement que les signatures correspondent avant d’appliquer la mise à jour elle-même. Quand on utilise ainsi les signatures, on peut tester une application avant son installation pour savoir si elle a été modifiée, c’est ainsi que l’utilisateur bénéficie d’un contrôle total sur le processus.

Apple a fait franchir à la signature de code un pas supplémentaire en incluant ce service « notarial ». Toutes les applications signées, qu’elles viennent ou non d’Apple, doivent demander l’autorisation de démarrer au service notarial distant. Ce qui signifie que l’entreprise Apple non seulement connaît toutes les applications que vous avez installées, mais elle est informée aussi à chaque fois que vous les exécutez. Ce qui n’était autrefois qu’un service facultatif est devenu aujourd’hui obligatoire. À partir de Big Sur, vous ne pourrez plus utiliser un outil comme Little Snitch pour bloquer ce service, ni le faire passer par Tor pour gagner en confidentialité. Apple et tous ceux qui ont accès à la communication en texte brut peuvent savoir quand vous avez lancé le navigateur Tor ou d’autres outils nécessaires à la protection de la vie privée, ou encore à quelle fréquence vous utilisez des applications de la concurrence.

[Mise à jour : il semble que les services notariaux d’Apple n’envoient pas d’informations sur l’application, mais envoient plutôt des informations sur le certificat de développeur utilisé pour les signer (ce qui est plus logique étant donné la façon dont l’OSCP fonctionne). Cela signifie qu’Apple peut savoir, par exemple, que vous avez lancé une application de Mozilla, mais ne peut pas nécessairement dire si vous avez lancé Firefox ou Thunderbird. Si un développeur ne signe qu’une seule application, bien sûr, on peut établir une corrélation entre le certificat et l’application. Le service semble également mettre en cache une approbation pendant un certain temps, de sorte que le fait qu’il envoie des informations à Apple chaque fois que vous exécutez une application dépend de la fréquence à laquelle vous la lancez].

J’imagine que beaucoup de personnes ont été surprises de découvrir cette fonctionnalité, mais je soupçonne également que beaucoup l’accepteront au nom de la sécurité. Pourtant, comme c’est le cas pour de nombreuses fonctionnalités d’Apple, la sécurité est un terme de marketing alors que la véritable motivation c’est le contrôle. Alors que la signature de code permettait déjà à Apple de contrôler si vous pouviez installer ou mettre à jour un logiciel, cette fonctionnalité lui permet de contrôler si vous pouvez exécuter des applications. Apple a déjà utilisé la signature de code sur iOS pour retirer les applications de ses concurrents de l’App Store et aussi pour désactiver à distance des applications au prétexte de la sécurité ou de la confidentialité. Il n’y a aucune raison de croire qu’ils n’utiliseront pas le même pouvoir sur macOS maintenant qu’il ne peut plus être contourné. Le but ultime d’Apple avec la signature de code, son coprocesseur Secure Enclave et sa puce Silicon propriétaires, c’est de s’assurer le contrôle et la propriété totales du matériel que vend l’entreprise.

Reprenez le contrôle

Vous devriez demeurer en pleine possession des ordinateurs que vous achetez. Ni les pirates informatiques ni les vendeurs ne devraient avoir le droit de vous contrôler à distance.
Nous construisons des ordinateurs portables, des ordinateurs de bureau, des serveurs et des téléphones sûrs, respectueux de la vie privée et de la liberté, qui vous redonnent le contrôle et vous garantissent que lorsque vous achetez un ordinateur Purism, c’est vous qui en êtes vraiment propriétaire.

Voir aussi :

ordinateur fermé par un cadenas
« Secure. » par Wysz, licence CC BY-NC 2.0