Vers une société contributive de pair à pair – 1

Et si le pair-à-pair n’était pas seulement un moyen pratique d’échanger des fichiers mais aussi le modèle et le moteur d’une nouvelle organisation sociale ? Michel Bauwens a un plan…

Ah le P2P, que de souvenirs pour les moins jeunes… Napster, Gnutella, eDonkey et d’autres qui faisaient la nique aux droits d’auteur et nous permettaient de récupérer comme de transmettre toutes sortes de ressources numériques par nos ordinateurs individuels, avec la technique simple et efficace du Pair à pair : puisque nos ordinateurs ont la possibilité d’entrer en contact les uns avec les autres, pourquoi donc passer par un point central et demander une permission ?

Les logiciels et réseaux de P2P ont disparu après des poursuites judiciaires, mais le protocole BitTorrent est toujours disponible et encore utilisé par exemple pour la distribution massive de logiciels libres ou open source. Faut-il rappeler aussi que PeerTube, maintenant en version 1.4.1, utilise le protocole WebTorrent qui repose sur le principe du pair-à-pair ?

Cette technologie déjà ancienne semble toujours promise à un bel avenir, dans le mouvement général de re-décentralisation (le navigateur Beaker, le protocole //:dat, et encore tout cela

… mais élargissons un peu le champ et voyons comment Michel Bauwens a envisagé une pratique sociétale du pair-à-pair, lui qui déclarait dès 2012 :

« Le P2P est le socialisme du XXIᵉ siècle ! » et « La révolution induite par le P2P aura des effets similaires à ceux provoqués par l’apparition de l’imprimerie au XVe siècle » (source)

Michel Bauwens n’est pourtant ni un redoutable révolutionnaire ni un prophète gourou à la barbe fleurie. C’est un tranquille soixantenaire qui avec sa Fondation P2P s’active sérieusement pour proposer de changer de monde.

Comme vous allez peut-être le découvrir à travers notre traduction de cette page wiki de la fondation P2P, c’est toute une conception raisonnée de la société qu’il expose en prenant appui (quelle surprise) sur les Communs et les logiques collaboratives déjà à l’œuvre dans le Libre. Voici aujourd’hui une première partie, les autres suivront. Vous trouverez au bas de cet article des liens vers des ressources complémentaires, ainsi que la possibilité de commentaires qui sont comme toujours, ouverts et modérés.

Traduction Framalang : CLC, goofy, mo, Delaforest, avec l’aimable contribution de Maïa Dereva

 

Photo de Michel Bauwens, la soixantaine, souriant derrière ses lunettes
Photo par gullig / Jane Mejdahl [CC BY-SA 2.0]
Un nouveau mode de production est en train d’apparaître, c’est-à-dire une nouvelle façon de produire tout ce que l’on veut, que ce soit du logiciel, de la nourriture ou des villes. Nous découvrons maintenant (la plupart du temps c’est en fait une redécouverte) comment réaliser, grâce à la libre association de pairs, tout ce qui nécessitait autrefois des organisations rigides et une société structurée par une conception pyramidale.

Il est désormais de plus en plus clair que l’entrée dans une ère qui se définit par une philosophie associant liberté d’association de pairs et horizontalité n’implique pas que la structure institutionnelle en tant que telle doive disparaître : celle-ci va simplement subir des transformations profondes. Dans le modèle émergeant de la production entre pairs, très présent dans l’industrie du logiciel libre, nous pouvons observer des interactions entre trois types de partenaires :

  • une communauté de contributeurs qui créent des communs de la connaissance sous forme de logiciels ou de design ;
  • une coalition d’entrepreneurs qui créent une valeur marchande en prenant appui sur ces biens communs ;
  • un ensemble d’institutions à but non lucratif qui gèrent « l’infrastructure de la coopération ».

Il existe une nette division du travail institutionnel entre ces trois acteurs.

Les contributeurs créent une valeur d’usage qui réside dans l’innovation partagée de communs de la connaissance, de design ou de code.

L’association à but non lucratif gère et défend l’infrastructure générale de la coopération qui rend le projet soutenable « collectivement ». Par exemple, la Fondation Wikimedia collecte les fonds qui servent à financer l’espace nécessaire de serveurs sans lequel le projet Wikipédia ne pourrait exister.

La coalition d’entrepreneurs rend viable l’activité des contributeurs individuels en leur fournissant un revenu et, bien souvent, elle apporte aussi les moyens financiers qui permettent d’assurer la pérennité des associations à but non lucratif.

Par ailleurs, pouvons-nous acquérir des connaissances sur l’organisation de ce nouveau mode de création de valeur, apprendre quelque chose d’utile, non seulement à ces communautés, mais aussi à la société dans son ensemble ? Ces nouvelles pratiques sociales pourraient-elles faire apparaître une nouvelle forme de pouvoir et un nouveau modèle de démocratie pouvant servir de réponse à la crise de la démocratie que nous connaissons actuellement ? Je répondrais résolument par un OUI à cette question et, plus encore, je dirais que nous assistons à la naissance d’une nouvelle forme d’État, un État « P2P » si l’on veut.

Examinons les mécanismes du pouvoir et les stratégies de la production entre pairs.

1. La logique post-démocratique de la communauté

Précisons avant tout, et c’est plutôt surprenant, que ces communautés ne sont pas des démocraties. Pourquoi donc ? Tout simplement parce que la démocratie, le marché et la hiérarchie sont des modes de répartition de ressources limitées.

Dans les systèmes hiérarchiques, ce sont nos supérieurs qui décident ; sur les marchés, ce sont les prix ; dans les démocraties, c’est « nous » qui sommes les décideurs. Mais lorsque les ressources sont illimitées, comme c’est le cas pour ce qui est de la connaissance, du code ou du design, ce n’est plus véritablement utile, puisque connaissance, code ou design peuvent être copiés et partagés à un coût marginal.

Ces communautés sont de véritables « poly-archies » où le pouvoir est de type méritocratique, distribué et ad hoc. Chacun peut contribuer librement, sans avoir à demander l’autorisation de le faire, mais cette liberté de contribution a priori est contrebalancée par des mécanismes de validation communautaires a posteriori : la validation émane de ceux dont l’expertise est reconnue et qui sont acceptés par la communauté, ceux que l’on appelle les « mainteneurs » ou encore les « éditeurs ». Ce sont eux qui décident quelle part d’un logiciel ou d’un design est acceptable. Ces décisions s’appuient sur l’expertise de certains, non sur un consensus communautaire.

L’opposition entre participation inclusive et sélection pour atteindre l’excellence existe dans tout système social, mais ce problème est réglé plutôt élégamment dans le modèle de la production entre pairs. Ce qui est remarquable ce n’est pas que celui-ci permet d’éviter tout conflit, c’est plutôt qu’il rend « inutile » le conflit puisque l’objectif de la coopération est compatible avec une liberté maximale de l’individu. En fait, le modèle de production entre pairs correspond toujours à une coopération « orientée objet », et c’est cet objet spécifique qui déterminera le choix des mécanismes de « gouvernance par les pairs ».

Le principal mécanisme d’attribution dans un projet qui remplace marché, hiérarchie et démocratie repose sur une répartition des tâches. Contrairement au modèle industriel, il n’y a plus de division du travail entre les différents postes de travail, la coordination mutuelle fonctionnant via des signaux stigmergiques.

L’environnement de travail étant construit pour être totalement ouvert et transparent (on appelle cela « l’holoptisme »), chacun⋅e des participant⋅e⋅s peut voir ce qu’il est nécessaire de faire et décider alors s’il/elle apportera sa contribution spécifique au projet.

Ce qui est remarquable dans ce nouveau modèle, c’est qu’il combine une coordination mondiale et une dynamique de petits groupes caractéristiques du tribalisme primitif, et ce sans qu’aucune structure ne donne d’ordres ni n’exerce son contrôle ! En fait, on peut dire que la production entre pairs permet une dynamique de petits groupes à l’échelle mondiale.

Bien sûr, il peut y avoir des conflits entre les contributeurs puisqu’ils travaillent ensemble, et il y en a ; cependant ces conflits ne sont pas réglés de manière autoritaire mais au moyen d’une « coordination négociée ». Les différends sont « évacués » dans les forums, les listes de discussion ou les chats que ces communautés utilisent pour coordonner leur travail.

La décision hiérarchique qui demeure, celle d’accepter ou non la modification apportée à un programme, nécessaire si l’on veut préserver la qualité et l’excellence de ce qui a été produit, est contrebalancée par la liberté de « prendre une autre voie » (fork). Cela signifie que ceux ou celles qui sont en désaccord ont toujours la possibilité de partir avec le code source et de créer une autre version où leurs choix prévaudront. Ce n’est pas une décision facile à prendre mais cela permet la création d’un contre-pouvoir. Les mainteneurs savent que toute décision injuste et unilatérale peut conduire à une chute du nombre de participant⋅e⋅s au projet et/ou les amener à créer un fork.

 

[À suivre…]

Pour aller plus loin…

Titre : une société P2P ? Les opposants déjà mobilisés. Deux cathos tradis disent en brandissant un crucifix : une société de ux pères à paires, c’est contre-nature. facepalm de jeune femme à droite.
Illustration réalisée avec https://framalab.org/gknd-creator/




Données biométriques : des risques de sécurité

Rien de ce qui constitue notre vie numérique n’est totalement dépourvu de failles, pas une semaine ne se passe sans qu’un piratage massif ne soit révélé. C’est par millions que nos données d’internautes sont exposées, y compris et peut-être surtout quand nous les confions plus ou moins aveuglément aux grandes entreprises du numérique.

Quelques exemples parmi tant d’autres : les iPhones, Facebook, Yves Rocher, Option Way, la Gendarmerie

Dans la course jamais gagnée à la sécurité, les mots de passe sont notoirement fragiles, de sorte que les entreprises passent désormais au stade supérieur et cherchent à utiliser nos données biométriques.

Cependant, comme le souligne Glyn Moody dans l’article ci-dessous, si l’on peut changer un mot de passe piraté, il est impossible de changer des données biométriques compromises…

Source : A major security breach raises a key question: what happens when your biometric data is exfiltrated from a system?

Traduction Framalang : goofy, Penguin, Fabrice, FranBAG, Mannik

Une importante faille de sécurité soulève une question clef : que se passe-t-il lorsque vos données biométriques ont fuité d’un système ?

par Glyn Moody

visage féminin dont le straits principaux sont reliés par un système de reconnaissance faciale. Texte en anglais : biometrics are the key that defines us.
« Les données biométriques nous définissent » – Image provenant de Suprema.

Ce n’est pas un secret, la sécurité des mots de passe est souvent déplorable. Les bons mots de passe, ceux qui sont longs et qui mélangent minuscules, majuscules, chiffres et caractères spéciaux, sont difficiles à se mémoriser, à moins d’utiliser un gestionnaire de mots de passe, ce que peu de gens semblent faire. Résultat, les gens ont tendance à choisir des mots de passe faciles à se rappeler, tels que des noms ou des dates de naissance ou encore des absurdités comme « motdepasse » et « 1234 ». Les tentatives pour détourner les personnes de tels mots de passe restent vaines, et en conséquence de nombreuses entreprises et organisations essayent de régler le problème en se débarrassant totalement des mots de passe. L’alternative, utiliser les techniques biométriques telles que la lecture des empreintes digitales, de l’iris et la reconnaissance faciale, est arrivée à maturité et est de plus en plus utilisée. Une des principales sociétés de développement de contrôles d’accès par biométrie s’appelle Suprema :

La gamme étendue de produits Suprema comprend des systèmes de contrôle d’accès biométriques, des solutions de temps et de présence, des lecteurs d’empreintes digitales, des solutions d’authentification mobiles et des modules d’empreintes digitales embarqués. Suprema a consolidé son statut de marque mondiale de premier ordre dans le secteur de la sécurité physique et possède un réseau mondial de ventes dans plus de 130 pays. Suprema se classe en première place concernant les parts de marché dans la région EMEA1  et a été nommée parmi les 50 principaux fabricants mondiaux dans le secteur de la sécurité.

D’après le site web de la société, 1,5 million de leurs systèmes sont installés dans le monde, utilisés par plus d’un milliard de personnes. Au vu de la position de Suprema dans ce secteur, une information concernant une fuite de données à grande échelle dans leur principal produit, BioStar 2, est particulièrement préoccupante : « Lors d’un test la semaine dernière, les chercheurs ont trouvé que la base de données de Biostar 2 n’était pas protégée et en grande partie non-chiffrée. Ils ont été capables d’effectuer des recherches dans la base de données en manipulant le critère de recherche URL dans Elasticsearch pour accéder aux données. » Un message sur la page d’accueil de Suprema indique : « cet incident concerne un nombre limité d’utilisateurs de l’API BioStar 2 Cloud. La grande majorité des clients de Suprema n’utilise pas l’API BioStar 2 Cloud comme solution de contrôle d’accès et de gestion de temps et de présence. » C’est peut-être vrai, mais les déclarations des chercheurs à propos de ce qui a été découvert sont inquiétantes à lire :

Notre équipe a été capable d’accéder à plus de 27,8 millions d’enregistrements pour un total de 23Go de données, qui incluent les informations suivantes :

  • Accès aux panneaux, tableau de bord, contrôles back office et permissions des administrateurs clients
  • Données des empreintes digitales
  • Informations de reconnaissance faciale et images d’utilisateurs
  • Noms, identifiants et mots de passe d’utilisateurs non chiffrés
  • Enregistrements des entrées et des sorties de zones sécurisées
  • Fiches d’employés, incluant les dates d’entrée dans l’entreprise
  • Niveau de sécurité et habilitations d’employés
  • Détails personnels, dont l’adresse du domicile et de messagerie privée d’employés
  • Structures et hiérarchies des fonctions dans l’entreprise
  • Terminaux mobiles et informations sur les systèmes d’exploitation

Le fait que des mots de passe, y compris ceux de comptes disposant de droits administrateurs, aient été enregistrés par une entreprise de sécurité sans être chiffrés est incroyable. Comme le signalent les chercheurs, tous ceux qui ont trouvé cette base de données pouvaient utiliser ces mots de passe administrateurs pour prendre le contrôle de comptes BioStar 2 de haut niveau avec toutes les permissions et habilitations complètes des utilisateurs, et modifier les paramètres de sécurité d’un réseau entier. Ils pouvaient créer de nouveaux comptes, les compléter avec des empreintes digitales et scans faciaux ainsi que se donner eux-mêmes accès à des zones sécurisées à l’intérieur de bâtiments. De même, ils pouvaient changer les empreintes digitales de comptes possédant des habilitations de sécurité afin d’octroyer à n’importe qui la possibilité d’entrer dans ces zones.

Comme le compte administrateur contrôle les enregistrements d’activité, des criminels pouvaient supprimer ou modifier les données afin de masquer leurs opérations. En d’autres termes, accéder à de tels mots de passe permet à n’importe qui d’entrer dans n’importe quelle partie d’un bâtiment considéré comme sécurisé et ce de manière invisible, sans laisser aucune trace de leur présence. Cela permettrait le vol d’objets précieux conservés dans les locaux. Plus sérieusement, peut-être, cela permettrait un accès physique aux services informatiques, de manière à faciliter l’accès futur aux réseaux et données sensibles.

Le problème ne s’arrête pas là. La liste des informations hautement personnelles, telles que les fiches d’emploi, adresses de messagerie et de domicile visibles dans la base de données, pourrait faire courir un véritable risque de vol d’identité et d’hameçonnage. Ça permet aussi l’identification du personnel clé des entreprises utilisant le système BioStar 2. Cela pourrait les rendre plus vulnérables aux menaces de chantage par des criminels. Mais peut-être que le problème le plus sérieux est celui-ci, relevé par les chercheurs :

L’utilisation de sécurité biométrique comme les empreintes digitales est récente. Ainsi, la véritable portée du risque de vol d’empreintes digitales est encore inconnue.

 

Toutefois, il est important de se rappeler qu’une fois volées, vos empreintes digitales ne peuvent pas être changées, contrairement aux mots de passe.

Cela rend le vol des données d’empreintes digitales encore plus préoccupant. Elles ont remplacé les mots de passe alphanumériques dans de nombreux objets de consommation, tels que les téléphones. La plupart de leurs lecteurs d’empreintes digitales ne sont pas chiffrés, ainsi lorsqu’un hacker développera une technologie pour reproduire vos empreintes, il obtiendra l’accès à toutes vos informations personnelles telles que les messages, photos et moyens de paiement stockés sur votre appareil.

D’après les chercheurs qui ont découvert cette base de données vulnérable, au lieu de stocker un hash de l’empreinte digitale – une version mathématiquement brouillée qui ne peut pas faire l’objet de rétro-ingénierie – Suprema a enregistré la version numérique des véritables empreintes des personnes, laquelle peut donc être copiée et directement utilisée pour dans un but malveillant. Il existe déjà de nombreuses méthodes pour créer de fausses empreintes d’assez bonne qualité pour berner les systèmes biométriques. Si les données de l’empreinte complète sont disponibles, de telles contrefaçons ont de bonnes chances de mettre en échec même la meilleure sécurité biométrique.

La possibilité d’une fuite d’autant d’empreintes digitales dans le cas du système BioStar 2 rend la réponse à la question « que se passe-t-il lorsque quelqu’un a une copie de vos données biométriques ? » encore plus cruciale. Comme des personnes le signalent depuis des années, vous ne pouvez pas changer vos caractéristiques biométriques, à moins d’une chirurgie. Ou, comme le dit Suprema sur son site web : « La biométrie est ce qui nous définit. »

Étant donné ce point essentiel, immuable, il est peut-être temps de demander que la biométrie ne soit utilisée qu’en cas d’absolue nécessité uniquement, et non de manière systématique. Et si elle est utilisée, elle doit obligatoirement être protégée – par la loi – avec le plus haut niveau de sécurité disponible. En attendant, les mots de passe, et pas la biométrie, devraient être utilisés dans la plupart des situations nécessitant un contrôle d’accès préalable. Au moins, ils peuvent être changés en cas de compromission de la base de données où ils sont conservés. Et au lieu de pousser les gens à choisir et se rappeler de meilleurs mots de passe, ce qui est un vœu pieux, nous devrions plutôt les aider à installer et utiliser un gestionnaire de mots de passe.

 

À propos de Glyn Moody
Glyn Moody est un journaliste indépendant qui écrit et parle de la protection de la vie privée, de la surveillance, des droits numériques, de l’open source, des droits d’auteurs, des brevets et des questions de politique générale impliquant les technologies du numérique. Il a commencé à traiter l’usage commercial d’Internet en 1994 et écrivit le premier article grand public sur Linux, qui parait dans Wired en août 1997. Son livre, Rebel Code, est la première et seule histoire détaillée de l’avènement de l’open source, tandis que son travail ultérieur, The Digital Code of Life, explore la bio-informatique, c’est-à-dire l’intersection de l’informatique et de la génomique.




Aujourd’hui, les licences suffisent-elles ?

Frank Karlitschek est un développeur de logiciel libre, un entrepreneur et un militant pour le respect de la vie privée. Il a fondé les projets Nextcloud et ownCloud et il est également impliqué dans plusieurs autres projets de logiciels libres.

Il a publié le Manifeste des données utilisateurs dont nous avons tout récemment publié une traduction et il présente régulièrement des conférences. Il a pris la peine de résumer l’une d’elles qui porte sur les limites des licences libres et open source dans l’environnement numérique d’aujourd’hui.

Source : Open source is more than licenses

Traduction Framalang : swifter, goofy, Julien / Sphinx, Damien , Tykayn, Fabrice, Côme

L’open source, c’est plus que des licences

par Frank Karlitschek

Photo par Nextcloud (CC BY 3.0 via Wikimedia Commons)

Il y a quelques semaines, j’ai eu l’honneur de prononcer une conférence introductive aux Open Source Awards d’Édimbourg. J’ai décidé d’aborder un sujet dont je voulais parler depuis un bon bout de temps sans en avoir eu l’occasion jusqu’alors. Ma conférence n’a pas été filmée mais plusieurs personnes m’ont demandé d’en faire une synthèse. J’ai donc décidé de prendre un peu de mon temps libre dans un avion pour en faire un résumé dans le billet qui suit.

J’ai commencé à utiliser des ordinateurs et à écrire des logiciels au début des années 80 quand j’avais 10 ans. C’est à la même l’époque que Richard Stallman a écrit les 4 libertés, lancé le projet GNU, fondé la FSF et créé la GPL. Son idée était que les utilisateurs et les développeurs devraient avoir le contrôle de leur propre ordinateur, ce qui nécessite des logiciels libres. À l’époque, l’expérience informatique se résumait à un ordinateur personnel devant vous et, avec un peu de chance, les logiciels libres et open source qui s’y trouvaient.

L’équation était :

(matériel personnel) + (logiciel libre)

= (liberté numérique)

Depuis, le monde de l’informatique a changé et beaucoup évolué. Nous avons à présent accès à Internet partout, nous avons des ordinateurs dans les voitures, les télévisions, les montres et tous les autres appareils de l’Internet des Objets. Nous sommes en pleine révolution du tout mobile. Nous avons le Cloud computing (le fameux « nuage ») où le stockage des données et la puissance informatique sont partagés entre plusieurs Data centers (centre de données) possédés et contrôlés par plusieurs groupes et organisations à travers le monde. Nous avons un système de brevets très fort, les DRM, la signature de code et autres outils de cryptographie, les logiciels devenus des services, du matériel propriétaire, des réseaux sociaux et la puissance de l’effet réseau.

Dans son ensemble, le monde a beaucoup changé depuis les années 80. La majorité de la communauté du logiciel libre et de l’open source continue de se concentrer sur les licences logicielles. Je me demande si nous ne perdons pas une vue d’ensemble en limitant le mouvement du logiciel libre et open source aux seules questions des licences.

Richard Stallman souhaitait contrôler son ordinateur. Voyons la situation sur quelques-unes des grandes questions actuelles sur le contrôle numérique :

Facebook

Ces derniers temps, Facebook est sous le feu de nombreuses critiques : que ce soit les innombrables atteintes à la vie privée des utilisateurs, l’implication dans le truquage d’élections, le déclenchement d’un génocide en Birmanie, l’affaiblissement de la démocratie et beaucoup d’autres faits. Voyons si le logiciel libre pourrait résoudre ce problème :

Si Facebook publiait demain son code comme un logiciel libre et open source, notre communauté serait aux anges. Nous avons gagné ! Mais cela résoudrait-il pour autant un seul de ces problèmes ? Je ne peux pas exécuter Facebook sur mon ordinateur car je n’ai pas une grappe de serveurs Facebook. Quand bien même j’y arriverais, je serais bien isolé en étant le seul utilisateur. Donc le logiciel libre est important et génial mais il ne fournit pas de liberté ni de contrôle aux utilisateurs dans le cas de Facebook. Il faut plus que des licences libres.

Microsoft

J’entends de nombreuses personnes de la communauté du logiciel libre et open source se faire les chantres d’un Microsoft qui serait désormais respectable. Microsoft a changé sous la direction de son dernier PDG et ce n’est plus l’Empire du Mal. Ils intègrent désormais un noyau Linux dans Windows 10 et fournissent de nombreux outils libres et open source dans leurs conteneurs Linux sur le cloud Azure. Je pense qu’il s’agit là d’un véritable pas dans la bonne direction mais leurs solutions cloud bénéficient toujours de l’emprise la plus importante pour un éditeur : Windows 10 n’est pas gratuit et ne vous laisse pas de liberté. En réalité, aucun modèle économique open source n’est présent chez eux. Ils ne font qu’utiliser Linux et l’open source. Donc le fait que davantage de logiciels de l’écosystème Microsoft soient disponibles sous des licences libres ne donne pas pour autant davantage de libertés aux utilisateurs.

L’apprentissage automatique

L’apprentissage automatique est une nouvelle technologie importante qui peut être utilisée pour beaucoup de choses, qui vont de la reconnaissance d’images à celle de la voix en passant par les voitures autonomes. Ce qui est intéressant, c’est que le matériel et le logiciel seuls sont inutiles. Pour que l’apprentissage fonctionne, il faut des données pour ajuster l’algorithme. Ces données sont souvent l’ingrédient secret et très précieux nécessaire à une utilisation efficace de l’apprentissage automatique. Plus concrètement, si demain Tesla décidait de publier tous ses logiciels en tant que logiciels libres et que vous achetiez une Tesla pour avoir accès au matériel, vous ne seriez toujours pas en mesure d’étudier, de construire et d’améliorer la fonctionnalité de la voiture autonome. Vous auriez besoin des millions d’heures d’enregistrement vidéo et de données de conducteur pour rendre efficace votre réseau de neurones. En somme, le logiciel libre seul ne suffit pas à donner le contrôle aux utilisateurs.

5G

Le monde occidental débat beaucoup de la confiance à accorder à l’infrastructure de la 5G. Que savons-nous de la présence de portes dérobées dans les antennes-relais si elles sont achetées à Huawei ou à d’autres entreprises chinoises ? La communauté du logiciel libre et open source répond qu’il faudrait que le logiciel soit distribué sous une licence libre. Mais pouvons-nous vraiment vérifier que le code qui s’exécute sur cette infrastructure est le même que le code source mis à disposition ? Il faudrait pour cela avoir des compilations reproductibles, accéder aux clés de signature et de chiffrement du code ; l’infrastructure devrait récupérer les mises à jour logicielles depuis notre serveur de mise à jour et pas depuis celui du fabricant. La licence logicielle est importante mais elle ne vous donne pas un contrôle total et la pleine liberté.

Android

Android est un système d’exploitation mobile très populaire au sein de la communauté du logiciel libre. En effet, ce système est distribué sous une licence libre. Je connais de nombreux militants libristes qui utilisent une version personnalisée d’Android sur leur téléphone et n’installent que des logiciels libres depuis des plateformes telles que F-Droid. Malheureusement, 99 % des utilisateurs lambda ne bénéficient pas de ces libertés car leur téléphone ne peut pas être déverrouillé, car ils n’ont pas les connaissances techniques pour le faire ou car ils utilisent des logiciels uniquement disponibles sur le PlayStore de Google. Les utilisateurs sont piégés dans le monopole du fournisseur. Ainsi, le fait que le cœur d’Android est un logiciel libre ne donne pas réellement de liberté à 99 % de ses utilisateurs.

Finalement, quelle conclusion ?

Je pense que la communauté du logiciel libre et open source concernée par les 4 libertés de Stallman, le contrôle de sa vie numérique et la liberté des utilisateurs, doit étendre son champ d’action. Les licences libres sont nécessaires mais elles sont loin d’être encore suffisantes pour préserver la liberté des utilisateurs et leur garantir un contrôle de leur vie numérique.

La recette (matériel personnel) + (logiciel libre) = (liberté numérique) n’est plus valide.

Il faut davantage d’ingrédients. J’espère que la communauté du logiciel libre peut se réformer et le fera, pour traiter davantage de problématiques que les seules licences. Plus que jamais, le monde a besoin de personnes qui se battent pour les droits numériques et les libertés des utilisateurs.

symboles reliés par des opérateurs comme une équation : ordinateur + nuage open source + nuage de data + point d’inetrrogation = digital freedom
Image d’illustration de l’auteur pour ses diapos de conférence

 

 




Réinventer la cantine populaire ?

Et si dans notre société qui tangue dangereusement, nous retrouvions les voies du collectif solidaire pour un besoin élémentaire, ou plutôt alimentaire ?

Dans cet article, Rebecca May Johnson nous parle d’une époque où la nécessité de solidarité était mère d’inventivité. Du très actuel barbeuc de rond-point à la soupe populaire à République, en passant par les Restaurants du Cœur, partageons nos repas pour mieux nous entraider. Mais si, comme dans l’après-guerre à Londres, la cantine populaire redevenait une institution et même un service public ?

Article original : I dream of Canteens

Traduction Framalang : Damien, Lumibd, goofy, lamessen, Bengo, damio, Serici, Lois, Mannik, MO

Je rêve de cantines

par Rebecca May Johnson

Hospitalité, opulence et apport calorique

De l’espace

Il y a de l’espace pour tout le monde. De l’espace, un verre d’eau et une prise électrique. Des chaises, des tables et des toilettes propres. Tellement de chaises que personne n’en est privé. Assez de serviettes pour se moucher ou s’essuyer la bouche. Les chaises ont de multiples formes et certaines sont placées dans des endroits déterminés (une praxis de la discrimination positive). Il y a des chaises hautes et des chaises basses qui créent un paysage varié et permettent d’éviter le contact visuel si souhaité (une question de vie privée), des chaises basses en plastique de couleurs vives et des chaises à bonne hauteur pour les enfants. Il y a aussi une zone réservée pour les femmes qui veulent allaiter sans avoir à gérer les regards gênants d’hommes gênants si elles ne le veulent pas. Un comptoir bien équipé permet de réchauffer la nourriture pour bébés ou les plats faits maison, ce qui constitue une forme de reconnaissance que les bébés existent, que les gens apportant leur propre nourriture existent, et que ces personnes ont besoin d’un espace pour manger. Des plateaux empilés, propres et prêts à servir, sont placés au début de la file d’attente pour la nourriture. Certains sont placés sur des sortes de déambulateurs adaptés avec des étagères pour poser des plateaux afin que les personnes à mobilité réduite, ou accompagnées d’enfants ou encore ayant besoin de plusieurs assiettes puissent s’y appuyer quand elles font la queue et y placer la nourriture sans avoir à porter leur plateau.

La nourriture est bon marché. Je peux me permettre de l’acheter et chacun ici peut l’acheter pour soi-même et ses enfants sans inquiétude. On ne ressent pas l’angoisse de ceux qui n’ont pas d’argent pour s’acheter à manger alors qu’ils ont faim dans un endroit où l’on sert à manger. Pour ceux qui ont de l’argent, le prix est une bonne surprise. Pour ceux qui en ont moins, les prix sont une véritable bénédiction qui leur permet de manger. La nourriture est aussi bon marché que dans les fast-foods de poulets frits et assez riche en calories pour rassasier un enfant ou un adulte pour un bon moment.

FOLKEKØKKEN og debat, Kommunalvalg 2013 par BLÅGÅRDEN – Blågårdens Bibliotek, Støberiet og Korsgadehallen licence CC BY 2.0

La plupart des gens déposent leurs plateaux couverts de miettes et d’assiettes utilisées dans un endroit prévu à cet effet et ramassent leurs serviettes sales. Ils ne laissent pas de restes sur les tables, même si aucune signalétique ne le leur rappelle. De plus, il y a suffisamment de personnel pour que les déchets ne s’accumulent pas, et le personnel n’est pas débordé, stressé ni épuisé.

Du temps

Il y a aussi du temps pour tout le monde. Personne n’est invité à quitter les lieux et personne ne s’inquiète de ne pas être le bienvenu. Bien entendu, les gens partent, mais rester un certain temps n’est pas mal vu. Il n’y a pas d’affiches placardées sur les tables et les murs qui vous enjoignent de partir, de rester, de manger la nourriture achetée sur place ou quoi que ce soit d’autre. En fait, dans la belle tradition d’hospitalité occidentale qui remonte à l’épopée d’Homère (cf. Xénia 2) aucune personne accueillie ici ne sera invitée à partir, et tout le monde aura sans conteste de quoi boire, se nourrir et se laver. Aucun corps ne devient répugnant en restant et en franchissant une limite temporelle et spatiale, ambiguë mais clairement définie (du moins pas pendant les horaires d’ouverture). Une telle disposition offre une intimité en public, si celle-ci est définie comme la possibilité d’être là sans être soupçonné de quoi que ce soit. Les raisons pour lesquelles on peut se sentir suspect à Londres, en 2019, sont principalement, le fait de ne pas avoir d’argent, ou encore l’évolution constante des bio-politiques qui s’entremêlent, transformant la couleur de peau, le sexe et la religion en sources d’angoisse en public.

Contrairement à l’Odyssée d’Homère, il n’y aura pas de massacre si les gens restent plus longtemps qu’ils ne devraient, ou s’ils prennent plus d’échantillons gratuits que ce qui est prévu. Après tout, certaines personnes ne prennent pas d’échantillons du tout. Dans d’autres endroits, par exemple des petits cafés indépendants, certes charmants, mais peu rentables et coûteux, où le loyer est si élevé qu’il faut y passer peu de temps et dépenser beaucoup, il existe une limite de temps implicite mais clairement définie qui provoque l’inquiétude chez tout le monde (propriétaire, employés, clients). Cette limite existe même si les salaires sont bas et que les saisonniers sont renvoyés chez eux pendant la saison basse. Par ailleurs, rester trop longtemps sur la place grise et propre située devant King’s Cross, suscitera à coup sûr le regard suspicieux d’un agent de sécurité privée : quelles sont les raisons de rester immobile ou assis, si ce n’est pas pour dépenser ? Or, c’est ce qu’on ressent parfois. Dans ces endroits et dans la plupart des endroits de nos jours, le corps commence à passer dans un état de manque, d’autant plus important que le temps passé depuis la dernière dépense est long.

Du plaisir

J’ai commencé par décrire certaines caractéristiques des cantines de magasins IKEA situés à l’extérieur de la ville et d’une de banlieues que j’ai récemment visitées à Reading et Croydon. Je n’ai aucune illusion sur la raison pour laquelle IKEA a des cantines dans ses magasins : ces derniers sont énormes et épuisants à arpenter. Fournir un certain confort et une alimentation abordable rend la visite supportable, voire très amusante. Ils utilisent leurs cantines pour montrer à quel point ils sont généreux, hospitaliers et socialement bienveillants : une vision vivante de ce qu’ils vous vendent. Dans les cantines IKEA, j’ai éprouvé énormément de plaisir en mangeant et m’asseyant, et j’ai remarqué que beaucoup d’autres personnes semblaient ressentir la même chose. J’ai essayé différents plats à trois occasions différentes : des boulettes de viande avec des frites et diverses sauces, une tarte sucrée, une salade de crevettes, des boulettes végétariennes avec du boulgour pilaf, un yaourt, quelques tranches de pain à l’ail, du cheesecake, du café, du sirop de fleurs de sureau, des bonbons acidulés. J’ai tout mangé et tout aimé, et j’aurais bien voulu goûter aussi certains plats du petit menu. Si un tel endroit existait en ville, j’irais tous les jours. C’est révélateur : bien qu’il n’y ait aucune cantine publique en ville (quel conseil municipal pourrait en effet se permettre de conserver une telle quantité d’immobilier après les coupes budgétaires ?), les Chambres du Parlement, elles, disposent de dix cantines.

L’idée que la restauration collective doive être dépourvue de plaisir est fausse. Le plaisir issu de la consommation d’un repas ou d’une boisson sans l’angoisse due à la restriction du temps, de l’espace et de l’argent peut avoir un immense effet bénéfique. Le plaisir issu d’une nourriture préparée à partir de boîtes de conserve et d’ingrédients surgelés peut aussi avoir un grand effet. Dans son livre How to Cook a Wolf (Comment cuisiner un loup), l’auteur de recettes américain du milieu du XXe siècle MFK Fisher aborde les vertus des légumes en conserve et surgelés et conçoit une recette de petits pois à la française avec des petits pois surgelés. De même, dans son livre The Food of Italy (La Cuisine d’Italie), Claudia Roden avoue toujours acheter ses cœurs d’artichauts surgelés pour ses recettes qui en utilisent, et Ruth Rogers, co-fondatrice de The River Café, prépare une sauce tomate pour ses invités en utilisant une conserve de tomates à partir d’une recette de Marcella Hazan. De la même façon, dans les cantines d’IKEA et dans beaucoup d’autres lieux dont j’aime la nourriture, les repas servis utilisent les avantages des innovations telles que la surgélation et la conserve pour en offrir un grand volume avec peu de gaspillage. Les légumes surgelés et en conserve sont récoltés au meilleur de leur saison, lorsqu’ils sont abondants et peu onéreux. On ne peut pas dire la même chose des fruits et légumes importés, qui restent verts des semaines après avoir été cueillis et pourrissent souvent sans jamais mûrir assez pour être comestibles. Comparez une tomate fraîche crue en janvier et une conserve de tomates cuites récoltées en août en Italie. Les tomates de la boîte sont moins chères, plus sucrées et délicieuses.

Se cacher

Durant la majeure partie de mon séjour à Londres ces dix dernières années, j’ai beaucoup rêvé d’une telle opulence et d’une telle hospitalité bien maîtrisées, et de cette générosité abordable et attirante, riche en calories que j’ai connue dans les cantines IKEA et dans certains autres endroits, tels que la cantine de l’auberge de jeunesse indienne, à Fitzrovia, la cantine du Muslim World League, rue Charlotte, les McDonald’s où qu’ils soient, les funérailles tamoules et leur repas fourni par un traiteur pouvant servir de « 10 à 10 000 » personnes, ou les cantines universitaires. Par exemple, j’ai aspiré à l’hospitalité d’une cantine chaleureuse les centaines de fois où j’étais assise sur le sol glacial de la British Library pour manger mon repas fait maison avec des couverts en plastique volés, ou quand j’ai rassemblé tout mon courage pour acheter un thé et oser manger, pleine de honte, ma propre nourriture dans le restaurant de la bibliothèque, assise sous le panneau indiquant clairement que les sièges sont réservés aux usagers de la bibliothèque.

La dissimulation de son corps et de sa pauvreté est devenue une composante de la survie londonienne. J’ai caché des sandwiches ou me suis moi-même cachée là où j’aurais dû consommer pour avoir le droit de m’asseoir, et ce, partout dans la ville. Pas vous ? L’été dernier, une femme s’est approchée de moi nerveusement alors que j’étais en train de manger un cheeseburger au McDonald situé près de la British Library, pour me demander les jetons de ma tasse de café et en avoir un gratuit. Je l’ai alors vue y vider de nombreux sachets de sucre gratuits, geste nécessaire pour compléter un apport calorique suffisant pour la maintenir en vie un jour de plus : un marché noir de sachets de sucre, qui ternit l’image de Londres en tant que destination gastronomique. J’ai vu des queues à l’entrée des banques alimentaires et l’arrivée des boîtes de dons de nourriture à la sortie des supermarchés. Le gouvernement permet à une réelle famine de se répandre sans lever le petit doigt. Les rues de la ville ne reconnaissent plus le fonctionnement perpétuel du ventre et de la vessie comme faisant partie intégrante de la vie de chaque humain. Les Victoriens y faisaient attention, alors même qu’ils ne reconnaissaient pas le droit de vote des femmes, et leurs toilettes souterraines sont devenues des cafés sans sanitaires. J’ai vécu récemment un émouvant moment d’hospitalité (Xenia) après avoir frappé à la porte d’un préposé au nettoyage de toilettes publiques à Peterborough : il m’a laissé passer sans me poser aucune question, alors même que je n’avais pas les 20 pence demandés. De tels moments de résistance sont rassurants et montrent une volonté de trouver une alternative au délabrement de l’hospitalité municipale qui définit de plus en plus l’espace public.

Les « Restaurants britanniques »

En voyant un livre que j’avais en main, mais que je n’avais pas encore lu, intitulé Tranche de vie, la façon de manger britannique depuis 1945, une agente de sécurité de la British Library m’a expliqué qu’elle connaissait l’hospitalité populaire et les cantines pour tous – à l’inverse de celle où elle travaillait actuellement. « Ce livre doit donc parler des Restaurants britanniques », a-t-elle dit. Je lui ai répondu « Qu’est-ce que c’est ? ». Elle m’a répondu que pendant et après la guerre, avec le manque de nourriture dû au rationnement, le gouvernement avait mis en place des « Restaurants britanniques » pour servir un plat chaud à prix bas pour chacun, afin que les gens puissent manger des choses comme de la semoule ou du ragoût dont elle ne se souvenait que de l’odeur. C’était dans les années 50 ou 60. Ces restaurants étaient destinés aux travailleurs, aux gens ordinaires et aux enfants, a-t-elle ajouté. Elle y allait souvent quand elle était à l’école à Red Hill, dans le Surrey. Puis ils ont disparu avant qu’elle n’aille au lycée.

Elle confirma que la nourriture n’était pas mauvaise et qu’elle était vraiment très abordable. Elle était très enthousiaste en me parlant des « Restaurants britanniques » ; elle en avait conservé un souvenir ému.

J’ai essayé d’imaginer un restaurant britannique aujourd’hui, un programme soutenu par le gouvernement pour s’assurer que chaque bénéficiaire puisse être nourri, comme s’il s’agissait d’une grande cause nationale. Je n’ai pas pu. Quand j’ai parlé à l’agente de sécurité, j’ai découvert que si le restaurant de la British Library continue à servir du café filtre, son offre la moins chère, le nouveau fournisseur (le troisième en dix ans, car aucune entreprise privée ne s’en sort) n’en fait plus la publicité et se contente d’afficher le prix des cafés les plus chers, à côté des 17 livres (environ 20 euros) pour les plats chauds et des 5 livres (environ 5,60 euros) pour les gâteaux. Le café filtre a disparu depuis.

Puis j’ai regardé dans mon livre et découvert que les « Restaurants britanniques » servaient des repas équilibrés (conformément aux connaissances scientifiques de l’époque) et avaient des bibliothèques, des fleurs fraîches sur les tables, des gramophones et des pianos. J’avais l’impression de découvrir une vision utopique du futur, un peu comme dans un film de science-fiction. Des recherches dans les archives du Mass Observation montrent de nombreux entretiens avec des personnes ravies d’être rassasiées par des plats chauds. En 1950, 50 millions de repas étaient servis chaque semaine. Lord Woolton, le ministre conservateur de l’alimentation, qui avait demandé à un de ses amis socialistes de concevoir des cantines subventionnées par l’État, les a considérées comme « l’une des plus grandes révolutions sociales dans l’industrie du pays ». Des discussions ont eu lieu au Parlement sur la façon dont ces cantines produisaient une étonnante amélioration du bien-être des travailleurs.

Après la guerre, les conservateurs les ont closes parce qu’elles n’étaient pas rentables. Les cantines ont périclité, puis ont fini par disparaître. Aujourd’hui, les déserts alimentaires et les banques alimentaires prolifèrent, et les gens ne peuvent plus se nourrir suffisamment pour vivre. C’est une étrange situation : alors que la pauvreté alimentaire apparaît, nous oublions que par le passé nous faisions des cantines populaires. Le souvenir de la guerre que l’on entretient est celui du rationnement, du manque alors que pour beaucoup de gens, il n’y avait jamais eu autant de nourriture chaude et rassasiante.

Un siège, une table, un verre d’eau, une assiette de nourriture qui tient au corps pour un bon moment ; l’espace et le temps dans lequel s’épanouir.

Je rêve de cantines.

 




Nous sommes déjà des cyborgs mais nous pouvons reprendre le contrôle

Avec un certain sens de la formule, Aral Balkan allie la sévérité des critiques et l’audace des propositions. Selon lui nos corps « augmentés » depuis longtemps font de nous des sujets de la surveillance généralisée maintenant que nos vies sont sous l’emprise démultipliée du numérique.

Selon lui, il nous reste cependant des perspectives et des pistes pour retrouver la maîtrise de notre « soi », mais elles impliquent, comme on le devine bien, une remise en cause politique de nos rapports aux GAFAM, une tout autre stratégie d’incitation aux entreprises du numérique de la part de la Communauté européenne, le financement d’alternatives éthiques, etc.

Ce qui suit est la version française d’un article qu’a écrit Aral pour le numéro 32 du magazine de la Kulturstiftung des Bundes (Fondation pour la culture de la République fédérale d’Allemagne). Vous pouvez également lire la version allemande.

Article original en anglais : Slavery 2.0 and how to avoid it : a practical guide for cyborgs

Traduction Framalang : goofy, jums, Fifi, MO, FranBAG, Radical Mass

L’esclavage 2.0 et comment y échapper : guide pratique pour les cyborgs.

par Aral Balkan

Il est très probable que vous soyez un cyborg et que vous ne le sachiez même pas.

Vous avez un smartphone ?
Vous êtes un cyborg.
Vous utilisez un ordinateur ? Ou le Web ?
Cyborg !

En règle générale, si vous utilisez une technologie numérique et connectée aujourd’hui, vous êtes un cyborg. Pas besoin de vous faire greffer des microprocesseurs, ni de ressembler à Robocop. Vous êtes un cyborg parce qu’en utilisant des technologies vous augmentez vos capacités biologiques.

À la lecture de cette définition, vous pourriez marquer un temps d’arrêt : « Mais attendez, les êtres humains font ça depuis bien avant l’arrivée des technologies numériques ». Et vous auriez raison.

Nous étions des cyborgs bien avant que le premier bug ne vienne se glisser dans le premier tube électronique à vide du premier ordinateur central.

Galilée et sa lunette, tableau de Justus Sustermans, image via Wikimedia Commons (Public Domain]

L’homme des cavernes qui brandissait une lance et allumait un feu était le cyborg originel. Galilée contemplant les cieux avec son télescope était à la fois un homme de la Renaissance et un cyborg. Lorsque vous mettez vos lentilles de contact le matin, vous êtes un cyborg.

Tout au long de notre histoire en tant qu’espèce, la technologie a amélioré nos sens. Elle nous a permis une meilleure maîtrise et un meilleur contrôle sur nos propres vies et sur le monde qui nous entoure. Mais la technologie a tout autant été utilisée pour nous opprimer et nous exploiter, comme peut en témoigner quiconque a vu un jour de près le canon du fusil de l’oppresseur.

« La technologie », d’après la première loi de la technologie de Melvin Kranzberg, « n’est ni bonne ni mauvaise, mais elle n’est pas neutre non plus. »

Qu’est-ce qui détermine alors si la technologie améliore notre bien-être, les droits humains et la démocratie ou bien les dégrade ? Qu’est-ce qui distingue les bonnes technologies des mauvaises ? Et, tant qu’on y est, qu’est-ce qui différencie la lunette de Galilée et vos lentilles de contact Google et Facebook ? Et en quoi est-ce important de se considérer ou non comme des cyborgs ?

Nous devons tous essayer de bien appréhender les réponses à ces questions. Sinon, le prix à payer pourrait être très élevé. Il ne s’agit pas de simples questions technologiques. Il s’agit de questions cruciales sur ce que signifie être une personne à l’ère du numérique et des réseaux. La façon dont nous choisirons d’y répondre aura un impact fondamental sur notre bien-être, tant individuellement que collectivement. Les réponses que nous choisirons détermineront la nature de nos sociétés, et à long terme pourraient influencer la survie de notre espèce.

Propriété et maîtrise du « soi » à l’ère numérique et connectée

Imaginez : vous êtes dans un monde où on vous attribue dès la naissance un appareil qui vous observe, vous écoute et vous suit dès cet instant. Et qui peut aussi lire vos pensées.

Au fil des ans, cet appareil enregistre la moindre de vos réflexions, chaque mot, chaque mouvement et chaque échange. Il envoie toutes ces informations vous concernant à un puissant ordinateur central appartenant à une multinationale. À partir de là, les multiples facettes de votre personnalité sont collectionnées par des algorithmes pour créer un avatar numérique de votre personne. La multinationale utilise votre avatar comme substitut numérique pour manipuler votre comportement.

Votre avatar numérique a une valeur inestimable. C’est tout ce qui fait de vous qui vous êtes (à l’exception de votre corps de chair et d’os). La multinationale se rend compte qu’elle n’a pas besoin de disposer de votre corps pour vous posséder. Les esprits critiques appellent ce système l’Esclavage 2.0.

À longueur de journée, la multinationale fait subir des tests à votre avatar. Qu’est-ce que vous aimez ? Qu’est-ce qui vous rend heureux ? Ou triste ? Qu’est-ce qui vous fait peur ? Qui aimez-vous ? Qu’allez-vous faire cet après-midi ? Elle utilise les déductions de ces tests pour vous amener à faire ce qu’elle veut. Par exemple, acheter cette nouvelle robe ou alors voter pour telle personnalité politique.

La multinationale a une politique. Elle doit continuer à survivre, croître et prospérer. Elle ne peut pas être gênée par des lois. Elle doit influencer le débat politique. Heureusement, chacun des politiciens actuels a reçu le même appareil que vous à la naissance. Ainsi, la multinationale dispose aussi de leur avatar numérique, ce qui l’aide beaucoup à parvenir à ses fins.

Ceci étant dit, la multinationale n’est pas infaillible. Elle peut toujours faire des erreurs. Elle pourrait de façon erronée déduire, d’après vos pensées, paroles et actions, que vous êtes un terroriste alors que ce n’est pas le cas. Quand la multinationale tombe juste, votre avatar numérique est un outil d’une valeur incalculable pour influencer votre comportement. Et quand elle se plante, ça peut vous valoir la prison.
Dans les deux cas, c’est vous qui perdez !

Ça ressemble à de la science-fiction cyberpunk dystopique, non ?

Remplacez « multinationale » par « Silicon Valley ». Remplacez « puissant ordinateur central » par « cloud ». Remplacez « appareil » par « votre smartphone, l’assistant de votre smart home, votre smart city et votre smart ceci-cela, etc. ».

Bienvenue sur Terre, de nos jours ou à peu près.

Le capitalisme de surveillance

Nous vivons dans un monde où une poignée de multinationales ont un accès illimité et continu aux détails les plus intimes de nos vies. Leurs appareils, qui nous observent, nous écoutent et nous pistent, que nous portons sur nous, dans nos maisons, sur le Web et (de plus en plus) sur nos trottoirs et dans nos rues. Ce ne sont pas des outils dont nous sommes maîtres. Ce sont les yeux et les oreilles d’un système socio-techno-économique que Shoshana Zuboff appelle « le capitalisme de surveillance ».

Tout comme dans notre fiction cyberpunk dystopique, les barons voleurs de la Silicon Valley ne se contentent pas de regarder et d’écouter. Par exemple, Facebook a annoncé à sa conférence de développeurs en 2017 qu’ils avaient attelé 60 ingénieurs à littéralement lire dans votre esprit3.

J’ai demandé plus haut ce qui sépare la lunette de Galilée de vos lentilles de contact produites par Facebook, Google ou d’autres capitalistes de surveillance. Comprendre la réponse à cette question est crucial pour saisir à quel point le concept même de personnalité est menacé par le capitalisme de surveillance.

Lorsque Galilée utilisait son télescope, lui seul voyait ce qu’il voyait et lui seul savait ce qu’il regardait. Il en va de même lorsque vous portez vos lentilles de contact. Si Galilée avait acheté son télescope chez Facebook, Facebook Inc. aurait enregistré tout ce qu’il voyait. De manière analogue, si vous allez achetez vos lentilles de contact chez Google, des caméras y seront intégrées et Alphabet Inc. verra tout ce que vous voyez. (Google ne fabrique pas encore de telles lentilles, mais a déposé un brevet4 pour les protéger. En attendant, si vous êtes impatient, Snapchat fait des lunettes à caméras intégrées.)

Lorsque vous rédigez votre journal intime au crayon, ni le crayon ni votre journal ne savent ce que vous avez écrit. Lorsque vous écrivez vos réflexions dans des Google Docs, Google en connaît chaque mot.

Quand vous envoyez une lettre à un ami par courrier postal, la Poste ne sait pas ce que vous avez écrit. C’est un délit pour un tiers d’ouvrir votre enveloppe. Quand vous postez un message instantané sur Facebook Messenger, Facebook en connaît chaque mot.

Si vous vous identifiez sur Google Play avec votre smartphone Android, chacun de vos mouvements et de vos échanges sera méticuleusement répertorié, envoyé à Google, enregistré pour toujours, analysé et utilisé contre vous au tribunal du capitalisme de surveillance.

On avait l’habitude de lire les journaux. Aujourd’hui, ce sont eux qui nous lisent. Quand vous regardez YouTube, YouTube vous regarde aussi.

Vous voyez l’idée.

À moins que nous (en tant qu’individus) n’ayons notre technologie sous contrôle, alors « smart » n’est qu’un euphémisme pour « surveillance ». Un smartphone est un mouchard, une maison intelligente est une salle d’interrogatoire et une ville intelligente est un dispositif panoptique.

Google, Facebook et les autres capitalistes de surveillance sont des fermes industrielles pour êtres humains. Ils gagnent des milliards en vous mettant en batterie pour vous faire pondre des données et exploitent cette connaissance de votre intimité pour vous manipuler votre comportement.

Ce sont des scanners d’être humains. Ils ont pour vocation de vous numériser, de conserver cette copie numérique et de l’utiliser comme avatar pour gagner encore plus en taille et en puissance.

Nous devons comprendre que ces multinationales ne sont pas des anomalies. Elles sont la norme. Elles sont le courant dominant. Le courant dominant de la technologie aujourd’hui est un débordement toxique du capitalisme américain de connivence qui menace d’engloutir toute la planète. Nous ne sommes pas vraiment à l’abri de ses retombées ici en Europe.

Nos politiciens se laissent facilement envoûter par les millions dépensés par ces multinationales pour abreuver les lobbies de Bruxelles. Ils sont charmés par la sagesse de la Singularity University (qui n’est pas une université). Et pendant ce temps-là, nos écoles entassent des Chromebooks pour nos enfants. On baisse nos taxes, pour ne pas handicaper indûment les capitalistes de surveillance, au cas où ils voudraient se commander une autre Guinness. Et les penseurs de nos politiques, institutionnellement corrompus, sont trop occupés à organiser des conférences sur la protection des données – dont les allocutions sont rédigées par Google et Facebook – pour protéger nos intérêts. Je le sais car j’ai participé à l’une d’elles l’an passé. L’orateur de Facebook quittait tout juste son boulot à la CNIL, la commission française chargée de la protection des données, réputée pour la beauté et l’efficacité de ses chaises musicales.

Il faut que ça change.

Je suis de plus en plus convaincu que si un changement doit venir, il viendra de l’Europe.

La Silicon Valley ne va pas résoudre le problème qu’elle a créé. Principalement parce que des entreprises comme Google ou Facebook ne voient pas leurs milliards de bénéfices comme un problème. Le capitalisme de surveillance n’est pas déstabilisé par ses propres critères de succès. Ça va comme sur des roulettes pour les entreprises comme Google et Facebook. Elles se marrent bien en allant à la banque, riant au visage des législateurs, dont les amendes cocasses excèdent à peine un jour ou deux de leur revenu. D’aucuns diraient que « passible d’amende » signifie « légal pour les riches ». C’est peu de le dire lorsqu’il s’agit de réglementer des multinationales qui brassent des milliers de milliards de dollars.

De manière analogue, le capital-risque ne va pas investir dans des solutions qui mettraient à mal le business immensément lucratif qu’il a contribué à financer.

Alors quand vous voyez passer des projets comme le soi-disant Center for Humane Technology, avec des investisseurs-risques et des ex-employés de Google aux commandes, posez-vous quelques questions. Et gardez-en quelques-unes pour les organisations qui prétendent créer des alternatives éthiques alors qu’elles sont financées par les acteurs du capitalisme de surveillance. Mozilla, par exemple, accepte chaque année des centaines de millions de dollars de Google5. Au total, elle les a délestés de plus d’un milliard de dollars. Vous êtes content de lui confier la réalisation d’alternatives éthiques ?

Si nous voulons tracer une autre voie en Europe, il faut financer et bâtir notre technologie autrement. Ayons le courage de nous éloigner de nos amis d’outre-Atlantique. Ayons l’aplomb de dire à la Silicon Valley et à ses lobbyistes que nous n’achetons pas ce qu’ils vendent.

Et nous devons asseoir tout ceci sur de solides fondations légales en matière de droits de l’homme. J’ai dit « droits de l’homme » ? Je voulais dire droits des cyborgs.

Les droits des cyborgs sont des droits de l’homme

La crise juridique des droits de l’homme que nous rencontrons nous ramène au fond à ce que nous appelons « humain ».

Traditionnellement, on trace les limites de la personne humaine à nos frontières biologiques. En outre, notre système légal et judiciaire tend à protéger l’intégrité de ces frontières et, par là, la dignité de la personne. Nous appelons ce système le droit international des droits de l’Homme.

Malheureusement, la définition de la personne n’est plus adaptée pour nous protéger complètement à l’ère du numérique et des réseaux.

Dans cette nouvelle ère, nous étendons nos capacités biologiques par des technologies numériques et en réseau. Nous prolongeons nos intellects et nos personnes par la technologie moderne. C’est pour ça que nous devons étendre notre concept des limites de la personne jusqu’à inclure les technologies qui nous prolongent. En étendant la définition de la personne, on s’assure que les droits de l’homme couvrent et donc protègent la personne dans son ensemble à l’ère du numérique et des réseaux.

« Cyborg-gal-avi » par Pandora Popstar/Lainy Voom, licence CC BY-NC-SA 2.0

En tant que cyborgs, nous sommes des êtres fragmentaires. Des parties de nous vivent dans nos téléphones, d’autres quelque part sur un serveur, d’autres dans un PC portable. C’est la somme totale de tous ces fragments qui compose l’intégralité de la personne à l’ère du numérique et des réseaux.

Les droits des cyborgs sont donc les droits de l’homme tels qu’appliqués à la personne cybernétique. Ce dont nous n’avons pas besoin, c’est d’un ensemble de « droits numériques » – probablement revus à la baisse. C’est pourquoi, la Déclaration universelle des droits cybernétiques n’est pas un document autonome, mais un addendum à la Déclaration universelle des droits de l’Homme.

La protection constitutionnelle des droits cybernétiques étant un but à long terme, il ne faut pas attendre un changement constitutionnel pour agir. Nous pouvons et devons commencer à nous protéger en créant des alternatives éthiques aux technologies grand public.

Pour des technologies éthiques

Une technologie éthique est un outil que vous possédez et que vous contrôlez. C’est un outil conçu pour vous rendre la vie plus facile et plus clémente. C’est un outil qui renforce vos capacités et améliore votre vie. C’est un outil qui agit dans votre intérêt – et jamais à votre détriment.

Une technologie non éthique est au contraire un outil aux mains de multinationales et de gouvernements. Elle sert leurs intérêts aux dépens des vôtres. C’est un miroir aux alouettes conçu pour capter votre attention, vous rendre dépendant, pister chacun de vos mouvements et vous profiler. C’est une ferme industrielle déguisée en parc récréatif.

La technologie non éthique est nuisible pour les êtres humains, le bien-être et la démocratie.

Semer de meilleures graines

La technologie éthique ne pousse pas sur des arbres, il faut la financer. La façon de la financer a de l’importance.
La technologie non éthique est financée par le capital risque. Le capital risque n’investit pas dans une entreprise, il investit dans la vente de l’entreprise. Il investit aussi dans des affaires très risquées. Un investisseur risque de la Silicon Valley va investir, disons, 5 millions de dollars dans 10 start-ups différentes, en sachant que 9 d’entre elles vont capoter. Alors il (c’est habituellement un « lui/il ») a besoin que la 10e soit une licorne à un milliard de dollars pour que ça lui rapporte 5 à 10 fois l’argent investi (Ce n’est même pas son argent, mais celui de ses clients.). Le seul modèle d’affaires que nous connaissions dans les nouvelles technologies qui atteigne une croissance pareille est la mise en batterie des gens. L’esclavage a bien payé.
L’esclavage 2.0 paie bien aussi.

Pas étonnant qu’un système qui attache autant de valeur à un mode de croissance de type prolifération cancéreuse ait engendré des tumeurs telles que Google et Facebook. Ce qui est stupéfiant, c’est que nous semblions célébrer ces tumeurs au lieu de soigner le patient. Et plus déconcertant encore, nous nous montrons obstinément déterminés à nous inoculer la même maladie ici en Europe.

Changeons de direction.

Finançons des alternatives éthiques

À partir des biens communs

Pour le bien commun.

Oui, cela signifie avec nos impôts. C’est en quelque sorte ce pour quoi ils existent (pour mettre en place des infrastructures partagées et destinées au bien commun qui font progresser le bien-être de nos populations et nos sociétés). Si le mot « impôt » vous effraie ou sonne trop vieux jeu, remplacez-le simplement par « financement participatif obligatoire » ou « philanthropie démocratisée ».

Financer une technologie éthique à partir des biens communs ne signifie pas que nous laissions aux gouvernements le pouvoir de concevoir, posséder ou contrôler nos technologies. Pas plus que de nationaliser des entreprises comme Google et Facebook. Démantelons-les ! Bien sûr. Régulons-les ! Évidemment. Mettons en œuvre absolument tout ce qui est susceptible de limiter autant que possible leurs abus.

Ne remplaçons pas un Big Brother par un autre.

À l’inverse, investissons dans de nombreuses et petites organisations, indépendantes et sans but lucratif, et chargeons-les de concevoir les alternatives éthiques. Dans le même temps, mettons-les en compétition les unes avec les autres. Prenons ce que nous savons qui fonctionne dans la Silicon Valley (de petites organisations travaillant de manière itérative, entrant en compétition, et qui échouent rapidement) et retirons ce qui y est toxique : le capital risque, la croissance exponentielle, et les sorties de capitaux.

À la place des startups, lançons des entreprises durables, des stayups en Europe.

À la place de sociétés qui n’ont comme possibilités que d’échouer vite ou devenir des tumeurs malignes, finançons des organisations qui ne pourront qu’échouer vite ou devenir des fournisseurs durables de bien social.

Lorsque j’ai fait part de ce projet au Parlement européen, il y a plusieurs années, celui-ci a fait la sourde oreille. Il n’est pas encore trop tard pour s’y mettre. Mais à chaque fois que nous repoussons l’échéance, le capitalisme de surveillance s’enchevêtre plus profondément encore dans le tissu de nos vies.

Nous devons surmonter ce manque d’imagination et fonder notre infrastructure technologique sur les meilleurs principes que l’humanité ait établis : les droits de l’homme, la justice sociale et la démocratie.

Aujourd’hui, l’UE se comporte comme un département de recherche et développement bénévole pour la Silicon Valley. Nous finançons des startups qui, si elles sont performantes, seront vendues à des sociétés de la Silicon Valley. Si elles échouent, le contribuable européen réglera la note. C’est de la folie.

La Communauté Européenne doit mettre fin au financement des startups et au contraire investir dans les stayups. Qu’elle investisse 5 millions d’euros dans dix entreprises durables pour chaque secteur où nous voulons des alternatives éthiques. À la différence des startups, lorsque les entreprises durables sont performantes, elles ne nous échappent pas. Elles ne peuvent être achetées par Google ou Facebook. Elles restent des entités non lucratives, soutenables, européennes, œuvrant à produire de la technologie en tant que bien social.

En outre, le financement d’une entreprise durable doit être soumis à une spécification stricte sur la nature de la technologie qu’elle va concevoir. Les biens produits grâce aux financements publics doivent être des biens publics. La Free Software Foundation Europe sensibilise actuellement l’opinion sur ces problématiques à travers sa campagne « argent public, code public ». Cependant, nous devons aller au-delà de  l’open source pour stipuler que la technologie créée par des entreprises durables doit être non seulement dans le domaine public, mais également qu’elle ne peut en être retirée. Dans le cas des logiciels et du matériel, cela signifie l’utilisation de licences copyleft. Une licence copyleft implique que si vous créez à partir d’une technologie publique, vous avez l’obligation de la partager à l’identique. Les licences share-alike, de partage à l’identique, sont essentielles pour que nos efforts ne soient pas récupérés pour enjoliver la privatisation et pour éviter une tragédie des communs. Des corporations aux poches sans fond ne devraient jamais avoir la possibilité de prendre ce que nous créons avec des deniers publics, habiller tout ça de quelques millions d’investissement et ne plus partager le résultat amélioré.

En fin de compte, il faut préciser que les technologies produites par des entreprises stayups sont des technologies pair-à-pair. Vos données doivent rester sur des appareils que vous possédez et contrôlez. Et lorsque vous communiquez, vous devez le faire en direct (sans intervention d’un « homme du milieu », comme Google ou Facebook). Là où ce n’est techniquement pas possible, toute donnée privée sous le contrôle d’une tierce partie (par exemple un hébergeur web) doit être chiffrée de bout à bout et vous seul devriez en détenir la clé d’accès.

Même sans le moindre investissement significatif dans la technologie éthique, de petits groupes travaillent déjà à des alternatives. Mastodon, une alternative à Twitter fédérée et éthique, a été créée par une seule personne d’à peine vingt ans. Quelques personnes ont collaboré pour créer un projet du nom de Dat qui pourrait être la base d’un web décentralisé. Depuis plus de dix ans, des bénévoles font tourner un système de nom de domaine alternatif non commercial appelé OpenNIC6 qui pourrait permettre à chacun d’avoir sa propre place sur le Web…

Si ces graines germent sans la moindre assistance, imaginez ce qui serait à notre portée si on commençait réellement à les arroser et à en planter de nouvelles. En investissant dans des stayups, nous pouvons entamer un virage fondamental vers la technologie éthique en Europe.

Nous pouvons construire un pont de là où nous sommes vers là où nous voulons aller.

D’un monde où les multinationales nous possèdent par procuration à un monde où nous n’appartenons qu’à nous-mêmes.

D’un monde où nous finissons toujours par être la propriété d’autrui à un monde où nous demeurons des personnes en tant que telles.

Du capitalisme de surveillance à la pairocratie.




Un vaste réservoir d’images sous licences libres

Vous cherchez des images utilisables pour vos sites ou publications ? Savez-vous qu’il est facile d’en trouver avec divers niveaux de permissions via le moteur de recherche des Creative Commons ?

Ces petits logos, familiers des libristes, sont souvent combinés et permettent de savoir précisément à quelles conditions vous pouvez utiliser les images :

logo attribution CCAttribution : vous devez mentionner l’identité de l’auteur initial (obligatoire en droit français) (sigle : BY)

 

Non Commercial : vous ne pouvez pas tirer un profit commercial de l’œuvre sans autorisation de l’auteur (sigle : NC)

 

No derivative works : vous ne pouvez pas intégrer tout ou partie dans une œuvre composite (sigle : ND)

 

Share alike : partage de l’œuvre, vous pouvez rediffuser mais selon la même licence ou une licence similaire  (sigle : SA)

Si vous êtes dans le monde de l’éducation, pensez à faire adopter les bonnes pratiques aux élèves et étudiants qui ont besoin d’illustrer un document et qui ont tendance à piller Google images sans trop se poser de questions…

… mais il arrive souvent que de grands médias donnent aussi de bien mauvais exemples !

Si vous êtes embarrassé⋅e pour ajouter les crédits nécessaires sous l’image que vous utilisez, le nouveau moteur de recherche de Creative Commons vous facilite la tâche. C’est une des nouveautés qui en font une ressource pratique et précieuse, comme Jane Park l’explique dans l’article ci-dessous.

Article original : CC Search is out of beta with 300M images and easier attribution

Traduction Framalang : Goofy

Le moteur de recherche de Creative Commons propose maintenant 300 millions d’images plus faciles à attribuer

par Jane Park

Jane Park, directrice de produit et de la recherche
Jane Park, directrice de la Recherche Creative Commons dont elle pilote la conception, l’implémentation et le développement

Désormais la recherche Creative Commons n’est plus en version bêta, elle propose plus de 300 millions d’images indexées venant de multiples collections, une interface entièrement redessinée ainsi qu’une recherche plus pertinente et plus rapide. Tel est le résultat de l’énorme travail de l’équipe d’ingénieurs de Creative Commons avec l’appui de notre communauté de développeurs bénévoles.

CC Search parcourt les images de 19 collections grâce à des API ouvertes et le jeu de données Common Crawl, ce qui inclut les œuvres artistiques et culturelles des musées (le Metropolitan Museum of Art, le Cleveland Museum of Art), les arts graphiques (Behance, DeviantArt), les photos de Flickr, et un premier jeu de créations en 3D sous CC0 issus de Thingiverse.

Au plan esthétique et visuel, vous allez découvrir des changements importants : une page d’accueil plus sobre, une navigation meilleure avec des filtres, un design en harmonie avec le portail creativecommons.org, des options d’attribution faciles à utiliser et des canaux de communication efficaces pour faire remonter vos questions, réactions et désirs, tant sur les fonctionnalités du site que sur les banques d’images. Vous trouverez également un lien direct vers la page d’accueil des Creative Commons (le site de l’ancienne recherche est toujours disponible si vous préférez).

copie d’écran interface ancienne de la recherche de creative commons
Interface ancienne de la recherche d’images, qui demandait plusieurs étapes

 

copie d’écran, champ de saisie unique pour la recherche CC
Nouvelle interface qui unifie les recherches à partir d’un seul champ de saisie

 

Résultats de recherche du mot "Goofy" avec CC search
à gauche le nombre de résultats disponibles, et au survol de l’image, les symboles qui signalent les niveaux de permission

Si vous jetez un œil sous le capot, vous verrez que nous avons réussi à diminuer le temps de recherche et nous avons amélioré la pertinence de la recherche par phrase. Nous avons aussi implémenté des métriques pour mieux comprendre quand et comment les fonctionnalités sont utilisées. Enfin, nous avons bien sûr corrigé beaucoup de bugs que la communauté nous a aidé à identifier.

copie d’écran attribution facile des crédits
Une fois l’image sélectionnée, un simple clic pour copier les crédits (en texte enrichi ou en HTML)

Et bientôt…

Nous allons continuer à augmenter la quantité d’images de notre catalogue, en visant en priorité les collections d’images comme celles de Europeana et Wikimedia Commons. Nous projetons aussi d’indexer davantage de types d’œuvres sous licences CC, tels que les manuels et les livres audio, vers la fin de l’année. Notre but final demeure inchangé : donner l’accès à 1,4 milliard d’œuvres qui appartiennent aux Communs), mais nous sommes avant tout concentrés sur les images que les créateurs et créatrices désirent utiliser de diverses façons, comment ils peuvent apprendre à partir de ces images, les utiliser avec de larges permissions, et restituer leur exp)érience à tous pour nourrir la recherche Creative Commons.

Du point de vue des fonctionnalités, des avancées spécifiques figurent dans notre feuille de route pour ce trimestre : des filtres pour une utilisation avancée sur la page d’accueil, la possibilité de parcourir les collections sans entrer de termes de recherche, et une meilleure accessibilité et UX sur mobile. De plus, nous nous attendons à ce que certains travaux liés à la recherche CC soient effectués par nos étudiants du Google Summer of Code à partir du mois de mai.

Le mois prochain à Lisbonne, au Portugal, nous présenterons l’état de la recherche (“State of CC Search”) à notre sommet mondial  (CC Global Summit) où sera réunie toute une communauté internationale pour discuter des développements souhaités et des collections pour CC Search.

Participez !

Vos observations sont précieuses, nous vous invitons à nous communiquer ce que vous souhaiteriez voir s’améliorer. Vous pouvez également rejoindre le canal #cc-usability sur le Slack de CC pour vous tenir au courant des dernières avancées.

Tout notre code, y compris celui qui est utilisé pour la recherche CC, est open source (CC Search, CC Catalog API, CC
Catalog
) et nous faisons toujours bon accueil aux contributions de la communauté. Si vous savez coder, nous vous
invitons à nous rejoindre pour renforcer la communauté grandissante de développeurs de CC.

Remerciements

CC Search est possible grâce à un certain nombre d’institutions et d’individus qui la soutiennent par des dons. Nous aimerions remercier en particulier Arcadia, la fondation de Lisbet Rausing et Peter Baldwin, Mozilla, et la fondation Brin Wojcicki pour leur précieux soutien.

 

image deu geektionerd generator;, un personnage féminin fait remarquer que tout est sous licence CC BY-Sa
Sur le Framablog, on se sert souvent de GG le Générateur de Geektionerd. Pourquoi pas vous ?




Amazon, des robots avec des êtres humains

Peur des robots qui nous remplacent ? Pas forcément, mais comment vivre et travailler avec les robots ?Une des craintes fort répandues à propos de la robotisation consiste à envisager qu’un grand nombre de professions, et pas seulement parmi les moins qualifiées, pourraient être à court ou moyen terme remplacées par des robots, du moins des systèmes automatisés que les progrès relatifs de l’intelligence artificielle rendraient plus performants que les humains dans l’accomplissement de leurs tâches.

Nul n’ignore pour l’instant ce qui va survenir effectivement mais une chose est d’ores et déjà établie : les systèmes robotisés sont déjà là, et plutôt qu’être remplacés, pour l’instant les travailleurs les côtoient, entrent avec eux dans des interactions déjà problématiques. On lira par exemple ce témoignage sur la gestion des livreurs à vélo où le donneur d’ordres et donc de travail est un système informatique qui piste « ses » employés autant que les clients.

À une tout autre échelle, le géant Amazon impose déjà la présence de robots dans ses immenses entrepôts au sein du travail humain, et comme le développe le texte ci-dessous, ce sont les êtres humains qui y travaillent qui doivent s’efforcer de s’adapter à leur présence ! L’anthropologue qui signe l’article que nous avons traduit pour vous analyse ce que représente pour les humains la perte de leur latitude d’action, voire de leur liberté d’initiative, dans une environnement où les robots sont omniprésents.

Les pratiques de l’entreprise Amazon, détestables pour les conditions de travail, sont par ailleurs assez révélatrices d’une dérive qui nous mène peut-être à renoncer peu à peu à notre liberté, pour nous en remettre aux systèmes automatisés dans tous les instants de notre quotidien.

 

Article original : How much are we sacrificing for automation?

Traduction Framalang : salelodenouye, goofy

Que sommes-nous prêts à sacrifier pour l’automatisation ?

Par S. A. Applin

Ce que nous apprennent les entrepôts d’Amazon sur un monde où de plus en plus, que ce soit des choses ou des personnes, tout ce qu’il est possible de mesurer finit par être mesuré.

On a l’impression que pratiquement chaque semaine apparaît dans l’actualité une polémique (sinon davantage) autour d’Amazon. Dans les seules deux semaines dernières, il a été question de conversations transcrites et enregistrées avec Echo, d’employés d’Amazon qui protestent contre la faible détermination de leur entreprise au sujet du dérèglement climatique, des efforts de ladite entreprise pour prétendre que les risques liés à la reconnaissance faciale sont « peu significatifs », sans oublier les questions posées par la sénatrice Warren sur les impôts fédéraux de 0 dollar pour un profit de 10 milliards de dollars aux U.S.A. Une entreprise aussi gigantesque qu’Amazon, avec une envergure aussi large en termes de produits et de services, est constamment dans l’actualité. Et malheureusement pour elle, la plupart de ces nouvelles lui donnent l’image d’un manque de compassion, d’intérêt et de sollicitude pour le reste du monde au sens large, en particulier pour les humains qui travaillent pour elle.

Ce qui a retenu mon attention au cours des dernières semaines c’est le témoignage paru dans Vox  d’un employé dans un entrepôt, qui s’est plaint des températures qui y régnaient. Selon ce que Rashad Long a indiqué à la publication :

Il fait si chaud dans les troisième et quatrième étages que je transpire dans mes vêtements même s’il fait très froid dehors… Nous avons demandé à l’entreprise de nous fournir de l’air conditionné, mais on nous a indiqué que les robots ne peuvent travailler à basse température.

Alors que Long et d’autres sont impliqués dans des procès avec l’entreprise, et prennent des initiatives pour former un syndicat, les plus importantes plaintes des employés semblent être concentrées sur un seul point : Amazon a la réputation de traiter ses employés comme des robots.

Dans un rapport qui m’a été envoyé après la publication de cette histoire, Amazon contestait ce compte-rendu comme « totalement faux », prétendant que des systèmes et des équipes surveillent constamment les températures dans les centres de traitement des commandes. L’entreprise a indiqué qu’à la mi-décembre, la température moyenne du local où Long travaillait était de 71.04 degrés Fahrenheit (NDT : 21.68 °C).

Le porte-parole d’Amazon a déclaré : « Les collaborateurs d’Amazon sont le cœur et l’âme de nos activités. La sécurité de nos employés est notre première priorité et la santé de chacun de nos employés est évaluée au-delà de toute notion de productivité. Nous sommes fiers de nos conditions de travail sûres, de notre communication transparente et de notre industrie de pointe. »

vue en perpective cavalière d’un immense entrepôt d’Amazon probablement rempli de livres
Un entrepôt d’Amazon, photo par Scott Lewis (CC BY 2.0)

 

Cependant, vu de l’extérieur, on a l’impression que les entrepôts Amazon mettent en scène le « taylorisme sauvage ». Comme je l’ai déjà écrit, le taylorisme est une théorie de la gestion de l’ingénierie développée au début du XXe siècle et largement adoptée dans les domaines de la gestion et de l’ingénierie jusqu’à présent. Alors qu’à l’origine il était utilisé pour gérer les processus de fabrication et se concentrait sur l’efficacité de l’organisation, avec le temps, le taylorisme s’est intégré dans la culture d’ingénierie et de gestion. Avec l’avènement des outils de calcul pour la mesure quantitative et les métriques et le développement de l’apprentissage machine basé sur les mégadonnées développées par ces métriques, les entreprises dont Amazon, ont abordé une nouvelle phase que j’appellerais « l’analyse extrême des données », dans laquelle tout et quiconque peut être mesuré finit par l’être.

C’est un vrai problème. L’utilisation du comptage, des mesures et de la mise en œuvre des résultats de l’analyse extrême des données destinée à éclairer les décisions pour les êtres humains constitue une menace pour notre bien-être et se traduit par les témoignages dont on nous parle dans les entrepôts et d’autres parties de nos vies, où trop souvent des êtres humains renoncent à leurs initiatives d’action au profit des machines et algorithmes.

Environ 200 travailleurs d’Amazon se sont rassemblés devant leur lieu de travail dans le Minnesota le 18 décembre 2018 pour protester contre leurs conditions de travail qui comprennent le pistage des ordinateurs et l’obligation de travailler à grande vitesse, comme scanner un article toutes les 7 secondes.
[Photo : Fibonacci Blue, CC BY 2.0]

Malheureusement, après des décennies où s’est échafaudé ce système de quantification, une entreprise comme Amazon l’a presque intégré à son infrastructure et à sa culture. Il y a des raisons au taylorisme chez Amazon, et une grande partie est liée à ses embauches aux décisions prises par ses cadres en matière de gestion et de développement, et à l’impact de ces décisions sur les personnes qui doivent faire le travail nécessaire pour que ces processus fonctionnent réellement.

Dans un article que j’ai écrit en 2013 avec Michael D. Fischer, nous avons exploré l’idée que les processus étaient une forme de surveillance dans les organisations, en nous concentrant particulièrement sur le fait que lorsque la direction des organisations dicte des processus qui ne fonctionnent pas particulièrement bien pour les employés, ces derniers profitent de l’occasion pour développer des solutions de rechange, ou « agissements cachés ».

Chaque fois que nous utilisons un ordinateur, ou tout autre appareil du même type, nous perdons du pouvoir.

Notre pouvoir en tant qu’humains réside dans notre capacité à faire des choix parmi les options qui s’offrent à nous à un moment donné. La gamme des possibilités évolue avec le temps, mais en tant qu’humains, nous avons le choix. Notre pouvoir c’est la coopération. Nous perdons un peu de notre liberté de choix, quelqu’un d’autre aussi, mais nous pouvons tous les deux parvenir à un compromis efficace.

Chaque fois que nous utilisons un ordinateur, ou tout autre appareil du même type, nous perdons du pouvoir. Nous le faisons quand nous sommes assis ou debout pour utiliser un clavier, à la saisie, ou en cliquant, en faisant défiler, en cochant des cases, en déroulant des menus et en remplissant des données d’une manière telle que la machine puisse comprendre. Si nous ne le faisons pas de la façon dont la machine est conçue pour le traiter, nous cédons notre pouvoir, encore et toujours, pour qu’elle le fasse de façon à pouvoir recueillir les données nécessaires et nous fournir l’article que nous voulons, le service dont nous avons besoin ou la réponse que nous espérons. Les humains abandonnent. Pas les machines.

Lorsque l’action humaine est confrontée à une automatisation difficile à contrôler, il y a des problèmes, et dans des cas extrêmes, ces problèmes peuvent être fatals. L’un d’eux a été mentionné dans le cadre d’enquêtes sur les écrasements de deux Boeing 737 Max, qui se sont concentrées sur les interactions des pilotes avec un système automatisé conçu pour prévenir un décrochage. Alors que le monde continue d’automatiser les choses, les processus et les services, nous les humains sommes mis dans des situations où nous devons constamment nous adapter, car à l’heure actuelle, l’automatisation ne peut et ne veut pas coopérer avec nous au-delà de son répertoire d’actions préprogrammées. Ainsi, dans de nombreux cas, nous devons céder notre initiative et nos choix aux algorithmes ou aux robots, pour atteindre les résultats communs dont nous avons besoin.

Au fil du temps, les humains ont évolué vers le commerce et le troc selon une démarche de coopération, échangeant des ressources pour acquérir ce dont nous avons besoin pour survivre. Nous le faisons par le travail. Dans l’état du marché d’aujourd’hui, si nous sommes à la recherche d’un nouvel emploi, nous devons utiliser un ordinateur pour postuler à un poste affiché sur un site web. Nous devons renoncer à notre initiative personnelle pour utiliser l’ordinateur (nous ne pouvons plus appeler personne), où nous céderons ensuite à un logiciel qui n’est pas nécessairement conçu pour gérer l’enregistrement de notre expérience vécue particulière. Une fois que nous avons fait de notre mieux avec les formulaires, nous appuyons sur un bouton et espérons obtenir une réponse. Les algorithmes en arrière-plan, informés par le système de gestion et les développeurs, vont alors « nous trier », nous transformant en série de données qui sont ensuite évaluées et traitées statistiquement.

C’est seulement si nous passons à travers les filtres qu’une réponse automatisée nous parvient par un courriel (auquel nous ne pouvons pas répondre) pour nous informer du résultat. S’il est positif pour nous, un humain finira par nous contacter, nous demandant d’utiliser une méthode automatisée pour planifier un moment pour un appel, qui utilisera des scripts/processus/lignes directives narratives, qui nous demandent à nouveau de renoncer à notre initiative – même dans une conversation avec un autre humain, où il y a généralement plus de flexibilité. C’est épuisant.

Le coût humain de la « frugalité »

Une fois que les employés des entrepôts d’Amazon ont renoncé à leur liberté pour se plier au processus d’embauche et qu’ils sont embauchés, ils sont également obligés de céder leur liberté d’action dans leur travail. Alors que les employés de bureau cèdent à des partenaires algorithmiques sous forme de logiciels ou de procédures d’entreprises, les employés d’entrepôt cèdent leur liberté d’agir en acceptant les horaires décalés et en travaillant avec des partenaires robots au lieu de partenaires algorithmiques ou à leurs côtés sous forme de logiciels. Les risques pour l’intégrité physique sont beaucoup plus élevés quand on agit dans un entrepôt sans coopérer avec un robot qu’ils ne le sont si on ne coopère pas avec un logiciel dans un travail de bureau.

projet d’Amazon pour transporter le shumains dans une cage de protection par arpport aux robots dangereux

Un brevet déposé par Amazon en 2013, « Système et méthode de transport du personnel dans une environnement de travail industriel. »

Dans certains entrepôts et environnements industriels, les travailleurs doivent se soumettre aux robots parce que les robots sont rapides, faits de métal, et pourraient les blesser ou les tuer. De cette façon, un travailleur qui manœuvre autour d’un robot a moins d’emprise sur son corps au travail que ceux qui, dans les bureaux, prennent les décisions sur la façon dont ces travailleurs vont travailler.

Une solution proposée par Amazon en 2013 a été le brevet U.S. 9,280,157 B2, accordé en 2016. Ce brevet a été décrit comme un « dispositif de transport humain » pour un entrepôt, constitué d’une cage humaine. Une cage, c’est un symbole brutal. Bien que l’idée ait été de protéger les travailleurs humains contre les robots, elle n’a pas été perçue comme elle était probablement prévue. À l’extrême, une cage implique une fois de plus que les humains céderont leur capacité d’agir aux robots, ce qui semble donner raison aux plaintes initiales des magasiniers selon lesquelles les robots bénéficient d’un traitement préférentiel sur le lieu de travail chez Amazon

Amazon a insisté sur le fait que l’entreprise n’avait pas l’intention de mettre en œuvre cette idée. « Parfois même de mauvaises idées sont soumises pour des brevets, m’a dit un porte-parole d’Amazon, après la publication de cette histoire. Cela n’a jamais été utilisé et nous n’avons aucun plan d’utilisation. Nous avons développé une bien meilleure solution qui est un petit gilet que les associés peuvent porter et qui impose à tous les robots à proximité de s’immobiliser. »

Qu’il s’agisse d’une cage ou d’un gilet automatique, de toutes façons, ces interventions de sécurité soulèvent la question de savoir si une installation comme un centre de traitement d’Amazon pourrait être conçue de manière à ne pas obliger les humains à faire ces sacrifices frontaliers – tout en étant encore employés de façon rémunérée.

Fondamentalement, le taylorisme n’est pas forcément une question d’efficacité pour l’efficacité, mais d’économie de temps et, par association, d’argent. Parmi les « principes de leadership » d’Amazon, il y a la frugalité, et c’est cet aspect qui semble avoir dépassé leurs autres idéaux, car « faire plus avec moins » semble être le principe dominant dans la façon dont l’entreprise interagit avec tout, et comment cette interaction affecte ses employés et ses clients à travers le monde.

Si une entreprise pratique ce taylorisme dans l’ensemble de sa culture, des êtres humains vont prendre des décisions sur la façon dont d’autres humains doivent travailler ou interagir avec les systèmes d’une manière qui sera dans l’intérêt des métriques qu’ils servent. Si Amazon récompense la frugalité dans la gestion et la collecte de données sur la façon dont la direction gère (ce qu’elle fait), alors la direction va faire ce qu’elle peut pour maximiser les formes d’automatisation afin de rester pertinente dans l’organisation.

Ce principe particulier, couplé avec le taylorisme, crée l’environnement parfait pour que l’exploration et l’analyse de données deviennent délirantes, et pour que les processus qui ont un impact sur la vie réelle des gens soient ignorés. Ceux qui sont dans les bureaux ne voient pas ceux qui sont dans les entrepôts et ne peuvent pas se rendre compte que leurs indicateurs de rendement du service à la clientèle ou de la chaîne d’approvisionnement ont un coût humain. Dans une version extrême de ce qui se passe dans tant d’entreprises, les bénéfices sont liés à des mesures imbriquées dans la chaîne des parties prenantes. Les 10 milliards de dollars de bénéfices d’Amazon proviennent en partie de millions de minuscules décisions « frugales » influencées par le taylorisme, chacune payée au prix fort : la perte de la dignité et de latitude d’action des humains (ou des autres).

Le fait de céder continuellement à cette analyse extrême des données nous réduira à l’esclavage

Le taylorisme a été conçu et mis en œuvre à une époque où la fabrication était mécanique, et bien que certaines machines aient pu fonctionner plus rapidement que les humains, la plupart des processus qui ont eu un impact sur leur travail étaient analogiques, et au rythme du traitement humain. L’ouvrier de l’entrepôt d’Amazon se trouve au bout de la ligne de l’arbre de décision du taylorisme de la frugalité, et il est soumis à des processus algorithmiques qui contrôlent les données et les machines plus rapidement que de nombreux humains ne peuvent traiter l’information et encore moins agir physiquement sur elle. Ces travailleurs sont dépassés, à un degré inimaginable, mais liés par un mécanisme d’entreprise qui exige toujours plus d’eux et, plus important encore, de la chaîne qui les précède, qu’ils « qui fassent plus avec moins ».

bonhomme fait de cartons d’amazon, le sourire du logo d’mazon est inversé.
Image d’un site syndical britannique en campagne contre les mauvaises conditions de travail chez Amazon

Ainsi, à un moment donné, le fait de céder continuellement à cette analyse extrême des données nous réduira à l’esclavage. Non pas en restreignant nos bras et nos jambes (bien que cette cage d’Amazon s’en rapproche) mais en créant une vision du monde liée par des mesures quantitatives comme seule mesure justifiable. Le taylorisme a été utile dans un contexte manufacturier au début du siècle dernier. Il n’est plus utile ni approprié aujourd’hui, près d’un siècle plus tard, et son adoption continue crée de réels problèmes pour nous en tant que société mondiale.

Finalement, même avec le désir d’accomplir « plus avec moins », il y a un tel excès de « moins » que cela oblige les humains à être en tension et faire « plus », en épuisant leurs propres réserves internes. Si chaque processus est finalement automatisé et restreint l’action humaine, tout en exigeant simultanément notre servitude pour fonctionner, nous serons cloués au mur sans aucun choix, sans rien à donner et sans aucune alternative pour y faire face.

 

S. A. Applin, PhD, est une anthropologue dont le champ de recherche couvre les domaines du comportement humain, des algorithmes, de l’IA et de l’automatisation dans le contexte des systèmes sociaux et de la sociabilité. Pour en savoir plus :  http://sally.com/wiki @anthropunk et PoSR.org.

 

sur le même sujet




Désinformation, le rapport – 3

La traduction suivante est la suite et la continuation du travail entamé la semaine dernière sur le long rapport final élaboré par le comité « Digital, Culture, Media and Sport » du Parlement britannique, publié le 14 février dernier, sur la désinformation et la mésinformation.

Maintenant que le décor est posé, on aborde les questions réglementaires. Après avoir clairement défini ce qu’est une fake news, que nous avons traduit par « infox » et que les auteurs regroupent sous le terme plus précis de « désinformation », il est question de définir une nouvelle catégorie de fournisseurs de service pour caractériser leur responsabilité dans les préjudices faits à la société ainsi que des solutions pour protéger le public et financer l’action des structures de contrôle.

Le groupe Framalang a en effet entrepris de vous communiquer l’intégralité du rapport en feuilleton suivant l’avancement de la traduction.

Vous trouverez le texte intégral en suivant ce lien vers le PDF original (3,8 Mo).

La traduction est effectuée par le groupe Framalang, avec l’aide de toutes celles et ceux qui veulent bien participer et pour cet opus :

Traducteurs : Khrys, Lumibd, Maestox, simon, Fabrice, serici, Barbara, Angie, Fabrice, simon

La réglementation, le rôle, la définition et la responsabilité juridique des entreprises de technologie

Définitions

11. Dans notre rapport intermédiaire, nous avons désavoué le terme d’« infox » puisqu’il a « pris de nombreux sens, notamment une description de toute affirmation qui n’est pas appréciée ou en accord avec l’opinion du lecteur » et nous avons recommandé à la place les termes de « mésinformation » ou de « désinformation ». Avec ces termes viennent « des directives claires à suivre pour les compagnies, organisations et le Gouvernement  » liées à «  une cohérence partagée de la définition sur les plateformes, qui peuvent être utilisées comme la base de la régulation et de l’application de la loi »7.

12. Nous avons eu le plaisir de voir que le Gouvernement a accepté notre point de vue sur le fait que le terme « infox » soit trompeur, et ait essayé à la place d’employer les termes de « désinformation » et de « mésinformation ». Dans sa réponse, le gouvernement a affirmé :

Dans notre travail, nous avons défini le mot « désinformation » comme la création et le partage délibérés d’informations fausses et/ou manipulées dans le but de tromper et d’induire en erreur le public, peu importe que ce soit pour porter préjudice, ou pour des raisons politiques, personnelles ou financières. La « mésinformation » se réfère au partage par inadvertance de fausses informations8.

13. Nous avons aussi recommandé une nouvelle catégorie d’entreprises de réseaux sociaux, qui resserrent les responsabilités des entreprises de technologie et qui ne sont pas forcément « une plateforme » ou un « éditeur ». le gouvernement n’a pas du tout répondu à cette recommandation, mais Sharon White, Pdg de Of.com a qualifié cette catégorie de « très soignée » car les « plateformes ont vraiment des responsabilités, même si elles ne génèrent pas les contenus, concernant ce qu’elles hébergent et promeuvent sur leur site ».9.

14. Les entreprises de réseaux sociaux ne peuvent se cacher derrière le fait qu’elles seraient simplement une plateforme, et maintenir qu’elles n’ont elles-mêmes aucune responsabilité sur la régulation du contenu de leurs sites. Nous répétons la recommandation de notre rapport provisoire, qui stipule qu’une nouvelle catégorie d’entreprises technologiques doit être définie qui renforcera les responsabilités des entreprises technologiques et qui ne sont pas forcément « une plateforme » ou un « éditeur ». Cette approche voudrait que les entreprises de technologie prennent leur responsabilité en cas de contenu identifié comme étant abusif après qu’il a été posté par des utilisateurs. Nous demandons au gouvernement de prendre en compte cette nouvelle catégorie de compagnies technologiques dans son livre blanc qui va paraître prochainement.

Préjudices et réglementation en ligne

15. Plus tôt dans le cadre de notre enquête, nous avons écouté le témoignage de Sandy Parakilas et Tristan Harris, qui étaient tous deux à l’époque impliqués dans le Center for Human Technology, situé aux États-Unis. Le centre a compilé un « Recueil de Préjudices » qui résume les « impacts négatifs de la technologie qui n’apparaissent pas dans les bilans des entreprises, mais dans le bilan de la société ».10 Le Recueil de Préjudices contient les impacts négatifs de la technologie, notamment la perte d’attention, les problèmes de santé mentale, les confusions sur les relations personnelles, les risques qui pèsent sur nos démocraties et les problèmes qui touchent les enfants.11.

16. La prolifération des préjudices en ligne est rendu plus dangereuse si on axe des messages spécifiques sur des individus suite à des « messages micro-ciblés », qui jouent souvent sur les opinions négatives qu’ont les gens d’eux-mêmes et des autres et en les déformant. Cette déformation est rendue encore plus extrême par l’utilisation de « deepfakes » 12 audio et vidéos qui sonnent et ressemblent à une personne existante tenant des propos qui ne lui appartiennent pas.13 Comme nous l’avons dit dans notre rapport intermédiaire, la détection de ces exemples ne deviendra que plus complexe et plus difficile à démasquer au fur et à mesure de la sophistication des logiciels 14.

17. Le ministre de la santé, le député Hon Matthew Hancock, a récemment mis en garde les sociétés informatiques, notamment Facebook, Google et Twitter, qu’elles étaient en charge de la suppression des contenus inappropriés, blessants suite à la mort de Molly Russel, qui à 14 ans s’est suicidée en novembre 2017. Son compte Instagram contenait du contenu en lien avec la dépression, l’auto-mutilation et le suicide. Facebook, propriétaire d’Instagram, s’est déclaré profondément désolé de l’affaire.15 Le directeur d’Instagram, Adam Mosseri, a rencontré le secrétaire de la Santé début février 2019 et déclaré qu’Instagram n’était pas « dans une situation où il était nécessaire de traiter le problème de l’auto-mutilation et du suicide » et que cela revenait à arbitrer entre « agir maintenant et agir de manière responsable » 16

18. Nous relevons également que dans son discours du 5 février 2019, la députée Margot James, ministre du numérique dans le département du numérique, de la culture, des médias et du sport a exprimé ses craintes :

La réponse des principales plateformes est depuis trop longtemps inefficace. Il y a eu moins de 15 chartes de bonne conduite mises en place volontairement depuis 2008. Il faut maintenant remettre absolument en cause un système qui n’a jamais été suffisamment encadré par la loi. Le livre blanc, que le DCMS produit en collaboration avec le ministère de l’intérieur sera suivi d’une consultation durant l’été et débouchera sur des mesures législatives permettant de s’assurer que les plateformes supprimeront les contenus illégaux et privilégieront la protection des utilisateurs, particulièrement des enfants, adolescents et adultes vulnérables. 17

Le nouveau Centre pour des algorithmes et des données éthiques

19. Comme nous l’avons écrit dans notre rapport intermédiaire, les sociétés fournissant des réseaux sociaux tout comme celles fournissant des moteurs de recherche utilisent des algorithmes ou des séquences d’instructions pour personnaliser les informations et autres contenus aux utilisateurs. Ces algorithmes sélectionnent le contenu sur la base de facteurs tels que l’activité numérique passée de l’utilisateur, ses connexions sociales et leur localisation. Le modèle de revenus des compagnies d’Internet repose sur les revenus provenant de la vente d’espaces publicitaires et parce qu’il faut faire du profit, toute forme de contenu augmentant celui-ci sera priorisé. C’est pourquoi les histoires négatives seront toujours mises en avant par les algorithmes parce qu’elles sont plus fréquemment partagées que les histoires positives.18

20. Tout autant que les informations sur les compagnies de l’internet, les informations sur leurs algorithmes doivent être plus transparentes. Ils comportent intrinsèquement des travers, inhérents à la façon dont ils ont été développés par les ingénieurs ; ces travers sont ensuite reproduits diffusés et renforcés. Monica Bickert, de Facebook, a admis « que sa compagnie était attentive à toute forme de déviance, sur le genre, la race ou autre qui pourrait affecter les produits de l’entreprise et que cela inclut les algorithmes ». Facebook devrait mettre plus d’ardeur à lutter contre ces défauts dans les algorithmes de ses ingénieurs pour éviter leur propagation.
19

21. Dans le budget de 2017, le Centre des données Ethiques et de l’innovation a été créé par le gouvernement pour conseiller sur « l’usage éthique, respectueux et innovant des données, incluant l’IA ». Le secrétaire d’état a décrit son rôle ainsi:

Le Centre est un composant central de la charte numérique du gouvernement, qui définit des normes et des règles communes pour le monde numérique. Le centre permettra au Royaume-Uni de mener le débat concernant l’usage correct des données et de l’intelligence artificielle.20

22. Le centre agira comme un organisme de recommandation pour le gouvernement et parmi ses fonctions essentielles figurent : l’analyse et l’anticipation des manques en termes de régulation et de gestion; définition et orchestration des bonnes pratiques, codes de conduites et standards d’utilisations de l’Intelligence Artificielle; recommandation au gouvernement sur les règles et actions réglementaires à mettre en place en relation avec l’usage responsable et innovant des données. 21

23. La réponse du gouvernement à notre rapport intermédiaire a mis en lumière certaines réponses à la consultation telle que la priorité de l’action immédiate du centre, telle que « le monopole sur la donnée, l’utilisation d’algorithme prédictifs dans la police, l’utilisation de l’analyse des données dans les campagnes politiques ainsi que l’éventualité de discrimination automatisée dans les décisions de recrutement ». Nous nous félicitons de la création du Centre et nous nous réjouissons à la perspective d’en recueillir les fruits de ses prochaines travaux.

La loi en Allemagne et en France

24. D’autres pays ont légiféré contre le contenu malveillant sur les plateformes numériques. Comme nous l’avons relevé dans notre rapport intermédiaire, les compagnies d’internet en Allemagne ont été contraintes initialement de supprimer les propos haineux en moins de 24 heures. Quand cette auto-régulation s’est montrée inefficace, le gouvernement allemand a voté le Network Enforcement Act, aussi connu sous le nom de NetzDG, qui a été adopté en janvier 2018. Cette loi force les compagnies technologiques à retirer les propos haineux de leurs sites en moins de 24 heures et les condamne à une amende de 20 millions d’euros si ces contenus ne sont pas retirés22. Par conséquent, un modérateur sur six de Facebook travaille désormais en Allemagne, ce qui prouve bien que la loi peut être efficace.23.

25. Une nouvelle loi en France, adoptée en novembre 2018 permet aux juges d’ordonner le retrait immédiat d’articles en ligne s’ils estiment qu’ils diffusent de la désinformation pendant les campagnes d’élection. La loi stipule que les utilisateurs doivent recevoir « d’informations qui sont justes, claires et transparentes » sur l’utilisation de leurs données personnelles, que les sites doivent divulguer les sommes qu’elles reçoivent pour promouvoir des informations, et la loi autorise le CSA français à pouvoir suspendre des chaînes de télévision contrôlées ou sous influence d’un état étranger, s’il estime que cette chaîne dissémine de manière délibérée des fausses informations qui pourraient affecter l’authenticité du vote. Les sanctions imposées en violation de la loi comprennent un an de prison et une amende de 75000 euros24.

Le Royaume-Uni

26. Comme la Commissaire de l’Information du Royaume-Uni, Elisabeth Denham, nous l’a expliqué en novembre 2018, il y a une tension entre le modèle économique des médias sociaux, centré sur la publicité, et les droits humains tels que la protection de la vie privée. « C’est notre situation actuelle et il s’agit d’une tâche importante à la fois pour les régulateurs et le législateur de s’assurer que les bonnes exigences, la surveillance et sanctions sont en place » 25. Elle nous a dit que Facebook, par exemple, devrait en faire plus et devrait faire « l’objet d’une régulation et d’une surveillance plus stricte »26. Les activités de Facebook dans la scène politique sont en augmentation; l’entreprise a récemment lancé un fil d’actualités intitulé « Community Actions » avec une fonctionnalité de pétition pour, par exemple, permettre aux utilisateurs de résoudre des problèmes politiques locaux en créant ou soutenant des pétitions. Il est difficile de comprendre comment Facebook sera capable d’auto-réguler une telle fonctionnalité; plus le problème local va être sujet à controverse et litiges, plus il entrainera de l’engagement sur Facebook et donc de revenus associés grâce aux publicités 27.

Facebook et la loi

27. En dépit de toutes les excuses formulées par Facebook pour ses erreurs passées, il semble encore réticent à être correctement surveillé. Lors de la session de témoignage verbal au « Grand Comité International », Richard Alland, vice-président des solutions politiques de Facebook, a été interrogé à plusieurs reprises sur les opinions de Facebook sur la régulation, et à chaque fois il a déclaré que Facebook était très ouvert au débat sur la régulation, et que travailler ensemble avec les gouvernements seraient la meilleure option possible :

« Je suis ravi, personnellement, et l’entreprise est vraiment engagé, de la base jusqu’à notre PDG — il en a parlé en public — à l’idée d’obtenir le bon type de régulation afin que l’on puisse arrêter d’être dans ce mode de confrontation. Cela ne sert ni notre société ni nos utilisateurs. Essayons de trouver le juste milieu, où vous êtes d’accord pour dire que nous faisons un travail suffisamment bon et où vous avez le pouvoir de nous tenir responsable si nous ne le faisons pas, et nous comprenons quel le travail que nous avons à faire. C’est la partie régulation28. »

28. Ashkan Soltani, un chercheur et consultant indépendant, et ancien Responsable Technologique de la Commission Fédérale du Commerce des USA 29, a questionné la volonté de Facebook à être régulé. À propos de la culture interne de Facebook, il a dit : « Il y a ce mépris — cette capacité à penser que l’entreprise sait mieux que tout le monde et tous les législateurs » 30. Il a discuté de la loi californienne pour la vie privée des consommateurs 31 que Facebook a supporté en public, mais a combattu en coulisses 32.

29. Facebook ne semble pas vouloir être régulé ou surveillé. C’est considéré comme normal pour les ressortissants étrangers de témoigner devant les comités. En effet, en juin 2011, le Comité pour la Culture, les Médias et le Sport 33 a entendu le témoignage de Rupert Murdoch lors de l’enquête sur le hacking téléphonique 34 et le Comité au Trésor 35 a récemment entendu le témoignage de trois ressortissants étrangers 36. En choisissant de ne pas se présenter devant le Comité et en choisissant de ne pas répondre personnellement à aucune de nos invitations, Mark Zuckerberg a fait preuve de mépris envers à la fois le parlement du Royaume-Uni et le « Grand Comité International », qui compte des représentants de neufs législatures dans le monde.

30. La structure managériale de Facebook est opaque pour les personnes extérieures, et semble conçue pour dissimuler la connaissance et la responsabilité de certaines décisions. Facebook a pour stratégie d’envoyer des témoins dont ils disent qu’ils sont les plus adéquats, mais qui n’ont pas été suffisamment informés sur les points cruciaux, et ne peuvent répondre ou choisissent de ne pas répondre à nombre de nos questions. Ils promettent ensuite d’y répondre par lettre, qui —sans surprise— échouent à répondre à toutes nos questions. Il ne fait pas de doute que cette stratégie est délibérée.

Régulateurs britanniques existants

31. Au Royaume-Uni, les principales autorités compétentes — Ofcom, l’autorité pour les standards publicitaires 37, le bureau du commissaire à l’information 38, la commission électorale 39 et l’autorité pour la compétition et le marché 40 — ont des responsabilités spécifiques sur l’utilisation de contenus, données et comportements. Quand Sharon White, responsable de Ofcom, est passé devant le comité en octobre 2018, après la publication de notre rapport intermédiaire, nous lui avons posé la question si leur expérience comme régulateur de diffusion audiovisuelle pourrait être utile pour réguler les contenus en ligne. Elle a répondu :

« On a essayé d’identifier quelles synergies seraient possibles. […] On a été frappé de voir qu’il y a deux ou trois domaines qui pourraient être applicable en ligne. […] Le fait que le Parlement 41 ait mis en place des standards, ainsi que des objectifs plutôt ambitieux, nous a semblé très important, mais aussi durable avec des objectifs clés, que ce soit la protection de l’enfance ou les préoccupations autour des agressions et injures. Vous pouvez le voir comme un processus démocratique sur quels sont les maux que l’on croit en tant que société être fréquent en ligne. L’autre chose qui est très importante dans le code de diffusion audiovisuelle est qu’il explicite clairement le fait que ces choses peuvent varier au cours du temps comme la notion d’agression se modifie et les inquiétudes des consommateurs changent. La mise en œuvre est ensuite déléguée à un régulateur indépendant qui traduit en pratique ces objectifs de standards. Il y a aussi la transparence, le fait que l’on publie nos décisions dans le cas d’infractions, et que tout soit accessible au public. Il y a la surveillance de nos décisions et l’indépendance du jugement 42 ».

32. Elle a également ajouté que la fonction du régulateur de contenu en ligne devrait évaluer l’efficacité des compagnies technologiques sur leurs mesures prises contre les contenus qui ont été signalés comme abusifs. « Une approche serait de se dire si les compagnies ont les systèmes, les processus, et la gouvernance en place avec la transparence qui amène la responsabilité publique et la responsabilité devant le Parlement, que le pays serait satisfait du devoir de vigilance ou que les abus seront traités de manière constante et efficace ».43.

33. Cependant, si on demandait à Ofcom de prendre en charge la régulation des capacités des compagnies des réseaux sociaux, il faudrait qu’il soit doté de nouveaux pouvoirs d’enquête. Sharon White a déclaré au comité « qu’il serait absolument fondamental d’avoir des informations statutaires, réunissant des pouvoirs sur un domaine large ».44.

34. UK Council for Internet Safety(UKCIS) est un nouvel organisme, sponsorisé par le Ministère du Numérique, de la Culture, des Médias et du Sport, le Ministère de l’Éducation et le Ministère de l’Intérieur, il réunit plus de 200 organisations qui ont pour but de garantir la sécurité des enfants en ligne. Son site web affirme « si c’est inacceptable hors ligne, c’est inacceptable en ligne ». Son attention tiendra compte des abus en lignes comme le cyberharcèlement et l’exploitation sexuelle, la radicalisation et l’extrémisme, la violence contre les femmes et les jeunes filles, les crimes motivés par la haine et les discours haineux, et les formes de discrimination vis à vis de groupes protégés par l’Equality Act.45. Guy Parker, Pdg d’Advertising Standards Authority nous a informé que le Gouvernement pourrait se décider à intégrer les abus dans la publicité dans leur définition d’abus en ligne46.

35. Nous pensons que UK Council for Internet Safety devrait inclure dans le périmètre de ses attributions « le risque envers la démocratie » tel qu’identifié dans le « Registre des Préjudices » du Center for Human Technology, en particulier par rapport aux reportages profondément faux. Nous notons que Facebook est inclus en tant que membre d’UKCIS, compte tenu de son influence éventuelle, et nous comprenons pourquoi. Cependant, étant donné l’attitude de Facebook dans cette enquête, nous avons des réserves quant à sa bonne foi des affaires et sa capacité à participer au travail d’UKCIS dans l’intérêt du public, par opposition à ses intérêts personnels.

36. Lorsqu’il a été demandé au Secrétaire du Numérique, de la Culture, des Médias et des Sports, le Très Honorable député Jeremy Wright, de formuler un spectre des abus en ligne, sa réponse était limitée. « Ce que nous devons comprendre est à quel point les gens sont induits en erreur ou à quel point les élections ont été entravées de manière délibérée ou influencée, et si elle le sont […] nous devons trouver des réponses appropriées et des moyens de défense. Cela fait partie d’un paysage bien plus global et je ne crois par que c’est juste de le segmenter47. Cependant, une fois que nous avons défini les difficultés autour de la définition, l’étendue et la responsabilité des abus en ligne, le Secrétaire d’État était plus coopératif lorsqu’on lui a posé la question sur la régulation des compagnies de réseaux sociaux, et a déclaré que le Royaume-Uni devrait prendre l’initia

37. Notre rapport intermédiaire recommandait que des responsabilités juridiques claires soient définies pour les compagnies technologiques, afin qu’elles puissent prendre des mesures allant contre des contenus abusifs ou illégaux sur leurs sites. À l’heure actuelle, il est urgent de mettre en œuvre des règlements indépendants. Nous croyons qu’un Code d’Éthique obligatoire doit être implémenté, supervisé par un régulateur indépendant, définissant ce que constitue un contenu abusif. Le régulateur indépendant aurait des pouvoirs conférés par la loi pour surveiller les différentes compagnies technologiques, cela pourrait créer un système réglementaire pour les contenus en ligne qui est aussi effectif que pour ceux des industries de contenu hors ligne.

38. Comme nous l’avons énoncé dans notre rapport intermédiaire, un tel Code d’Éthique devrait ressembler à celui du Broadcasting Code publiée par Ofcom, qui se base sur des lignes directrices définies dans la section 319 du Communications Acts de 2003. Le Code d’Éthique devrait être mis au point par des experts techniques et supervisés par un régulateur indépendant, pour pouvoir mettre noir sur blanc ce qui est acceptable et ce qui ne l’est pas sur les réseaux sociaux, notamment les contenus abusifs et illégaux qui ont été signalés par leurs utilisateurs pour être retirés, ou qu’il aurait été facile d’identifier pour les compagnies technologiques elles-mêmes.

39. Le processus devrait définir une responsabilité juridique claire pour les compagnies technologiques de prendre des mesures contre les contenus abusifs et illégaux sur leur plateforme et ces compagnies devraient mettre en place des systèmes adaptés pour marquer et retirer des « types d’abus » et s’assurer que les structures de cybersécurité soient implémentées. Si les compagnies techniques (y compris les ingénieurs informaticiens en charge de la création des logiciels pour ces compagnies) sont reconnues fautifs de ne pas avoir respecté leurs obligations en vertu d’un tel code, et n’ont pas pris de mesure allant contre la diffusion de contenus abusifs et illégaux, le régulateur indépendant devrait pouvoir engager des poursuites judiciaires à leur encontre, dans l’objectif de les condamner à payer des amendes élevées en cas de non-respect du Code.

40. C’est le même organisme public qui devrait avoir des droits statutaires pour obtenir toute information de la part des compagnies de réseaux sociaux qui sont en lien avec son enquête. Cela pourrait concerner la capacité de vérifier les données qui sont conservées sur un utilisateur, s’il demandait ces informations. Cet organisme devrait avoir accès aux mécanismes de sécurité des compagnies technologiques et aux algorithmes, pour s’assurer qu’ils travaillent de manière responsable. Cet organisme public devrait être accessible au public et recevoir les plaintes sur les compagnies des réseaux sociaux. Nous demandons au gouvernement de soumettre ces propositions dans son prochain livre blanc.

Utilisation des données personnelles et inférence

41. Lorsque Mark Zuckerberg a fourni les preuves au congrès en avril 2018, dans la suite du scandal Cambridge Analytica, il a fait la déclaration suivante : « Vous devriez avoir un contrôle complet sur vos données […] Si nous ne communiquons pas cela clairement, c’est un point important sur lequel nous devons travailler ». Lorsqu’il lui a été demandé à qui était cet « alterego virtuel », Zuckerberg a répondu que les gens eux-mêmes possèdent tout le « contenu » qu’ils hébergent sur la plateforme, et qu’ils peuvent l’effacer à leur gré48. Cependant, le profil publicitaire que Facebook construit sur les utilisateurs ne peut être accédé, contrôlé ni effacé par ces utilisateurs. Il est difficile de concilier ce fait avec l’affirmation que les utilisateurs possèdent tout « le contenu » qu’ils uploadent.

42. Au Royaume-Uni, la protection des données utilisateur est couverte par le RGPD (Règlement Général de Protection des Données)49. Cependant, les données « inférées » ne sont pas protégées ; cela inclut les caractéristiques qui peuvent être inférées sur les utilisateurs et qui ne sont pas basées sur des informations qu’ils ont partagées, mais sur l’analyse des données de leur profil. Ceci, par exemple, permet aux partis politiques d’identifier des sympathisants sur des sites comme Facebook, grâce aux profils correspondants et aux outils de ciblage publicitaire sur les « publics similaires ». Selon la propre description de Facebook des « publics similaires », les publicitaires ont l’avantage d’atteindre de nouvelles personnes sur Facebook « qui ont des chances d’être intéressées par leurs produits car ils sont semblables à leurs clients existants » 50.

43. Le rapport de l’ICO, publié en juillet 2018, interroge sur la présomption des partis politques à ne pas considérer les données inférées comme des données personnelles:

« Nos investigations montrent que les partis politiques n’ont pas considéré les données inférées comme des informations personnelles car ce ne sont pas des informations factuelles. Cependant, le point de vue de l’ICO est que ces informations sont basées sur des hypothèses sur les intérets des personnes et leurs préférences, et peuvent être attribuées à des individus spécifiques, donc ce sont des informations personnelles et elles sont soumises aux contraintes de la protection des données 51. »

44. Les données inférées sont donc considérées par l’ICO comme des données personnelles, ce qui devient un problème lorsque les utilisateurs sont informés qu’ils disposent de leurs propres données, et qu’ils ont un pouvoir sur où les données vont, et ce pour quoi elles sont utilisées. Protéger nos données nous aide à sécuriser le passé, mais protéger les inférences et l’utilisation de l’Intelligence Artificielle (IA) est ce dont nous avons besoin pour protéger notre futur.

45. La commissaire à l’information, Elizabeth Denham, a souligné son intérêt sur l’utilisation des données inférées dans les campagnes politiques lorsqu’elle a fourni des preuves au comité en novembre 2018, déclarant qu’il y a eu :

« Un nombre dérangeant de manque de respect des données personnelles des votants et des votants potentiels. Ce qui s’est passé ici est que le modèle familier aux gens du secteur commercial sur le ciblage des comportements a été transféré – je pense transformé – dans l’arène politique. C’est pour cela que j’appelle à une pause éthique, afin que nous puissions y remédier. Nous ne voulons pas utiliser le même modèle qui nous vend des vacances, des chaussures et des voitures pour collaborer avec des personnes et des votants. Les gens veulent plus que ça. C’est le moment pour faire un pause pour regarder les codes, regarder les pratiques des entreprises de réseaux sociaux, de prendre des mesures là où ils ont enfreint la loi. Pour nous, le principal but de ceci est de lever le rideau et montrer au public ce qu’il advient de leurs données personnelles 52. »

46. Avec des références explicites sur l’utilisation des « publics similaires » de Facebook, Elizabeth Denham a expliqué au comité qu’ils « devaient être transparents envers les [utilisateurs] privés. Ils ont besoin de savoir qu’un parti politique, ou un membre du parlement, fait usage des publics similaires. Le manque de transparence est problématique53. Lorsque nous avons demandé à la commissaire à l’information si elle pensait que l’utilisation des « publics similaires » était légal selon le RGPD, elle a répondu : « Nous avons besoin de l’analyser en détail sous la loupe du RGPD, mais je pense que le public est mal à l’aise avec les publics similaires, et il a besoin que ce soit transparent » 54. Les gens ont besoin de savoir que l’information qu’ils donnent pour un besoin spécifique va être utilisé pour inférer des informations sur eux dans d’autres buts.

47. Le secrétaire d’état, le très honorable membre du parlement Jeremy Wright, nous a également informé que le framework éthique et législatif entourant l’IA devait se développer parallèlement à la technologie, ne pas « courir pour [la] rattraper », comme cela s’est produit avec d’autres technologies dans le passé 55. Nous devons explorer les problèmes entourant l’IA en détail, dans nos enquêtes sur les technologies immersives et d’addictives, qui a été lancée en décembre 2018 56.

48. Nous soutenons la recommandation de l’ICO comme quoi les données inférées devraient être protégées par la loi comme les informations personnelles. Les lois sur la protection de la vie privée devraient être étendues au-delà des informations personnelles pour inclure les modèles utilisés pour les inférences sur les individus. Nous recommandons que le gouvernement étudie les manières dont les protections de la vie privée peuvent être étendues pour inclure les modèles qui sont utilisés pour les inférences sur les individus, en particulier lors des campagnes politiques. Cela nous assurerait que les inférences sur les individus sont traitées de manière aussi importante que les informations personnelles des individus.

Rôle accru de l’OIC et taxe sur les entreprises de technologie

49. Dans notre rapport intérimaire, nous avons demandé que l’OIC soit mieux à même d’être à la fois un « shérif efficace dans le Far West de l’Internet » et d’anticiper les technologies futures. L’OIC doit avoir les mêmes connaissances techniques, sinon plus, que les organisations examinées57. Nous avons recommandé qu’une redevance soit prélevée sur les sociétés de technologie opérant au Royaume-Uni, pour aider à payer ces travaux, dans le même esprit que la façon dont le secteur bancaire paie les frais de fonctionnement de l’autorité de régulation Financière 58 59.

50. Lorsque l’on a demandé au secrétaire d’État ce qu’il pensait d’une redevance, il a répondu, en ce qui concerne Facebook en particulier: « Le Comité est rassuré que ce n’est pas parce que Facebook dit qu’il ne veut pas payer une redevance, qu’il ne sera pas question de savoir si nous devrions ou non avoir une redevance »60. Il nous a également dit que « ni moi, ni, je pense franchement, l’OIC, ne pensons qu’elle soit sous-financée pour le travail qu’elle a à faire actuellement. […] Si nous devons mener d’autres activités, que ce soit en raison d’une réglementation ou d’une formation supplémentaires, par exemple, il faudra bien qu’elles soient financées d’une façon ou d’une autre. Par conséquent, je pense que la redevance vaut la peine d’être envisagée »61.

51. Dans notre rapport intermédiaire, nous avons recommandé qu’une redevance soit prélevée sur les sociétés de technologie opérant au Royaume-Uni pour soutenir le travail renforcé de l’OIC. Nous réitérons cette recommandation. La décision du chancelier, dans son budget de 2018, d’imposer une nouvelle taxe de 2% sur les services numériques sur les revenus des grandes entreprises technologiques du Royaume-Uni à partir d’avril 2020, montre que le gouvernement est ouvert à l’idée d’une taxe sur les entreprises technologiques. Dans sa réponse à notre rapport intermédiaire, le gouvernement a laissé entendre qu’il n’appuierait plus financièrement l’OIC, contrairement à notre recommandation. Nous exhortons le gouvernement à réévaluer cette position.

52. Le nouveau système indépendant et la nouvelle réglementation que nous recommandons d’établir doivent être financés adéquatement. Nous recommandons qu’une taxe soit prélevée sur les sociétés de technologie opérant au Royaume-Uni pour financer leur travail.