1

L’épisode de la modération – épisode 4

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le quatrième.

Alors maintenant que je vous ai dit tout ça, faisons un petit bilan des avantages et surtout des limites de ce système !

Si vous avez raté les articles précédents, vous pouvez les retrouver par ici :
– Chapitre 1 : Un contexte compliqué
– Chapitre 2 : La découverte de la modération
– Chapitre 3 : La pratique de la modération

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

Les avantages

Je vais être courte parce que mon point n’est pas ici d’encenser Mastodon, donc je ne creuserai pas trop les avantages. Cependant je ne peux pas m’empêcher de remettre en avant deux points majeurs :

Indéniablement, on bloque très vite les fachos. C’est quand même, à mon avis, le grand intérêt, qui n’est pas assez connu au-delà de Mastodon. De ce fait nous avons une exigence collective très faible par rapport à la modération : quand Twitter annonce qu’il ne peut pas faire mieux, on le croit sur parole alors qu’une alternative sans moyens d’envergure y arrive… Journalistes spécialisés si vous lisez ce message !

 

Ensuite, le fonctionnement est beaucoup plus démocratique car : ce sont des humains que vous choisissez qui font la modération. Et ça, ça change beaucoup de choses. Déjà parce qu’on est dans un fonctionnement beaucoup plus… artisanal de la modération, donc potentiellement avec plus de proximité, dans l’idéal on peut discuter / appeler à l’aide ses modérateurices… et même selon les endroits, proposer de participer à la modération et ça, ça compte pour se rendre compte du boulot que c’est, et participer aux décisions importantes !

 

Les limites

 

Comme rien n’est parfait, et que nous sommes sur une alternative qui évolue tout le temps, quelques points qui restent des limites malgré le modèle anti-capitaliste de Mastodon.

 

Temps de traitement d’un signalement

 

Il y a un difficile équilibre entre le temps de traitement d’un signalement et le temps d’entendre plusieurs avis du collectif de modération. Je pense qu’il est sain de prendre le temps, mais il y a des situations où l’un·e des modérateurices peut considérer qu’il y a « urgence » et dans ce cas, attendre 48h c’est beaucoup (pour protéger une personne par exemple). C’est un point que nous n’avons pas encore creusé à Framasoft (comment gérer le dilemme rapidité d’action vs. disponibilité du collectif), mais que je me note de rajouter en discussion pour nos prochaines retrouvailles !

 

Encore une fois je parle là des cas difficiles à départager. Si il s’agit de pédopornographie, les salariés de Framasoft sont déjà habitués à devoir réagir rapidement pour supprimer le contenu, donc je ne traite pas ce sujet ici car il n’est pas spécifique.

 

Beaucoup d’utilisateurices, beaucoup de problèmes

Framasoft est une association très connue, et nos utilisateurices nous choisissent souvent car iels ont confiance en nous (merci !).

Mais cela entraine une responsabilité compliquée à gérer : plus de monde chez nous, ça nous fait plus de travail, de modération notamment.

 

Aussi, dans un cadre plus large qui était celui de la déframasoftisation d’Internet, nous avons fermé les inscriptions, ce qui nous a permis d’alléger la charge de notre coté.

 

Et comme tous les Mastodon sont interconnectés, il est possible d’aller s’inscrire ailleurs pour suivre ce qui se passe chez nous, donc c’est un fonctionnement technique qui nous permet de mieux vivre le travail de modération… youpi !

 

Éviter la « spécialisation » des modérateurices

 

Lors de la mise en place d’une équipe de modération à Framasoft, il a fallu faire un petit temps de formation-découverte à l’interface de modération de Mastodon.

 

Or on a vu apparaitre assez rapidement une « spécialisation » entre celleux qui « savaient » utiliser l’interface, et celleux qui n’osaient pas car ne « savaient pas » l’utiliser.

 

Pourtant il y a beaucoup de valeur à ce que la connaissance autour des outils circule auprès de tou·tes celleux que cela peut intéresser :
— Pour qu’il y ait de plus en plus de modérateurices, ce qui répartit le temps dédié à la modération,
— Pour que la discussion soit ouverte à des personnes qui n’ont pas la tête plongée dans la modération, ça permet d’entendre d’autres paroles, c’est appréciable.

 

Pour résoudre ce problème, nous avons organisé des visios de modération !

C’est une pratique que nous avons dans ma coopérative : faire des tâches chiantes, c’est quand même bien plus sympa ensemble !

Alors quand l’un de nous disait « bon, là, il y a quand même beaucoup de signalements qui s’accumulent » je répondais parfois « ça vous dit on fait une visio pour les traiter ensemble ?! »

 

Nous n’avions pas besoin d’être beaucoup, à 2, 3 ou 4 c’était déjà bien plus sympa, même les contenus agressifs sont plus faciles à traiter quand les copains sont là pour faire des blagues ou râler avec toi ! Nous lancions un partage d’écran, idéalement d’une personne pas hyper à l’aise pour l’accompagner, et nous traitions les signalements.

 

Autre effet bénéfique : la boucle de « je demande leur avis aux copaines, j’attends, je traite le signalement » est raccourcie car nous pouvons collectivement débattre en direct du problème. C’est vraiment une façon très sympa de faire de la modération !

 

Les « On va voir » et autres « On peut pas savoir »

 

Enfin, si tout cela est possible actuellement, une part de moi me demande si ce n’est pas dû au fait que Mastodon passe encore « sous les radars ».

C’est un sentiment que j’ai tendance à minimiser vu que cela ne nous a pas empêché d’avoir des hordes de comptes d’extrêmes droites qui se ramenaient. Donc une part de moi pense que le réseau (qui a déjà six ans donc on est loin du petit truc tout nouveau qui a six mois) a un fonctionnement déjà résilient.

Et une autre partie de moi sait qu’elle n’est pas voyante, donc on verra bien dans le futur !

 

Par contre je voudrais insister sur le fait qu’on ne peut pas savoir. Tous les articles qui vous expliqueront que Mastodon ne peut pas fonctionner parce que « intégrer un argument d’autorité sur le fait que ce n’est pas assez gros » ne sont pas mieux au courant que les utilisateurices et administrateurices depuis des années. Et je n’ai pour l’instant vu aucun argument pertinent qui aurait tendance à montrer que le réseau et ses modérateurices ne peut pas supporter une taille critique.

 

Comme d’hab, le secret : il faut prendre soin

 

Cette conclusion ne va étonner personne : La solution pour une bonne modération, c’est de prendre soin.

 

Prendre soin des utilisateurices en n’encourageant pas les discours haineux (techniquement et socialement), en ne les propageant pas (techniquement et socialement).

 

Prendre soin des structures qui proposent des petits bouts de réseaux en leur évitant d’avoir trop de pouvoir et donc trop de responsabilités sur les épaules (et trop de coûts).

 

Prendre soin des modérateurices en les soutenant via un collectif aimant et disponible pour leur faire des chocolats chauds et des câlins.

Cher·e modérateurice qui me lis, tu fais un boulot pas facile, et grâce à toi le réseau est plus beau chaque jour. Merci pour ton travail, j’espère que tu as un collectif qui te soutiens, et que se soit le cas ou non, pense à avoir sous la main le numéro d’un·e psychologue, au cas où un jour tu tombes sur quelque chose de vraiment difficile pour toi/vous.

 

Cœur sur vous <3

 

Et pour finir ?

Je n’ai pas pu m’empêcher de conclure avec un billet dédié au contraste entre mon expérience de la modération et ce qui se passe sur Twitter. La semaine prochaine paraîtra donc un billet spécialement dédié à l’oiseau bleu : et Twitter alors ?




L’aventure de la modération – épisode 3

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le troisième.

Les cas d’étude c’est bien sympa, mais cela ne donne qu’une vision partielle du fonctionnement. Aussi je vais détailler ma montée en compétence sur la modération, et celle du collectif parce que ça fait partie des solutions à mettre en place pour que se soit un boulot le moins délétère possible !

 

Les outils accessibles via Mastodon

Mastodon permet, pour les utilisateurices inscrites chez nous de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— supprimer un message
— limiter la visibilité du compte à ses abonnés seulement
— suspendre le compte sur un temps restreint
— supprimer le compte définitivement
— contacter l’utilisateurice par message privé
— contacter l’utilisateurice par mail
— bloquer un Mastodon entier (!!) (aussi appelé instance).

 

Pour les utilisateurices qui ne sont pas chez nous, il est seulement possible de :
— flouter toutes les images de ce compte (et celles qu’il publiera ensuite) (pratique pour les instances qui hébergent du porno)
— limiter la visibilité du compte à ses abonnés
— bloquer le compte
— contacter l’utilisateurice par message privé.

 

Lorsqu’une personne effectue un signalement, nous recevons une notification par mail si :
— la personne faisant le signalement se trouve chez nous
— la personne signalée est chez nous ET que la personne ayant fait le signalement a demandé explicitement à ce que nous le recevions.

 

Les signalements les plus importants à gérer étant évidemment ceux concernant des personnes se trouvant sur notre (instance de) Mastodon et ayant un comportement problématique. Actuellement, la majorité des signalements pour lesquels nous sommes notifiés sont faits par une personne inscrite chez nous à propos de contenus qui se trouvent ailleurs, sans doute pour prévenir les modérateurices de l’autre Mastodon qu’il y a quelque chose à regarder de leur coté.

 

Au fur et à mesure du temps, j’ai l’impression que si les signalements ne sont pas liés à du contenu chez nous, et ne sont pas explicitement problématiques, on peut laisser la responsabilité d’agir aux modérateurices des autres instances.

 

L’important étant de bien s’occuper de ce qui se trouve chez nous. 🙂

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

 

Comment ça se passe ?

Donc une fois la notification par mail reçue, on se connecte à un compte avec les droits de modération (pour certains leur compte personnel, pour d’autres le compte de modération que nous avons créé à la sortie de la charte pour avoir un compte dédié à ce sujet). Nous avons accès à une interface récapitulant le compte concerné, les contenus signalés, le message du signalement expliquant pourquoi il a été effectué (extrêmement important car sinon on perd énormément de temps à comprendre ce qui est reproché) et quelques autres indicateurs (notamment le nombre de signalements déjà effectués, pratique pour repérer les récidivistes).

 

Démarre ensuite dans la grande majorité des cas un travail d’enquête afin de comprendre le contexte. C’est une action extrêmement chronophage mais qui nous permet de savoir si la personne a une façon de se comporter correcte, un peu pénible ou carrément problématique, ce qui va influencer le niveau de sévérité de l’action de modération.

 

Si nous avons de la chance, il suffit de parcourir une dizaine de contenus, mais parfois la personne a partagé des vidéos, et il est nécessaire de regarder l’entièreté de la vidéo pour se rendre compte de son caractère problématique… ou non. C’est comme cela que je me suis retrouvée à regarder vingt minutes d’une vidéo célébrant le Brexit où se trouvaient Asselineau, Nicolas Dupont-Aignan, Florian Philippot. Quel excellent moment.

 

C’est ce travail de contextualisation qui explique pourquoi il est extrêmement important, lorsque vous réalisez un signalement, de mettre le plus de détails possibles : quels sont les contenus incriminés ? Pourquoi pensez-vous que cela mérite une action de modération ? Trop souvent nous avons un signalement composé d’un seul pouet, hors contexte, qui nous oblige à nous y attarder bien plus que si on nous avait fourni des explications détaillées. (Merci pour nous !)

 

Une fois cette contextualisation réalisée, il est temps de se décider… est-ce qu’il y a quelque chose à faire ? Est-ce qu’on supprime les contenus incriminés ? Est-ce qu’on contacte la personne ?

 

À Framasoft nous avons un tchat dédié à la modération, dans lequel nous partageons notre analyse du contexte, le signalement, et nous proposons l’action ou les actions qui nous semblent les plus appropriées. L’idée est de pré-mâcher le travail aux copaines tout en n’ayant pas à porter seul le poids de la décision de la « bonne » action de modération à réaliser.

 

Donc une fois que j’ai une idée de ce qui me semblerait « le mieux » à faire (ou pas), je demande leur avis aux copaines sur ce tchat. Il y a ensuite un petit temps d’attente nécessaire, pas problématique dans la plupart des cas mais très stressant quand la situation revêt un caractère « d’urgence », et que quelques heures comptent (par exemple si quelqu’un commence à se prendre une vague de harcèlement, plus vite on peut la protéger mieux c’est).

 

Si on n’est pas d’accord, on discute, jusqu’à tomber d’accord ou ne pas tomber d’accord et utiliser la règle du « c’est qui qui fait qui décide ». Donc si on se dit « cette personne il faudrait la contacter pour lui expliquer » mais que personne n’a l’énergie de rédiger quelque chose… ben on fait différemment en choisissant une action qui tient compte du niveau d’énergie des modérateurices.

 

Et enfin, on réalise l’action de modération « finale » qui, si elle est technique, est hyper rapide (nonobstant un petit message pour prévenir si on a envie d’en faire un), mais qui si elle est dans la « communication » n’est que le début du chemin !

 

J’espère que cela vous permet de davantage mesurer l’effort invisible qu’est la modération : Recevoir la notification, Identifier le niveau d’urgence, Contextualiser, Synthétiser, Trouver une décision juste, la Soumettre au collectif, Attendre les retours, Discuter, Agir, peut-être Répondre… 9 à 10 étapes qui ne sont vues de personne, excepté si les contenus ou le compte sont purement et simplement supprimés. Il est donc très facile de dire que « rien » n’est fait alors que ça s’active en coulisses.

 

De plus, dans un monde où tout et n’importe quoi est « urgent » autant vous dire que ça n’est pas facile de prendre le temps de décider sereinement d’une action la plus juste possible alors que précisément, cela demande du temps de ne pas réagir sur le coup de l’émotion !

 

L’anonymat des modérateurices

 

Lorsque j’ai débuté la modération, j’avais dans l’idée qu’il était important que les modérateurices soient clairement identifié·es pour qu’il soit plus simple de savoir d’où iels parlent. Non seulement pour savoir si iels sont directement concerné·es par certaines oppressions systémiques, mais aussi pour pouvoir avoir un œil sur leur niveau de déconstruction (ce n’est pas parce qu’on est une meuf et donc qu’on subit le sexisme que cela nous donne un badge « a déconstruit le patriarcat », loin de là).

 

J’en suis complètement revenue, ou plutôt j’ai bougé sur ma position : ce ne sont pas les individus qu’il faut connaitre, mais la position d’un collectif, et savoir si on a envie de faire confiance à ce collectif… ou non !

 

Pourquoi ce changement ? Déjà parce que lors de la vague de harcèlement que nous avons subie à la publication de la charte, la violence était très intense alors que je n’étais pas directement citée : c’était le compte de l’association (@Framasoft@framapiaf.org) qui l’était, et je ne voyais que ce qui tombait dans mon fil ou ce que j’allais voir de moi-même (enfin en étant sous le coup de la sidération, moment où l’on a pas toujours les bonnes pratiques : maintenant je ferme l’ordinateur pour m’éloigner du flot).

 

Si j’étais frustrée de ne pas pouvoir mettre de visage « humain » sur les personnes qui avaient écrit cette charte, j’ai surtout été très protégée par mon anonymat du moment. Et j’ai pu choisir, en mes termes et dans un timing que j’ai choisi, de partager mon ressenti sur la situation (avec l’article intitulé Dramasoft du nom du hashtag utilisé pour l’occasion).

 

Et je me souviens que je savais très clairement que je prenais un grand risque en communiquant sur ma participation à cette charte (et j’ai fait attention à ne pas parler des actions de modération en tant que telle dans un espoir de limiter l’impact). Le fait d’en contrôler la totalité de la publication, quand, sur quel support, auprès de qui, quand je me suis sentie prête, m’a énormément protégée.

 

Je reviens d’ailleurs sur une partie de ce que j’ai énoncé au-dessus, l’importance de

savoir si iels [les modérateurices] sont directement concerné·es par certaines oppressions systémiques

 

Je pense à présent qu’il est très problématique de penser pouvoir regarder un·e individu pour se permettre de juger de si iel ferait un·e bon·ne modérateurice : ce sont les actions et la direction dans laquelle se dirige le collectif qui compte. Nous ne pouvons pas déterminer, de par quelques pouets ou contenus partagés, si une personne est « suffisamment » déconstruite ou non.

 

Pire, cela nous encourage à faire des raccourcis, qui peuvent être d’une violence inouïe. Aussi, il nous a par exemple été reproché de concevoir une charte pour des enjeux de modération dont nous n’avions pas conscience, notamment parce que nous n’avions pas de personnes concerné·es par les oppressions systémiques dans l’équipe (qui seraient composés de mecs cis, het, blancs…).

Déjà c’est faux, car il y a des femmes qui subissent le sexisme qui en font partie (dont moi par exemple !) mais surtout parce qu’il n’est pas possible de savoir quel est le contexte et l’identité de chacun·e des membres, et notamment si certain·es seraient par exemple dans le placard, cachant soigneusement leur identité ou orientation sexuelle.

Rendez-vous compte de la violence, pour quelqu’un qui n’a pas fait son ou ses coming-out, de recevoir de la part d’adelphes qui sont dans le même groupe oppressé qu’elle un message sous entendant qu’elles ne sont pas légitimes puisqu’elles ne sont pas out. La violence est infinie, et je crois que c’est ce qui m’a mise le plus en colère dans cette histoire, car je ne pouvais pas vérifier si des membres étaient touché·es par ces accusations (puisque n’ayant pas fait leur coming-out… vous m’avez comprise).

 

Aussi, à nouveau, je pense que la solution repose sur le collectif, pour pouvoir à la fois s’adresser à quelqu’un tout en protégeant les individus.

À Framasoft, nous avons publié cette charte et ouvert un compte modération derrière lequel chaque membre peut lire les messages, et nous agissons pour des personnes qui nous font confiance. Plus récemment encore, nous avons re-partagé notre vision du monde dans notre manifeste, sans compter les nombreuses conférences et articles de blog qui expliquent comment nous nous positionnons. Si cela ne suffit pas aux utilisateurices, ils peuvent nous bloquer ou aller ailleurs, sans animosité de notre part : nous faisons avec nos petits moyens.

 

Le temps passé

 

Une question qui m’a été souvent posée c’est : Combien de temps vous y passez, à faire de la modération ?

 

Alors déjà il y a une grosse différence de temps passé entre le moment de mise en place de la charte de modération, et maintenant.

 

Lors de la mise en place de la charte et environ un an ensuite, nous étions sur quelques heures par semaine. Actuellement, c’est plutôt quelques heures par mois, et pour des cas moins complexes à gérer (même si on n’est pas à l’abri d’une vague de harcèlement !). Et c’est à mettre au regard du nombre : 1600 utilisateurs actifs chez nous, 11 000 inscrit·es (donc beaucoup de comptes en veille) et 6 millions d’utilisateurs au total sur tout le réseau.

 

Cette immense différence s’expliquer par deux raisons :
– Nous avons viré tous les relous.
– Nous avons fermé les inscriptions, et donc il n’y a plus de nouveaux.

 

Les utilisateurices qui restent sur framapiaf sont celleux qui ne nous demandent pas trop de boulot, et donc on s’en sort bien !

 

Mais je pense que même sur une instance dont les inscriptions restent ouvertes, on doit gagner en tranquillité grâce aux blocages d’instances déjà effectués et à la montée en compétence de l’équipe de modération (si l’équilibre est entretenu pour que les modérateurices restent, ça veut dire que le collectif en prend suffisamment soin !).

 

Note : Si les chiffres d’Olivier Tesquet sont bons (je n’ai pas vérifié), il y a en fait sur Mastodon une bien meilleure façon de modérer que sur Twitter parce que les modérateurices seraient juste… plus nombreuxses ?

 

Mastodon compte aujourd’hui 3615 instances, c’est à dire 3615 politiques de modération potentiellement différentes.
Au passage, ramené au nombre d’utilisateurs actifs, ça fait au moins un modérateur pour 250 mastonautes. Sur Twitter, c’est un pour… 200 000.

Et après ?

C’est l’heure de faire un petit bilan de cette triplette d’articles ! Ce sera dans le prochain épisode !




L’aventure de la modération – épisode 2

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le deuxième.

Maintenant que je vous ai fait une introduction de six pages, c’est le moment de passer au concret : Comment est-ce que se déroule la modération ?

Les cas simples : les fachos, les mascus, l’extrême-droite

De façon surprenante, j’ai découvert que tout ce qu’il y a de plus délétère sur les réseaux sociaux capitalistes, c’est à dire en résumé : les comptes d’extrême-droite, étaient très simples à modérer.

Nous en avons eu un exemple lors de l’été 2018. Twitter a réalisé une vague de fermeture de comptes de mascus provenant du forum tristement connu de jeuxvideo.com, surnommé le 18-25. Comme souvent, ces personnes crient à la censure (…) et cherchent un réseau social alternatif dont la promesse serait de promouvoir une liberté d’expression leur permettant de dire les atrocités qu’ils souhaitent.

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

 

 

Ils débarquent donc sur Mastodon, avec un schéma qui a été le suivant :

1° Première inscription sur le premier Mastodon trouvé

Les 18-25 étant majoritairement francophones, ils se sont retrouvés souvent sur mamot.fr et parfois chez nous en s’inscrivant sur framapiaf.org, parfois sur mastodon.social qui est le Mastodon proposé par le développeur principal.

Nous avons donc pu commencer une première vague de bannissement en suivant les profils des nouveaux inscrits, et leurs premiers contenus qui concourraient au prix de « qui dit les choses les plus atroces ».

Nous avons fermé les inscriptions momentanément pour endiguer le flot, et peut-être avons nous à un moment viré massivement les nouveaux comptes.

 

« Quoi ?! » vous entends-je dire, « mais c’est en opposition totale avec le point 3 de la charte » !

 

Nous différencions personnes et comportements. Nous modérerons les comportements enfreignant notre code de conduite comme indiqué au point 5, mais nous ne bannirons pas les personnes sous prétexte de leurs opinions sur d’autres médias.

Ma réponse est donc « vous avez raison » suivie d’un « et nous sommes humains donc nous faisons ce que nous pouvons, en commençant par nous protéger ».

Je ne me souviens pas vraiment de notre façon de modérer à ce moment là : avons-nous attendu que chacun poste quelque chose de problématique avant de le virer ? Ou avons-nous agi de façon plus expéditive ? Même si nous étions dans le second cas, nous étions sur un grand nombre de compte qui venaient de façon groupée pour revendiquer une « liberté d’expression » leur permettant de dire des horreurs… Il n’y a à mon avis pas besoin d’attendre que chacune de ces personnes indique quel est sa façon de penser alors qu’elles viennent massivement d’un endroit (le forum de jeuxvideo.com) qui porte une vision de la société délétère.

 

Donc peut-être qu’on n’a pas respecté strictement la charte sur ce moment là, et encore une fois, je préfère protéger les membres de l’association et les utilisateurices en faisant preuve d’un peu d’arbitraire, plutôt que de suivre une ligne rigide.

 

2° S’inscrire sur un autre Mastodon

Après leur premier bannissement, des informations sur le fonctionnement décentralisé de Mastodon ont circulé. Les nouveaux arrivants se sont donc inscrits sur une autre instance, et ont plus ou moins rapidement été bannis une nouvelle fois.

 

C’est alors que des personnes du fédiverse ont expliqué à ces personnes qui se plaignaient de la fameuse « censure » qu’ils pouvaient monter leur propre Mastodon, et y appliquer leurs propres règles.

 

3° Monter une instance Mastodon rien que pour les 18-25

Sitôt dit, sitôt fait, les nouveaux arrivants s’organisent, montent leur Mastodon (soit grâce à leurs compétences techniques, soit grâce à un service qui propose de le faire) et s’y inscrivent tous.

 

Victoire ! Leur instance Mastodon, leurs règles, plus personne ne les bannira !

 

Quand à nous, nous n’avions plus qu’à appuyer sur le bouton « Bloquer l’instance » pour nous couper de ce Mastodon dédié au 18-25. Problème réglé.

 

Alors je ne voudrais pas vous faire croire que cette cohue s’est faite sans effet problématique. Déjà parce que je ne connais pas ses effets sur tous les utilisateurices de Mastodon, mais aussi parce que les 18-25 ont eu le temps de poster des contenus très violents, le point culminant étant une photo de la salle du Bataclan le soir du 13 novembre, remplie de cadavres. Je n’ai pas vu cette image mais un ami de l’association oui, et je maudis notre manque d’expérience pour ne pas avoir pu empêcher qu’il soit confronté à cette image horrible.

 

Mais de façon générale, tous les discours de haine sont vraiment aisés à modérer. Juste : Ça dégage. Fin de la discussion.

 

Là où ça devient difficile, se sont sur les cas qui jouent avec les limites.

 

Cas limites : quand une personne est… pénible

Je pense que c’est ce type de cas qui nous a valu une réputation de « mauvaise modération » : certaines personnes qui ne posaient pas de problème légaux, n’étaient pas agressifs au sens strict du terme ou ne partageaient pas de contenu violent, mais qui étaient… relous.

 

Un peu de mansplanning par ci, une discussion sur un sujet d’actualité avec une position moralisante par là… Bref, tout ce qui fait plaisir à lire (non) sans réellement mériter de couperet de la part de la modération.

 

Nous sommes arrivés à un point où les salariés qui faisaient de la modération avaient masqué le compte depuis leur profil personnel, mais ne se sentaient pas légitimes à le virer de notre Mastodon puisque rien de suffisamment répréhensible n’avait été fait.

 

Maintenant que j’ai un peu de recul, je peux dire que nous avons deux postures possibles dans ce cas, chacune nécessitant un travail de contextualisation lié au compte : quelle description du compte ? Quels contenus partagés ? Dans quelle ambiance est la personne ? Ça n’est pas la même chose si la personne écrit dans sa biographie « Mec cis-het et je vous emmerde » que si il est écrit « Faisons attention les un·es aux autres ».

Bien sûr, rien n’est strictement « éliminatoire », mais chaque élément constitue un faisceau d’indices qui nous pousse nous-même à passer plus ou moins de temps à prendre soin de la personne, de façon équivalente au soin que cette personne semble mettre dans ces échanges sur le média social.

 

Si la personne semble globalement prendre soin, mais a été signalée, nous pouvons décider de rentrer en discussion avec elle. C’est une option intensément chronophage. On pourrait se dire que pour trois messages de 500 caractères, pas besoin d’y passer trop de temps… au contraire !

Autant que possible, chaque message est co-écrit, relu, co-validé avant d’être envoyé, afin de s’assurer que le plus de personnes possibles de l’équipe de modération soient en accord avec ce qui y est écrit, le ton donné… et cela dans un temps le plus réduit possible histoire que l’action de modération ne date pas de quinze jours après le contenu (c’est parfois ce qui arrive). Or les membres de l’équipe sont pour beaucoup bénévoles, ou sinon salarié⋅es avec un emploi du temps très chargé.

Il faut aussi pas mal de relecteurices pour éviter LE truc qui fait perdre trois fois plus de temps : se faire mal comprendre par la personne à laquelle on écrit. Et là… c’est le drame !

 

Une autre option, ressemblant à celle-là mais avec moins de précautions de notre part est d’utiliser notre position d’autorité « Nous sommes la Modération » pour signaler aux personnes que nous comptons sévir en cas de récidive.

 

Cependant, si la personne ne semble pas intéressée par le fait de prendre soin des autres personnes, nous avons une astuce pour ne pas retomber dans le cycle infernal du « est-ce qu’on devrait faire quelque chose ou non ? » : le « ça prend trop d’énergie à l’équipe de modération ».

 

Cependant, nous bannirons toute personne ayant mobilisé de façon répétée nos équipes de modération : nous voulons échanger avec les gens capables de comprendre et respecter notre charte de modération.

En effet, c’est un indicateur qui nous permet de ne pas « boucler » trop… si l’on est plusieurs à se prendre la tête sur un signalement, alors que notre énergie serait mieux ailleurs… alors on décide souvent que cela suffit pour mériter un petit message disant en gros « Bonjour, vous prenez trop de temps à l’équipe de modération, merci d’aller vous installer ailleurs ». Cela nous a sorti de maintes situations délicates et c’est une félicité sans cesse renouvelée que de pouvoir citer cette partie de la charte.

 

Cas limites : quand la revendication est légitime

Autre cas compliqué à gérer : les différents moments où les personnes ont une revendication dont le fond est légitime, mais où la forme fait crisser les dents.

 

Par exemple, revenons sur la réputation de Framapiaf d’avoir une mauvaise modération (ou une absence de modération ce qui revient au même).

 

Clarifions un instant les reproches qui me semblent étayées de celles pour lesquelles je n’ai pas eu de « preuve » :

— Il a été dit que nous ne faisions pas de modération, voire que nous ne lisions pas les signalements : c’est faux.

— Par contre, comme expliqué dans le cas au-dessus, nous n’étions pas outillés et expérimentés pour gérer des cas « limites » comme ceux au-dessus qui ont entraine une pénibilité dans les interactions avec de nombreuxses utilisateurices.

 

Nous avions donc bien un manque dans notre façon de faire de la modération. Si vous avez déjà les explications du « pourquoi », je tiens à dire que cela ne nous empêche pas de nous rendre compte que cela a été pénible pour d’autres utilisateurices.

 

Cependant, la façon dont le problème nous a été remonté l’a été de façon souvent agressive, parfois violente car insinuant des choses à propos de nos membres (qui ne seraient que des personnes non concernées par les oppressions… et c’est faux !).

 

Aussi, comment traiter ce sujet, qui porte des valeurs avec lesquelles nous sommes aligné·es (protéger les personnes des relous, facile d’être pour…) mais qui dans le même temps, nous agresse également ? Et comment faire cela sans tomber dans le tone policing, argument bien trop utilisé pour couper court à un débat en tablant sur la forme plutôt que le fond ?

 

Tone-policing : littéralement « modération du ton ». Comportement visant à policer une discussion ou un débat en restreignant ou en critiquant les messages agressifs ou empreints d’une forte charge émotionnelle.

 

Voici mon point de vue : au vu de notre petite taille, nos faibles capacités humaines (des salariés qui font mille choses, des bénévoles), que notre structure est à but non lucratif (donc n’est pas là pour faire du bénéfice pour enrichir quelqu’un) et notre posture d’écoute que nous essayons d’équilibrer avec notre énergie disponible, il n’est pas OK de mal nous parler sauf cas exceptionnel.

Alors bien sûr les cas exceptionnels, ça se discute, ça se débat, mais en gros, à part si nous avons sérieusement blessé quelqu’un de par nos actions, il est possible de nous faire des critiques calmement, sans faire preuve de violence.

 

Et dans un souci d’équité, nous faisons l’effort de creuser les arguments de fond quand bien même la forme ne nous plait pas, afin de vérifier si les reproches que nos recevons sont des critiques avec de la valeur et de l’agressivité, ou seulement de l’agressivité.

 

Cela peut vous sembler étrange de passer du temps là-dessus, mais tant que vous n’êtes pas dans l’association, vous ne vous rendez pas compte de la quantité de gens qui la critiquent. Chaque semaine, des personnes nous signalent par exemple qu’elles sont désespérées par notre utilisation de l’écriture inclusive alors que nous l’utilisons depuis plus de quatre ans. Ou régulièrement parce que nous sommes trop politiques. Alors oui, des reproches agressifs nous en avons régulièrement, mais des critiques constructives, c’est malheureusement bien plus rare.

 

Donc que faire face à cela ? Eh bien mettre le soin au centre pour les personnes qui reçoivent les agressions. Alors encore une fois, je ne parle pas de soutenir les méchants oppresseurs agressifs envers qui on serait en colère, il ne s’agit pas de ça. Il s’agit de réussir à voir chez une personne de notre archipel qu’elle a fait une erreur, tout en prenant soin de l’humain qui a fait cette erreur.

 

Nous voulons prendre soin : de nous, d’autrui, et des Communs qui nous relient

 

Parce que personnellement j’ai vu que se faire agresser alors que l’on fait honnêtement de son mieux n’entraine qu’un repli sur soi, coupant la personne de son désir de contribuer à un monde meilleur, parce qu’elle a été trop blessée.

 

Et bien sûr, l’équilibre entre protéger les personnes blessées et celles qui blessent sans le vouloir est extrêmement difficile à tenir. Il faut donc réussir à faire preuve de franchise : oui, là, tu ou on aurait pu faire mieux. À partir de maintenant, comment on fait pour que se soit possible de faire mieux ?

 

Inutile de dire que non seulement ça prend du temps, mais c’est aussi carrément risqué, car on peut se mettre à dos par effet domino tout le groupe dont les membres exprimaient directement cette agressivité, ou indirectement par du soutien aux contenus en questions. Que du bonheur !

 

Les autres cas…

 

Alors oui il y a des robots, mais ça c’est un peu pénible mais vite résolu.

 

Il y a aussi des spécificités liées à Mastodon : comment gérer des contenus qui sont sur un autre Mastodon, auquel vous êtes connectés, et qui sont illégaux dans votre pays mais légaux dans d’autres ? On prend souvent l’exemple dans ce cas du lolicon : les dessins « érotiques » représentant des mineures sont autorisés et courants au Japon, mais interdits en France. Il faut y penser !

 

Enfin un autre cas que vous avez en tête est peut-être le contenu pornographique. Nous n’en faisons pas grand cas ici : nous demandons à ces comptes de masquer par défaut leurs images (une fonctionnalité de Mastodon qui permet de publier la photo floutée et de la rendre nette sur simple clic) et idéalement de rajouter un #NSFW (Not Safe for Work) pour simplifier leur identification.

 

La suite

 

J’espère que ces cas un peu concrets vous permettent de mieux vous rendre compte des interstices qui complexifient le travail de modération. Mais du coté fonctionnement collectif, comment ça se passe ? Je vous raconte ça dans l’article numéro 3 la semaine prochaine.




L’aventure de la modération – épisode 1

Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité.

Voici le premier.

Il me semble que mon parcours rassemble plusieurs spécificités qui me permettent d’analyser sous un angle particulier les différentes particularités de la modération :

  • Je suis une femme féministe, et une “geek”,
  • Je suis de gauche (= progressiste), et soutiens tous les mouvements pour plus de justice sociale,
  • Je suis conceptrice d’outils numériques, donc je connais le pouvoir que nous avons lorsque nous créons un produit numérique,
  • Je suis critique du numérique, et notamment du numérique capitaliste (de son petit nom, capitalisme de surveillance). J’enrichis cette réflexion grâce aux discussions que nous avons au sein de l’association Framasoft dont je suis membre bénévole.
  • J’ai fait de la modération pour un réseau social et ce réseau social n’était pas capitaliste.

 

Pepper la sorcière et Carrot le chat dorment paisiblement contre un éléphant (un mastodonte) dans une jolie jungle.
My Neighbor Mastodon – CC-BY David Revoy

 

C’est parti !

3615 ma vie : d’où je parle

Un ordi dès l’enfance

J’ai toujours été utilisatrice d’ordinateurs.
J’ai retrouvé récemment des photos d’un Noël où j’avais peut-être 4 ou 5 ans et où j’ai eu le droit à un ordinateur format jouet, le genre de trucs qui doit faire des chansons ou proposer des mini-jeux en répétant les mêmes phrases à voix robotique à longueur de journée. Quand j’ai vu cette image, j’ai tout de suite pensé à cette courbe qui montre que l’intérêt des enfants pour l’informatique est similaire pour les filles et les garçons… jusqu’au moment où l’on offre des ordinateurs aux petits garçons et pas aux petites filles.

La courbe montre le pourcentage de femmes diplômées dans quatre sections : médecine, droit, physique, informatique, qui augmente au fur et à mesure du temps. Mais on observe un décrochage des diplômées en informatique juste après que l’ordinateur soit promu comme un jouet pour les garçons.

Or, j’ai eu la chance d’avoir une petite sœur, aussi pas de compétition genrée au sein de la fratrie. Par la suite en 1999 nous avons déménagé en Polynésie Française et dans notre chambre d’enfants nous avions un ordinateur, un Windows 98 que nous pouvions utiliser pour jouer à de nombreux jeux vidéos avec bonheur.

Internet n’était qu’une possibilité très lointaine, réservée à mon père qui parfois tentait de m’aider à me connecter pour pouvoir accéder aux jeux de réseau… mais ça n’a jamais fonctionné (peut-être dû au décalage horaire de douze heures avec l’hexagone, je ne le saurai jamais !).

Une fois de retour en France hexagonale, mon père qui était le technicien de la maison, décède. Ma mère n’étant absolument pas intéressée par le sujet, je deviens l’informaticienne de la maison : c’est souvent moi qui installe les logiciels (par exemple le Scrabble pour jouer en ligne), qui sait comment libérer de la place sur l’ordinateur en désinstallant des logiciels (parce que je le faisais souvent sur le Windows 98, j’avais donc déjà de la pratique).

Dans mon milieu familial, si personne n’est admiratif de mes bidouilles, personne ne m’empêche de les faire et je deviens assez vite autonome. De plus, le collège porte un projet de numérisation et on offre aux 4ᵉ et aux 3ᵉ un ordinateur portable. Il est difficile de se connecter à Internet, il n’y a pas de Wifi, mais cela me permet déjà de jouer, de regarder des films de façon indépendante, bref encore plus d’autonomie pour moi !

Un début de pratique collective du numérique (forums, skyblogs, réseaux sociaux).

Plus tard au lycée, l’accès internet est plus simple (on a du wifi !) et je traine sur des forums notamment liés aux génériques de dessins animés (oui c’est un de mes trucs préférés de la vie, je ne sais toujours pas pourquoi). J’ai souvenir d’être déjà pas mal méfiante, assez poreuse aux discours de “on ne sait pas qui nous parle sur Internet”. C’est le grand moment des skyblogs, qu’on ouvre en deux clics pour raconter sa vie (quel bonheur !). Et enfin, c’est l’arrivée de Facebook qui devient un outil très répandu.

Si je n’ai pas de souvenirs de harcèlement via les réseaux sociaux, je me souviens déjà d’une pression sociale pour s’y inscrire. Nous organisions toutes nos sorties cinéma, anniversaires, soirées via les évènements Facebook, et l’une de nos amies n’y était pas inscrite… nous oubliions de la prévenir systématiquement. =/

Pour la suite je vous la fais rapide, je vieillis, c’est le temps des études que j’oriente d’abord malgré moi vers le design web (j’avais envie de faire des dessins animés mais j’étais pas assez bonne dessinatrice !).


Le début d’un lien entre politique et numérique

Je prends conscience du pouvoir mêlé à l’enfer de l’instantanéité des réseaux sociaux en 2015, au moment des attentats de Charlie Hebdo : je suis fébrilement l’actualité via le hashtag… avant de voir une vidéo de meurtre et de fermer lentement mon ordinateur, horrifiée par ce que je viens de voir. C’est une période où je fais “connaissance” avec les discours islamophobes qui superposent les raccourcis.

Je ne suis, à l’époque, pas très politisée, mais pas à l’aise avec ces discours… jusqu’à ce que je fasse connaissance avec une personne qui a un discours que je trouve très juste sur ce sujet (il doit me faire découvrir le concept d’islamophobie, ce qui est déjà pas mal). Et il s’avère que cette personne étant également dans la mouvance du logiciel libre : je découvre alors un monde numérique qui a une intention éloignée de celles du capitalisme, et notamment l’association Framasoft.


Alternatif, vous avez dit alternatif ?

Je découvre donc ce monde numérique alternatif, ou “libre” et au bout de quelques années, un réseau social alternatif : début 2018, alors que j’utilise beaucoup Twitter, une alternative nommée Mastodon se lance. Je m’y inscris, et l’utilise peu, avant de m’y constituer un petit réseau qui me fait y rester (autant que sur Twitter).

Les années passent encore, nous sommes en 2019 et on me propose de rejoindre Framasoft, ce que j’accepte ! Je découvre un collectif qui développe une réflexion très poussée sur ce qu’il y a de délétère dans la société et notamment le numérique, et qui propose des alternatives émancipatrices.

Lorsque je rejoins l’association, au printemps 2019, un sujet est brûlant au sein de l’asso comme à l’extérieur : la modération du réseau social Framapiaf.


Framapiaf ? Mastodon ? Kezako ?

En 2017, un réseau social alternatif commence à faire parler de lui : il s’agit de Mastodon.

Ce réseau social a un fonctionnement un peu particulier : il est décentralisé, en opposition a plein d’autres réseaux sociaux, notamment les réseaux capitalistes, qui sont eux tous centralisés : Il y a 1 Facebook, 1 Twitter, 1 Instagram, 1 TikTok… etc.

Pour comprendre en moins de deux minutes le concept, je vous laisse regarder cette petite vidéo, sous-titrée en français :  https://framatube.org/w/9dRFC6Ya11NCVeYKn8ZhiD 

Il y a donc une multitude de Mastodon, proposés par une multitude de personnes, associations ou entreprises différentes.
Mais ces Mastodon sont tous connectés les uns aux autres, ce qui permet que les personnes inscrites sur le Mastodon de Framasoft peuvent tout à fait discuter avec des personnes inscrites sur les Mastodon d’autres associations, exactement comme pour les mails ! (si vous avez un mail en @orange.fr et moi un mail en @laposte.net, nous pouvons nous écrire).

Cette spécificité de fonctionnement a plusieurs intérêts, et une grand influence sur les possibilités de modération. Par exemple :

— Le modèle économique de chaque Mastodon est choisi par la structure qui le porte. Chez Framasoft par exemple, se sont les dons qui permettent de tout faire tourner.

— Les règles de modération de chaque Mastodon sont choisies par la structure qui le porte. Aussi, c’est à elle de définir ce qu’elle accepte ou n’accepte pas, en toute indépendance.

— Si les règles ou le modèle économique d’un Mastodon ne vous conviennent pas, vous pouvez… déménager sur un autre Mastodon, tout simplement !


Quel était le problème avec la modération ?

Il faut savoir que Framasoft, entre 2014 et 2019 lançait en moyenne un service par mois (framapad, framadate, framaforms…). Elle a donc lancé Framapiaf pour participer à la promotion du réseau social, sans prendre particulièrement en compte la nécessité de gérer les interactions qui se dérouleraient sur ce média social.

L’association n’était à l’époque composée que de huit salarié·es pour plus de quarante services proposés, des conférences  réalisées, des interventions médias, des billets de blog, des campagnes de dons et financement participatif… bref, l’existence du réseau social n’était qu’un petit élément de cet univers, et sa modération un sous-élément en plus de l’aspect technique…

Je parle des interactions et non pas de la modération car sur d’autres services, les salariés géraient déjà de la modération de contenu : images violentes, notamment de pédopornographie… Mais cela impactait uniquement les salariés et ne se propageait pas vers l’extérieur, donc restait du travail totalement invisible.

Or, avec Framapiaf, s’il y avait des contenus problématiques qui étaient diffusés, ils n’impactaient pas seulement les salariés qui faisaient la modération mais aussi leurs destinataires, et potentiellement tous les usagers du média social.

Aussi de nombreuses utilisatrices ont signalé à l’association (parfois violemment, j’y reviendrais) que l’état de la modération leur semblait insuffisant, et que des personnes avaient des interactions problématiques avec iels.

Les salariés n’ayant pas la disponibilité pour gérer pleinement ce sujet, ce sont des bénévoles qui s’en sont chargés.


Avant la charte : Un flou qui crée des tensions


Recette pour abimer des modérateurices

En effet, jusqu’à présent quelques salarié·es de l’association géraient la modération avec les moyens du bord, étaient souvent seuls à s’occuper des signalements dans leur coin, alors que cette tâche est particulièrement complexe.

 

Pourquoi complexe ? Parce que lorsque l’on est modérateurice, et qu’on souhaite faire un travail juste, notre notion de ce qui est juste est sans cesse réinterrogée.

 

Déjà dans l’analyse de la situation : Est-ce que la personne qui a posté ce contenu l’a fait en sachant sciemment qu’elle risquait de blesser quelqu’un, ou non ?

 

Dois-je lui donner le bénéfice du doute ? Est-elle agressive ou seulement provocante ? Est-ce qu’on doit agir contre une personne provocante ? Est-ce que ce contenu est vraiment problématique, ou est-ce que c’est moi qui me suis levé·e du mauvais pied ? Qui suis particulièrement sensible à cette situation ?

 

Ensuite dans les actions à effectuer : dois-je supprimer ce contenu ? Supprimer ce compte ? Prévenir la personne pour lui expliquer le pourquoi de mes actions, par transparence ? Comment cela va-t-il être reçu ? Quel est le risque de retour de flammes pour moi ? Pour l’association ?

 

Et le meilleur pour la fin : on se sent seul responsable lorsque des personnes extérieures viennent critiquer, parfois violemment, la façon dont la modération est réalisée.

 

Il n’y a aucune réponse universelle à ces questions. Ce qui simplifie, en général, le processus de modération, c’est :

— un collectif qui permet de prendre une décision collégiale (ce qui évite de faire reposer une décision difficile et ses conséquences sur un seul individu)

— une vision politique qui facilite d’autant ces prises de décisions.

Nous avons une chance immense à Framasoft, c’est que toutes les personnes actives au sein de l’association sont très alignées politiquement (ça se sent dans le manifeste que nous venons de publier). Mais il n’y avait pas de collectif de modérateurices pour traiter ces questions et prendre les décisions qui sont les plus dures : celles pour les situations qui se trouvent “sur le fil”.


Structurer un groupe de modérateurices pour s’améliorer

J’arrive donc à Framasoft avec l’envie d’aider sur le sujet de la modération, qui est instamment priorisé par le directeur de l’association au vu du stress dans lequel étaient plongés les salariés-modérateurs.

Nous sommes un petit groupe (trois personnes) à proposer de rédiger une charte qui transposera notre vision politique en discours lisible, sur laquelle nous pourrons nous appuyer et nous référer pour expliciter nos choix de modération futurs et trancher des situations problématiques qui ont profité d’un flou de notre politique de modération.

Nous n’avons pas de débat majeur, étant assez alignés politiquement ; c’est la rédaction de la charte qui a été la plus complexe, car nous étions deux sur trois à être novices en modération, nous ne savions donc pas précisément ce qui nous
servirait dans le futur. La charte est disponible sur cette page et a été publiée le 8 juillet 2019.


Publication de la charte

Donc une fois la charte réalisée, il a fallu la poster.

Et là.

J’ai déjà raconté en partie ce qui s’est passé sur un précédent billet de blog nommé Dramasoft, du nom du hashtag utilisé pour parler de la vague de réactions suite à cette publication.

Pour résumer, nous avons subit une vague de harcèlement, de la part de personnes directement touchées par des oppressions systémiques (ça fait tout drôle). Il s’agit d’un type particulier de harcèlement donc je reparlerai : il n’était pas concerté. C’est à dire que les personnes ayant contribué au harcèlement ne l’ont pas fait de façon organisée. Mais l’accumulation de reproches et d’accusations a exactement le même effet qu’une vague de harcèlement opérée volontairement.

 

D’ailleurs pour moi, elle était pire qu’une vague de masculinistes du 18-25 que j’avais vécu un an auparavant. Car il est bien plus facile de les mettre à distance, en connaissant les mécanismes utilisés et leurs méthodes d’intimidation. Ce n’est pas la même chose de se faire harceler par des personnes qui sont dans le même camp que nous. Et je n’ai pas réussi à créer de la distance, en tout cas sur le moment (maintenant j’ai compris que les façons de communiquer comptaient !).

La charte

Je reviens sur ses différents articles :

1 — Cadre légal

Nous sommes placé·e⋅s sous l’autorité de la loi française, et les infractions que nous constaterons sur nos médias pourront donner lieu à un dépôt de plainte. Elles seront aussi modérées afin de ne plus apparaître publiquement.

Cela concerne entre autres (sans être exhaustif) :

— l’injure
— la diffamation
— la discrimination
— les menaces
— le harcèlement moral
— l’atteinte à la vie privée
— les appels à la haine
— La protection des mineurs, en particulier face à la présence de contenu à caractère pornographique (Loi n° 98-468 du 17 juin 1998 — Article 227-22-1 et Article 227-23 du code pénal).

Alors respecter la loi, ça peut sembler bête de le rappeler, mais ça nous permet de faire appel à un argument d’autorité qui peut être utile lorsqu’on n’a pas envie de faire dans la dentelle.


2 — Autres comportements modérés

Ici nous avons fait en sorte d’être, autant que possible, “ceinture et bretelles” pour rendre explicites que nous trouvons ces différents comportements problématiques. Et si vous avez l’impression qu’il s’agit parfois de choses évidentes, eh bien sachez que ça n’est pas le cas pour tout le monde.

Nous n’accepterons pas les comportements suivants, qui seront aussi modérés :

— Envoyer des messages agressifs à une personne ou à un groupe, quelles que soient les raisons. Si on vous insulte, signalez-le, n’insultez pas en retour.

Permet de ne pas tomber dans le “mais c’est pas moi c’est lui qui a commencé”.

—  Révéler les informations privées d’une personne. Dévoiler ses pseudonymes et les caractères de son identité est un choix personnel et individuel qui ne peut être imposé.

Ici par exemple, on explicite clairement un comportement qui n’a rien de répréhensible en soi (c’est pas interdit de donner des infos sur une personne !) mais qu’on sait avoir des effets délétères sur les personnes visées (si on donne le numéro de téléphone ou l’adresse d’une personne, même si rien ne se passe ensuite, il y a a minima la peur d’être contacté·e par des inconnus qui est vraiment problématique).

 

— Insister auprès d’une personne alors que cette dernière vous a demandé d’arrêter. Respectez les refus, les « non », laissez les gens tranquilles s’iels ne veulent pas vous parler.

On rappelle la base de la notion de consentement, ce qui permet aussi d’encourager les utilisateurices à poser leurs limites si elles souhaitent arrêter un échange.

 

— Tenir des propos dégradants sur les questions de genre, d’orientation sexuelle, d’apparence physique, de culture, de validité physique ou mentale, etc. et plus généralement sur tout ce qui entretient des oppressions systémiques. Si vous pensiez faire une blague, sachez que nous n’avons pas d’humour sur ces questions et que nous ne les tolérerons pas. Dans le doute, demandez-vous préalablement si les personnes visées vont en rire avec vous.

 

Ici, petit point “oppression systémique” aussi résumable en “on est chez les woke, déso pas déso” ; de plus on coupe court à toute tentative de négocier par un prétendu “humour”.

 

— Générer des messages automatiques de type flood, spam, etc. Les robots sont parfois tolérés, à condition d’être bien éduqués.

Les bots pourquoi pas mais selon ce qui nous semble être “une bonne éducation” et oui c’est totalement arbitraire. 🙂

 

— Partager des émotions négatives intenses (notamment la colère), en particulier à l’égard d’une personne. Les médias sociaux ne sont pas un lieu approprié pour un règlement de compte ou une demande de prise en charge psychologique. Quittez votre clavier pour exprimer les émotions intenses, trouvez le lieu adéquat pour les partager, puis revenez (si nécessaire) exposer calmement vos besoins et vos limites.

Ici on partage notre vision des réseaux sociaux : Ils ne permettent pas d’avoir une discussion apaisée, ne serait-ce que parce qu’ils limitent grandement le nombre de caractères et par là même, la pensée des gens. Donc si ça ne va pas, si vous êtes en colère, éloignez-vous-en et revenez quand ça ira mieux pour vous.

 

— Participer à un harcèlement par la masse, inciter à l’opprobre général et à l’accumulation des messages (aussi appelé dog piling). Pour vous ce n’est peut-être qu’un unique message, mais pour la personne qui le reçoit c’est un message de trop après les autres.

Ici on place la différence entre une action et l’effet qu’elle peut avoir sur les personnes. En effet, si le harcèlement organisé est facile à imaginer, on se rend moins compte de l’effet que peut avoir un flot de messages envoyé à une personne, quand bien même les expéditeur·ices ne se sont pas coordonnés pour générer une vague de harcèlement… le ressenti final est similaire : on reçoit des tonnes de messages propageant de la colère ou des reproches, alors qu’on est seul·e de l’autre coté de l’écran.

 

— Dénigrer une personne, un comportement, une croyance, une pratique. Vous avez le droit de ne pas aimer, mais nous ne voulons pas lire votre jugement.

On conclut avec une phrase plus généraliste, mais qui nous permet d’annoncer que le réseau social n’est pas là pour clamer son avis en dénigrant les autres.


3 — Les personnes ne sont pas leurs comportements

Nous différencions personnes et comportements. Nous modérerons les comportements enfreignant notre code de conduite comme indiqué au point 5, mais nous ne bannirons pas les personnes sous prétexte de leurs opinions sur d’autres médias.

Nous changeons et nous apprenons au fil de notre vie… aussi des comportements que nous pouvions avoir il y a plusieurs années peuvent nous sembler aujourd’hui complètement stupides… Cette phrase est donc là pour annoncer que, a priori, nous aurons une tolérance pour les nouveaux arrivants et nouvelles arrivantes.

Cependant, nous bannirons toute personne ayant mobilisé de façon répétée nos équipes de modération : nous voulons échanger avec les gens capables de comprendre et respecter notre charte de modération.

Cette phrase est parmi celles qui nous servent le plus : à Framasoft, ce qui nous sert de ligne de rupture, c’est l’énergie que nous prend une personne. Quand bien même ce qui est fait est acceptable du point de vue de la charte, si nous sommes plusieurs à nous prendre la tête pour savoir si oui, ou non, les contenus partagés méritent une action de modération… Eh bien c’est déjà trop.

Après tout, nous avons d’autres projets, l’accès à nos services est gratuit, mais il n’y a pas de raison de nous laisser
vampiriser notre temps par quelques utilisateurs qui surfent sur la frontière du pénible.


4 — Outils à votre disposition

Nous demandons à chacun⋅e d’être vigilant⋅e. Utilisons les outils à notre disposition pour que cet espace soit agréable à vivre :

 

Si quelqu’un vous pose problème ou si vous vous sentez mal à l’aise dans une situation, ne vous servez pas de votre souffrance comme justification pour agresser. Vous avez d’autres moyens d’actions (détaillés dans la documentation)

  • fuir la conversation,
  • bloquer le compte indésirable,
  • bloquer l’instance entière à laquelle ce compte est rattaché (uniquement disponible sur Mastodon),
  • signaler le compte à la modération.

Copie d’écran d’un signalement sur Framapiaf

Une partie de l’action des modérateurices est de faire (ce que j’appelle personnellement) “la maîtresse”. J’ai plusieurs fois l’impression de me faire tirer la manche par un enfant qui me dirait “maîtresse, untel est pas gentil avec moi”. J’y reviendrai, mais c’est pour cela que nous listons les façons d’agir : pour que dans les cas mineurs, les personnes puissent agir elles-mêmes. Déjà parce que se sera toujours plus rapide, que cela permet à la personne de faire l’action qu’elle trouve juste, et puis parce que ça permet de ne pas nous prendre du temps pour des cas qui restent des petites prises de bec individuelles.

 

— Si quelqu’un vous bloque, entendez son souhait et ne cherchez pas à contacter cette personne par un autre biais, ce sera à elle de le faire si et quand elle en aura envie.

 

Petit point consentement, ça fait pas de mal.

 

— Si vous constatez des comportements contraires au code de conduite menant des personnes à être en souffrance, signalez-le à la modération afin de permettre l’action des modérateurs et modératrices. Alerter permet d’aider les personnes en souffrance et de stopper les comportements indésirables.

 

Il ne nous est pas possible d’être pro-actif sur la modération, pour deux raisons simples :

1. On a autre chose à faire que passer notre temps à lire les contenus des un·es et des autres.

2. Nous avons nos propres comptes bloqués, masqués, et nous ne sommes pas au sein de toutes les conversations. Aussi il n’est pas possible de tout voir (et de toute façon, ça nous ferait bien trop de boulot !).

 

— S’il n’est pas certain qu’une personne est en souffrance, mais que les comportements à son égard sont discutables, engagez la conversation autour de ces comportements avec chacune des personnes concernées, dans le respect, afin d’interroger et de faire évoluer votre perception commune des comportements en question.

 

Petit point : chacun·e peut être médiateurice, il n’y a pas que les modérateurices qui doivent le faire. J’insiste sur ce point,
car on a tendance à créer une dichotomie entre “les utilisateurs” qui peuvent faire preuve d’immaturité, et les modérateurices qui eux seraient paroles d’évangile ou au moins d’autorité. Il est dommage de ne pas avoir davantage de personnes qui se préoccupent d’un entre deux où elles pourraient ménager les 2 parties afin que chacun·e clarifie pacifiquement sa position, ce qui permettrait sûrement d’éviter les actions de modération.

 

— Dans le cadre du fediverse (Framapiaf, PeerTube, Mobilizon,…), vous pouvez également masquer un compte (vous ne verrez plus ses messages dans votre flux mais vous pourrez continuer à discuter avec la personne). Vous pouvez aussi bloquer un compte ou une instance entière depuis votre compte : à ce moment, plus aucune interaction ne sera possible entre vous, jusqu’à ce que vous débloquiez.

 

Référez-vous à la documentation sur les façons de signaler et se protéger suivant les médias utilisés.

 

Et pour conclure, on donne d’autres indications sur la façon de s’auto-gérer sur une partie de la modération.

5 — Actions de modération

Lorsque des comportements ne respectant pas cette charte nous sont signalés, nous agirons dans la mesure de nos moyens et des forces de nos bénévoles.

Les outils de modération à notre disposition dans Framapiaf

Dans certains cas, nous essayerons de prendre le temps de discuter avec les personnes concernées. Mais il est aussi possible que nous exécutions certaines de ces actions sans plus de justification :
— suppression du contenu (des messages, des vidéos, des images, etc.)

— modification (ou demande de modification) de tout ou partie du contenu (avertissement de contenu, suppression d’une partie)

— bannissement de compte ou d’instance, en cas de non-respect des CGU (usage abusif des services) ou de non-respect de cette charte.

N.B. : dans le cadre du fediverse (Framapiaf, PeerTube, Mobilizon, etc.), nous pouvons masquer les contenus problématiques relayés sur notre instance, voire bloquer des instances  problématiques, mais non agir directement sur les autres instances.

La modération est effectuée par des bénévoles (et humain⋅es !), qui n’ont pas toujours le temps et l’énergie de vous donner des justifications. Si vous pensez avoir été banni⋅e ou modéré⋅e injustement : nous sommes parfois injustes ; nous sommes surtout humain⋅e⋅s et donc faillibles. C’est comme ça.

Utiliser nos services implique d’accepter nos conditions d’utilisation, dont cette charte de modération.

Nous faisons ici un récapitulatif des différents pouvoirs que nous avons et surtout que nous n’avons pas :

— le fonctionnement de Mastodon fait que nous pouvons discuter avec des personnes qui ne sont pas inscrites chez nous : nous ne pouvons donc pas supprimer leurs comptes (mais nous pouvons couper leur communication avec nous) ;

— nous sommes principalement des bénévoles, et de ce fait notre temps et énergie est limitée. Aussi, souvent, alors que nous aimerions discuter posément avec chacun·e pour expliquer les tenants et les aboutissants d’une situation… nous n’en avons simplement pas l’énergie, alors nous allons au plus simple. Et c’est frustrant, c’est injuste, mais c’est l’équilibre que nous avons trouvé.

6 — En cas de désaccord

Si la façon dont l’un de nos services est géré ne vous plait pas :

 

— Vous pouvez aller ailleurs.

— Vous pouvez bloquer toute notre instance.

Framasoft ne cherche pas à centraliser les échanges et vous trouverez de nombreux autres hébergeurs proposant des services similaires, avec des conditions qui vous conviendront peut-être mieux. Que les conditions proposées par Framasoft ne vous conviennent pas ou que vous ayez simplement envie de vous inscrire ailleurs, nous essaierons de faciliter votre éventuelle migration (dans la limite de nos moyens et des solutions techniques utilisées).

J’ai dit plus haut que les personnes qui rejoignaient Mastodon ne s’inscrivaient pas toutes chez nous. Cela nous permet par ailleurs de dire aux personnes qui se sont inscrites chez nous “désolés mais vous nous prenez trop d’énergie, trouvez-vous un autre endroit”. Cela ne prive en rien les personnes car elles peuvent s’inscrire ailleurs et avoir accès exactement aux mêmes contenus… mais nous ne sommes plus responsables d’elles !


7 — Évolution de la Charte

Toute « charte de modération » reste imparfaite car il est très difficile de l’adapter à toutes les attentes. Nous restons à votre écoute afin de la faire vivre et de l’améliorer. Pour cela vous pouvez contacter les modérateurs et modératrices pour leur faire part de vos remarques.

Vous pouvez nous faire vos retours, on est pas des zânes ni des têtes de mules.

La suite

Après ce tour sur mon arrivée dans le monde de la modération, la découverte de ce qu’est Mastodon, et ce par quoi nous avons démarré pour structurer une petite équipe de modération face aux difficultés vécues par les salarié·es, le second article de cette série parle de cas concrets.

 

Si vous voulez savoir comment on fait pour gérer les fachos, ça va vous plaire.

 

Illustration : CC-BY David Revoy




Écosocialisme numérique : une alternative aux big tech ?

Je vous propose la traduction, d’abord publiée sur mon blog avec l’aimable autorisation de son auteur Michael Kwet, d’un essai sur lequel je suis récemment tombé. Je pense qu’il mérite toute notre attention, car il pose non seulement un constat politique détaillé et sourcé sur le capitalisme numérique, mais il lui oppose aussi une véritable alternative.

D’accord ou pas d’accord, le fait d’avoir ce genre d’alternative est salutaire. Car si la politique, c’est la capacité à faire des choix, alors nous avons besoin d’avoir plusieurs alternatives entre lesquelles choisir. Autrement nous ne choisissons rien, puisque nous suivons l’unique chemin qui est devant nous. Et nous avançons, peut-être jusqu’au précipice…

L’article initial ainsi que cette traduction sont sous licence Creative Commons, ne vous privez donc pas de les partager si comme moi, vous trouvez cet essai extrêmement stimulant et précieux pour nos réflexions. Dans le même esprit, les commentaires sont à vous si vous souhaitez réagir ou partager d’autres réflexions.

— Louis Derrac


Écosocialisme numérique – Briser le pouvoir des Big Tech

Nous ne pouvons plus ignorer le rôle des Big Tech dans l’enracinement des inégalités mondiales. Pour freiner les forces du capitalisme numérique, nous avons besoin d’un Accord sur les Technologies Numériques 1 écosocialiste

En l’espace de quelques années, le débat sur la façon d’encadrer les Big Tech a pris une place prépondérante et fait l’objet de discussions dans tout le spectre politique. Pourtant, jusqu’à présent, les propositions de réglementation ne tiennent pas compte des dimensions capitalistes, impérialistes et environnementales du pouvoir numérique, qui, ensemble, creusent les inégalités mondiales et poussent la planète vers l’effondrement. Nous devons de toute urgence construire un écosystème numérique écosocialiste, mais à quoi cela ressemblerait-il et comment pouvons-nous y parvenir ?

Cet essai vise à mettre en évidence certains des éléments fondamentaux d’un programme socialiste numérique – un Accord sur les Technologies Numériques (ATN) – centré sur les principes de l’anti-impérialisme, de l’abolition des classes, des réparations et de la décroissance qui peuvent nous faire passer à une économie socialiste du 21e siècle. Il s’appuie sur des propositions de transformation ainsi que sur des modèles existants qui peuvent être mis à l’échelle, et cherche à les intégrer à d’autres mouvements qui prônent des alternatives au capitalisme, en particulier le mouvement de la décroissance. L’ampleur de la transformation nécessaire est énorme, mais nous espérons que cette tentative d’esquisser un Accord sur les Technologies Numériques socialiste suscitera d’autres réflexions et débats sur l’aspect que pourrait prendre un écosystème numérique égalitaire et les mesures à prendre pour y parvenir.

Le capitalisme numérique et les problèmes d’antitrust

Les critiques progressistes du secteur technologique sont souvent tirées d’un cadre capitaliste classique centré sur l’antitrust, les droits de l’homme et le bien-être des travailleur⋅se⋅s. Formulées par une élite d’universitaires, de journalistes, de groupes de réflexion et de décideurs politiques du Nord, elles mettent en avant un programme réformiste américano-eurocentré qui suppose la poursuite du capitalisme, de l’impérialisme occidental et de la croissance économique.

Le réformisme antitrust est particulièrement problématique car il part du principe que le problème de l’économie numérique est simplement la taille et les “pratiques déloyales” des grandes entreprises plutôt que le capitalisme numérique lui-même. Les lois antitrust ont été créées aux États-Unis pour promouvoir la concurrence et limiter les pratiques abusives des monopoles (alors appelés “trusts”) à la fin du XIXe siècle. Compte tenu de l’ampleur et de la puissance des Big Tech contemporaines, ces lois sont de nouveau à l’ordre du jour, leurs défenseurs soulignant que les grandes entreprises sapent non seulement les consommateurs, les travailleur⋅se⋅s et les petites entreprises, mais remettent également en question les fondements de la démocratie elle-même.

Les défenseurs de la législation antitrust affirment que les monopoles faussent un système capitaliste idéal et que ce qu’il faut, c’est un terrain de jeu égal pour que tout le monde puisse se faire concurrence. Pourtant, la concurrence n’est bonne que pour ceux qui ont des ressources à mettre en concurrence. Plus de la moitié de la population mondiale vit avec moins de 7,40 dollars [7,16 euros] par jour, et personne ne s’arrête pour demander comment ils seront “compétitifs” sur le “marché concurrentiel” envisagé par les défenseurs occidentaux de l’antitrust. C’est d’autant plus décourageant pour les pays à revenu faible ou intermédiaire que l’internet est largement sans frontières.

À un niveau plus large, comme je l’ai soutenu dans un article précédent, publié sur ROAR, les défenseurs de l’antitrust ignorent la division globalement inégale du travail et de l’échange de biens et de services qui a été approfondie par la numérisation de l’économie mondiale. Des entreprises comme Google, Amazon, Meta, Apple, Microsoft, Netflix, Nvidia, Intel, AMD et bien d’autres sont parvenues à leur taille hégémonique parce qu’elles possèdent la propriété intellectuelle et les moyens de calcul utilisés dans le monde entier. Les penseurs antitrust, en particulier ceux des États-Unis, finissent par occulter systématiquement la réalité de l’impérialisme américain dans le secteur des technologies numériques, et donc leur impact non seulement aux États-Unis, mais aussi en Europe et dans les pays du Sud 2

Les initiatives antitrust européennes ne sont pas meilleures. Là-bas, les décideurs politiques qui s’insurgent contre les maux des grandes entreprises technologiques tentent discrètement de créer leurs propres géants technologiques. Le Royaume-Uni vise à produire son propre mastodonte de plusieurs milliards de dollars. Le président Emmanuel Macron va injecter 5 milliards d’euros dans des start-ups technologiques dans l’espoir que la France compte au moins 25 “licornes” – des entreprises évaluées à un milliard de dollars ou plus – d’ici 2025. L’Allemagne dépense 3 milliards d’euros pour devenir une puissance mondiale de l’IA et un leader mondial (c’est-à-dire un colonisateur de marché) de l’industrialisation numérique. Pour leur part, les Pays-Bas visent à devenir une “nation de licornes”. Et en 2021, la commissaire à la concurrence de l’Union européenne, Margrethe Vestager, largement applaudie, a déclaré que l’Europe devait bâtir ses propres géants technologiques européens. Dans le cadre des objectifs numériques de l’UE pour 2030, Mme Vestager a déclaré que l’UE visait à “doubler le nombre de licornes européennes, qui est aujourd’hui de 122.”

Au lieu de s’opposer par principe aux grandes entreprises de la tech, les décideurs européens sont des opportunistes qui cherchent à élargir leur propre part du gâteau.

D’autres mesures capitalistes réformistes proposées, telles que l’imposition progressive, le développement des nouvelles technologies en tant que service public3 et la protection des travailleur⋅se⋅s, ne parviennent toujours pas à s’attaquer aux causes profondes et aux problèmes fondamentaux. Le capitalisme numérique progressiste est meilleur que le néolibéralisme. Mais il est d’orientation nationaliste, ne peut empêcher le colonialisme numérique, et conserve un engagement envers la propriété privée, le profit, l’accumulation et la croissance.

L’urgence environnementale et la technologie

Les crises jumelles du changement climatique et de la destruction écologique qui mettent en péril la vie sur Terre constituent d’autres points faibles majeurs pour les réformateurs du numérique.

De plus en plus d’études montrent que les crises environnementales ne peuvent être résolues dans un cadre capitaliste fondé sur la croissance, qui non seulement augmente la consommation d’énergie et les émissions de carbone qui en résultent, mais exerce également une pression énorme sur les systèmes écologiques.

Le PNUE4 estime que les émissions doivent diminuer de 7,6 % chaque année entre 2020 et 2030 pour atteindre l’objectif de maintenir l’augmentation de la température à moins de 1,5 degré. Des évaluations universitaires estiment la limite mondiale d’extraction de matières durables à environ 50 milliards de tonnes de ressources par an, mais à l’heure actuelle, nous en extrayons 100 milliards de tonnes par an, ce qui profite largement aux riches et aux pays du Nord.

La décroissance doit être mise en œuvre dans un avenir immédiat. Les légères réformes du capitalisme vantées par les progressistes continueront à détruire l’environnement. En appliquant le principe de précaution, nous ne pouvons pas nous permettre de risquer une catastrophe écologique permanente. Le secteur des technologies n’est pas un simple spectateur, mais l’un des principaux moteurs de ces tendances.

Selon un rapport récent, en 2019, les technologies numériques – définies comme les réseaux de télécommunications, les centres de données, les terminaux (appareils personnels) et les capteurs IoT (internet des objets) – ont contribué à 4 % des émissions de gaz à effet de serre, et leur consommation d’énergie a augmenté de 9 % par an.

Et aussi élevé que cela puisse paraître, cela sous-estime probablement l’utilisation de l’énergie par le secteur numérique. Un rapport de 2022 a révélé que les géants de la grande technologie ne s’engagent pas à réduire l’ensemble des émissions de leur chaîne de valeur. Des entreprises comme Apple prétendent être “neutres en carbone” d’ici 2030, mais cela “ne comprend actuellement que les opérations directes, qui représentent un microscopique 1,5 % de son empreinte carbone.”

En plus de surchauffer la planète, l’extraction des minéraux utilisés dans l’électronique – tels que le cobalt, le nickel et le lithium – dans des endroits comme la République démocratique du Congo, le Chili, l’Argentine et la Chine est souvent destructive sur le plan écologique.

Et puis il y a le rôle central des entreprises numériques dans le soutien d’autres formes d’extraction non durable. Les géants de la technologie aident les entreprises à explorer et à exploiter de nouvelles sources de combustibles fossiles et à numériser l’agriculture industrielle. Le modèle économique du capitalisme numérique tourne autour de la diffusion de publicités visant à promouvoir la consommation de masse, un facteur clé de la crise environnementale. Dans le même temps, nombre de ses dirigeants milliardaires ont une empreinte carbone des milliers de fois supérieure à celle des consommateurs moyens des pays du Nord.

Les réformateurs du numérique partent du principe que les grandes entreprises technologiques peuvent être découplées des émissions de carbone et de la surconsommation de ressources et, par conséquent, ils concentrent leur attention sur les activités et les émissions particulières de chaque entreprise. Pourtant, la notion de “découplage” de la croissance de l’utilisation des ressources matérielles a été remise en question par les universitaires, qui notent que l’utilisation des ressources suit de près la croissance du PIB à travers l’histoire. Des chercheurs ont récemment constaté que le transfert de l’activité économique vers les services, y compris les industries à forte intensité de connaissances, n’a qu’un potentiel limité de réduction des impacts environnementaux mondiaux en raison de l’augmentation des niveaux de consommation des ménages par les travailleur⋅se⋅s des services.

En résumé, les limites de la croissance changent tout. Si le capitalisme n’est pas écologiquement soutenable, les politiques numériques doivent tenir compte de cette réalité brutale et difficile.

Le socialisme numérique et ses composantes

Dans un système socialiste, la propriété est détenue en commun. Les moyens de production sont directement contrôlés par les travailleur⋅se⋅s eux-mêmes par le biais de coopératives de travailleur⋅se⋅s, et la production est destinée à l’utilisation et aux besoins plutôt qu’à l’échange, au profit et à l’accumulation. Le rôle de l’État est contesté parmi les socialistes, certains soutenant que la gouvernance et la production économique devraient être aussi décentralisées que possible, tandis que d’autres plaident pour un plus grand degré de planification de l’État.

Ces mêmes principes, stratégies et tactiques s’appliquent à l’économie numérique. Un système de socialisme numérique éliminerait progressivement la propriété intellectuelle, socialiserait les moyens de calcul, démocratiserait les données et l’intelligence numérique et confierait le développement et la maintenance de l’écosystème numérique à des communautés du domaine public.

Bon nombre des éléments constitutifs d’une économie numérique socialiste existent déjà. Les logiciels libres et open source (FOSS5) et les licences Creative Commons, par exemple, fournissent les logiciels et les licences nécessaires à un mode de production socialiste. Comme le note James Muldoon dans Platform Socialism, des projets urbains comme DECODE (DEcentralised Citizen-owned Data Ecosystems) fournissent des outils d’intérêt public open source pour des activités communautaires où les citoyens peuvent accéder et contribuer aux données, des niveaux de pollution de l’air aux pétitions en ligne et aux réseaux sociaux de quartier, tout en gardant le contrôle sur les données partagées. Les coopératives de plates-formes, telles que la plate-forme de livraison de nourriture Wings à Londres6, fournissent un modèle de milieu de travail remarquable dans lequel les travailleur⋅se⋅s organisent leur travail par le biais de plates-formes open source détenues et contrôlées collectivement par les travailleur⋅se⋅s eux-mêmes. Il existe également une alternative socialiste aux médias sociaux dans le Fédivers7, un ensemble de réseaux sociaux qui interagissent en utilisant des protocoles partagés, qui facilitent la décentralisation des communications sociales en ligne.

Mais ces éléments de base auraient besoin d’un changement de politique pour se développer. Des projets comme le Fédivers, par exemple, ne sont pas en mesure de s’intégrer à des systèmes fermés ou de rivaliser avec les ressources massives et concentrées d’entreprises comme Facebook. Un ensemble de changements politiques radicaux serait donc nécessaire pour obliger les grands réseaux de médias sociaux à s’interopérer, à se décentraliser en interne, à ouvrir leur propriété intellectuelle (par exemple, les logiciels propriétaires), à mettre fin à la publicité forcée (publicité à laquelle les gens sont soumis en échange de services “gratuits”), à subventionner l’hébergement des données afin que les individus et les communautés – et non l’État ou les entreprises privées – puissent posséder et contrôler les réseaux et assurer la modération du contenu. Cela aurait pour effet d’étouffer les géants de la technologie.

La socialisation de l’infrastructure devrait également être équilibrée par de solides garanties pour la vie privée, des restrictions sur la surveillance de l’État et le recul de l’État sécuritaire carcéral. Actuellement, l’État exploite la technologie numérique à des fins coercitives, souvent en partenariat avec le secteur privé. Les populations immigrées et les personnes en déplacement sont fortement ciblées par un ensemble de caméras, d’avions, de capteurs de mouvements, de drones, de vidéosurveillance et d’éléments biométriques. Les enregistrements et les données des capteurs sont de plus en plus centralisés par l’État dans des centres de recoupement [des données] et des centres de criminalité en temps réel pour surveiller, prévoir et contrôler les communautés. Les communautés marginalisées et racisées ainsi que les militant⋅e⋅s sont ciblés de manière disproportionnée par l’État de surveillance high-tech. Ces pratiques doivent être interdites alors que les militant⋅e⋅s s’efforcent de démanteler et d’abolir ces institutions de violence organisée.

L’accord sur les Technologies Numériques

Les grandes entreprises technologiques, la propriété intellectuelle et la propriété privée des moyens de calcul sont profondément ancrées dans la société numérique et ne peuvent être éteintes du jour au lendemain. Ainsi, pour remplacer le capitalisme numérique par un modèle socialiste, nous avons besoin d’une transition planifiée vers le socialisme numérique.

Les écologistes ont proposé de nouveaux “accords” décrivant la transition vers une économie verte. Les propositions réformistes comme le Green New Deal américain et le Green Deal européen fonctionnent dans un cadre capitaliste qui conserve les méfaits du capitalisme, comme la croissance terminale, l’impérialisme et les inégalités structurelles. En revanche, les modèles écosocialistes, tels que le Red Deal de la Nation Rouge, l’Accord de Cochabamba et la Charte de justice climatique d’Afrique du Sud, offrent de meilleures alternatives. Ces propositions reconnaissent les limites de la croissance et intègrent les principes égalitaires nécessaires à une transition juste vers une économie véritablement durable.

Cependant, ni ces accords rouges ni ces accords verts n’intègrent de plans pour l’écosystème numérique, malgré sa pertinence centrale pour l’économie moderne et la durabilité environnementale. À son tour, le mouvement pour la justice numérique a presque entièrement ignoré les propositions de décroissance et la nécessité d’intégrer leur évaluation de l’économie numérique dans un cadre écosocialiste. La justice environnementale et la justice numérique vont de pair, et les deux mouvements doivent s’associer pour atteindre leurs objectifs.

À cet effet, je propose un Accord sur les Technologies Numériques écosocialiste qui incarne les valeurs croisées de l’anti-impérialisme, de la durabilité environnementale, de la justice sociale pour les communautés marginalisées, de l’autonomisation des travailleur⋅se⋅s, du contrôle démocratique et de l’abolition des classes. Voici dix principes pour guider un tel programme :

1. Veiller à ce que l’économie numérique ne dépasse pas les limites sociales et planétaires

Nous sommes confrontés à une réalité : les pays les plus riches du Nord ont déjà émis plus que leur juste part du budget carbone – et cela est également vrai pour l’économie numérique dirigée par les Big Tech qui profite de manière disproportionnée aux pays les plus riches. Il est donc impératif de veiller à ce que l’économie numérique ne dépasse pas les limites sociales et planétaires. Nous devrions établir une limite scientifiquement informée sur la quantité et les types de matériaux qui peuvent être utilisés et des décisions pourraient être prises sur les ressources matérielles (par exemple, la biomasse, les minéraux, les vecteurs d’énergie fossile, les minerais métalliques) qui devraient être consacrées à tel ou tel usage (par exemple, de nouveaux bâtiments, des routes, de l’électronique, etc.) en telle ou telle quantité pour telle ou telle personne. On pourrait établir des dettes écologiques qui imposent des politiques de redistribution du Nord au Sud, des riches aux pauvres.

2. Supprimer progressivement la propriété intellectuelle

La propriété intellectuelle, notamment sous la forme de droits d’auteur et de brevets, donne aux entreprises le contrôle des connaissances, de la culture et du code qui détermine le fonctionnement des applications et des services, ce qui leur permet de maximiser l’engagement des utilisateurs, de privatiser l’innovation et d’extraire des données et des rentes. L’économiste Dean Baker estime que les rentes de propriété intellectuelle coûtent aux consommateurs 1 000 milliards de dollars supplémentaires par an par rapport à ce qui pourrait être obtenu sur un “marché libre” sans brevets ni monopoles de droits d’auteur. L’élimination progressive de la propriété intellectuelle au profit d’un modèle de partage des connaissances basé sur les biens communs permettrait de réduire les prix, d’élargir l’accès à l’éducation et de l’améliorer pour tous, et fonctionnerait comme une forme de redistribution des richesses et de réparation pour le Sud.

3. Socialiser l’infrastructure physique

Les infrastructures physiques telles que les fermes de serveurs cloud, les tours de téléphonie mobile, les réseaux de fibres optiques et les câbles sous-marins transocéaniques profitent à ceux qui les possèdent. Il existe des initiatives de fournisseurs d’accès à internet gérés par les communautés et des réseaux maillés sans fil qui peuvent aider à placer ces services entre les mains des communautés. Certaines infrastructures, comme les câbles sous-marins, pourraient être entretenues par un consortium international qui les construirait et les entretiendrait au prix coûtant pour le bien public plutôt que pour le profit.

4. Remplacer les investissements privés de production par des subventions et une production publiques.

La coopérative numérique britannique de Dan Hind est peut-être la proposition la plus détaillée sur la façon dont un modèle socialiste de production pourrait fonctionner dans le contexte actuel. Selon ce programme, “les institutions du secteur public, y compris le gouvernement local, régional et national, fourniront des lieux où les citoyens et les groupes plus ou moins cohésifs peuvent se rassembler et sécuriser une revendication politique.” Améliorée par des données ouvertes, des algorithmes transparents, des logiciels et des plateformes à code source ouvert et mise en œuvre par une planification participative démocratique, une telle transformation faciliterait l’investissement, le développement et la maintenance de l’écosystème numérique et de l’économie au sens large.

Si Hind envisage de déployer ce système sous la forme d’un service public dans un seul pays – en concurrence avec le secteur privé -, il pourrait à la place constituer une base préliminaire pour la socialisation complète de la technologie. En outre, il pourrait être élargi pour inclure un cadre de justice globale qui fournit des infrastructures en guise de réparations au Sud, de la même manière que les initiatives de justice climatique font pression sur les pays riches pour qu’ils aident le Sud à remplacer les combustibles fossiles par des énergies vertes.

5. Décentraliser Internet

Les socialistes prônent depuis longtemps la décentralisation de la richesse, du pouvoir et de la gouvernance entre les mains des travailleur⋅se⋅s et des communautés. Des projets comme FreedomBox8 proposent des logiciels libres et gratuits pour alimenter des serveurs personnels peu coûteux qui peuvent collectivement héberger et acheminer des données pour des services comme le courrier électronique, les calendriers, les applications de chat, les réseaux sociaux, etc. D’autres projets comme Solid permettent aux gens d’héberger leurs données dans des “pods” qu’ils contrôlent. Les fournisseurs d’applications, les réseaux de médias sociaux et d’autres services peuvent alors accéder aux données à des conditions acceptables pour les utilisateurs, qui conservent le contrôle de leurs données. Ces modèles pourraient être étendus pour aider à décentraliser l’internet sur une base socialiste.

6. Socialiser les plateformes

Les plateformes Internet comme Uber, Amazon et Facebook centralisent la propriété et le contrôle en tant qu’intermédiaires privés qui s’interposent entre les utilisateurs de leurs plateformes. Des projets comme le Fédivers et LibreSocial fournissent un modèle d’interopérabilité qui pourrait potentiellement s’étendre au-delà des réseaux sociaux. Les services qui ne peuvent pas simplement s’interopérer pourraient être socialisés et exploités au prix coûtant pour le bien public plutôt que pour le profit et la croissance.

7. Socialiser l’intelligence numérique et les données

Les données et l’intelligence numérique qui en découle sont une source majeure de richesse et de pouvoir économique. La socialisation des données permettrait au contraire d’intégrer des valeurs et des pratiques de respect de la vie privée, de sécurité, de transparence et de prise de décision démocratique dans la manière dont les données sont collectées, stockées et utilisées. Elle pourrait s’appuyer sur des modèles tels que le projet DECODE à Barcelone et à Amsterdam.

8. Interdire la publicité forcée et le consumérisme des plateformes

La publicité numérique diffuse un flux constant de propagande d’entreprise conçue pour manipuler le public et stimuler la consommation. De nombreux services “gratuits” sont alimentés par des publicités, ce qui stimule encore plus le consumérisme au moment même où il met la planète en danger. Des plateformes comme Google Search et Amazon sont construites pour maximiser la consommation, en ignorant les limites écologiques. Au lieu de la publicité forcée, les informations sur les produits et services pourraient être hébergées dans des répertoires, auxquels on accèderait de manière volontaire.

9. Remplacer l’armée, la police, les prisons et les appareils de sécurité nationale par des services de sûreté et de sécurité gérés par les communautés.

La technologie numérique a augmenté le pouvoir de la police, de l’armée, des prisons et des agences de renseignement. Certaines technologies, comme les armes autonomes, devraient être interdites, car elles n’ont aucune utilité pratique au-delà de la violence. D’autres technologies basées sur l’IA, dont on peut soutenir qu’elles ont des applications socialement bénéfiques, devraient être étroitement réglementées, en adoptant une approche conservatrice pour limiter leur présence dans la société. Les militant⋅e⋅s qui font pression pour réduire la surveillance de masse de l’État devraient se joindre à ceux qui militent pour l’abolition de la police, des prisons, de la sécurité nationale et du militarisme, en plus des personnes visées par ces institutions.

10. Mettre fin à la fracture numérique

La fracture numérique fait généralement référence à l’inégalité d’accès individuel aux ressources numériques telles que les appareils et les données informatiques, mais elle devrait également englober la manière dont les infrastructures numériques, telles que les fermes de serveurs cloud et les installations de recherche de haute technologie, sont détenues et dominées par les pays riches et leurs entreprises. En tant que forme de redistribution des richesses, le capital pourrait être redistribué par le biais de la fiscalité et d’un processus de réparation afin de subventionner les appareils personnels et la connectivité Internet pour les pauvres du monde entier et de fournir des infrastructures, telles que l’infrastructure cloud et les installations de recherche de haute technologie, aux populations qui ne peuvent pas se les offrir.

Comment faire du socialisme numérique une réalité

Des changements radicaux sont nécessaires, mais il y a un grand écart entre ce qui doit être fait et où nous sommes aujourd’hui. Néanmoins, nous pouvons et devons prendre certaines mesures essentielles.

Tout d’abord, il est essentiel de sensibiliser, de promouvoir l’éducation et d’échanger des idées au sein des communautés et entre elles afin qu’ensemble nous puissions co-créer un nouveau cadre pour l’économie numérique. Pour ce faire, une critique claire du capitalisme et du colonialisme numériques est nécessaire.

Un tel changement sera difficile à mettre en place si la production concentrée de connaissances reste intacte. Les universités d’élite, les sociétés de médias, les groupes de réflexion, les ONG et les chercheurs des grandes entreprises technologiques du Nord dominent la conversation et fixent l’ordre du jour de la correction du capitalisme, limitant et restreignant les paramètres de cette conversation. Nous devons prendre des mesures pour leur ôter leur pouvoir, par exemple en abolissant le système de classement des universités, en démocratisant la salle de classe et en mettant fin au financement des entreprises, des philanthropes et des grandes fondations. Les initiatives visant à décoloniser l’éducation – comme le récent mouvement de protestation étudiant #FeesMustFall en Afrique du Sud et la Endowment Justice Coalition à l’université de Yale – sont des exemples des mouvements qui seront nécessaires9.

Deuxièmement, nous devons connecter les mouvements de justice numérique avec d’autres mouvements de justice sociale, raciale et environnementale. Les militant⋅e⋅s des droits numériques devraient travailler avec les écologistes, les abolitionnistes, les défenseurs de la justice alimentaire, les féministes et autres. Une partie de ce travail est déjà en cours – par exemple, la campagne #NoTechForIce menée par Mijente, un réseau de base dirigé par des migrants, remet en question l’utilisation de la technologie pour contrôler l’immigration aux États-Unis – mais il reste encore beaucoup à faire, notamment en ce qui concerne l’environnement.

Troisièmement, nous devons intensifier l’action directe et l’agitation contre les Big Tech et l’empire américain. Il est parfois difficile de mobiliser un soutien derrière des sujets apparemment ésotériques, comme l’ouverture d’un centre de cloud computing dans le Sud (par exemple en Malaisie) ou l’imposition de logiciels des Big Tech dans les écoles (par exemple en Afrique du Sud). Cela est particulièrement difficile dans le Sud, où les gens doivent donner la priorité à l’accès à la nourriture, à l’eau, au logement, à l’électricité, aux soins de santé et aux emplois. Cependant, la résistance réussie à des développements tels que Free Basics de Facebook en Inde et la construction du siège d’Amazon sur des terres indigènes sacrées au Cap, en Afrique du Sud, montrent la possibilité et le potentiel de l’opposition civique.

Ces énergies militantes pourraient aller plus loin et adopter les tactiques de boycott, désinvestissement et sanctions (BDS), que les militant⋅e⋅s anti-apartheid ont utilisées pour cibler les sociétés informatiques vendant des équipements au gouvernement d’apartheid en Afrique du Sud. Les militant⋅e⋅s pourraient créer un mouvement #BigTechBDS, qui ciblerait cette fois l’existence des grandes entreprises technologiques. Les boycotts pourraient annuler les contrats du secteur public avec les géants de la technologie et les remplacer par des solutions socialistes de technologies du peuple10. Des campagnes de désinvestissement pourraient forcer des institutions comme les universités à se désinvestir des pires entreprises technologiques. Et les militant⋅e⋅s pourraient faire pression sur les États pour qu’ils appliquent des sanctions ciblées aux entreprises technologiques américaines, chinoises et d’autres pays.

Quatrièmement, nous devons œuvrer à la création de coopératives de travailleur⋅se⋅s de la tech11 qui peuvent être les éléments constitutifs d’une nouvelle économie socialiste numérique. Il existe un mouvement de syndicalisation des grandes entreprises technologiques, qui peut contribuer à protéger les travailleur⋅se⋅s de la technologie en cours de route. Mais syndiquer les entreprises des Big Tech revient à syndiquer les compagnies des Indes orientales, le fabricant d’armes Raytheon, Goldman Sachs ou Shell – ce n’est pas de la justice sociale et cela n’apportera probablement que de légères réformes. De même que les militant⋅e⋅s sud-africain⋅e⋅s de la lutte contre l’apartheid ont rejeté les principes de Sullivan – un ensemble de règles et de réformes en matière de responsabilité sociale des entreprises qui permettaient aux entreprises américaines de continuer à faire des bénéfices dans l’Afrique du Sud de l’apartheid – et d’autres réformes légères, en faveur de l’étranglement du système de l’apartheid, nous devrions avoir pour objectif d’abolir complètement les Big Tech et le système du capitalisme numérique. Et cela nécessitera de construire des alternatives, de s’engager avec les travailleur⋅se⋅s de la tech, non pas pour réformer l’irréformable, mais pour aider à élaborer une transition juste pour l’industrie.

Enfin, les personnes de tous horizons devraient travailler en collaboration avec les professionnels de la technologie pour élaborer le plan concret qui constituerait un Accord des Technologies Numériques. Ce projet doit être pris aussi au sérieux que les “accords” verts actuels pour l’environnement. Avec un Accord des Technologies Numériques, certains travailleur⋅se⋅s – comme ceux du secteur de la publicité – perdraient leur emploi, il faudrait donc prévoir une transition équitable pour les travailleur⋅se⋅s de ces secteurs. Les travailleur⋅se⋅s, les scientifiques, les ingénieur⋅e⋅s, les sociologues, les avocat⋅e⋅s, les éducateur⋅ice⋅s, les militant⋅e⋅s et le grand public pourraient réfléchir ensemble à la manière de rendre cette transition pratique.

Aujourd’hui, le capitalisme progressiste est largement considéré comme la solution la plus pratique à la montée en puissance des Big Tech. Pourtant, ces mêmes progressistes n’ont pas su reconnaître les méfaits structurels du capitalisme, la colonisation technologique menée par les États-Unis et l’impératif de décroissance. Nous ne pouvons pas brûler les murs de notre maison pour nous garder au chaud. La seule solution pratique est de faire ce qui est nécessaire pour nous empêcher de détruire notre seule et unique maison – et cela doit intégrer l’économie numérique. Le socialisme numérique, concrétisé par un Accord des Technologies Numériques, offre le meilleur espoir dans le court laps de temps dont nous disposons pour un changement radical, mais il devra être discuté, débattu et construit. J’espère que cet article pourra inviter les lecteur⋅ice⋅s et d’autres personnes à collaborer dans cette direction.

Sur l’auteur

Michael Kwet a obtenu son doctorat en sociologie à l’université de Rhodes et il est membre invité du projet de société de l’information à la Yale Law School. Il est l’auteur de Digital colonialism : US empire and the new imperialism in the Global South, hôte du podcast Tech Empire, et a été publié par VICE News, The Intercept, The New York Times, Al Jazeera et Counterpunch.

Retrouvez Micheal sur Twitter : @Michael_Kwet.

Sur la traduction

Ce texte a été d’abord traduit avec Deepl, et ensuite revu, corrigé et commenté par moi-même. N’étant pas un traducteur professionnel, j’accueillerai avec plaisir les propositions d’amélioration.

Illustration à la une par Zoran Svilar

 




De la pub ? Où ça ?

Nous, les geeks, nous bloquons les pubs et nous n’y pensons plus.

Le choc est d’autant plus grand quand nous devons utiliser l’ordinateur de quelqu’un d’autre.

« Mais comment faites-vous pour supporter une telle nuisance ? » avons-nous envie de hurler.
Eh bien, c’est simple : quand on ne sait pas s’en protéger, on vit avec le vacarme.
Et la majorité des gens que nous côtoyons doivent subir cet incessant bruit de fond publicitaire.

Cet article a pour ambition de recenser les méthodes pour s’éviter l’agression publicitaire sur Internet.
Partagez-le, commentez-le, augmentez-le ! C’est libre.

 

Sur mobile

Un bon conseil au passage : arrêtez d’appeler «téléphone» le parallélépipède que vous promenez partout et qui est plus puissant qu’un PC d’il y a cinq ans. Vous vous rendrez compte que la plupart du temps il vous sert à plein d’autres choses qu’à téléphoner. C’est un ordinateur à part entière, qui sait à tout moment où vous êtes et ce que vous faites. C’est un bon copain très serviable mais c’est aussi un super espion.

L’appeler «ordiphone» ou «smartphone» si vous aimez les anglicismes, c’est déjà prendre conscience de ses capacités.

Sur Android

Fuyez les applications

Utilisez le navigateur et pas les applications (Fennec sur F-droid ou Firefox sur le Play Store/Apple Store).

Pourquoi ?

Le navigateur peut filtrer correctement les cookies, recevoir des réglages de confidentialité plus fins, embarquer des extensions protectrices.

Les applications, elles, sont là pour capter un maximum de données et vous garder en ligne autant que possible. Même si elles ont des réglages de confidentialité, vous ne serez jamais en mesure de vérifier que ces réglages fonctionnent, puisque le code des applications est fermé.

Le navigateur Firefox (ou Fennec, donc) est un logiciel libre dont le code peut être validé par des experts.

Privilégiez les versions web mobiles lorsque c’est possible, et épinglez le site : ça ressemble à une appli mais ça prend moins de place !

Extensions et réglages

  • Installer uBlock Origin dans votre navigateur, c’est le service minimum pour être un peu tranquille.
  • Choisir «standard» voire « stricte » comme «Protection renforcée» dans les paramètres du navigateur.

Si vous voulez des applis quand même (après tout, c’est ça aussi, la liberté)

Renseignez-vous sur leur propension à vous espionner grâce aux travaux de l’excellente association française Exodus Privacy dont on ne dira jamais assez de bien.

 

Installez un autre magasin d’application pour y trouver des apps moins invasives.

Allez chercher l’apk de F-droid, le «magasin d’applications» soutenu par la Free Software Foundation (https://f-droid.org/fr/) et dites à votre Android qu’il peut lui faire confiance.

Attention, toutefois : certaines applis ne sont pas mûres, n’installez pas n’importe quoi.

 

Youtube sans pub

  • NewPipe sur F-droid

 Twitter sans Twitter

  • Fritter

Twitch sans Twitch

  • Twire

Reddit sans…

  • RedReader

 

Et pensez aux réseaux sociaux alternatifs comme Mastodon.

S’éviter les appels de télémarketing

L’application Yet Another Call Blocker consulte une liste noire collaborative à chaque appel avant de le laisser passer. C’est un casse-pied qui veut vous parler de votre CPF ? Votre téléphone ne sonne même pas, l’indésirable est détecté et viré sans vous déranger. S’il ne l’est pas vous le signalez et tout le monde est désormais protégé.

Copie d'écran de la page de présentation de l'application <em>Yen Another Call Blocker</em>

 

Filtrer le trafic Internet

Utilisez des DNS publics qui incluent un filtrage, ou des solutions locales.

C’est quoi un DNS ?

Les «serveurs de noms de domaine» transforment un domaine (une adresse à peu près intelligible pour nous comme framasoft.org) en adresse utilisable par une machine sur Internet («2a01:4f8:141:3421::212»). Partie mise à jour grâce au commentaire de Stéphane Bortzmeyer.

 

Pourquoi ça marche ?

Si vous donnez une fausse adresse à la machine, la pub n’arrive plus ! Un peu comme si vous mettiez une fausse boite aux lettres reliée directement à votre poubelle à la disposition des personnes qui distribuent des prospectus dans votre quartier.

Vous libérez même de la bande passante sur votre réseau et du temps de calcul à l’affichage des sites puisque votre appareil ne télécharge même pas les contenus publicitaires, qui pèsent généralement lourd dans une page web (images, vidéo).

  • dns.adguard.com
  • adblock.doh.mullvad.net
  • Blocklists locales via intégration VPN
  • Blokada (à la portée de tout le monde !)
  • TrackerControl (sur F-droid, assez didactique)
  • personalDNSFilter

Copie d’écran du réglage «DNS privé» sur Android. Un nom d »hôte personnalisé est saisi (ici dns.adguard.com).

 

Gérer les permissions aux applications

Les Android récents permettent par exemple d’autoriser une permission ponctuellement.

 

Si vous avez encore un compte Google

Réglez-le pour limiter la surveillance. Le mieux, c’est encore de ne pas en avoir.

On a l’impression que c’est obligatoire quand on configure un nouvel ordiphone (tout est fait pour vous donner cette impression, c’est ce qu’on appelle une interface déloyale, en anglais dark pattern), mais on peut passer cette étape ! Il suffit de cliquer sur «ignorer».

Configurer le compte Google pour désactiver le ciblage publicitaire : https://web.archive.org/web/20210224202916/https://sautenuage.com/de-vie-privee-sur-android-sans-rien-installer/

Dégoogliser son ordiphone

Vous pouvez parfaitement utiliser un Android sans la surcouche propriétaire de Google ou du fabricant, en installant par exemple Lineage OS ou /e/ OS de Murena.

Attention, «flasher» son engin est une opération délicate, vous risquez de le «briquer», c’est-à-dire de le transformer en presse-papier un peu cher.

Ne le faites pas si vous n’êtes pas à l’aise.

 

Cerise sur le gâteau : débarrassé de la surcouche Google, votre ordiphone sera plus véloce, moins poussif, et tiendra mieux la batterie ! Une bonne façon de faire durer le matériel (le mien va fêter ses huit ans !).

 

Autre solution pour un matériel qui dure : l’acheter en reconditionné sur https://murena.com/fr/

Il aura été configuré par des pros. Murena s’engage sur la protection de votre vie privée.

 

Sur iOS

Apple se targue de protéger vos données. Mais il y a au moins une entreprise qui y accède : Apple !

Et puis la firme a beau… frimer (on ne s’interdit pas les jeux de mots faciles, chez Framasoft), elle est quand même soumises aux lois liberticides américaines.

 

Gérer qui a accès aux permissions spécifiques

  • Consulter la section « Confidentialité de l’app » des fiches AppStore

 

Sur un ordinateur

Utiliser un navigateur bienveillant, la base : Firefox et rien d’autre

Avec Firefox, dans les Préférences, aller à l’onglet « vie privée et sécurité » : plusieurs trucs sont à régler pour se garantir un peu de tranquillité.

accès en trois clics aux paramètres de Firefox (capture d'écran) Édition > Paramètres > Vie privée et sécurité

Firefox : paramètres contre le pistage
Firefox prévoit trois réglages de protection de la vie privée : standard, stricte, ou personnalisée. La protection standard est suffisante pour la plupart des usages, mais vous pouvez pousser la vôtre en mode « strict ». Ne vous ennuyez pas avec le réglage personnalisé si vous n’y comprenez rien.

 

Vous pouvez paramétrer Firefox pour qu’il envoie un signal « ne pas me pister » (Do Not Track en anglais, vous le verrez abrégé en DNT parfois) et pour supprimer les cookies à intervalle régulier, sachant que vous pouvez instaurer des exceptions sur les sites auxquels vous faites confiance.

 

Firefox vous demande votre accord pour collecter des données anonymisées sur votre usage du logiciel. Vous pouvez refuser. En revanche sur la partie Sécurité, cochez tout.

 

 

copie d'écran des paramètres de chiffrement de Firefox
Le protocole HTTPS permet de chiffrer les relations entre le navigateur et le serveur, ce qui signifie qu’une personne qui intercepte le flux ne peut pas le lire (c’est le fameux petit cadenas dont vous entendez souvent parler). Mais ce n’est pas parce que la liaison est chiffrée que le site est un site de confiance. En gros ça garantit que l’enveloppe est fermée, pas que l’enveloppe ne contient pas des saloperies.

 

Les extensions que vous pouvez installer :

  • uBlock Origin
  • Privacy Badger
  • SponsorBlock
  • Privacy Redirect
  • Cookie Autodelete
  • Umatrix
  • Decentraleyes

Ne le faites pas sans comprendre ! Lisez la documentation.

 

Youtube sans pub

  • Invidious
  • Piped (plus récent, efficace)
  • FreeTube

Twitter sans Twitter

  • Nitter

 

DNS de filtrage, fichier hosts customisé

Comment ça marche ?

Les publicités ne sont généralement pas hébergées sur le serveur du site que vous consultez. Elles sont sur un autre site et téléchargées à la volée. En filtrant via le DNS, on dit à l’ordi d’aller chercher les pubs dans un «trou noir informatique». Le fichier «hosts» de votre système peut lister des adresses de sites et les rediriger vers un espace inexistant de votre ordinateur. En gros on truque l’annuaire ; votre navigateur ne trouve pas les publicités, il ne les affiche pas. Simple et efficace. Ce qui est drôle, c’est que le concepteur du site ne sait pas que vous naviguez sans voir ses pubs. 🙂

 

pi-hole

À installer sur  un nano-ordinateur RaspberryPi dont l’un des spécialistes est français, cocorico, ou un ordinateur recyclé,  pi-hole bloque la publicité et les pisteurs sur tout le réseau. Tout ce qui se connecte à votre box est débarrassé de la publicité et des mouchards !

 

Attention toutefois, en faisant ça vous contrevenez pour votre PC à un des principes d’Internet : la neutralité des tuyaux. Vous ne verrez plus rien en provenance du site tiers dont le trafic est bloqué. En général, ce sont des régies publicitaires, donc on peut choisir de s’en moquer, mais il faut le savoir.

Au pire vous verrez un espace blanc marqué « publicité », au mieux la page se réorganisera et seul le contenu issu du site d’origine apparaîtra.

Mode Expert : changez de système d’exploitation

Une méthode radicale (mais qui n’exclut pas la plupart des autres mentionnées ci-dessus) : passez à un système libre, qui ne trichera pas avec vous pour vous imposer des pubs sous prétexte de vous tenir au courant de l’actualité (oui, Windows, on te voit !).

Les différentes distributions GNU/Linux qui existent sont désormais faciles à installer et à utiliser.

La plupart des geeks installent désormais une Ubuntu ou une Linux Mint sur les ordinateurs familiaux au lieu de réparer le Windows qui plante sans cesse et qui s’encrasse avec le temps. Le changement n’est pas si difficile pour les «clients», qui souvent n’utilisent leur ordinateur que pour aller sur Internet gérer leur courrier et leurs réseaux sociaux (et croyez-nous c’est l’expérience qui parle !). Vérifiez quand même que Papy ou Tantine n’a pas une appli fétiche qui ne tourne que sous Windows et installez un double-démarrage par sécurité.

Au pire si quelqu’un fait une bêtise ça se dépanne à distance dans la majorité des cas (avec par exemple le logiciel AnyDesk qui n’est pas libre mais dont le fonctionnement est compréhensible par le moins dégourdi des cousins).

Mise à jour : on nous signale dans les commentaires une alternative libre et légère à AnyDesk : DWAgent via https://dwservice.net

Si vous ne comprenez pas certains mots du paragraphe ci-dessus, ne vous lancez pas, ou faites-vous aider par une personne compétente.

Difficile de vous conseiller une «distro» plutôt qu’une autre sans déclencher une guerre de chapelles dans les commentaires (on recherche ici la simplicité et l’accessibilité), mais pour détailler les deux citées plus haut :

  • Ubuntu est de plus en plus gangrenée par des choix discutables, mais elle dispose d’une solide base documentaire en français, est stable et conçue pour plaire au plus grand nombre. Debian, sur laquelle Ubuntu est basée, est plus stricte dans ses choix, pas forcément adaptée aux personnes qui débutent.
  • Linux Mint est jolie et fonctionne bien.

Si vous le faites pour «libérer» une relation, installez-lui une distribution que vous connaissez bien, pour pouvoir la guider en cas de besoin.

 

Oui mais la pub

Vous tomberez parfois sur des encarts qui vous culpabiliseront : «notre site ne vit que de la publicité, c’est le prix à payer si vous voulez avoir du contenu de qualité, nos enfants ont faim à cause de vous, vous mettez en danger nos emplois», etc.

Alors, deux-trois trucs à ce sujet :

  • La dérive (c’en est une) devient proprement insupportable, par exemple dans Youtube. Créateurs, créatrices de contenus, si la pub vous fait vivre, travaillez avec des gens sérieux qui proposent des contenus en lien avec votre site et qui n’espionnent pas les internautes. Bref, c’est pas nous qu’on a commencé, nous ne faisons que nous défendre.
  • D’autres modèles économiques existent, mais les pratiques des sites depuis des années ont instauré un fonctionnement «apparemment gratuit» des contenus avec des pubs insidieuses et imposées. Un média qui vit de la publicité peut-il sortir un scoop à charge contre son principal annonceur ? Figurez-vous qu’avant Internet les gens achetaient le journal (incroyable), voire avaient des abonnements. Maintenant qu’on se rebiffe ça couine. Fallait peut-être y penser avant ?
  • Du contenu de qualité, vraiment ? Vous voulez qu’on en parle, mesdames et messieurs les pros du putaclic ? Ce qu’on voit de plus en plus, ce sont des internautes qui doivent choisir entre accepter les cookies ou renoncer à un site, et qui finalement se disent que le contenu ne leur est pas si indispensable que ça.

 

Copie d'écran d'un article annonçant le décès de la chienne de Paul Pogba. Le fait qu'il s'agit de son Yorkshire n'est révélé qu'en toute fin du texte qui joue sur l'ambiguïté en parlant de "princesse".
Source : https://news.ohmymag.com Avouez que ça vous a démangé de cliquer !

 

 

Pour aller plus loin

  • SebSauvage est un gars bien

Seb est un passionné qui compile depuis des années des astuces sur son site. Abonnez-vous ! (y’a pas de pub)

https://sebsauvage.net/wiki/doku.php?id=dns-blocklist

https://sebsauvage.net/wiki/doku.php?id=dnsfilter

  • Le site Bloque la Pub porte bien son nom.

https://bloquelapub.net/

  • Articles précédents sur la publicité dans le Framablog

Ne plus supporter la pub sur le Web

Non, je ne veux pas télécharger votre &@µ$# d’application !

Résistons à la pub sur Internet #bloquelapubnet




Apple veut protéger les enfants mais met en danger le chiffrement

Apple vient de subir un tir de barrage nourri de la part des défenseurs de la vie privée alors que ce géant du numérique semble animé des intentions les plus louables…

Qui oserait contester un dispositif destiné à éradiquer les contenus incitant à des abus sexuels sur les enfants ? Après tout, les autres géants du numérique, Google et Microsoft entre autres, ont déjà des outils de détection pour ces contenus (voir ici et )… Alors comment se fait-il que la lettre ouverte que nous traduisons ici ait réuni en quelques heures autant de signatures d’organisations comme d’individus, dont Edward Snowden ?

Deux raisons au moins.

D’abord, Apple a construit sa réputation de protecteur intransigeant de la vie privée au point d’en faire un cheval de bataille de sa communication : « Ce qui se passe dans votre iPhone reste sur votre iPhone ». Souvenons-nous aussi qu’en février 2016 Apple a fermement résisté aux pressions du FBI et de la NSA qui exigeaient que l’entreprise fournisse un logiciel de déchiffrement des échanges chiffrés (un bon résumé par ici). La surprise et la déception sont donc grandes à l’égard d’un géant qui il y a quelques années à peine co-signait une lettre contre la loi anti-chiffrement que des sénateurs états-uniens voulaient faire passer.

Mais surtout, et c’est sans doute plus grave, Apple risque selon les experts de mettre en péril le chiffrement de bout en bout. Alors oui, on entend déjà les libristes ricaner doucement que c’est bien fait pour les zélateurs inconditionnels d’Apple et qu’ils n’ont qu’à renoncer à leur dispendieuse assuétude… mais peu nous importe ici. Le dispositif envisagé par Apple aura forcément des répercussions sur l’ensemble de l’industrie numérique qui ne mettra que quelques mois pour lui emboîter le pas, et en fin de compte, toute personne qui souhaite protéger sa vie privée sera potentiellement exposée aux risques que mentionnent les personnalités citées dans cette lettre ouverte…

 

Lettre ouverte contre la technologie de l’analyse du contenu d’Apple qui porte atteinte à la vie privée

Source : https://appleprivacyletter.com/

Des experts en sécurité et en protection de la vie privée, des spécialistes en cryptographie, des chercheurs, des professeurs, des experts juridiques et des utilisateurs d’Apple dénoncent le projet lancé par Apple qui va saper la vie privée des utilisateurs et le chiffrement de bout en bout.

Cher Apple,

Le 5 août 2021, Apple a annoncé de nouvelles mesures technologiques censées s’appliquer à la quasi-totalité de ses appareils sous le prétexte affiché de « Protections étendues pour les enfants ».

Bien que l’exploitation des enfants soit un problème sérieux, et que les efforts pour la combattre relèvent incontestablement d’intentions louables, la proposition d’Apple introduit une porte dérobée qui menace de saper les protections fondamentales de la vie privée pour tous les utilisateurs de produits Apple.

La technologie que se propose d’employer Apple fonctionne par la surveillance permanente des photos enregistrées ou partagées sur l’iPhone, l’iPad ou le Mac. Un système détecte si un certain nombre de photos répréhensibles sont repérées dans le stockage iCloud et alerte les autorités. Un autre système avertit les parents d’un enfant si iMessage est utilisé pour envoyer ou recevoir des photos qu’un algorithme d’apprentissage automatique considère comme contenant de la nudité.

Comme les deux vérifications sont effectuées sur l’appareil de l’utilisatrice, elles ont le potentiel de contourner tout chiffrement de bout en bout qui permettrait de protéger la vie privée de chaque utilisateur.

Dès l’annonce d’Apple, des experts du monde entier ont tiré la sonnette d’alarme car les dispositifs proposés par Apple pourraient transformer chaque iPhone en un appareil qui analyse en permanence toutes les photos et tous les messages qui y passent pour signaler tout contenu répréhensible aux forces de l’ordre, ce qui crée ainsi un précédent où nos appareils personnels deviennent un nouvel outil radical de surveillance invasive, avec très peu de garde-fous pour empêcher d’éventuels abus et une expansion déraisonnable du champ de la surveillance.

L’Electronic Frontier Foundation a déclaré « Apple ouvre la porte à des abus plus importants » :

« Il est impossible de construire un système d’analyse côté client qui ne puisse être utilisé que pour les images sexuellement explicites envoyées ou reçues par des enfants. En conséquence, même un effort bien intentionné pour construire un tel système va rompre les promesses fondamentales du chiffrement de la messagerie elle-même et ouvrira la porte à des abus plus importants […] Ce n’est pas une pente glissante ; c’est un système entièrement construit qui n’attend qu’une pression extérieure pour apporter le plus petit changement. »

Le Center for Democracy and Technology a déclaré qu’il était « profondément préoccupé par les changements projetés par Apple qui créent en réalité de nouveaux risques pour les enfants et tous les utilisateurs et utilisatrices, et qui représentent un tournant important par rapport aux protocoles de confidentialité et de sécurité établis de longue date » :

« Apple remplace son système de messagerie chiffrée de bout en bout, conforme aux normes de l’industrie, par une infrastructure de surveillance et de censure, qui sera vulnérable aux abus et à la dérive, non seulement aux États-Unis, mais dans le monde entier », déclare Greg Nojeim, codirecteur du projet Sécurité et surveillance de la CDT. « Apple devrait abandonner ces changements et rétablir la confiance de ses utilisateurs dans la sécurité et l’intégrité de leurs données sur les appareils et services Apple. »

Le Dr. Carmela Troncoso, experte en recherche sur la sécurité et la vie privée et professeur à l’EPFL à Lausanne, en Suisse, a déclaré que « le nouveau système de détection d’Apple pour les contenus d’abus sexuel sur les enfants est promu sous le prétexte de la protection de l’enfance et de la vie privée, mais il s’agit d’une étape décisive vers une surveillance systématique et un contrôle généralisé ».

Matthew D. Green, un autre grand spécialiste de la recherche sur la sécurité et la vie privée et professeur à l’université Johns Hopkins de Baltimore, dans le Maryland, a déclaré :

« Hier encore, nous nous dirigions peu à peu vers un avenir où de moins en moins d’informations devaient être contrôlées et examinées par quelqu’un d’autre que nous-mêmes. Pour la première fois depuis les années 1990, nous récupérions notre vie privée. Mais aujourd’hui, nous allons dans une autre direction […] La pression va venir du Royaume-Uni, des États-Unis, de l’Inde, de la Chine. Je suis terrifié à l’idée de ce à quoi cela va ressembler. Pourquoi Apple voudrait-elle dire au monde entier : « Hé, nous avons cet outil » ?

Sarah Jamie Lewis, directrice exécutive de l’Open Privacy Research Society, a lancé cet avertissement :

« Si Apple réussit à introduire cet outil, combien de temps pensez-vous qu’il faudra avant que l’on attende la même chose des autres fournisseurs ? Avant que les applications qui ne le font pas ne soient interdites par des murs de protection ? Avant que cela ne soit inscrit dans la loi ? Combien de temps pensez-vous qu’il faudra avant que la base des données concernées soit étendue pour inclure les contenus « terroristes » ? « les contenus « préjudiciables mais légaux » ? « la censure spécifique d’un État ? »

Le Dr Nadim Kobeissi, chercheur sur les questions de sécurité et de confidentialité, a averti :

« Apple vend des iPhones sans FaceTime en Arabie saoudite, car la réglementation locale interdit les appels téléphoniques chiffrés. Ce n’est qu’un exemple parmi tant d’autres où Apple s’est plié aux pressions locales. Que se passera-t-il lorsque la réglementation locale en Arabie Saoudite exigera que les messages soient scannés non pas pour des abus sexuels sur des enfants, mais pour homosexualité ou pour offenses à la monarchie ? »

La déclaration de l’Electronic Frontier Foundation sur la question va dans le même sens que les inquiétudes exposées ci-dessus et donne des exemples supplémentaires sur la façon dont la technologie proposée par Apple pourrait conduire à des abus généralisés :

« Prenez l’exemple de l’Inde, où des règlements récemment adoptés prévoient des obligations dangereuses pour les plateformes d’identifier l’origine des messages et d’analyser préalablement les contenus. En Éthiopie, de nouvelles lois exigeant le retrait des contenus de « désinformation » sous 24 heures peuvent s’appliquer aux services de messagerie. Et de nombreux autres pays – souvent ceux dont le gouvernement est autoritaire – ont adopté des lois comparables. Les changements projetés par Apple permettraient de procéder à ces filtrages, retraits et signalements dans sa messagerie chiffrée de bout en bout. Les cas d’abus sont faciles à imaginer : les gouvernements qui interdisent l’homosexualité pourraient exiger que l’algorithme de classement soit formé pour restreindre le contenu LGBTQ+ apparent, ou bien un régime autoritaire pourrait exiger que le qu’il soit capable de repérer les images satiriques populaires ou les tracts contestataires. »

En outre, l’Electronic Frontier Foundation souligne qu’elle a déjà constaté cette dérive de mission :

« L’une des technologies conçues à l’origine pour scanner et hacher les images d’abus sexuels sur les enfants a été réutilisée pour créer une base de données de contenus « terroristes » à laquelle les entreprises peuvent contribuer et accéder dans l’objectif d’interdire ces contenus. Cette base de données, gérée par le Global Internet Forum to Counter Terrorism (GIFCT), ne fait l’objet d’aucune surveillance externe, malgré les appels lancés par la société civile. »

Des défauts de conception fondamentaux de l’approche proposée par Apple ont été soulignés par des experts, ils affirment que « Apple peut de façon routinière utiliser différents ensembles de données d’empreintes numériques pour chaque utilisatrice. Pour un utilisateur, il pourrait s’agir d’abus d’enfants, pour un autre, d’une catégorie beaucoup plus large », ce qui permet un pistage sélectif du contenu pour des utilisateurs ciblés.

Le type de technologie qu’Apple propose pour ses mesures de protection des enfants dépend d’une infrastructure extensible qui ne peut pas être contrôlée ou limitée techniquement. Les experts ont averti à plusieurs reprises que le problème n’est pas seulement la protection de la vie privée, mais aussi le manque de responsabilité de l’entreprise, les obstacles techniques au développement, le manque d’analyse ou même de prise en considération du potentiel d’erreurs et de faux positifs.

Kendra Albert, juriste à la Harvard Law School’s Cyberlaw Clinic, a averti que « ces mesures de « protection de l’enfance » vont faire que les enfants homosexuels seront mis à la porte de leur maison, battus ou pire encore », […] Je sais juste (je le dis maintenant) que ces algorithmes d’apprentissage automatique vont signaler les photos de transition. Bonne chance pour envoyer une photo de vous à vos amis si vous avez des « tétons d’aspect féminin » ».

Ce que nous demandons

Nous, les soussignés, demandons :

  1. L’arrêt immédiat du déploiement par Apple de sa technologie de surveillance du contenu proposée.
  2. Une déclaration d’Apple réaffirmant son engagement en faveur du chiffrement de bout en bout et de la protection de la vie privée des utilisateurs.

La voie que choisit aujourd’hui Apple menace de saper des décennies de travail effectué par des spécialistes en technologies numériques, par des universitaires et des militants en faveur de mesures strictes de préservation de la vie privée, pour qu’elles deviennent la norme pour une majorité d’appareils électroniques grand public et de cas d’usage. Nous demandons à Apple de reconsidérer son déploiement technologique, de peur qu’il ne nuise à cet important travail.

–> Signer la lettre sur GitHub

–> Liste des signataires à ce jour




À l’ère de la surveillance numérique – Interview d’Antoine Tricot

Sur les ondes de France Culture, Antoine Tricot a récemment cosigné une série de quatre épisodes sur La Série Documentaire intitulée « À l’ère de la surveillance numérique ». Quatre épisodes pour parler du capitalisme de surveillance, de pouvoirs étatiques sur les outils numériques… et de comment s’y soustraire. Quatre épisodes que nous vous invitons à écouter, au contenu bourré d’informations, d’ambiances sonores, de témoignages de différents milieux professionnels, et dont nous avons souhaité interroger l’un des auteurs.

Capture écran de la page de l'émission
Capture écran de la page de la série – Cliquez pour accédez aux émissions

Bonjour Antoine, peux-tu te présenter ?

Je suis journaliste et je travaille principalement pour les émissions documentaires de la radio publique France culture. Je m’intéresse à des sujets très divers comme les quartiers populaires et les ruralités mais j’ai un petit tropisme sur les questions que posent à la société les technologies numériques et leurs usages. J’ai d’ailleurs commencé à France Culture en 2013 comme stagiaire dans l’émission Place de la Toile de Xavier De La Porte. J’ai ensuite pu organiser quelques émissions autour de ces sujets lorsque je travaillais pour l’émission Du Grain à Moudre, notamment celle intitulée « Que reste-t-il du logiciel libre ? » en 2016 où l’on a fait dialoguer Pierre-Yves Gosset de Framasoft et Bernard Ourghanlian de Microsoft ainsi qu’Amaëlle Guiton de Libération. Dernièrement, j’ai produit pour l’émission LSD – La Série Documentaire une série de 4 documentaires radio sur la surveillance numérique.

Le fonctionnement de LSD n’étant pas forcément connu de toutes et tous, peux-tu nous dire qui a travaillé sur ce documentaire audio ?

L’équipe d’un LSD est assez simple. Outre Perrine Kervran et Maryvonne Abolivier qui coordonnent l’émission, nous sommes une vingtaine de travailleuses et travailleurs indépendant.es qui proposons nos sujets régulièrement. Nous sommes ce que l’on appelle dans le jargon de la radio des « producteurs et productrices délégué⋅es ». Nous concevons les projets, proposons un découpage en quatre épisodes, nous choisissons les intervenant.es, préparons et dirigeons les interviews, écrivons et interprétons les voix-off (on appelle ça les « micros »)… Pour moi c’est un métier entre celui d’auteur et celui de journaliste. Nous travaillons avec un réalisateur ou une réalisatrice de France Culture pour monter les émissions, les mettre en son et en musique. Ici j’ai travaillé avec Rafik Zénine avec qui j’avais déjà travaillé avec plaisir sur une série autour des jeux vidéo. Et ce sont des technicien⋅nes du son qui s’occupent de la prise de son et du mixage final. Pour tous les citer, on a travaillé cette fois avec Laurent Macchietti, Martin Troadec, Valérie Lavallart et Eric Boisset.

Donc, concernant la série « À l’ère de la surveillance numérique » : comment t’es venue l’idée de ce sujet ? Et as-tu su comment la traiter dès le départ ?

L’idée de cette série est née durant le confinement. C’est un sujet que je suis depuis longtemps mais c’est à l’occasion d’un projet collectif réalisé pour LSD pendant le premier confinement et intitulé « Un printemps au temps du confinement » que j’ai commencé à en parler avec Perrine Kervran. Il me semblait que durant cette période si particulière, le débat notamment autour de l’application Stop Covid, des visioconférences et du télétravail, avait pris une amplitude rarement atteinte pour des sujets numériques qui ne mobilisent habituellement qu’une faible part de la population.

Au départ, je voulais donc surtout parler de ce que le numérique fait à nos vies et à notre société. Mais en rédigeant le projet, je me suis rendu compte que la question de la surveillance numérique revenait sans cesse. Elle était transversale à tous les autres sujets auxquels je pouvais penser. Y consacrer seulement un épisode sur quatre ne me semblait donc pas suffisant. D’autant plus que les ramifications de la question sont vraiment très complexes. J’ai donc proposé à France Culture d’angler toute la série autour de cette question et c’est ce qui a finalement été accepté à la fin de l’été 2020.

Par où as-tu commencé ?

Je commence toujours ma préparation de la même manière : par une boulimie de lectures. Que ce soit des articles scientifiques, des articles journalistiques, des livres mais aussi de la fiction en tout genre qui aborde d’une manière ou d’une autre le sujet. Sur des sujets internationaux comme celui-ci, j’essaie de varier les points de vue en lisant en français, en anglais et en allemand. Très vite, je me suis rendu compte que la surveillance numérique est extrêmement documentée et il a été difficile de faire un tri entre tout ce que je trouvais. J’ai rarement eu aussi souvent peur de passer à côté de quelque chose d’essentiel, de gommer la complexité, de tomber dans la caricature… Et à la fois, pour rendre intelligible le sujet pour toutes et tous, il était nécessaire de ne pas vouloir trop en dire de peur d’embrouiller les enjeux.

Sur la forme, toujours, comment s’est fait le choix des intervenant⋅es ?

C’est pour moi le plus difficile et une très grande partie du travail. Je ne cherche pas quelqu’un parce qu’il est connu et s’exprime beaucoup sur la question. Au contraire, le documentaire, en sortant de la maison de la radio, me semble permettre de donner la parole à d’autres que l’on entend moins. Je cherche des personnes qui ont une perspective particulière qui va éclairer la question de manière différente à chaque interview et permettre ainsi de faire avancer la narration.

Je cherche aussi des situations sonores. C’est-à-dire des situations qui vont faire entendre une ambiance, faire voyager l’auditeur quelque part où il n’irait pas forcément tout seul, lui faire comprendre des choses au-delà des mots par une ambiance. Ça peut-être par exemple la visite d’un Data Center (très sonore) ou bien le check-up des pisteurs présent sur mon smartphone avec une militante de Exodus Privacy. Cela permet des dialogues plus concrets, plus imagés, plus vivant aussi.

 

Un des enjeux est aussi de veiller à la parité (ou en tout cas essayer de s’en approcher) de voix féminines et masculines. Cela n’a pas été évident pour ce sujet même si les choses changent peu à peu et que certaines femmes deviennent un peu plus visibles. Il faut toujours un peu plus de temps pour trouver des interlocutrices plutôt que des interlocuteurs.

Trouver le bon équilibre entre tous ces critères est vraiment précaire et ça me terrorise jusqu’au dernier moment de ne pas avoir le bon casting. Tout se monte, mais la qualité des paroles récoltées fait beaucoup à la qualité d’un documentaire et au temps que l’on va passer sur le montage. Comme je ne veux pas faire perdre du temps aux gens en les interviewant pour ensuite m’apercevoir au montage que leur propos passe un peu à côté du sujet ou bien qu’on n’a pas la place de le mettre, je me mets énormément de pression. Malheureusement, ça arrive parfois que l’on soit obliger de passer à la trappe une interview pour de multiples raisons. On ne peut pas tout prévoir.

Et combien de temps l’ensemble du travail vous a-t-il pris ?

J’aurai du mal à dire exactement combien de temps j’y ai passé à temps plein. Environ 4 mois très chargés. En tout cas c’est très intense à chaque fois et je finis épuisé.

J’ai travaillé sur la préparation entre juillet et septembre 2020 en faisant d’autres projets à côté. Puis à temps (plus que) plein de mi-novembre à début janvier. Ensuite il y a eu 2 semaines de tournages, 5 semaines de montages, 2 semaines d’écriture de la voix off, puis 1 semaine de mixage ce qui nous a amené jusqu’à mi-mars 2021. Donc oui, 4 gros mois sans compter la rédaction du projet au départ.

Rentrons un peu dans le détail des épisodes.

L’épisode 1, « Capitalisme de surveillance » est évidemment un sujet qui nous touche particulièrement à Framasoft. Cela fait quelques années que nous participons à sensibiliser à cette problématique. Un de nos administrateurs bénévoles que tu as interviewé, Christophe Masutti, a même écrit un ouvrage dessus. Peux-tu nous en dire plus sur cet épisode, notamment sur ce qui t’a marqué, et ce que tu y as toi-même appris ?

Épisode 1 : Le capitalisme de surveillance – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Ce qui me semblait important c’était de partir de ce que l’on voit le plus au quotidien : la publicité ciblée puis de montrer petit à petit l’ampleur des enjeux que peut poser la collecte massive des données numériques par des entreprises privées.

Mais je voulais aussi montrer que l’on n’est pas arrivé par hasard à cette idée de faire des profits en vendant, louant, échangeant de l’information sur les clients en puissance que sont les usagers d’internet. C’est le résultat d’une longue évolution de l’économie, du marketing et de l’industrie, en particulier américaine. Christophe Masutti l’explique très bien dans son livre Affaires privées et dans ses articles. Mais c’est rarement rappelé dans les travaux journalistiques sur la question. Heureusement, les travaux de la chercheuse américaine Shoshana Zuboff ont enfin obtenu récemment un écho que toutes les autres personnes travaillant sur ces questions depuis longtemps espéraient avoir un jour.

Ce qui m’a le plus marqué c’est bien sûr les conséquences sur la vie politique que peuvent avoir ces pratiques de traitement et d’exploitation des données à grande échelle. Ce qu’a révélé le scandale Cambridge Analytica est pour moi décisif pour comprendre comment se fabrique la politique actuellement. Les politiques ne parlent plus à un peuple de citoyens mais à des segments de consommateurs. C’est ce qui explique des discours politiques qui paraissent parfois contradictoires pour ceux qui, comme les journalistes, se situent au-delà des bulles d’informations et les reçoivent tous en même temps. Mais il faut comprendre que très peu de personnes ont une vue globale de l’information à un instant T. Ce qui compte pour un politique n’est plus de persuader une majorité d’électeurs sur un sujet donné, mais de convaincre des groupes très restreints sur des sujets de niches en adoptant une posture qui les séduit. Ce n’est pas infaillible et c’est plus limité en Europe qu’aux États-Unis du fait d’une réglementation plus protectrice des données. Mais je pense qu’il faut aujourd’hui en être conscient et en informer les citoyens si l’on veut se positionner, comme le fait Framasoft, contre ce modèle de surveillance numérique et y apporter les bonnes réponses.

Le second épisode : « Géopolitique de la surveillance numérique » est un sujet assez peu traité par les médias. Là encore, quel sentiment gardes-tu de cet épisode ?

Épisode 2 : Géopolitique de la surveillance numérique - Cliquez l'image pour accéder à la page.
Épisode 2 : Géopolitique de la surveillance numérique – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Je suis parti d’une question assez simple : est-ce que la NSA ou bien les services Chinois lisent mes SMS ? C’est un peu ce que tout le monde se demande depuis Snowden. Mais la réponse est en fait très difficile à donner pour une seule et bonne raison : on a très peu d’informations fiables sur le sujet. De manière pas tout à fait étonnante : les espions ne parlent pas beaucoup. Certes les révélations de Snowden et les quelques leaks qui ont touché les entreprises de sécurité ces dernières années nous donnent tout de même des pistes. Mais on parle de documents qui ont maintenant parfois plus de dix ou quinze ans et entre ce qu’affichent les entreprises ou les États en interne et la réalité des pratiques, il y a parfois de grandes différences. De plus, je me suis aperçu que pour comprendre les documents de l’Affaire Snowden, il fallait souvent interpréter d’obscurs schémas, notices, slides, etc. Alors un peu comme les exégèses religieuses, des visions différentes s’opposent. Certaines plus alarmistes, d’autre plus mesurées. Attention, tout le monde est d’accord pour dire que les agences de renseignements de la plupart des États scrutent ce qu’il se passe sur internet à grande échelle. Mais le débat porte sur les capacités des services secrets des différents pays à collecter de manière massive les données, ce qu’ils peuvent faire et qui ils surveillent exactement. On ne peut pas dire que ce soient des sujets qui sont peu abordés dans les médias depuis l’affaire Snowden. Au contraire même. Mais ils le sont souvent de manière schématique.

Je parle de géopolitique car c’est ce qui s’est imposé assez vite dans ma tête : cette question de la surveillance numérique a des conséquences concrètes pour les citoyens de nombreux pays, mais elle a un impact aussi très important sur les relations internationales. C’est aujourd’hui un véritable espace de compétition internationale et d’affrontement. Et ça ne va pas aller en s’arrangeant.

On se doute que tu n’as pas de boule de cristal, mais suite à ce que tu as lu/vu/entendu : comment imagines-tu la suite des événements concernant, justement, la géopolitique de la surveillance ? Dit autrement, si tu avais la possibilité d’aller enquêter plus avant, quels seraient les sujets que tu aimerais traiter ?

J’aimerais beaucoup être un petit lutin pouvant me glisser dans les centres de renseignements de la Chine et dans les bureaux de la NSA pour pouvoir répondre à cette question.

Ce qui me paraît probable c’est que la concurrence entre les pays pour récolter le plus d’informations possible ne va pas diminuer. Cela va ouvrir encore plus d’opportunités pour toute une industrie privée fabriquant des « armes » numériques. Il y a fort à parier que ces « armes » soient un jour réutilisées par des groupes criminels pour leurs propres usages. Donc, comme le dit la juriste Aude Géry dans le documentaire cette militarisation d’Internet va avoir et a déjà des conséquences rudes pour les usagers d’Internet. Par ailleurs, l’augmentation d’acteurs privés collaborant avec les services de renseignements étatiques soulèvent aussi des questions de contrôle de ces pratiques par les gouvernements et par les parlements.

La troisième séquence de la série s’intéresse à la « Safe city ». Honnêtement, c’est un sujet que nous maîtrisons moins. En plus des militant⋅es de La Quadrature (coucou !) qui coordonnent notamment la campagne « technopolice », tu t’es rendu à Roubaix au Centre de Supervision Urbaine qui organise entre autres la gestion des caméras de surveillance de la ville. C’est à la fois un petit choc cognitif d’entendre les deux parties (citoyenne/militante, et « forces de l’ordre », comme on les appelle maintenant), et pourtant, on sent chez l’officier directeur de ce centre à la fois un grand professionnalisme, mais aussi poindre la critique des limites d’un tel système, dépendant de technologies extérieures. La police dépendant des industriels pour faire leur travail, ce n’est pas forcément nouveau, mais avec ton regard de journaliste, comment perçois-tu cette transition vers le numérique (« digitalisation », dirait-on dans certain milieux) ? Notamment en ce qui concerne la question de l’intelligence artificielle ?

(HS: on en profite pour signaler à celleux que ça intéresse une autre émission de France Culture, « Pass sanitaire et identité numérique : quels dangers pour nos libertés ? » avec l’incontournable Olivier Tesquet, mais aussi William Eldin, CEO de l’entreprise XXII dont les technos nous font plus flipper que rêver, et que tu interviewais aussi dans cet épisode 3)

Épisode 3 : Dans les allées de la safe city - Cliquez l'image pour accéder à la page.
Épisode 3 : Dans les allées de la safe city – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Pour moi la vidéosurveillance, d’autant plus si elle est automatique, est un parfait exemple de solutionnisme technologique et c’est là où une partie de l’approche de La Quadrature du net me parle. Toute une série de facteurs d’ordre économiques, sociaux, politiques créent des situations d’insécurité et de la violence dans la société. Mais plutôt que de se confronter aux causes réelles du phénomène, on présente une solution technique comme à même d’éliminer tous les symptômes. Alors certains mettent en place des dispositifs avec professionnalisme et déontologie comme c’est le cas de Christian Belpaire à Roubaix avec qui il est vraiment intéressant d’échanger sur ces questions. Certains entrepreneurs réfléchissent sincèrement comme William Eldin qui dirige l’entreprise XXII sur ce qu’ils produisent et sur les moyens d’utiliser à bon escient la vidéosurveillance automatique. Dans des situations particulières cela peut certainement être très utile. Mais à aucun moment on pose la question du rapport coût/efficacité/conséquences pour les Droits humains. La Cour des Comptes elle-même a mis en garde les collectivités locales contre les dépenses liées à la vidéosurveillance dans la mesure où aucune enquête ne prouve jusqu’à présent son efficacité pour lutter contre la délinquance par rapport aux dispositifs préexistant. Mais cela n’empêche pas les politiques d’en installer toujours plus. Je le vois concrètement à Saint-Denis où j’habite depuis les dernières élections municipales de 2020. Les entreprises ne s’y trompent pas non plus. La pression sur les collectivités locales est très importante car les sommes en jeu sont colossales. Et l’argent qui est utilisé là, n’est pas utilisé ailleurs.

Les investissements dans ce domaine participent d’une logique politique actuelle qui préfère mettre beaucoup de sous sur un temps réduit dans des équipements plutôt que de financer sur le long terme des salaires. Pourtant, j’ai passé beaucoup de temps dans les quartiers populaires à Dunkerque et j’ai pu observer l’impact positif que pouvait avoir la présence des éducateurs de rue sur la délinquance et bien d’autres situations de détresse. Et pourtant, je ne connais aucun politique qui actuellement se vante d’augmenter les ressources de ces dispositifs de prévention spécialisée.

Enfin, la quatrième et dernière partie s’intéresse aux solutions. Là encore, on y croise des gens proches de Framasoft ou qu’on aime beaucoup (coucou Geoffrey), et même des personnes de Framasoft (l’une de nos co-présidentes, Maiwann). Toujours sans redire ce qui s’est dit dans le documentaire, quels étaient tes sentiments en interrogeant ces chercheurs, journalistes, militant⋅es ? T’es-tu dit que c’était foutu ou qu’il restait de l’espoir ?

Épisode 4 : Échapper à la surveillance - Cliquez l'image pour accéder à la page et écouter l'épisode sur le site de France Culture.
Épisode 4 : Échapper à la surveillance – Cliquez l’image pour accéder à la page et écouter l’épisode sur le site de France Culture.

 

Je suis de nature optimiste. Des peuples ont renversé des autocrates tout puissants tout au long de l’histoire. Rien n’est définitif. On parle aujourd’hui plus que jamais de ces dispositifs de surveillance numérique. On commence à comprendre le danger qu’ils représentent pour la démocratie. Des structures comme Framasoft obtiennent une audience auprès du grand public qu’aucun bidouilleur du logiciel libre n’a eu jusqu’à présent. De plus en plus de personnes comprennent les nécessités d’étendre le chiffrement à toutes les communications numériques. L’application Signal s’impose comme une référence dans le domaine de la messagerie… Alors certes, la puissance des multinationales peu vertueuses et des autocraties sans scrupule n’en sort pas diminuée. Mais il y a de l’espoir. Et ce que j’aborde dans le documentaire n’est qu’une toute petite partie des initiatives et résistances qui existent et se développent aujourd’hui.

Au final, maintenant ce travail publié et diffusé, il y a forcément pour nous une frustration à ce que ce travail de vulgarisation et de sensibilisation, qu’on considère comme important et largement financé par de l’argent public, ne soit pas sous licence libre (si les hautes sphères de Radio France nous lisent et veulent en discuter, on est disponibles pour en parler !). Cependant, te concernant, quelles suites souhaiterais-tu voir donner à cette série ?

La licence n’est pas libre car actuellement Radio France tente de reprendre la main sur la diffusion de ses podcasts face aux plateformes qui réalisent des profits grâce aux productions du service public. Le paradoxe est donc qu’il faut restreindre la diffusion pour qu’elle soit plus pérenne et ne soit pas soumise au bon vouloir des Google, Apple et autres Spotify. Cependant toutes les productions de France Culture sont disponibles sur le site internet tant que Radio France restera un service public. On ne peut donc qu’espérer qu’un maximum de personnes écoute, partage, commente, critique et se réapproprie les pistes que j’ai déployées dans cette série documentaire. Ce n’est qu’une brique de plus dans les efforts fait pour documenter et réfléchir la place de la technologie dans la société et il reste beaucoup à dire et à faire.

Dernière question, traditionnelle : y a-t-il une question que l’on ne t’a pas posée ou un élément que tu souhaiterais ajouter ?

Demandez à Google et à la NSA… ils doivent bien savoir ce que l’on a oublié.

Merci Antoine !