Un kit pédagogique proposé par Exodus Privacy

À l’heure où dans une dérive policière inquiétante on criminalise les personnes qui veulent protéger leur vie privée, il est plus que jamais important que soient diffusées à une large échelle les connaissances et les pratiques qui permettent de prendre conscience des enjeux et de préserver la confidentialité. Dans cette démarche, l’association Exodus Privacy joue un rôle important en rendant accessible l’analyse des trop nombreux pisteurs qui parasitent nos ordiphones. Cette même association propose aujourd’hui un nouvel outil ou plutôt une boîte à outils tout aussi intéressante…

Bonjour, Exodus Privacy. Chez Framasoft, on vous connaît bien et on vous soutient mais pouvez-vous rappeler à nos lecteurs et lectrices en quoi consiste l’activité de votre association?

Oui, avec plaisir ! L’association Exodus Privacy a pour but de permettre au plus grand nombre de personnes de mieux protéger sa vie privée sur son smartphone. Pour cela, on propose des outils d’analyse des applications issues du Google Play store ou de F-droid qui permettent de savoir notamment si des pisteurs s’y cachent. On propose donc une application qui permet d’analyser les différentes applications présentes sur son smartphone et une plateforme d’analyse en ligne.

Logo d'exodus privacy, c'est un E
Logo d’Exodus Privacy

Alors ça ne suffisait pas de fournir des outils pour ausculter les applications et d’y détecter les petits et gros espions ? Vous proposez maintenant un outil pédagogique ? Expliquez-nous ça…
Depuis le début de l’association, on anime des ateliers et des conférences et on est régulièrement sollicité·es pour intervenir. Comme on est une petite association de bénévoles, on ne peut être présent·es partout et on s’est dit qu’on allait proposer un kit pour permettre aux personnes intéressées d’animer un atelier « smartphones et vie privée » sans avoir besoin de nous !

Selon vous, dans quels contextes le kit peut-il être utilisé ? Vous vous adressez plutôt aux formatrices ou médiateurs de profession, aux bénévoles d’une asso qui veulent proposer un atelier ou bien directement aux membres de la famille Dupuis-Morizeau ?
Clairement, on s’adresse à deux types de publics : les médiateur·ices numériques professionnel·les qui proposent des ateliers pour leurs publics, qu’ils et elles soient en bibliothèque, en centre social ou en maison de quartier, mais aussi les bénévoles d’associations qui proposent des actions autour de la protection de l’intimité numérique.

Bon en fait qu’est-ce qu’il y a dans ce kit, et comment on peut s’en servir ?
Dans ce kit, il y a tout pour animer un atelier d’1h30 destiné à un public débutant ou peu à l’aise avec le smartphone : un déroulé détaillé pour la personne qui anime, un diaporama, une vidéo pédagogique pour expliquer les pisteurs et une fiche qui permet aux participant·es de repartir avec un récapitulatif de ce qui a été abordé pendant l’atelier.

Par exemple, on propose, à partir d’un faux téléphone, dont on ne connaît que les logos des applications, de deviner des éléments sur la vie de la personne qui possède ce téléphone. On a imaginé des méthodes d’animation ludiques et participatives, mais chacun·e peut adapter en fonction de ses envies et de son aisance !

un faux téléphone pour acquérir de vraies compétences en matière de vie privée
un faux téléphone pour acquérir de vraies compétences en matière de vie privée

Comment l’avez-vous conçu ? Travail d’une grosse équipe ou d’un petit noyau d’acharnés ?
Nous avons été au total 2-3 bénévoles dans l’association à créer les contenus, dont MeTaL_PoU qui a suivi/piloté le projet, Héloïse de NetFreaks qui s’est occupée du motion-design de la vidéo et _Lila* de la création graphique et de la mise en page. Tout s’est fait à distance ! À chaque réunion mensuelle de l’association, on faisait un point sur l’avancée du projet, qui a mis plus longtemps que prévu à se terminer, sûrement parce qu’on n’avait pas totalement bien évalué le temps nécessaire et qu’une partie du projet reposait sur du bénévolat. Mais on est fier·es de le publier maintenant !

Vous l’avez déjà bêta-testé ? Premières réactions après tests ?
On a fait tester un premier prototype à des médiateur·ices numériques. Les retours ont confirmé que l’atelier fonctionne bien, mais qu’il y avait quelques détails à modifier, notamment des éléments qui manquaient de clarté. C’est l’intérêt des regards extérieurs : au sein d’Exodus Privacy, des choses peuvent nous paraître évidentes alors qu’elles ne le sont pas du tout !

aspi espion qui aspire les données avec l'œil de la surveillance
Aspi espion qui aspire vos données privées en vous surveillant du coin de l’œil

 

Votre kit est disponible pour tout le monde ? Sous quelle licence ? C’est du libre ?
Il est disponible en CC-BY-SA, et c’est du libre, comme tout ce qu’on fait ! Il n’existe pour le moment qu’en français, mais rien n’empêche de contribuer pour l’améliorer !

Tout ça représente un coût, ça justifie un appel aux dons ?
Nous avons eu de la chance : ce projet a été financé en intégralité par la Fondation AFNIC pour un numérique inclusif et on les remercie grandement pour ça ! Le coût de ce kit est quasi-exclusivement lié à la rémunération des professionnel·les ayant travaillé sur le motion design, la mise en page et la création graphique.

Est-ce que vous pensez faire un peu de communication à destination des publics visés, par exemple les médiateur-ices numériques de l’Éducation Nationale, des structures d’éducation populaire comme le CEMEA  etc. ?

Mais oui, c’est prévu : on est déjà en contact avec le CEMEA et l’April notamment. Il y a également une communication prévue au sein des ProfDoc. et ce sera diffusé au sein des réseaux de MedNum.

Le travail d’Exodus Privacy va au delà de ce kit et il est important de le soutenir ! Pour découvrir les actions de cette formidable association et y contribuer, c’est sur leur site web : https://exodus-privacy.eu.org/fr/page/contribute On souhaite un franc succès et une large diffusion à ce nouvel outil. Merci pour ça et pour toutes leurs initiatives !

un personnage vêtu de gris assis sur un banc est presque entièrement abrité derrière un parapluie gris. le banc est sur l'herbe, au bord d'un trottoir pavé
« Privacy » par doegox, licence CC BY-SA 2.0.




Framagroupes : le service post Framalistes est ouvert !

Framagroupes vient d’ouvrir ! Ce nouveau service permet aux groupes de continuer à échanger facilement par email, en arrêtant de surcharger un Framalistes archi plein… En repartant sur des bases saines !

« Dorlotons Dégooglisons »

Consacrer plus de temps et d’énergie à nos services en ligne, c’est un nouveau cap que nous voulons suivre. Et nous pourrons le garder grâce à vous, grâce à vos dons ! En savoir plus sur le site Soutenir Framasoft.

➡️ Lire les articles en lien

Les Framaservices, c’est avant tout des humain⋅es : sans elles et eux, pas de Framalistes. Pas d’envoi de centaines de milliers de mails par jour (malgré les embûches des gros fournisseurs de mails). Pas de gestion financière pour payer les factures des serveurs. Pas de support pour vous débloquer quand plus personne ne peut gérer votre liste. Personne pour vous dire que Framalistes, et maintenant Framagroupes, existent et pourquoi !

« Dorlotons Dégooglisons » est là pour mettre tout ce travail, et les personnes qui le réalisent, en valeur !

Framagroupes, un service de liste de discussion tout beau tout propre – Illustration de David Revoy CC-By 4.0

 

Framagroupes : apprendre de Framalistes

On ne le répétera jamais assez : Framalistes ne ferme pas ! Vous pouvez toujours gérer vos listes là-bas, ajouter des abonné⋅es, enlever des gestionnaires, demander au support de remettre un gestionnaire privilégié parce que « Oups, on a enlevé le dernier, on ne peut plus administrer notre liste 😅 » ! Framagroupes vient en soutien à Framalistes ! Vous n’avez pas besoin de migrer vers Framagroupes. Vous ne pouvez juste plus créer de nouvelles listes sur Framalistes.

Parce que, l’air de rien, maintenir un service de listes de discussions, ce n’est pas de tout repos ! Chaque jour vient avec son lot de mails bloqués par tel fournisseur de mails, son lot de contournements pour les écouler, alléger un serveur, supprimer les spams, vous débloquer sur le support…

L’équipe s’activant en coulisses – Illustration de David Revoy CC-By 4.0

 

Nous ne voulions pas fermer ce service (on vous a dit que Framalistes ne fermait pas ?!) tant il vous est utile et peu disponible sur le web, mais nous ne voulions pas nous esquinter non plus à le maintenir ainsi. C’est pour cela que nous ouvrons Framagroupes : un équilibre entre les fonctionnalités utiles, pour vous, de Framalistes, et un apaisement, pour nous, dans la gestion.

Framagroupes vous permet, tout comme le fait déjà Framalistes depuis des années, d’échanger avec vos camarades, par mails. Grâce au logiciel Sympa (oui oui, c’est bien son nom) qui fait tourner Framalistes et Framagroupes, vous pourrez envoyer un mail à votre-liste@framagroupes.org pour que toutes les personnes abonnées à cette liste le reçoivent et y participent en retour. Bien plus pratique que d’envoyer un mail avec 50 CC (adresses en copies) non cachées (ne faites pas ça chez vous : on ne dévoile pas les adresses mails des gens sans leur consentement).

Participer à la collecte Dorlotons Dégooglisons

Plaisir d’offrir, joie de recevoir

Les mails, c’est compliqué en tant que fournisseur de service. C’est pour cela qu’il n’existe pas une offre pléthorique de fournisseurs de mails. Si nous avons le plaisir de vous offrir un nouveau service, c’est aussi pour nous assurer que vos mails arriveront à destination.

À force de recevoir du spam sur des listes complètement ouvertes (qu’il n’est plus possible de faire avec Framagroupes, ni avec Framalistes), et donc de renvoyer ces spams sur les adresses mails des membres, notre serveur Framalistes commençait à avoir mauvaise réputation auprès des autres fournisseurs de mails. Cela avait pour conséquence d’empêcher la réception des mails (ce qui est gênant pour une liste de discussions par mails, vous en conviendrez).

Accumulation des mails refusés par les fournisseurs de mail récalcitrants – Illustration de David Revoy CC-By 4.0

 

En-dehors des spams avérés, les anti-spams sont particulièrement sensibles à certains comportements. Aussi, envoyer un mail ne contenant qu’une image (même si c’est celle d’un chaton), un mail qui ne contient qu’un lien (ou, au contraire, trop de liens, même si c’est vers les chatons), un sujet en capitales, l’utilisation de couleurs pour le fond du mail ou les mots, ou encore mettre trop d’adresses en copie (ne faites pas ça chez vous), sont autant de comportements qui rendent notre service suspect aux yeux des gros fournisseurs.

Une autre source de mauvaise réputation : les lettres d’informations (ou newsletter). Framalistes, comme Framagroupes, n’autorise pas les lettres d’information (mais vous le saviez déjà grâce à notre foire aux questions que vous lisez régulièrement et avec entrain) !

Participer à la collecte Dorlotons Dégooglisons

On est Sympa et il y a des limites

Framagroupes, c’est un nouveau serveur, dont le paramétrage initial a été pensé et réalisé en prenant en compte nos années d’expérience du mail, pour éviter au maximum les soucis (notamment de spams). Parce que le but est de prendre soin de nos services et des personnes qui s’en occupent, nous avons dû mettre dès le lancement des limites supplémentaires à celles de Framalistes.

En commun avec Framalistes :

État des lieux de Framalistes – Illustration de David Revoy CC-By 4.0

 

Limites et règles supplémentaires, sur Framagroupes :

  • pas d’archives
  • suppression des listes sans aucune utilisation depuis un an
  • pas de liste complètement ouverte, c’est-à-dire qui n’est ni limitée aux membres ni modérée
  • liste supprimée si le mail propriétaire / modérateur renvoie automatiquement sur la liste
  • lien de désabonnement dans les pieds de page des mails et les messages d’abonnement
  • pas d’espace de documents
  • pas de conservation des pièces jointes sur Framagroupes (elles ne seront disponibles que dans vos mails)
  • email de rappel d’abonnement à une liste, envoyé une fois par an aux membres
  • désabonnement automatique des adresses mails déclarées comme non existantes

Si nous vous expliquons les raisons de ces limites ci-dessus, sachez qu’à terme nous comptons implémenter les mêmes règles au sein de Framalistes (comme ça, pas de jalousie !).

Participer à la collecte Dorlotons Dégooglisons

De : betteraves@framalistes.org ; Objet : Collecte !

« Bonjour tout le monde,

Comme vous l’avez vu sur le Framablog, Framasoft vient d’ouvrir Framagroupes en soutien à Framalistes (qui ne ferme pas !). Pour les aider à dorloter les services, je me disais que ce serait une bonne idée de leur faire un don et/ou de faire passer le mot ! Si ce n’est pas possible pour nous, ça le sera peut-être pour d’autres !

Cela fait quand même quelques années que nous pouvons échanger sur la betterave grâce à Framalistes, que la documentation et la foire aux questions nous aident grandement (comme quand on a voulu ajouter un gestionnaire privilégié à la liste), et que le service fonctionne bien grâce à toutes ces petites mains invisibles.

Leur estimation pour cette première année de dorlotage est de 60 000€ : je propose 59 000€ ou 59€ ! La collecte prend fin le 13 juin !

À vous lire.
Betteravement,
Bisous. »

Quand nos donateurs et donatrices se mobilisent – Illustration de David Revoy – Licence : CC-By 4.0

 

À la semaine prochaine pour faire le bilan de cette collecte (et on peut déjà vous dire que l’objectif est atteint – un immense merci de votre mobilisation !).

 

Participer à la collecte Dorlotons Dégooglisons

 

Liens utiles




Dorlotons Dégooglisons : pour des framaservices bichonnés !

« Dorlotons Dégooglisons » consiste à prendre soin de nos services en ligne et à mettre en lumière le travail trop peu visible des personnes qui s’en occupent. La collecte en cours nous permettra de voir si ce nouveau cap vous motive autant que nous !

« Dorlotons Dégooglisons »

Consacrer plus de temps et d’énergie à nos services en ligne, c’est un nouveau cap que nous voulons suivre. Et nous pourrons le garder grâce à vous, grâce à vos dons ! En savoir plus sur le site Soutenir Framasoft.

➡️ Lire les articles en lien

Dorlotons Dégooglisons – Illustration de David Revoy – Licence : CC-By 4.0

Un dorlotage régulier pour nos services en ligne

Nous le savons : nos services « Dégooglisons Internet » ne sont pas parfaits.

Oui, Framadate n’est pas idéal sur mobile (avez-vous essayé de basculer votre smartphone à l’horizontale ?).

Oui, mettre des cellules en gras sur Framacalc n’est pas le plus intuitif (mais si ! Vous voyez en haut « Format » ? Ensuite vous repérez « Polices » et vous choisissez dans la liste « Gras & Italique ». Facile !).

Non, le partage d’administration sur Framaforms n’est pas possible (quoi ? Vous avez vraiment besoin d’être plusieurs à modifier vos formulaires ?).

Bref nous avons en interne une « liste au Père Noël » qui s’allonge au fil des ans… Et c’est normal : certains services « Dégooglisons Internet » vont bientôt fêter leurs 10 ans ! Ces services que vous utilisez tant – vous êtes près de 1,5 million de personnes par mois à naviguer sur nos sites (nous on trouve ça dingue !) – nous ne les oublions pas.

Même si nous les chouchoutons déjà, nous souhaitons en faire encore plus. Nous voulons leur consacrer plus de temps et d’énergie. Et du temps, de l’énergie, ce sont des ressources précieuses, qui ne sont pas gratuites. C’est pour cela que nous avons besoin de vous, et de votre soutien !

Participer à la collecte Dorlotons Dégooglisons

 

Sortir de l’ombre le travail invisibilisé

Nous souhaitons aussi rendre visible le soin humain apporté à nos services, sans lequel la magie n’opérerait pas ! Un « dorlotage » humain essentiel au bon fonctionnement de nos services, que nous voulons mettre en lumière.

Les envoûtements de la gestion. C’est nécessaire pour toute association : des petites mains s’activent au quotidien pour payer les factures (eh oui, louer des serveurs n’est pas gratuit !), faire du lien avec les îles de notre archipel et orchestrer tous ces esprits volontaires. Du boulot essentiel auquel on ne pense pas en écrivant sur un pad !

Illustration de David Revoy – Licence : CC-By 4.0

Les incantations techniques. Que ce soit pour la mise en place d’une belle page d’accueil, pour les mises à jour et en sécurité de services, pour des développements ponctuels ou pour se dépatouiller des problèmes rencontrés avec les géants fournisseurs de mail (calinternets bienvenus dans cette éventualité plus que réaliste !), une expertise technique est indispensable pour le bon fonctionnement de nos services. Sans elle, les services ne dureraient pas !

Illustration de David Revoy – Licence : CC-By 4.0

Les enchantements du support. « Pourquoi mon mail met du temps à être reçu ? », si vous n’avez pas trouvé la réponse dans notre documentation ou notre Foire Aux Questions, il vous arrive de contacter notre support. Et derrière toute réponse envoyée par notre support, ce sont des humains et des humaines qui s’activent pour trouver des solutions à vos questions parfois épineuses (processus souvent accompagné de quelques litres de café pour motiver les troupes lors des heures matinales – mais quelle idée de commencer la journée avant midi…!).

Illustration de David Revoy – Licence : CC-By 4.0

Le charme de la communication. Nos membres s’activent pour sensibiliser à des outils numériques éthiques, rassurent les inquiet⋅es en rappelant que tout changement prend du temps et, lors d’évènements, prennent plaisir à papoter de leurs militances avec passion (qu’elles concernent la défense du secteur associatif, les communs culturels ou le dernier rapport du GIEC).

Illustration de David Revoy – Licence : CC-By 4.0

 

« Dorlotons Dégooglisons », c’est aussi une manière de financer ce travail de soin à nos services bien trop souvent invisible et pourtant absolument essentiel.

Participer à la collecte Dorlotons Dégooglisons

 

Du dorlotage grande cuvée pour 2023 !

Dès cette année nous bichonnons nos services en ligne, pour qu’ils puissent durer dans le temps et être plus pratiques pour vous, comme pour nous. Concrètement, voilà ce qui s’est passé cette année en coulisses :

Des réparations. Nous avons passé de nombreuses heures à trouver des solutions pour gérer les spams, que ce soit sur Framaforms, Framagit, ou Framalistes (coucou Orange qui ne laisse toujours pas passer nos mails de façon fluide…!). Nous avons aussi dû séparer Framagit sur 2 machines (la base de données du service devenait trop importante et pénalisait l’ensemble du service…). Pour Framacalc, nous avons dû corriger un bug Ethercalc (le logiciel derrière le service) qui générait un problème de saturation de la mémoire et faisait tomber le service.

Des mises à jour conséquentes. Nous avons (enfin !) pu mettre à jour Framavox en début d’année, vers une version récente particulièrement lourde à gérer pour nous (une mise à jour que nous avions reportée d’un an pour non disponibilité interne…), et nous en avons profité pour mettre mettre un bon coup de pinceau sur la page d’accueil du service. Framateam, Framindmap, Framagenda, Framadrive, Mobilizon.fr, mooc.chatons.org et Framapiaf ont également été mis à jour, corrigeant des bugs ou apportant de nouvelles fonctionnalités.

 

 

Framavox – Illustration de David Revoy – Licence : CC-By 4.0

 

Des contributions aux logiciels libres qui font tourner nos services. Nous avons apporté des contributions à différents logiciels libres qui sont en coulisses de nos services – améliorations qui sont maintenant disponibles pour l’ensemble des utilisateur⋅ices de ces logiciels :

Des ouvertures de services. Nous avons ouvert Framaspace, un espace de cloud collaboratif pour petites associations (en savoir plus ici). Enfin, en soutien à un Framalistes archi plein ayant atteint ses limites physiques, nous ouvrons le service Framagroupes (plus d’infos par ici).

Nos dorlotages de l’année vous inspirent ? Vous voulez participer à les rendre possibles ?

Soutenir nos actions de dorlotage

 

Prenons-nous le bon cap ?

Illustration de David Revoy – Licence : CC-By 4.0

Prioriser nos services en ligne, c’est le choix que feraient 82% des 12 664 répondant⋅es à l’enquête lancée l’année dernière, s’iels étaient aux manettes de notre association. Et ça tombe plutôt bien car nous partageons cette envie !

Cette collecte, c’est aussi pour nous une manière de voir si nous prenons la bonne direction. Nous estimons que cette première année de dorlotage coûte 60 000 € (« estimons », car c’est très difficile de chiffrer précisément un travail de soin humain), et nous vous lançons le défi de les récolter en 3 semaines, du 23 mai au 13 juin. La suite ?

  • La semaine prochaine, le 7 juin, nous ouvrons et vous présentons le service Framagroupes.
  • Dans deux semaines, le 13 juin, nous ferons le bilan de ces 3 semaines de collecte.

Vous utilisez nos services en ligne ? C’est parce que d’autres (ou vous !) les ont financés, en nous faisant un don. Vous pouvez, vous aussi, soutenir « Dorlotons Dégooglisons », et nous conforter sur le choix de prendre cette nouvelle direction, celle du soin à nos services et une mise en valeur du travail qu’il demande. D’avance, merci de votre soutien !

Pour relayer ou participer à la collecte, une seule adresse à retenir : soutenir.framasoft.org.

Participer à la collecte Dorlotons Dégooglisons

 

Liens utiles




Framalistes affiche complet, aidez-nous à ouvrir Framagroupes !

Et si on dorlotait un peu nos services Dégooglisons Internet ? Ce travail de soin constant, quotidien, avec des temps forts et des coups de bourre, Framasoft ne peut pas le faire seule. Pour le mener à bien, nous avons besoin de votre soutien.

« Dorlotons Dégooglisons »

Consacrer plus de temps et d’énergie à nos services en ligne, c’est un nouveau cap que nous voulons suivre. Et nous pourrons le garder grâce à vous, grâce à vos dons ! En savoir plus sur le site Soutenir Framasoft.

➡️ Lire les articles en lien

 

Avec 60 000 Framalistes, notre service affiche complet

Commençons par vous rassurer : Framalistes va continuer de fonctionner, le service ne va pas fermer, vos listes resteront bichonnées !

État des lieux sur Framalistes — Illustration de David Revoy – Licence : CC-By 4.0

 

Basé sur le logiciel libre Sympa, ce service vous permet de créer une liste de diffusion. Concrètement, vous obtenez un email de groupe de type « monsupergroupe@framalistes.org » auquel les gens peuvent inscrire leur propre email (vous pouvez bien sûr modérer les inscriptions). Ainsi, chaque personne inscrite à « monsupergroupe@framalistes.org » peut écrire à toutes les autres, juste en envoyant un mail à « monsupergroupe@framalistes.org ». Plus besoin de retenir les emails de tout le monde ou les mettre à jour (pratique, non ?) ! Les membres du groupe gardent le contrôle et peuvent toujours se désinscrire, modérer des messages ou encore mettre à jour l’adresse mail sur laquelle ils recevront les messages du groupe.

Framalistes ne ferme pas : vous pourrez encore continuer de gérer vos listes, envoyer des messages, ajouter ou supprimer des membres (faire vivre votre groupe, quoi !).
La seule chose qui s’arrête dès aujourd’hui, c’est la possibilité de créer une nouvelle liste, un nouvel email de groupe de type monautresupergroupe@framalistes.org.

Nous ne voulons pas laisser les nouveaux arrivant⋅es le bec dans l’eau, et leur dire « c’est fini, c’est complet, allez voir ailleurs ! ». Nous avons donc besoin de votre soutien et vos encouragements pour lancer un nouveau service : Framagroupes.

Contribuer à la collecte Dorlotons Dégooglisons

 

Framagroupes, le même mais en neuf (et en mieux)

Avec près de 60 000 listes, un million d’utilisateur·ices, et plus de 250 000 emails envoyés chaque jour, le serveur de Framalistes arrive aujourd’hui au maximum de ses capacités. Pourtant nous n’avons pas hésité à le chouchouter et à lui réserver une machine à la hauteur du besoin !

Car en 2023, le besoin de trouver des alternatives aux « Google Groups » (parfois décrits comme « laissés pour morts [EN] ») et autres listes de diffusion des géants du web est toujours aussi grand. Et les structures du numérique éthique qui peuvent en proposer sont peu nombreuses (on pense aux ami·es de RiseUp et leurs 20 000 listes), parce que gérer des emails, c’est lourd, c’est compliqué.

Framalistes est, à notre connaissance, le plus gros service de listes de diffusion libre. Cela ne nous emplit pas d’orgueil, mais d’un sens des responsabilités : il y a un gros besoin, nous savons y répondre, ce n’est pas le moment de s’arrêter.

Nous allons donc, d’ici deux semaines, ouvrir Framagroupes, et continuer de proposer un service éthique de listes de diffusion.

Framagroupes, ce sera comme Framalistes… mais sur un serveur tout neuf. Nous appliquerons aussi dès le départ les leçons apprises avec des années d’expérience sur Framalistes (on ne va pas s’étaler ici, on vous en parle prochainement sur ce blog !).

Framasoft mettant en place Framagroupes grâce aux apprentissages de Framalistes – Illustration de David Revoy – Licence : CC-By 4.0

Alors oui, on aurait pu l’appeler « Framalistes 2 »… mais imaginez la confusion quand vous devrez expliquer à votre camarade au téléphone : « non l’adresse c’est monsupergroupe, tout attaché, arobase, oui at si tu veux oui, framalistes2, attention listes au pluriel, non pas d-e-u-x, deux en chiffre, le 2 au dessus du é, quoi, oui tout attaché… point org ! ». Sans vous parler du responsable de notre support, qui à la question « pouvez-vous m’aider avec ma Framalistes » devrait invariablement répondre « c’est une Framalistes tout court ou une Framalistes2 ? » faute de pouvoir consulter une boule de cristal…

Quoi qu’il en soit, avec votre soutien, nous souhaitons pouvoir offrir sur Framagroupes au moins autant de nouvelles listes que celles que nous hébergeons déjà sur Framalistes.

Contribuer à la collecte Dorlotons Dégooglisons

 

La collecte « Dorlotons Dégooglisons », pour nous aider à prendre soin des services vieillissants

Que vous regardiez le récent travail de mise à jour et de mise en valeur de Framavox (notre outil pour animer les discussions, votes et décisions de votre collectif), ou l’ouverture d’un nouveau serveur de listes avec Framagroupes, tout cela s’inscrit dans une nouvelle dynamique. Entre nous, nous l’appelons le projet « Dorlotons Dégooglisons ».

Car si vous regardez les 18 services que nous maintenons actuellement, certains existent depuis plus de 10 ans et commencent à accuser leur âge. Maintenir des services, ou en assurer le support, c’est déjà du boulot qu’on assure depuis plus de dix ans. Mais réaliser les grosses mises à niveaux, contribuer à leur amélioration et mettre en valeur leur évolution, ça c’est du Dorlotage !

Tout cela est un travail « de l’ombre », rarement valorisé, alors que l’accumulation de ces tâches demande un temps et des expertises non négligeables. Pour une fois, nous voulons mettre en valeur le coût de ce travail invisible (mais ô combien essentiel) de soin que nous apportons à ces outils financés par vos dons et mis à la disposition de toutes et tous.

Dorlotage version Framasoft – Illustration de David Revoy – Licence : CC-By 4.0

 

Nous voulons surtout, sur les années à venir, vous donner un rendez-vous régulier pour faire le point sur les améliorations et contributions aux logiciels des services que nous proposons. Vos réponses à notre enquête de 2022 sont claires : vous aimeriez qu’on consacre de l’énergie à améliorer certains services (voire à leur donner un coup de jeune ?). Ça tombe bien : nous partageons cette envie !

Nous détaillerons nos envies de Dorloter Dégooglisons dans un article prochainement sur ce blog. Mais ne vous attendez pas à un nouveau plan triennal avec rétroplanning, diagramme de Kreuzbein-Field et 46 slides pour faire passer le tout ! L’idée est de, chaque année, prendre le temps de concrétiser des pistes d’améliorations que nous avons déjà identifiées.

Contribuer à la collecte Dorlotons Dégooglisons

 

3 semaines de collecte pour savoir si vous soutenez Dorlotons

Framasoft ne vit et n’agit que grâce à vos dons. Nous estimons que cette première année de Dorlotons coûte 60 000 € (« estimons », car c’est très dur de chiffrer précisément un travail de soin), et nous vous lançons le défi de les récolter en 3 semaines, d’ici le 13 juin.

Quand Framasoft estime le coût d’une année de « Dorlotons Dégooglisons » – Illustration de David Revoy – Licence : CC-By 4.0

  • Dès aujourd’hui, nous lançons la collecte et coupons la possibilité de créer de nouvelles listes sur Framalistes afin de préserver la qualité de service pour le million d’inscrit⋅es.
  • La semaine prochaine, nous vous détaillerons nos envies et raisons de Dorloter Dégooglisons.
  • Dans deux semaines (ajoutons un traditionnel « si tout va bien© ») nous ouvrirons et vous présenterons Framagroupes.
  • Dans trois semaines, le 13 juin, nous ferons le point sur l’objectif de 60 000 €.

Notez qu’il n’y a pas de conditionnel : ce boulot est nécessaire, Framasoft fait partie des rares structures à pouvoir le faire, alors nous allons le faire, que l’on atteigne l’objectif ou non. Plutôt que de vous attiser avec un crowdfunding, nous préférons vous faire confiance avec une collecte.

Vous êtes dans une Framalistes et bénéficiez de ce service ? C’est parce que d’autres l’ont financé pour vous, en nous faisant un don. Aujourd’hui, vous pouvez, vous aussi, soutenir les futurs Framagroupes pour des personnes qui seront aussi ravies que vous de trouver un tel outil.

N’hésitez donc pas à partager la page soutenir.framasoft.org autour de vous (et à y faire un don, si vous le pouvez). C’est vraiment une des actions qui compte le plus : prendre le temps et le soin d’expliquer à votre entourage, aux personnes qui vous font confiance, pourquoi c’est important de contribuer à financer l’existence de tels outils, qui respectent leurs libertés et leur intégrité.

Rendez-vous dans 21 jours pour voir si vous nous donnez raison de consacrer des moyens à ce dorlotage et ce soin… d’outils mis en Communs !

Contribuer à la collecte Dorlotons Dégooglisons

 

Liens utiles




Ouvrir le code des algorithmes ? — oui, mais… (2/2)

Voici le deuxième volet (si vous avez raté le premier) de l’enquête approfondie d’Hubert Guillaud sur l’exploration des algorithmes, et de son analyse  des enjeux qui en découlent.


Dans le code source de l’amplification algorithmique : que voulons-nous vraiment savoir ?

par Hubert GUILLAUD

Que voulons-nous vraiment savoir en enquêtant sur l’amplification algorithmique ? C’est justement l’enjeu du projet de recherche qu’Arvind Narayan mène au Knight Institute de l’université Columbia où il a ouvert un blog dédié et qui vient d’accueillir une grande conférence sur le sujet. Parler d’amplification permet de s’intéresser à toute la gamme des réponses qu’apportent les plateformes, allant de l’amélioration de la portée des discours à leur suppression, tout en se défiant d’une réduction binaire à la seule modération automatisée, entre ce qui doit être supprimé et ce qui ne doit pas l’être. Or, les phénomènes d’amplification ne sont pas sans effets de bord, qui vont bien au-delà de la seule désinformation, à l’image des effets très concrets qu’ont les influenceurs sur le commerce ou le tourisme. Le gros problème, pourtant, reste de pouvoir les étudier sans toujours y avoir accès.

Outre des analyses sur TikTok et les IA génératives, le blog recèle quelques trésors, notamment une monumentale synthèse qui fait le tour du sujet en expliquant les principes de fonctionnements des algorithmes (l’article est également très riche en liens et références, la synthèse que j’en propose y recourra assez peu).

Narayan rappelle que les plateformes disposent de très nombreux algorithmes entremêlés, mais ceux qui l’intéressent particulièrement sont les algorithmes de recommandation, ceux qui génèrent les flux, les contenus qui nous sont mis à disposition. Alors que les algorithmes de recherche sont limités par le terme recherché, les algorithmes de recommandation sont bien plus larges et donnent aux plateformes un contrôle bien plus grand sur ce qu’elles recommandent à un utilisateur.

La souscription, le réseau et l’algorithme

Pour Narayan, il y a 3 grands types de leviers de propagation : la souscription (ou abonnement), le réseau et l’algorithme. Dans le modèle par abonnement, le message atteint les personnes qui se sont abonnées à l’auteur du message. Dans le modèle de réseau, il se propage en cascade à travers le réseau tant que les utilisateurs qui le voient choisissent de le propager. Dans le modèle algorithmique, les utilisateurs ayant des intérêts similaires (tels que définis par l’algorithme sur la base de leurs engagements passés) sont représentés plus près les uns des autres. Plus les intérêts d’un utilisateur sont similaires à ceux définis, plus il est probable que le contenu lui sera recommandé.

À l’origine, les réseaux sociaux comme Facebook ou Twitter ne fonctionnaient qu’à l’abonnement : vous ne voyiez que les contenus des personnes auxquelles vous étiez abonnés et vous ne pouviez pas republier les messages des autres ! Dans le modèle de réseau, un utilisateur voit non seulement les messages créés par les personnes auxquelles il s’est abonné, mais aussi les messages que ces utilisateurs choisissent d’amplifier, ce qui crée la possibilité de cascades d’informations et de contenus “viraux”, comme c’était le cas de Twitter jusqu’en 2016, moment où le réseau introduisit le classement algorithmique. Dans le modèle algorithmique, la souscription est bien souvent minorée, le réseau amplifié mais surtout, le flux dépend principalement de ce que l’algorithme estime être le plus susceptible d’intéresser l’utilisateur. C’est ce que Cory Doctorow désigne comme « l’emmerdification  » de nos flux, le fait de traiter la liste des personnes auxquelles nous sommes abonnés comme des suggestions et non comme des commandes.

Le passage aux recommandations algorithmiques a toujours généré des contestations, notamment parce que, si dans les modèles d’abonnement et de réseau, les créateurs peuvent se concentrer sur la construction de leur réseau, dans le « modèle algorithmique, cela ne sert à rien, car le nombre d’abonnés n’a rien à voir avec la performance des messages » (mais comme nous sommes dans des mélanges entre les trois modèles, le nombre d’abonnés a encore un peu voire beaucoup d’influence dans l’amplification). Dans le modèle algorithmique, l’audience de chaque message est optimisée de manière indépendante en fonction du sujet, de la « qualité » du message et d’un certain nombre de paramètres pris en compte par le modèle.

Amplification et viralité

La question de l’amplification interroge la question de la viralité, c’est-à-dire le fait qu’un contenu soit amplifié par une cascade de reprises, et non pas seulement diffusé d’un émetteur à son public. Le problème de la viralité est que sa portée reste imprévisible. Pour Narayan, sur toutes les grandes plateformes, pour la plupart des créateurs, la majorité de l’engagement provient d’une petite fraction de contenu viral. Sur TikTok comme sur YouTube, 20 % des vidéos les plus vues d’un compte obtiennent plus de 70 % des vues. Plus le rôle de l’algorithme dans la propagation du contenu est important, par opposition aux abonnements ou au réseau, plus cette inégalité semble importante.

Parce qu’il est particulièrement repérable dans la masse des contenus, le contenu viral se prête assez bien à la rétropropagation, c’est-à-dire à son déclassement ou à sa suppression. Le problème justement, c’est qu’il y a plein de manières de restreindre le contenu. Facebook classe les posts rétrogradés plus bas dans le fil d’actualité qu’ils ne le seraient s’ils ne l’avaient pas été, afin que les utilisateurs soient moins susceptibles de le rencontrer et de le propager. À son tour, l’effet de la rétrogradation sur la portée peut être imprévisible, non linéaire et parfois radical, puisque le contenu peut devenir parfaitement invisible. Cette rétrogradation est parfaitement opaque, notamment parce qu’une faible portée n’est pas automatiquement suspecte, étant donné qu’il existe une grande variation dans la portée naturelle du contenu.

Amplification et prédiction de l’engagement

Les plateformes ont plusieurs objectifs de haut niveau : améliorer leurs revenus publicitaires bien sûr et satisfaire suffisamment les utilisateurs pour qu’ils reviennent… Mais ces objectifs n’aident pas vraiment à décider ce qu’il faut donner à un utilisateur spécifique à un moment précis ni à mesurer comment ces décisions impactent à long terme la plateforme. D’où le fait que les plateformes observent l’engagement, c’est-à-dire les actions instantanées des utilisateurs, comme le like, le commentaire ou le partage qui permettent de classer le contenu en fonction de la probabilité que l’utilisateur s’y intéresse. « D’une certaine manière, l’engagement est une approximation des objectifs de haut niveau. Un utilisateur qui s’engage est plus susceptible de revenir et de générer des revenus publicitaires pour la plateforme.  »
Si l’engagement est vertueux, il a aussi de nombreuses limites qui expliquent que les algorithmes intègrent bien d’autres facteurs dans leur calcul. Ainsi, Facebook et Twitter optimisent les « interactions sociales significatives », c’est-à-dire une moyenne pondérée des likes, des partages et des commentaires. YouTube, lui, optimise en fonction de la durée de visionnage que l’algorithme prédit. TikTok utilise les interactions sociales et valorise les vidéos qui ont été regardées jusqu’au bout, comme un signal fort et qui explique certainement le caractère addictif de l’application et le fait que les vidéos courtes (qui ont donc tendance à obtenir un score élevé) continuent de dominer la plateforme.

En plus de ces logiques de base, il existe bien d’autres logiques secondaires, comme par exemple, pour que l’expérience utilisateur ne soit pas ralentie par le calcul, que les suggestions restent limitées, sélectionnées plus que classées, selon divers critères plus que selon des critères uniques (par exemple en proposant des nouveaux contenus et pas seulement des contenus similaires à ceux qu’on a apprécié, TikTok se distingue à nouveau par l’importance qu’il accorde à l’exploration de nouveaux contenus… c’est d’ailleurs la tactique suivie désormais par Instagram de Meta via les Reels, boostés sur le modèle de TikTok, qui ont le même effet que sur TikTok, à savoir une augmentation du temps passé sur l’application)… 

« Bien qu’il existe de nombreuses différences dans les détails, les similitudes entre les algorithmes de recommandation des différentes plateformes l’emportent sur leurs différences », estime Narayan. Les différences sont surtout spécifiques, comme Youtube qui optimise selon la durée de visionnage, ou Spotify qui s’appuie davantage sur l’analyse de contenu que sur le comportement. Pour Narayan, ces différences montrent qu’il n’y a pas de risque concurrentiel à l’ouverture des algorithmes des plateformes, car leurs adaptations sont toujours très spécifiques. Ce qui varie, c’est la façon dont les plateformes ajustent l’engagement.

Comment apprécier la similarité ?

Mais la grande question à laquelle tous tentent de répondre est la même : « Comment les utilisateurs similaires à cet utilisateur ont-ils réagi aux messages similaires à ce message ?  »

Si cette approche est populaire dans les traitements, c’est parce qu’elle s’est avérée efficace dans la pratique. Elle repose sur un double calcul de similarité. D’abord, celle entre utilisateurs. La similarité entre utilisateurs dépend du réseau (les gens que l’on suit ou ceux qu’on commente par exemple, que Twitter valorise fortement, mais peu TikTok), du comportement (qui est souvent plus critique, « deux utilisateurs sont similaires s’ils se sont engagés dans un ensemble de messages similaires  ») et les données démographiques (du type âge, sexe, langue, géographie… qui sont en grande partie déduits des comportements).

Ensuite, il y a un calcul sur la similarité des messages qui repose principalement sur leur sujet et qui repose sur des algorithmes d’extraction des caractéristiques (comme la langue) intégrant des évaluations normatives, comme la caractérisation de discours haineux. L’autre signal de similarité des messages tient, là encore, au comportement : « deux messages sont similaires si un ensemble similaire d’utilisateurs s’est engagé avec eux ». Le plus important à retenir, insiste Narayan, c’est que « l’enregistrement comportemental est le carburant du moteur de recommandation ». La grande difficulté, dans ces appréciations algorithmiques, consiste à faire que le calcul reste traitable, face à des volumes d’enregistrements d’informations colossaux.

Une histoire des évolutions des algorithmes de recommandation

« La première génération d’algorithmes de recommandation à grande échelle, comme ceux d’Amazon et de Netflix au début des années 2000, utilisait une technique simple appelée filtrage collaboratif : les clients qui ont acheté ceci ont également acheté cela ». Le principe était de recommander des articles consultés ou achetés d’une manière rudimentaire, mais qui s’est révélé puissant dans le domaine du commerce électronique. En 2006, Netflix a organisé un concours en partageant les évaluations qu’il disposait sur les films pour améliorer son système de recommandation. Ce concours a donné naissance à la « factorisation matricielle », une forme de deuxième génération d’algorithmes de recommandation, c’est-à-dire capables d’identifier des combinaisons d’attributs et de préférences croisées. Le système n’étiquette pas les films avec des termes interprétables facilement (comme “drôle” ou “thriller” ou “informatif”…), mais avec un vaste ensemble d’étiquettes (de micro-genres obscurs comme « documentaires émouvants qui combattent le système ») qu’il associe aux préférences des utilisateurs. Le problème, c’est que cette factorisation matricielle n’est pas très lisible pour l’utilisateur et se voir dire qu’on va aimer tel film sans savoir pourquoi n’est pas très satisfaisant. Enfin, ce qui marche pour un catalogue de film limité n’est pas adapté aux médias sociaux où les messages sont infinis. La prédominance de la factorisation matricielle explique pourquoi les réseaux sociaux ont tardé à se lancer dans la recommandation, qui est longtemps restée inadaptée à leurs besoins.

Pourtant, les réseaux sociaux se sont tous convertis à l’optimisation basée sur l’apprentissage automatique. En 2010, Facebook utilisait un algorithme appelé EdgeRank pour construire le fil d’actualité des utilisateurs qui consistait à afficher les éléments par ordre de priorité décroissant selon un score d’affinité qui représente la prédiction de Facebook quant au degré d’intérêt de l’utilisateur pour les contenus affichés, valorisant les photos plus que le texte par exemple. À l’époque, ces pondérations étaient définies manuellement plutôt qu’apprises. En 2018, Facebook est passé à l’apprentissage automatique. La firme a introduit une métrique appelée « interactions sociales significatives » (MSI pour meaningful social interactions) dans le système d’apprentissage automatique. L’objectif affiché était de diminuer la présence des médias et des contenus de marque au profit des contenus d’amis et de famille. « La formule calcule un score d’interaction sociale pour chaque élément susceptible d’être montré à un utilisateur donné ». Le flux est généré en classant les messages disponibles selon leur score MSI décroissant, avec quelques ajustements, comme d’introduire de la diversité (avec peu d’indications sur la façon dont est calculée et ajoutée cette diversité). Le score MSI prédit la probabilité que l’utilisateur ait un type d’interaction spécifique (comme liker ou commenter) avec le contenu et affine le résultat en fonction de l’affinité de l’utilisateur avec ce qui lui est proposé. Il n’y a plus de pondération dédiée pour certains types de contenus, comme les photos ou les vidéos. Si elles subsistent, c’est uniquement parce que le système l’aura appris à partir des données de chaque utilisateur, et continuera à vous proposer des photos si vous les appréciez.

« Si l’on pousse cette logique jusqu’à sa conclusion naturelle, il ne devrait pas être nécessaire d’ajuster manuellement la formule en fonction des affinités. Si les utilisateurs préfèrent voir le contenu de leurs amis plutôt que celui des marques, l’algorithme devrait être en mesure de l’apprendre ». Ce n’est pourtant pas ce qu’il se passe. Certainement pour lutter contre la logique de l’optimisation de l’engagement, estime Narayan, dans le but d’augmenter la satisfaction à long terme, que l’algorithme ne peut pas mesurer, mais là encore sans que les modalités de ces ajustements ne soient clairement documentés.

Est-ce que tout cela est efficace ?

Reste à savoir si ces algorithmes sont efficaces ! « Il peut sembler évident qu’ils doivent bien fonctionner, étant donné qu’ils alimentent des plateformes technologiques qui valent des dizaines ou des centaines de milliards de dollars. Mais les chiffres racontent une autre histoire. Le taux d’engagement est une façon de quantifier le problème : il s’agit de la probabilité qu’un utilisateur s’intéresse à un message qui lui a été recommandé. Sur la plupart des plateformes, ce taux est inférieur à 1 %. TikTok est une exception, mais même là, ce taux dépasse à peine les 5 %. »

Le problème n’est pas que les algorithmes soient mauvais, mais surtout que les gens ne sont pas si prévisibles. Et qu’au final, les utilisateurs ne se soucient pas tant du manque de précision de la recommandation. « Même s’ils sont imprécis au niveau individuel, ils sont précis dans l’ensemble. Par rapport aux plateformes basées sur les réseaux, les plateformes algorithmiques semblent être plus efficaces pour identifier les contenus viraux (qui trouveront un écho auprès d’un grand nombre de personnes). Elles sont également capables d’identifier des contenus de niche et de les faire correspondre au sous-ensemble d’utilisateurs susceptibles d’y être réceptifs. » Si les algorithmes sont largement limités à la recherche de modèles dans les données comportementales, ils n’ont aucun sens commun. Quant au taux de clic publicitaire, il reste encore plus infinitésimal – même s’il est toujours considéré comme un succès !

Les ingénieurs contrôlent-ils encore les algorithmes ?

Les ingénieurs ont très peu d’espace pour contrôler les effets des algorithmes de recommandation, estime Narayan, en prenant un exemple. En 2019, Facebook s’est rendu compte que les publications virales étaient beaucoup plus susceptibles de contenir des informations erronées ou d’autres types de contenus préjudiciables. En d’autres termes, ils se sont rendu compte que le passage à des interactions sociales significatives (MSI) a eu des effets de bords : les contenus qui suscitaient l’indignation et alimentaient les divisions gagnaient en portée, comme l’a expliqué l’ingénieure et lanceuse d’alerte Frances Haugen à l’origine des Facebook Files, dans ses témoignages. C’est ce que synthétise le tableau de pondération de la formule MSI publié par le Wall Street Journal, qui montrent que certains éléments ont des poids plus forts que d’autres : un commentaire vaut 15 fois plus qu’un like, mais un commentaire signifiant ou un repartage 30 fois plus, chez Facebook. Une pondération aussi élevée permet d’identifier les messages au potentiel viral et de les stimuler davantage. En 2020, Facebook a ramené la pondération des partages à 1,5, mais la pondération des commentaires est restée très élevée (15 à 20 fois plus qu’un like). Alors que les partages et les commentaires étaient regroupés dans une seule catégorie de pondération en 2018, ils ne le sont plus. Cette prime au commentaire demeure une prime aux contenus polémiques. Reste, on le comprend, que le jeu qui reste aux ingénieurs de Facebook consiste à ajuster le poids des paramètres. Pour Narayan : piloter un système d’une telle complexité en utilisant si peu de boutons ne peut qu’être difficile.

Le chercheur rappelle que le système est censé être neutre à l’égard de tous les contenus, à l’exception de certains qui enfreignent les règles de la plateforme. Utilisateurs et messages sont alors rétrogradés de manière algorithmique suite à signalement automatique ou non. Mais cette neutralité est en fait très difficile à atteindre. Les réseaux sociaux favorisent ceux qui ont déjà une grande portée, qu’elle soit méritée ou non, et sont récompensés par une plus grande portée encore. Par exemple, les 1 % d’auteurs les plus importants sur Twitter reçoivent 80 % des vues des tweets. Au final, cette conception de la neutralité finit par récompenser ceux qui sont capables de pirater l’engagement ou de tirer profit des biais sociaux.

Outre cette neutralité, un deuxième grand principe directeur est que « l’algorithme sait mieux que quiconque ». « Ce principe et celui de la neutralité se renforcent mutuellement. Le fait de confier la politique (concernant le contenu à amplifier) aux données signifie que les ingénieurs n’ont pas besoin d’avoir un point de vue à ce sujet. Et cette neutralité fournit à l’algorithme des données plus propres à partir desquelles il peut apprendre. »
Le principe de l’algorithme qui sait le mieux signifie que la même optimisation est appliquée à tous les types de discours : divertissement, informations éducatives, informations sur la santé, actualités, discours politique, discours commercial, etc. En 2021, FB a fait une tentative de rétrograder tout le contenu politique, ce qui a eu pour effet de supprimer plus de sources d’information de haute qualité que de faible qualité, augmentant la désinformation. Cette neutralité affichée permet également une forme de désengagement des ingénieurs.

En 2021, encore, FB a entraîné des modèles d’apprentissage automatique pour classer les messages en deux catégories : bons ou mauvais pour le monde, en interrogeant les utilisateurs pour qu’ils apprécient des contenus qui leurs étaient proposés pour former les données. FB a constaté que les messages ayant une plus grande portée étaient considérés comme étant mauvais pour le monde. FB a donc rétrogradé ces contenus… mais en trouvant moins de contenus polémique, cette modification a entraîné une diminution de l’ouverture de l’application par les utilisateurs. L’entreprise a donc redéployé ce modèle en lui donnant bien moins de poids. Les corrections viennent directement en conflit avec le modèle d’affaires.

Illustration par Jason Alderman « Those Algorithms That Govern Our Lives – Kevin Slavin« . (CC BY 2.0)

Pourquoi l’optimisation de l’engagement nous nuit-elle ?

« Un grand nombre des pathologies familières des médias sociaux sont, à mon avis, des conséquences relativement directes de l’optimisation de l’engagement », suggère encore le chercheur. Cela explique pourquoi les réformes sont difficiles et pourquoi l’amélioration de la transparence des algorithmes, de la modération, voire un meilleur contrôle par l’utilisateur de ce qu’il voit (comme le proposait Gobo mis en place par Ethan Zuckerman), ne sont pas des solutions magiques (même si elles sont nécessaires).

Les données comportementales, celles relatives à l’engagement passé, sont la matière première essentielle des moteurs de recommandations. Les systèmes privilégient la rétroaction implicite sur l’explicite, à la manière de YouTube qui a privilégié le temps passé sur les rétroactions explicites (les likes). Sur TikTok, il n’y a même plus de sélection, il suffit de swipper.

Le problème du feedback implicite est qu’il repose sur nos réactions inconscientes, automatiques et émotionnelles, sur nos pulsions, qui vont avoir tendance à privilégier une vidéo débile sur un contenu expert.

Pour les créateurs de contenu, cette optimisation par l’engagement favorise la variance et l’imprévisibilité, ce qui a pour conséquence d’alimenter une surproduction pour compenser cette variabilité. La production d’un grand volume de contenu, même s’il est de moindre qualité, peut augmenter les chances qu’au moins quelques-uns deviennent viraux chaque mois afin de lisser le flux de revenus. Le fait de récompenser les contenus viraux se fait au détriment de tous les autres types de contenus (d’où certainement le regain d’attraits pour des plateformes non algorithmiques, comme Substack voire dans une autre mesure, Mastodon).

Au niveau de la société, toutes les institutions sont impactées par les plateformes algorithmiques, du tourisme à la science, du journalisme à la santé publique. Or, chaque institution à des valeurs, comme l’équité dans le journalisme, la précision en science, la qualité dans nombre de domaines. Les algorithmes des médias sociaux, eux, ne tiennent pas compte de ces valeurs et de ces signaux de qualité. « Ils récompensent des facteurs sans rapport, sur la base d’une logique qui a du sens pour le divertissement, mais pas pour d’autres domaines ». Pour Narayan, les plateformes de médias sociaux « affaiblissent les institutions en sapant leurs normes de qualité et en les rendant moins dignes de confiance ». C’est particulièrement actif dans le domaine de l’information, mais cela va bien au-delà, même si ce n’est pas au même degré. TikTok peut sembler ne pas représenter une menace pour la science, mais nous savons que les plateformes commencent par être un divertissement avant de s’étendre à d’autres sphères du discours, à l’image d’Instagram devenant un outil de communication politique ou de Twitter, où un tiers des tweets sont politiques.

La science des données en ses limites

Les plateformes sont bien conscientes de leurs limites, pourtant, elles n’ont pas fait beaucoup d’efforts pour résoudre les problèmes. Ces efforts restent occasionnels et rudimentaires, à l’image de la tentative de Facebook de comprendre la valeur des messages diffusés. La raison est bien sûr que ces aménagements nuisent aux résultats financiers de l’entreprise. « Le recours à la prise de décision subconsciente et automatique est tout à fait intentionnelle ; c’est ce qu’on appelle la « conception sans friction ». Le fait que les utilisateurs puissent parfois faire preuve de discernement et résister à leurs impulsions est vu comme un problème à résoudre. »

Pourtant, ces dernières années, la réputation des plateformes n’est plus au beau fixe. Narayan estime qu’il y a une autre limite. « La plupart des inconvénients de l’optimisation de l’engagement ne sont pas visibles dans le cadre dominant de la conception des plateformes, qui accorde une importance considérable à la recherche d’une relation quantitative et causale entre les changements apportés à l’algorithme et leurs effets. »
Si on observe les raisons qui poussent l’utilisateur à quitter une plateforme, la principale est qu’il ne parvient pas à obtenir des recommandations suffisamment intéressantes. Or, c’est exactement ce que l’optimisation par l’engagement est censée éviter. Les entreprises parviennent très bien à optimiser des recommandations qui plaisent à l’utilisateur sur l’instant, mais pas celles qui lui font dire, une fois qu’il a fermé l’application, que ce qu’il y a trouvé l’a enrichi. Elles n’arrivent pas à calculer et à intégrer le bénéfice à long terme, même si elles restent très attentives aux taux de rétention ou aux taux de désabonnement. Pour y parvenir, il faudrait faire de l’A/B testing au long cours. Les plateformes savent le faire. Facebook a constaté que le fait d’afficher plus de notifications augmentait l’engagement à court terme mais avait un effet inverse sur un an. Reste que ce regard sur leurs effets à longs termes ne semble pas être une priorité par rapport à leurs effets de plus courts termes.

Une autre limite repose sur l’individualisme des plateformes. Si les applications sociales sont, globalement, assez satisfaisantes pour chacun, ni les utilisateurs ni les plateformes n’intériorisent leurs préjudices collectifs. Ces systèmes reposent sur l’hypothèse que le comportement de chaque utilisateur est indépendant et que l’effet sur la société (l’atteinte à la démocratie par exemple…) est très difficile à évaluer. Narayan le résume dans un tableau parlant, où la valeur sur la société n’a pas de métrique associée.

Graphique montrant les 4 niveaux sur lesquels les algorithmes des plateformes peuvent avoir des effets. CTR : Click Through Rate (taux de clic). MSI : Meaningful Social Interactions, interactions sociales significatives, la métrique d'engagement de Facebook. DAU : Daily active users, utilisateurs actifs quotidiens.
Tableau montrant les 4 niveaux sur lesquels les algorithmes des plateformes peuvent avoir des effets. CTR : Click Through Rate (taux de clic). MSI : Meaningful Social Interactions, interactions sociales significatives, la métrique d’engagement de Facebook. DAU : Daily active users, utilisateurs actifs quotidiens.

Les algorithmes ne sont pas l’ennemi (enfin si, quand même un peu)

Pour répondre à ces problèmes, beaucoup suggèrent de revenir à des flux plus chronologiques ou a des suivis plus stricts des personnes auxquelles nous sommes abonnés. Pas sûr que cela soit une solution très efficace pour gérer les volumes de flux, estime le chercheur. Les algorithmes de recommandation ont été la réponse à la surcharge d’information, rappelle-t-il : « Il y a beaucoup plus d’informations en ligne en rapport avec les intérêts d’une personne qu’elle n’en a de temps disponible. » Les algorithmes de classement sont devenus une nécessité pratique. Même dans le cas d’un réseau longtemps basé sur l’abonnement, comme Instagram : en 2016, la société indiquait que les utilisateurs manquaient 70 % des publications auxquelles ils étaient abonnés. Aujourd’hui, Instagram compte 5 fois plus d’utilisateurs. En fait, les plateformes subissent d’énormes pressions pour que les algorithmes soient encore plus au cœur de leur fonctionnement que le contraire. Et les systèmes de recommandation font leur entrée dans d’autres domaines, comme l’éducation (avec Coursera) ou la finance (avec Robinhood).

Pour Narayan, l’enjeu reste de mieux comprendre ce qu’ils font. Pour cela, nous devons continuer d’exiger d’eux bien plus de transparence qu’ils n’en livrent. Pas plus que dans le monde des moteurs de recherche nous ne reviendrons aux annuaires, nous ne reviendrons pas aux flux chronologiques dans les moteurs de recommandation. Nous avons encore des efforts à faire pour contrecarrer activement les modèles les plus nuisibles des recommandations. L’enjeu, conclut-il, est peut-être d’esquisser plus d’alternatives que nous n’en disposons, comme par exemple, d’imaginer des algorithmes de recommandations qui n’optimisent pas l’engagement, ou pas seulement. Cela nécessite certainement aussi d’imaginer des réseaux sociaux avec des modèles économiques différents. Un autre internet. Les algorithmes ne sont peut-être pas l’ennemi comme il le dit, mais ceux qui ne sont ni transparents, ni loyaux, et qui optimisent leurs effets en dehors de toute autre considération, ne sont pas nos amis non plus !




Ouvrir le code des algorithmes ? — Oui, mais… (1/2)

Voici le premier des deux articles qu’Hubert Guillaud nous fait le plaisir de partager. Sans s’arrêter à la surface de l’actualité, il aborde la transparence du code des algorithmes, qui entraîne un grand nombre de questions épineuses sur lesquelles il s’est documenté pour nous faire part de ses réflexions.


Dans le code source de l’amplification algorithmique : publier le code ne suffit pas !

par Hubert GUILLAUD

Le 31 mars, Twitter a publié une partie du code source qui alimente son fil d’actualité, comme l’a expliqué l’équipe elle-même dans un billet. Ces dizaines de milliers de lignes de code contiennent pourtant peu d’informations nouvelles. Depuis le rachat de l’oiseau bleu par Musk, Twitter a beaucoup changé et ne cesse de se modifier sous les yeux des utilisateurs. La publication du code source d’un système, même partiel, qui a longtemps été l’un des grands enjeux de la transparence, montre ses limites.

un jeune homme montre une ligne d'une explication de l'encodage des algorithmes au rétroprojecteur
« LZW encoding and decoding algorithms overlapped » par nayukim, licence CC BY 2.0.

Publier le code ne suffit pas

Dans un excellent billet de blog, le chercheur Arvind Narayan (sa newsletter mérite également de s’y abonner) explique ce qu’il faut en retenir. Comme ailleurs, les règles ne sont pas claires. Les algorithmes de recommandation utilisent l’apprentissage automatique ce qui fait que la manière de classer les tweets n’est pas directement spécifiée dans le code, mais apprise par des modèles à partir de données de Twitter sur la manière dont les utilisateurs ont réagi aux tweets dans le passé. Twitter ne divulgue ni ces modèles ni les données d’apprentissages, ce qui signifie qu’il n’est pas possible d’exécuter ces modèles. Le code ne permet pas de comprendre pourquoi un tweet est ou n’est pas recommandé à un utilisateur, ni pourquoi certains contenus sont amplifiés ou invisibilisés. C’est toute la limite de la transparence. Ce que résume très bien le journaliste Nicolas Kayser-Bril pour AlgorithmWatch (pertinemment traduit par le framablog) : « Vous ne pouvez pas auditer un code seulement en le lisant. Il faut l’exécuter sur un ordinateur. »

« Ce que Twitter a publié, c’est le code utilisé pour entraîner les modèles, à partir de données appropriées », explique Narayan, ce qui ne permet pas de comprendre les propagations, notamment du fait de l’absence des données. De plus, les modèles pour détecter les tweets qui violent les politiques de Twitter et qui leur donnent des notes de confiance en fonction de ces politiques sont également absentes (afin que les usagers ne puissent pas déjouer le système, comme nous le répètent trop de systèmes rétifs à l’ouverture). Or, ces classements ont des effets de rétrogradation très importants sur la visibilité de ces tweets, sans qu’on puisse savoir quels tweets sont ainsi classés, selon quelles méthodes et surtout avec quelles limites.

La chose la plus importante que Twitter a révélée en publiant son code, c’est la formule qui spécifie comment les différents types d’engagement (likes, retweets, réponses, etc.) sont pondérés les uns par rapport aux autres… Mais cette formule n’est pas vraiment dans le code. Elle est publiée séparément, notamment parce qu’elle n’est pas statique, mais qu’elle doit être modifiée fréquemment.

Sans surprise, le code révèle ainsi que les abonnés à Twitter Blue, ceux qui payent leur abonnement, bénéficient d’une augmentation de leur portée (ce qui n’est pas sans poser un problème de fond, comme le remarque pertinemment sur Twitter, Guillaume Champeau, car cette préférence pourrait mettre ces utilisateurs dans la position d’être annonceurs, puisqu’ils payent pour être mis en avant, sans que l’interface ne le signale clairement, autrement que par la pastille bleue). Reste que le code n’est pas clair sur l’ampleur de cette accélération. Les notes attribuées aux tweets des abonnés Blue sont multipliées par 2 ou 4, mais cela ne signifie pas que leur portée est pareillement multipliée. « Une fois encore, le code ne nous dit pas le genre de choses que nous voudrions savoir », explique Narayan.

Reste que la publication de la formule d’engagement est un événement majeur. Elle permet de saisir le poids des réactions sur un tweet. On constate que la réponse à tweet est bien plus forte que le like ou que le RT. Et la re-réponse de l’utilisateur originel est prédominante, puisque c’est le signe d’une conversation forte. À l’inverse, le fait qu’un lecteur bloque, mute ou se désabonne d’un utilisateur suite à un tweet est un facteur extrêmement pénalisant pour la propagation du tweet.

Tableau du poids attribué en fonction des types d’engagement possibles sur Twitter.

Ces quelques indications permettent néanmoins d’apprendre certaines choses. Par exemple que Twitter ne semble pas utiliser de prédictions d’actions implicites (comme lorsqu’on s’arrête de faire défiler son fil), ce qui permet d’éviter l’amplification du contenu trash que les gens ne peuvent s’empêcher de regarder, même s’ils ne s’y engagent pas. La formule nous apprend que les retours négatifs ont un poids très élevé, ce qui permet d’améliorer son flux en montrant à l’algorithme ce dont vous ne voulez pas – même si les plateformes devraient permettre des contrôles plus explicites pour les utilisateurs. Enfin, ces poids ont des valeurs souvent précises, ce qui signifie que ce tableau n’est valable qu’à l’instant de la publication et qu’il ne sera utile que si Twitter le met à jour.

Les algorithmes de recommandation qui optimisent l’engagement suivent des modèles assez proches. La publication du code n’est donc pas très révélatrice. Trois éléments sont surtout importants, insiste le chercheur :

« Le premier est la manière dont les algorithmes sont configurés : les signaux utilisés comme entrée, la manière dont l’engagement est défini, etc. Ces informations doivent être considérées comme un élément essentiel de la transparence et peuvent être publiées indépendamment du code. La seconde concerne les modèles d’apprentissage automatique qui, malheureusement, ne peuvent généralement pas être divulgués pour des raisons de protection de la vie privée. Le troisième est la boucle de rétroaction entre les utilisateurs et l’algorithme ».

Autant d’éléments qui demandent des recherches, des expériences et du temps pour en comprendre les limites.

Si la transparence n’est pas une fin en soi, elle reste un moyen de construire un meilleur internet en améliorant la responsabilité envers les utilisateurs, rappelle l’ingénieur Gabriel Nicholas pour le Center for Democracy & Technology. Il souligne néanmoins que la publication d’une partie du code source de Twitter ne contrebalance pas la fermeture du Consortium de recherche sur la modération, ni celle des rapports de transparence relatives aux demandes de retraits des autorités ni celle de l’accès à son API pour chercheurs, devenue extrêmement coûteuse.

« Twitter n’a pas exactement ’ouvert son algorithme’ comme certains l’ont dit. Le code est lourdement expurgé et il manque plusieurs fichiers de configuration, ce qui signifie qu’il est pratiquement impossible pour un chercheur indépendant d’exécuter l’algorithme sur des échantillons ou de le tester d’une autre manière. Le code publié n’est en outre qu’un instantané du système de recommandation de Twitter et n’est pas réellement connecté au code en cours d’exécution sur ses serveurs. Cela signifie que Twitter peut apporter des modifications à son code de production et ne pas l’inclure dans son référentiel public, ou apporter des modifications au référentiel public qui ne sont pas reflétées dans son code de production. »

L’algorithme publié par Twitter est principalement son système de recommandation. Il se décompose en 3 parties, explique encore Nicholas :

  • Un système de génération de contenus candidats. Ici, Twitter sélectionne 1500 tweets susceptibles d’intéresser un utilisateur en prédisant la probabilité que l’utilisateur s’engage dans certaines actions pour chaque tweet (c’est-à-dire qu’il RT ou like par exemple).
  • Un système de classement. Une fois que les 1 500 tweets susceptibles d’être servis sont sélectionnés, ils sont notés en fonction de la probabilité des actions d’engagement, certaines actions étant pondérées plus fortement que d’autres. Les tweets les mieux notés apparaîtront généralement plus haut dans le fil d’actualité de l’utilisateur.
  • Un système de filtrage. Les tweets ne sont pas classés strictement en fonction de leur score. Des heuristiques et des filtres sont appliqués pour, par exemple, éviter d’afficher plusieurs tweets du même auteur ou pour déclasser les tweets d’auteurs que l’utilisateur a déjà signalés pour violation de la politique du site.

Le score final est calculé en additionnant la probabilité de chaque action multipliée par son poids (en prenant certainement en compte la rareté ou la fréquence d’action, le fait de répondre à un tweet étant moins fréquent que de lui attribuer un like). Mais Twitter n’a pas publié la probabilité de base de chacune de ces actions ce qui rend impossible de déterminer l’importance de chacune d’elles dans les recommandations qui lui sont servies.

Twitter a également révélé quelques informations sur les autres facteurs qu’il prend en compte en plus du classement total d’un tweet. Par exemple, en équilibrant les recommandations des personnes que vous suivez avec celles que vous ne suivez pas, en évitant de recommander les tweets d’un même auteur ou en donnant une forte prime aux utilisateurs payants de Twitter Blue.

Il y a aussi beaucoup de code que Twitter n’a pas partagé. Il n’a pas divulgué beaucoup d’informations sur l’algorithme de génération des tweets candidats au classement ni sur ses paramètres et ses données d’entraînement. Twitter n’a pas non plus explicitement partagé ses algorithmes de confiance et de sécurité pour détecter des éléments tels que les abus, la toxicité ou les contenus pour adultes, afin d’empêcher les gens de trouver des solutions de contournement, bien qu’il ait publié certaines des catégories de contenu qu’il signale.

 

graphe des relations entre comptes twitter, tr-s nombreux traits bleus entre minuscules avatars de comptes, le tout donne une impression d'inextricable comlexité
« 20120212-NodeXL-Twitter-socbiz network graph » par Marc_Smith; licence CC BY 2.0.

 

Pour Gabriel Nicholas, la transparence de Twitter serait plus utile si Twitter avait maintenu ouverts ses outils aux chercheurs. Ce n’est pas le cas.

Il y a plein d’autres points que l’ouverture de l’algorithme de Twitter a documentés. Par exemple, l’existence d’un Tweepcred, un score qui classe les utilisateurs et qui permet de voir ses publications boostées si votre score est bon, comme l’expliquait Numerama. Ou encore le fait que chaque compte est clustérisé dans un groupe aux profils similaires dans lequel les tweets sont d’abord diffusés avant d’être envoyés plus largement s’ils rencontrent un premier succès… De même, il semblerait qu’il y ait certaines catégories d’utilisateurs spéciaux (dont une catégorie relative à Elon Musk) mais qui servent peut-être plus certaines statistiques qu’à doper la portée de certains comptes comme on l’a entendu (même s’il semble bien y avoir une catégorie VIP sur Twitter – comme il y a sur Facebook un statut d’exception à la modération)…

Ouvrir, mais ouvrir quoi ?

En conclusion de son article, Narayan pointe vers un très intéressant article qui dresse une liste d’options de transparence pour ceux qui produisent des systèmes de recommandation, publiée par les chercheurs Priyanjana Bengani, Jonathan Stray et Luke Thorburn. Ils rappellent que les plateformes ont mis en place des mesures de transparence, allant de publications statistiques à des interfaces de programmation, en passant par des outils et des ensembles de données protégés. Mais ces mesures, très techniques, restent insuffisantes pour comprendre les algorithmes de recommandation et leur influence sur la société. Une grande partie de cette résistance à la transparence ne tient pas tant aux risques commerciaux qui pourraient être révélés qu’à éviter l’embarras d’avoir à se justifier de choix qui ne le sont pas toujours. D’une manière très pragmatique, les trois chercheurs proposent un menu d’actions pour améliorer la transparence et l’explicabilité des systèmes.

Documenter
L’un des premiers outils, et le plus simple, reste la documentation qui consiste à expliquer en termes clairs – selon différentes échelles et niveaux, me semble-t-il – ce qui est activé par une fonction. Pour les utilisateurs, c’est le cas du bouton « Pourquoi je vois ce message » de Facebook ou du panneau « Fréquemment achetés ensemble » d’Amazon. L’idée ici est de fourbir un « compte rendu honnête ». Pour les plus évoluées de ces interfaces, elles devraient permettre non seulement d’informer et d’expliquer pourquoi on nous recommande ce contenu, mais également, permettre de rectifier et mieux contrôler son expérience en ligne, c’est-à-dire d’avoir des leviers d’actions sur la recommandation.

Une autre forme de documentation est celle sur le fonctionnement général du système et ses décisions de classement, à l’image des rapports de transparence sur les questions de sécurité et d’intégrité que doivent produire la plupart des plateformes (voir celui de Google, par exemple). Cette documentation devrait intégrer des informations sur la conception des algorithmes, ce que les plateformes priorisent, minimisent et retirent, si elles donnent des priorités et à qui, tenir le journal des modifications, des nouvelles fonctionnalités, des changements de politiques. La documentation doit apporter une information solide et loyale, mais elle reste souvent insuffisante.

Les données
Pour comprendre ce qu’il se passe sur une plateforme, il est nécessaire d’obtenir des données. Twitter ou Facebook en ont publié (accessibles sous condition de recherche, ici pour Twitter,  pour Facebook). Une autre approche consiste à ouvrir des interfaces de programmation, à l’image de CrowdTangle de Facebook ou de l’API de Twitter. Depuis le scandale Cambridge Analytica, l’accès aux données est souvent devenu plus difficile, la protection de la vie privée servant parfois d’excuse aux plateformes pour éviter d’avoir à divulguer leurs pratiques. L’accès aux données, même pour la recherche, s’est beaucoup refermé ces dernières années. Les plateformes publient moins de données et CrowdTangle propose des accès toujours plus sélectifs. Chercheurs et journalistes ont été contraints de développer leurs propres outils, comme des extensions de navigateurs permettant aux utilisateurs de faire don de leurs données (à l’image du Citizen Browser de The Markup) ou des simulations automatisées (à l’image de l’analyse robotique de TikTok produite par le Wall Street Journal), que les plateformes ont plutôt eu tendance à bloquer en déniant les résultats obtenus sous prétexte d’incomplétude – ce qui est justement le problème que l’ouverture de données cherche à adresser.

Le code
L’ouverture du code des systèmes de recommandation pourrait être utile, mais elle ne suffit pas, d’abord parce que dans les systèmes de recommandation, il n’y a pas un algorithme unique. Nous sommes face à des ensembles complexes et enchevêtrés où « différents modèles d’apprentissage automatique formés sur différents ensembles de données remplissent diverses fonctions ». Même le classement ou le modèle de valeur pour déterminer le score n’explique pas tout. Ainsi, « le poids élevé sur un contenu d’un type particulier ne signifie pas nécessairement qu’un utilisateur le verra beaucoup, car l’exposition dépend de nombreux autres facteurs, notamment la quantité de ce type de contenu produite par d’autres utilisateurs. »

Peu de plateformes offrent une grande transparence au niveau du code source. Reddit a publié en 2008 son code source, mais a cessé de le mettre à jour. En l’absence de mesures de transparence, comprendre les systèmes nécessite d’écluser le travail des journalistes, des militants et des chercheurs pour tenter d’en obtenir un aperçu toujours incomplet.

La recherche
Les plateformes mènent en permanence une multitude de projets de recherche internes voire externes et testent différentes approches pour leurs systèmes de recommandation. Certains des résultats finissent par être accessibles dans des revues ou des articles soumis à des conférences ou via des fuites d’informations. Quelques efforts de partenariats entre la recherche et les plateformes ont été faits, qui restent embryonnaires et ne visent pas la transparence, mais qui offrent la possibilité à des chercheurs de mener des expériences et donc permettent de répondre à des questions de nature causale, qui ne peuvent pas être résolues uniquement par l’accès aux données.

Enfin, les audits peuvent être considérés comme un type particulier de recherche. À l’heure actuelle, il n’existe pas de bons exemples d’audits de systèmes de recommandation menés à bien. Reste que le Digital Service Act (DSA) européen autorise les audits externes, qu’ils soient lancés par l’entreprise ou dans le cadre d’une surveillance réglementaire, avec des accès élargis par rapport à ceux autorisés pour l’instant. Le DSA exige des évaluations sur le public mineur, sur la sécurité, la santé, les processus électoraux… mais ne précise ni comment ces audits doivent être réalisés ni selon quelles normes. Des méthodes spécifiques ont été avancées pour contrôler la discrimination, la polarisation et l’amplification dans les systèmes de recommandation.

En principe, on pourrait évaluer n’importe quel préjudice par des audits. Ceux-ci visent à vérifier si « la conception et le fonctionnement d’un système de recommandation respectent les meilleures pratiques et si l’entreprise fait ce qu’elle dit qu’elle fait. S’ils sont bien réalisés, les audits pourraient offrir la plupart des avantages d’un code source ouvert et d’un accès aux données des utilisateurs, sans qu’il soit nécessaire de les rendre publics. » Reste qu’il est peu probable que les audits imposés par la surveillance réglementaire couvrent tous les domaines qui préoccupent ceux qui sont confrontés aux effets des outils de recommandations.

Autres moteurs de transparence : la gouvernance et les calculs

Les chercheurs concluent en soulignant qu’il existe donc une gamme d’outils à disposition, mais qu’elle manque de règles et de bonnes pratiques partagées. Face aux obligations de transparence et de contrôles qui arrivent (pour les plus gros acteurs d’abord, mais parions que demain, elles concerneront bien d’autres acteurs), les entreprises peinent à se mettre en ordre de marche pour proposer des outillages et des productions dans ces différents secteurs qui leur permettent à la fois de se mettre en conformité et de faire progresser leurs outils. Ainsi, par exemple, dans le domaine des données, documenter les jeux et les champs de données, à défaut de publier les jeux de données, pourrait déjà permettre un net progrès. Dans le domaine de la documentation, les cartes et les registres permettent également d’expliquer ce que les calculs opèrent (en documentant par exemple leurs marges d’erreurs).

Reste que l’approche très technique que mobilisent les chercheurs oublie quelques leviers supplémentaires. Je pense notamment aux conseils de surveillance, aux conseils éthiques, aux conseils scientifiques, en passant par les organismes de contrôle indépendants, aux comités participatifs ou consultatifs d’utilisateurs… à tous les outils institutionnels, participatifs ou militants qui permettent de remettre les parties prenantes dans le contrôle des décisions que les systèmes prennent. Dans la lutte contre l’opacité des décisions, tous les leviers de gouvernance sont bons à prendre. Et ceux-ci sont de très bons moyens pour faire pression sur la transparence, comme l’expliquait très pertinemment David Robinson dans son livre Voices in the Code.

Un autre levier me semble absent de nombre de propositions… Alors qu’on ne parle que de rendre les calculs transparents, ceux-ci sont toujours absents des discussions. Or, les règles de traitements sont souvent particulièrement efficaces pour améliorer les choses. Il me semble qu’on peut esquisser au moins deux moyens pour rendre les calculs plus transparents et responsables : la minimisation et les interdictions.

La minimisation vise à rappeler qu’un bon calcul ne démultiplie pas nécessairement les critères pris en compte. Quand on regarde les calculs, bien souvent, on est stupéfait d’y trouver des critères qui ne devraient pas être pris en compte, qui n’ont pas de fondements autres que d’être rendus possibles par le calcul. Du risque de récidive au score de risque de fraude à la CAF, en passant par l’attribution de greffes ou aux systèmes de calculs des droits sociaux, on trouve toujours des éléments qui apprécient le calcul alors qu’ils n’ont aucune justification ou pertinence autres que d’être rendu possibles par le calcul ou les données. C’est le cas par exemple du questionnaire qui alimente le calcul de risque de récidive aux Etats-Unis, qui repose sur beaucoup de questions problématiques. Ou de celui du risque de fraude à la CAF, dont les anciennes versions au moins (on ne sait pas pour la plus récente) prenaient en compte par exemple le nombre de fois où les bénéficiaires se connectaient à leur espace en ligne (sur cette question, suivez les travaux de la Quadrature et de Changer de Cap). La minimisation, c’est aussi, comme l’explique l’ex-chercheur de chez Google, El Mahdi El Mhamdi, dans une excellente interview, limiter le nombre de paramètres pris en compte par les calculs et limiter l’hétérogénéité des données.

L’interdiction, elle, vise à déterminer que certains croisements ne devraient pas être autorisés, par exemple, la prise en compte des primes dans les logiciels qui calculent les données d’agenda du personnel, comme semble le faire le logiciel Orion mis en place par la Sncf, ou Isabel, le logiciel RH que Bol.com utilise pour gérer la main-d’œuvre étrangère dans ses entrepôts de logistique néerlandais. Ou encore, comme le soulignait Narayan, le temps passé sur les contenus sur un réseau social par exemple, ou l’analyse de l’émotion dans les systèmes de recrutement (et ailleurs, tant cette technologie pose problème). A l’heure où tous les calculs sont possibles, il va être pertinent de rappeler que selon les secteurs, certains croisements doivent rester interdits parce qu’ils sont trop à risque pour être mobilisés dans le calcul ou que certains calculs ne peuvent être autorisés.

Priyanjana Bengani, Jonathan Stray et Luke Thorburn, pour en revenir à eux, notent enfin que l’exigence de transparence reste formulée en termes très généraux par les autorités réglementaires. Dans des systèmes vastes et complexes, il est difficile de savoir ce que doit signifier réellement la transparence. Pour ma part, je milite pour une transparence “projective”, active, qui permette de se projeter dans les explications, c’est-à-dire de saisir ses effets et dépasser le simple caractère narratif d’une explication loyale, mais bien de pouvoir agir et reprendre la main sur les calculs.

Coincés dans les boucles de l’amplification

Plus récemment, les trois mêmes chercheurs, passé leur article séminal, ont continué à documenter leur réflexion. Ainsi, dans « Rendre l’amplification mesurable », ils expliquent que l’amplification est souvent bien mal définie (notamment juridiquement, ils ont consacré un article entier à la question)… mais proposent d’améliorer les propriétés permettant de la définir. Ils rappellent d’abord que l’amplification est relative, elle consiste à introduire un changement par rapport à un calcul alternatif ou précédent qui va avoir un effet sans que le comportement de l’utilisateur n’ait été, lui, modifié.

L’amplification agit d’abord sur un contenu et nécessite de répondre à la question de savoir ce qui a été amplifié. Mais même dire que les fake news sont amplifiées n’est pas si simple, à défaut d’avoir une définition précise et commune des fake news qui nécessite de comprendre les classifications opérées. Ensuite, l’amplification se mesure par rapport à un point de référence précédent qui est rarement précisé. Enfin, quand l’amplification atteint son but, elle produit un résultat qui se voit dans les résultats liés à l’engagement (le nombre de fois où le contenu a été apprécié ou partagé) mais surtout ceux liés aux impressions (le nombre de fois où le contenu a été vu). Enfin, il faut saisir ce qui relève de l’algorithme et du comportement de l’utilisateur. Si les messages d’un parti politique reçoivent un nombre relativement important d’impressions, est-ce parce que l’algorithme est biaisé en faveur du parti politique en question ou parce que les gens ont tendance à s’engager davantage avec le contenu de ce parti ? Le problème, bien sûr, est de distinguer l’un de l’autre d’une manière claire, alors qu’une modification de l’algorithme entraîne également une modification du comportement de l’utilisateur. En fait, cela ne signifie pas que c’est impossible, mais que c’est difficile, expliquent les chercheurs. Cela nécessite un système d’évaluation de l’efficacité de l’algorithme et beaucoup de tests A/B pour comparer les effets des évolutions du calcul. Enfin, estiment-ils, il faut regarder les effets à long terme, car les changements dans le calcul prennent du temps à se diffuser et impliquent en retour des réactions des utilisateurs à ces changements, qui s’adaptent et réagissent aux transformations.

Dans un autre article, ils reviennent sur la difficulté à caractériser l’effet bulle de filtre des médias sociaux, notamment du fait de conceptions élastiques du phénomène. S’il y a bien des boucles de rétroaction, leur ampleur est très discutée et dépend beaucoup du contexte. Ils en appellent là encore à des mesures plus précises des phénomènes. Certes, ce que l’on fait sur les réseaux sociaux influe sur ce qui est montré, mais il est plus difficile de démontrer que ce qui est montré affecte ce que l’on pense. Il est probable que les effets médiatiques des recommandations soient faibles pour la plupart des gens et la plupart du temps, mais beaucoup plus importants pour quelques individus ou sous-groupes relativement à certaines questions ou enjeux. De plus, il est probable que changer nos façons de penser ne résulte pas d’une exposition ponctuelle, mais d’une exposition à des récits et des thèmes récurrents, cumulatifs et à long terme. Enfin, si les gens ont tendance à s’intéresser davantage à l’information si elle est cohérente avec leur pensée existante, il reste à savoir si ce que l’on pense affecte ce à quoi l’on s’engage. Mais cela est plus difficile à mesurer car cela suppose de savoir ce que les gens pensent et pas seulement constater leurs comportements en ligne. En général, les études montrent plutôt que l’exposition sélective a peu d’effets. Il est probable cependant que là encore, l’exposition sélective soit faible en moyenne, mais plus forte pour certains sous-groupes de personnes en fonction des contextes, des types d’informations.

Bref, là encore, les effets des réseaux sociaux sont difficiles à percer.

Pour comprendre les effets de l’amplification algorithmique, peut-être faut-il aller plus avant dans la compréhension que nous avons des évolutions de celle-ci, afin de mieux saisir ce que nous voulons vraiment savoir. C’est ce que nous tenterons de faire dans la suite de cet article…




Point d’étape pour l’écriture à deux mains de « L’amour en Commun »

Prouver par l’exemple qu’il est possible de faire autrement, tel est souvent le moteur des projets de Framasoft. Il en va ainsi pour Des Livres en Communs, qui propose un autre modèle d’édition : une bourse aux autrices et auteurs en amont de l’écriture ainsi qu’une publication de l’ouvrage sous licence libre afin de le verser dans les Communs. Nous posons pour principe que le travail d’écriture nécessite un revenu si l’on considère que l’œuvre ainsi accompagnée bénéficie ensuite à tous (davantage sur ce projet et les valeurs qu’il porte).

C’est dans cet esprit que nous avons publié en janvier de l’année dernière notre premier Appel à projet auquel ont répondu 22 propositions «sérieuses » (qui correspondaient bien à la demande initiale). Notre petit comité de lecture a dû faire une première sélection puis trancher entre au moins trois projets de qualité que nous aurions aimé accompagner aussi… et puis c’est celui de Timothé et Margaux qui l’a emporté par son sérieux, son originalité et son caractère hybride… Voici un bref extrait de leur note d’intention :

« nous avons choisi d’interroger comment le commun de l’amour, en tant que moyen d’organisation et moteur d’engagement, permet de construire une alternative à la société capitaliste. Cela nécessite de penser l’amour hors des structures sociales préétablies (couple hétérosexuel et monogame) pour choisir nos contrats et nos croyances, d’explorer de nouvelles manières de vivre ensemble… »

C’est ainsi que s’est entamé en juin dernier le processus d’écriture pour eux et d’accompagnement éditorial pour nous : rencontre au framacamp et échanges par mail ou visio qui sont l’occasion de suggestions de lectures, références et interviews, mais aussi téléversement à mesure des travaux en cours sur notre Framacloud pour en faciliter les étapes de révision. Il est difficile aujourd’hui de préciser une date de publication mais d’après le planning établi ce devrait être vers la fin de l’année… Mais nous évitons de mettre trop de pression sur le duo, car nous savons bien qu’un temps long d’élaboration est nécessaire… c’est l’occasion de glisser ce clin d’œil d’un auteur célébré par beaucoup :

“I love deadlines. I love the whooshing noise they make as they go by.”

― Douglas Adams

(à peu près :« j’aime les dates limites, j’adore le bruissement de leur souffle quand elles s’évanouissent »)

C’est le moment de faire un point d’étape avec le duo et de remercier sincèrement les donateurs et donatrices de Framasoft qui ont permis le financement de cette expérimentation.

la lettre F de Framasoft fait se rejoindre le C et le O des Commons
Logo de DLeC

 

Bonjour Margaux et Timothé. L’équipe de DLeC a pu faire votre connaissance déjà, mais les lecteurs du Framablog ne vous connaissent pas encore, pouvez-vous vous présenter un peu ?
Photo de Margaux Lallemant, souriante, vêtement à motif floral— Je m’appelle Margaux Lallemant, je viens d’un petit village du sud de la France où la couleur du ciel alimente l’encre des stylos. J’ai baladé mes carnets de Lyon à Saint-Étienne, en passant par Paris et Kaohsiung. J’écris de la poésie, publiée dans des revues comme Point de Chute, Dissonances, par le Serveur vocal poétique ou le podcast Mange tes mots. J’anime des ateliers d’écriture pour des publics variés, et je bricole une émission de radio qui s’appelle Poésie SCHLAG*.
Et je suis une grande amoureuse. Je me soigne, je déconstruis, je lis et je discute, mais rien à faire, les martinets, les sous-bois, les bulles de bière dans un regard, les sourires francs, les chansons de Barbara et le mouvement d’un corps qui danse continuent de propager en moi des vagues d’endorphine déraisonnables.

— Je m’appelle Timothé, je suis un homme cis blanc hétéro, petit-fils de réfugiés. Mes parents font partie de la classe moyenne, ce qui leur a permis de me transmettre un capital social, culturel, de financer mes études… Je viens de la campagne corrézienne, sans m’être jamais senti rural.photo de Timothé qui met en avant un bouquet de fleurs
Pendant la majorité de ma vie, je n’ai rien fait qui ait le moindre intérêt pour ce livre. J’ai été un élève studieux dans une famille aimante, j’ai intégré les codes du patriarcat, j’ai développé une conscience politique de gauche bobo, je me suis pensé féministe. J’ai fait des études et un doctorat en physique, parce que je ne voulais pas être de nouveau au chômage. La thèse m’a mené à une crise d’adulescence, un profond mal-être et finalement à une psychothérapie. J’ai alors compris que le patriarcat avait fait de moi un « estropié émotionnel », comme le dit bell hooks. De lectures en podcasts, de l’écoute aux discussions, j’ai pris conscience du chemin qu’il me restait à parcourir pour déconstruire ces normes en moi. J’ai profité de cette expérience pour écrire un livre à destination des mecs : Masculinités, apprentissage pratique de la déconstruction, que j’auto-édite.
Quand on me demande où je me vois dans 5 ans j’ai juste envie de répondre « je ne sais pas, ça dépendra de la température », alors d’ici là autant essayer d’aimer.

Qu’est-ce qui vous a décidés à soumettre votre projet initial et comment l’avez-vous conçu ?

Margaux : Avec Timothé, on s’est souvent dit que la vie amoureuse de nos ami⋅es était trépidante et qu’il faudrait prendre le temps de les interviewer pour consigner toutes les modalités de faire relation qui existaient autour de nous. C’est à peu près au même moment qu’est sorti l’appel à candidature de Framasoft pour la bourse d’auteur⋅ice. On s’est croisés un soir, vaguement éméché⋅s dans la cuisine, et on s’est dit qu’on allait proposer un projet sur l’amour.

Ensuite, en construisant le projet, nous avons voulu questionner l’articulation possible entre le fait de parler d’amour à un niveau interpersonnel et des pistes sociales de sortie du capitalisme. Nous avions envie de parler du couple, de la famille et du patriarcat, mais aussi de ZAD, de squats, d’autres rapports au vivant que celui de l’exploitation.

Plusieurs questions nous animaient avec Timothé : en quoi l’amour constitue une base de l’engagement et de la mise en commun ? Comment redéfinir l’amour pour engendrer de nouvelles manières de faire, de nous relier, pour favoriser le commun ? En quoi l’amour est-il le premier commun ? Pourquoi est-il nécessaire de sortir l’amour des phénomènes d’enclosure autour de la famille et du couple ?

D’où le titre, l’Amour en commun !

autre logo de Des livres en communs, avec le pinchot de Framasoft sur fond de livre ouvert

Comment se sont passés vos premiers contacts avec l’équipe d’édition ?

Margaux : Ces contacts ont été très porteurs pour nous. Il y a souvent des moments de découragement dans le processus d’écriture. Personnellement, j’ai été inquiète de réussir à articuler concrètement tous les thèmes dont nous voulions parler, tout en gardant un fil directeur politique. Grâce aux conseils de lectures pour articuler nos idées et aux temps d’échange avec l’équipe de Frama, nous avons toujours eu la petite impulsion nécessaire pour continuer.

Timothé : J’avoue que quand j’ai aperçu le Framacamp lors de notre rencontre à Lyon, j’ai été surpris de l’ambiance très libre et fun qui semble y régner. Pour le reste l’équipe a été super rassurante et elle a vraiment pris le temps de nous expliquer les différentes licences libres, avec leurs implications pour le livre et pour nous et je les en remercie.

Vous avez choisi de réaliser un essai sous forme hybride, pouvez-vous donner un aperçu de ses différents aspects (analyse, réflexion sur l’expérience, collecte de témoignage, atelier, poésie, …)

Timothé : Pour l’instant l’hybridation est difficile à montrer, car dans un premier temps nous nous concentrons plus sur la partie plus « essai ». Nous avons déjà réalisé plusieurs entretiens, qui donneront des podcasts, mais cette partie de la création étant chronophage, il a été convenu de la réaliser plutôt en fin d’écriture. Un pote qui a travaillé à Radio France nous a fait une formation sur l’arrangement de podcast et les enregistrements, c’est amusant ce qu’il faut apprendre pour écrire !

Margaux : Pour donner une idée, j’ai envie d’écrire une troisième partie plus SF, qui donnerait vie aux thèmes qu’on aborde dans le livre. Raconter des histoires, c’est une autre voie pour gagner la guerre des imaginaires ! Pour l’instant, j’anime des ateliers d’écriture sur le « Monde Nouveau » avec toutes sortes de publics pour m’inspirer.

Votre ouvrage, suivant le principe de DLeC, sera versé aux Communs (culturels), qu’est-ce que ça représente pour vous ?

Timothé : Ne pas avoir besoin d’aller faire la danse du ventre chez les éditeurs ! (rire). Pour ma part, en tant qu’auteur quasi inconnu et qui ne compte pas sur l’écriture pour vivre, mon premier souhait est d’être lu. En cela, le fait que le contenu soit libre augmente largement les chances de diffusion du texte. Plus largement, ayant moi-même proposé une version libre de mon essai précédent, la diffusion en libre correspond à mes valeurs.

Margaux : Dans le processus d’écriture d’un essai, je me rends compte qu’il n’y a jamais d’idée nouvelle, sortie du chapeau. Nous devons tellement à tous les auteur⋅ices qui ont pensé avant nous, c’est comme une grande chaîne de redevabilité qui relierait tous les écrivain⋅es ! Sauf qu’on se rend rapidement compte que l’accès à cette chaîne est payante et loin d’être accessible. Verser ce livre dans les communs, c’est participer à la vulgarisation des savoirs auxquels nous avons eu accès. Exprimer notre gratitude en rendant accessible à tous ce que les idées des autres nous ont aidé à formuler !

Entrons un peu dans le vif de la réalisation dont le lectorat du framablog est sans doute curieux : où en êtes-vous à peu près ? L‘avancée est-elle à peu près celle que vous envisagiez ? Qu’est-ce qui la ralentit ou retarde éventuellement ?

Timothé : Pour ma part ce qui la ralentit, c’est en tout premier lieu, le travail salarié (dont je ne peux malheureusement pas me passer pour remplir mon assiette). Quand j’ai écrit mon essai précédent, j’attendais les corrections de ma thèse. C’était une situation incroyablement confortable, j’étais payé et j’avais des journées entières pour écrire, faire une pause, lire, échanger et écrire de nouveau. Maintenant ce n’est plus le cas, après une journée de 7h, c’est pour moi très difficile de m’installer devant mon ordinateur pour écrire. Trouver l’espace mental, rassembler mes idées, me concentrer de nouveau et produire. Pour écrire, j’ai besoin d’avoir un temps continu et l’esprit un peu libre. Alors j’essaie autant que faire se peut d’aménager des moments les samedis ou les dimanches après-midi, mais c’est loin d’être facile et surtout c’est lent… Je m’en excuse auprès de Framasoft. Quand avec Margaux nous avons répondu à l’appel à projet, j’étais au chômage, j’avais prévu de faire une reconversion mais je n’étais pas sûr qu’elle aboutisse et je pensais que j’aurais plus de temps avant que ma formation ne commence pour écrire.

Margaux : Personnellement, j’ai fini la partie sur les relations amoureuses, je suis en train de rédiger celle sur la fin des binarismes, de la Nature au genre. J’avance à peu près au rythme prévu. Ce qui me retarde, c’est le temps de repos que nécessite chacune des parties avant de les reprendre, puis dans un second temps d’en faire le deuil pour passer à une autre. J’écris relativement vite, mais j’ai besoin de beaucoup de temps pour m’assurer que c’est bien ça que j’ai envie d’écrire, puis pour me décider sur ce que j’ai envie de raconter après !

Qu’est-ce qui vous a semblé plus facile/difficile qu’initialement envisagé ?

tête de maître Capelovici (lunettes, cravate rouge)qui le doigt sur son dico dit : "c'est de bon aloi"
Maître Capelo, image empruntée à ce site

Margaux : Articuler les différents thèmes que nous voulions traiter en gardant une ligne politique, sans que cela devienne une espèce de liste de Prévert des luttes et pensées politiques qui nous parlaient. Se battre contre le sentiment d’illégitimité aussi, j’ai toujours l’impression qu’un vieil universitaire avec des lunettes va nous taper sur les doigts en disant : c’est n’importe quoi ce qu’ils disent !

D’où l’importance pour nous de rappeler que ce n’est pas un essai scientifique. Ce livre est militant, ce livre est poétique, ce livre est témoignage, ce livre est boîte à outils, ce livre est chemins de traverses, questionnements personnels et sociétaux, ce livre est bricolé. Et c’est ce qui nous plaît : s’inspirer de la vie réelle et de témoignages d’individus sur leurs pratiques, exposer nos idées communes en retraçant le fil de nos lectures et de nos rencontres, explorer poétiquement les possibles et donner une assise imaginaire à nos tentatives de réinvention.

Au cours de votre travail, avez-vous infléchi en partie votre démarche, si oui dans quel sens ?

Timothé : Sur la partie qui m’occupe le plus depuis le début, c’est-à-dire « La famille », j’ai complètement infléchi ma pensée au fur et à mesure de la recherche et de l’écriture. J’étais parti à lire sur les habitats partagés, sur l’histoire de la famille, avec comme idée principale de broder autour de la possibilité de faire des colocations familiales… Finalement, je me dirige plus sur la proposition de la « parenté » qui me semble un concept bien plus ouvert que la famille, une réponse à l’extrême-droite et une possibilité d’ajuster nos besoins et nos envies de vie collective. Avec Margaux, nous nous sommes lancé⋅es dans l’inconnu avec ce livre. Nous avions des bases sur certains sujets que nous voulions traiter, mais pas sur tous. En plus, regarder un sujet et se demander « Où est l’amour là-dedans ? », ce n’est pas une démarche habituelle, ni pour nous et encore moins pour les auteurices qui nous ont précédé⋅es. Il m’a fallu vraiment du temps pour trouver une direction, car les textes que j’ai lus n’abordaient pas du tout le sujet des familles par le prisme de l’amour (peut être ai-je raté certaines références). L’inflexion vient à la fois du processus de recherche et de celui d’écriture qui oblige à clarifier des idées.

Margaux : J’ai l’impression d’avoir affiné ma pensée au fil de mes lectures et de l’écriture de ce livre. Cela m’a donné envie d’appréhender ces sujets autrement. La partie sur le genre n’était pas prévue au départ. Mais elle s’est imposée à un moment comme une nécessité pour approfondir la critique du système hétérosexuel et la manière dont il sert le capitalisme. Au contraire, j’ai eu beaucoup de mal à entrer dans l’écriture de la partie sur les relations au vivant, par peur de me lancer dans quelque chose de naïf et de désincarné après tout ça. L’angle d’attaque du binarisme m’a permis de me lancer, quitte à laisser de côté pour l’instant l’aspect de la spiritualité que je pensais aborder.

Nous sommes aussi curieux et curieuses de comprendre comment vous travaillez à « quatre mains » ou plutôt deux claviers.
Timothé : Pour l’instant nous avons avancé chacun.e de notre côté. D’abord parce que nous n’avons pas le même volume horaire à consacrer à l’écriture. Margaux peut passer plusieurs jours de la même semaine à écrire, moi non. Si nous écrivions sur les mêmes parties, il se créerait des disparités d’avancement qui retarderaient l’écriture. Dans une autre situation, nous aurions sûrement essayé d’écrire le plus souvent à quatre mains, mais dans la configuration actuelle il nous a semblé plus sage d’avancer chacun⋅e sur des parties différentes. Nous avons prévu d’écrire à quatre mains le chapitre sur les ZADs, car il sera en partie le résultat de notre expérience partagée de ce terrain.

énorme canard en plastique jaune flottant dans le port de Hong Kong
« Hong Kong Giant Rubber Duck » par IQRemix, licence CC BY-SA 2.0.

Pour ce qui est de l’équipe, il faut que je me lâche et j’accepte d’essayer ce concept du « canard en plastique », en envoyant ma partie alors qu’elle n’est pas encore dans un état où je me dis « allez c’est bon, c’est propre, je peux la faire lire ». Je n’ai jamais essayé cette méthode et c’est un peu impressionnant.

Margaux : Pour ma part les retours de l’équipe sont très précieux parce qu’ils me permettent d’affiner ma pensée, de la rendre plus précise et d’éviter les non-sens. Il y a aussi les yeux de lynx pour les fautes, les coquilles, les niveaux de langage non adéquats. Entre le brouillon et la version finale, il y a des commentaires et de nombreuses relectures. Merci pour ça !

L’attribution d’une bourse de création par DLeC est une tentative modeste de montrer que le travail initial d’écriture devrait dans un monde idéal être rémunéré en amont. Quel est l’apport de cette bourse dans votre travail ? Aurait-il existé ? Aurait-il eu la même forme ? Selon vous, en fonction de votre expérience, quel devrait être le statut « idéal » d’auteur-autrice ?
Timothé : C’est à la fois super chouette car cela permet de décharger en partie l’auteurice de la nécessité de faire une œuvre commerciale, mais c’est aussi une très grosse pression. Être contractuellement engagés à écrire, cela veut dire que nous devons réussir. C’est moteur, cela pousse à ne pas lâcher le morceau, mais pour moi c’est aussi une pression car l’échec est toujours possible. Néanmoins, décharger les auteurices, surtout professionnel⋅les de la précarité durant la phrase d’écriture est une magnifique ambition qui ne peut qu’être encouragée.

sur l'herbe au bord de l'eau, les outils offerts par une main engageante à qui veut écrire : machine à écrire (mécanique, d'autrefois), coussin rouge, théière, brioche, cookies, rame de papier
Illustration CC BY David Revoy (sources)

 

Margaux : Je suis d’accord, ce projet ne se serait jamais concrétisé sans cette bourse. Personnellement, je ne pense pas que j’aurais écrit d’essai. C’est vraiment une chance incroyable d’affiner ma pensée politique, de prendre le temps de lire des essais, de me demander « qu’est-ce que je pense à ce sujet ? » … et de créer des liens, comme une toile d’araignée, entre mes lectures, mes discussions, des idées politiques qui a priori ne réclament pas de filiations les unes avec les autres…
Dans l’idéal, je pense que le statut d’artiste-auteur⋅ice devrait rejoindre le régime d’intermittent.e. En vérité, la frontière est très fine. De nombreux auteur⋅ices réalisent des lectures, des performances, des masterclass, des ateliers qui sont très similaires au travail d’un⋅e comédien⋅ne. De la même manière qu’iels ont besoin de temps pour écrire et monter leur pièce de théâtre, les auteur⋅ices ont besoin de temps rémunéré pour créer une œuvre et la faire vivre dans le monde.

gros plan sur une main de petite fille qui écrit avec un crayon sur une page blanche
« Get Ready, Get Set, Write » par MellieRene, licence CC BY-NC 2.0

Même question pour le rapport avec l’éditeur ?
Timothé : Sans un éditeur qui nous pousse à écrire, ce travail serait juste resté dans nos têtes ! Nous aurions sûrement refait le passé autour d’un verre en nous demandant si nous aurions changé ou pas le monde avec « L’amour en Commun ». Personnellement, je n’avais pas prévu d’écrire un autre livre, si « L’amour en Commun » existe dans le futur, ce sera entièrement sous l’impulsion de Framasoft, des Livres en Commun et aussi un peu de Margaux qui a entendu parler de l’appel à écriture et m’a poussé à répondre avec elle.
D’un point de vue plus applicatif, c’est pour moi la première fois que j’ai un éditeur à qui je suis redevable de ce que j’écris. C’est super de pouvoir être confirmé et conseillé mais comme tout ce qui inclut plus d’une personne, cela va nous obliger à nous entendre.

Margaux : Je n’ai encore jamais été éditée, mis à part en revue. Mais les revues que je préfère sont celles qui m’ont demandé de modifier mon texte et avec lesquelles nous avons eu de vrais échanges à ce sujet ! Pour moi, un⋅e éditeur⋅ice, ce n’est pas seulement quelqu’un qui tamponne le sceau « publiable » sur notre manuscrit, ou le met en vente. Cela devrait être une véritable relation de soutien, de regard critique, d’échange et d’accompagnement pour amener ledit manuscrit vers la forme finie du livre. Je tiens beaucoup à cet espace collectif du retravail. Je crois qu’il est très important pour passer de l’intime à l’objet « livre », indépendant de l’auteur⋅ice. Vous êtes très bons là-dessus Frama, merci beaucoup pour votre soutien et votre patience !

Merci Margaux et Timothé, à bientôt !

 




Publier le code source ne suffit pas…

Un court billet où Nicolas Kayser-Bril opère une mise au point : la loi européenne et les grandes entreprises du Web peuvent donner accès au code source, mais ce n’est qu’un facteur parmi d’autres qui s’avère souvent inutile à lui seul…

Article original : The ideology behind publishing Twitter’s source code publié dans le bulletin d’information (en anglais ou allemand)  d’Algorithmwatch auquel on peut s’abonner sur cette page.

Traduction Framalang relue et révisée par l’auteur : Squeeek, goofy, audionuma

L’idéologie derrière la publication du code source de Twitter

par Nicolas Kayser-Bril

Photo noir/blanc de l'auteur, jeune homme brun souriant.
Photo par Julia Bornkessel licence CC-BY 4.0

Une fuite

Le 31 mars, Twitter a publié une partie du code source qui alimente son fil d’actualité. Cette décision a été prise quelques jours après qu’il a été rendu public que de grandes parties de ce code avaient déjà été divulguées sur Github [Gizmodo, 31 mars].

Les 85 797 lignes de code ne nous apprennent pas grand-chose. Les tweets ne contenant pas de liens sont mis en avant. Ceux rédigés dans une langue que le système ne peut pas reconnaître sont rétrogradés – discriminant clairement les personnes qui parlent une langue qui n’est pas reconnue par les ingénieurs californiens. Les Spaces (la fonction de podcasting en direct de Twitter) sur l’Ukraine semblent également être cachés [Aakash Gupta, 2 avril].

Le plus intéressant dans cette affaire reste le billet de blog rédigé par ce qu’il reste de l’équipe d’ingénieurs de Twitter. Il explique bien comment fonctionne un fil d’actualité d’un point de vue technique.

Comment (ne pas) ouvrir le code source

Une entreprise a été pionnière pour rendre son code source public : Twitter. Il y a deux ans, son équipe « Éthique, Transparence et Responsabilité » a publié le code d’un algorithme de recadrage d’images et a organisé une compétition permettant à quiconque d’y trouver d’éventuels biais [AlgorithmWatch, 2021]. Cette équipe a été l’une des premières à être licenciée l’année dernière.

Il ne suffit pas de lire un code source pour l’auditer. Il faut le faire fonctionner (l’exécuter) sur un ordinateur. En ce qui concerne l’Ukraine, par exemple, nous savons seulement que les Spaces Twitter étiquetés « UkraineCrisisTopic » subissent le même traitement que les articles étiquetés « violence » ou « porno ». Mais nous ne savons pas comment cette étiquette est attribuée, ni quels en sont les effets. Il semble que le code de ces fonctionnalités n’ait même pas été rendu public.

Dissimulation

Publier du code informatique sans expliquer comment le faire fonctionner peut être pire qu’inutile. Cela permet de prétendre à la transparence tout en empêchant tout réel audit. Twitter n’est pas la première organisation à suivre cette stratégie.

La Caisse Nationale des Allocations Familiales a publié les 7 millions de lignes du code de son calculateur d’allocations suite à une demande d’informations publiques (demande CADA) [NextINpact, 2018]. On ne pouvait rien en tirer. J’ai fait une demande de communication des « documents d’architecture fonctionnelle », qui sont mentionnés dans des commentaires du code. La CNAF a répondu qu’ils n’existaient pas.

La loi européenne sur les services numériques prévoit que les « chercheurs agréés » pourront accéder aux « données » des très grandes plateformes, y compris éventuellement au code source [AlgorithmWatch, 2022]. Pour que la loi sur les services numériques fonctionne, il est essentiel que les entreprises traitent ces demandes comme le Twitter de 2021, et non comme le Twitter de 2023.

L’idéologie technologiste

Enfin, la focalisation sur le code source est au service d’un projet politique. J’entends souvent dire que le code est le cœur d’une entreprise, que c’est un secret commercial précieusement gardé. C’est faux. Si c’était le cas, les fuites de code source nuiraient aux entreprises. Suite à des intrusions ou des fuites, le code source de Yandex et de Twitch a été publié récemment [ArsTechnica, 2021 et 2023]. À ma connaissance, ces entreprises n’en ont pas souffert.

Le code source n’est qu’un facteur parmi d’autres pour une entreprise du Web. Parmi les autres facteurs, citons les employés, les relations avec des politiques, les procédures internes, la position sur le marché, l’environnement juridique et bien d’autres encore. Mettre le code sur un piédestal implique que les autres facteurs sont sans importance. Les propriétaires de Twitter et de Meta (et ils sont loin d’être les seuls) ont dit très clairement que les ingénieurs étaient beaucoup plus importants que le reste de leurs employé·e·s. Pour eux, tout problème est fondamentalement technique et peut être résolu par du code.

Je suis certain que la publication du code source de Twitter conduira certains technologues à prétendre que le harcèlement en ligne, les agressions et la désinformation peuvent désormais être « corrigés » par une pull request (lorsqu’un contributeur à un projet open source propose une modification du code). Ce serait un pas dans la mauvaise direction.