Berlin, March 2023 : Diary of the first ECHO Network study visit

From 27 to 31 March 2023, the first study visit of the European project ECHO Network took place in Berlin. This report looks back on this week of exchange on the theme of « Young people, social networks and political education« , organised by the Willi Eichler Academy.

As a reminder, the participants in the ECHO Network exchange come from 7 different organisations in 5 European countries: Ceméa France, Ceméa Federzione Italia, Ceméa Belgium, Willi Eichler Academy (Germany), Solidar Foundation (European network), Centar Za Mirovne Studije (Croatia), Framasoft (France). Around twenty people took part in the study visit.

It’s a chilly spring in Berlin!

It’s a long way to Berlin!

In order to promote the values of the Ethical, Commons, Humans, Open-Source Network project, the Framasoft participants wanted to travel to Berlin by train. So Monday and Friday of this exchange week were dedicated to transport.

The day of departure was a national strike day in Germany (where a rail strike = no trains running!). As a result, only 3 of the 4 Framasoft members who had planned to take part in the project were able to make it.

When you think of trains, you think of time, where transport is an integral part of the journey. In fact, it takes 9 hours by train from Paris, or even 13 hours from Nantes… And you should add 1 or 2 hours (or even half a day) for « contingency management » (delays, cancellations, changes of train). Travelling to Germany by train was an adventure in itself (and the feeling seems to be shared!).

Tuesday 28 March: Discoveries and visits off the beaten track

After a brief meeting with the first participants the day before, Tuesday will continue with the aim of getting to know each other (arrivals will continue throughout the day due to changes in the itinerary caused by the strike the day before).

Tuesday morning will begin with a visit to the Jewish Cemetery of Berlin-Weißensee, the largest Jewish cemetery in Europe. Nature takes over in this historic place.

Weißensee Jewish cemetery, between nature and history

In the afternoon we visit a former Stasi prison, Berlin-Hohenschönhausen. This visit made a particularly strong impression on us: the site was created by former prisoners, the prison wasn’t closed until 1990, and many of the people who tortured prisoners were never brought to justice. In short, a dark page of history, but one that needs to be shared (we recommend the visit!)…

The day will end with a convivial meal in a traditional restaurant.

Wednesday 29 March: young, old and social networks

From Wednesday, we were welcomed at the Brillat-Savarin cookery school for our exchanges, workshops and talks.

The chandelier in the entrance hall of the cookery school is just right!

Discussion: What do we think about social networks in our organisations?

The first workshop was a round-table discussion in which each participant shared his or her use of and views on social networks, and in particular TikTok, the medium that will be used in the following workshop.

To summarise:

  • There is little use of social media from a personal point of view in the group.
  • On the other hand, the majority of the group use social media to promote their organisation’s activities (Facebook, Twitter, Instagram and Mastodon).
  • No one in the group uses TikTok, which poses a problem for understanding this social media.
  • As part of their organisation’s activities, the majority of the group would like to reach out more to young people and it seems interesting to find them where they are, i.e. on social media.
  • The group fully agreed that social media are not neutral tools and try to monopolise the attention of their users.

This time of exchange therefore allowed us to see that we share the same values, difficulties and desires when it comes to social media. However, we felt that the ‘one at a time’ format lacked some dynamism in the exchanges and the opportunity for several people to discuss.

Feedback from a student workshop: raising awareness of social issues in a TikTok video

Alongside our morning discussions on social media, 2 groups of students from the Brillat-Savarin school worked on a video project. They had to produce a TikTok video (one per group) to show the impact of the European Union (1st group) and climate change (2nd group) on their work as chefs. The videos were shown to us (incredible quality in 2 hours of work!) and then we exchanged views on the topic.

What we took away from this workshop:

  • The students were between 18 and 22 years old and did not use TikTok. According to the students, this social network is aimed at people younger than them (« young » is too broad a term!). However, they had mastered the codes of the platform as they were regularly exposed to TikTok content on other platforms such as Instagram and YouTube.
  • In any case, they wouldn’t necessarily want to use a social network to watch political content, preferring a more recreational use of the network (like watching videos of kittens!), even if they claim to be political.
  • They found it particularly interesting to get a message across in videos and to question themselves on issues that directly affect them.

It was an interesting experiment, even if the plenary discussions did not allow everyone to participate.

Photo of the ECHO Network group and some of the school’s students

Thursday 30th March: Politics and Open Source

Reflect EU&US: the Willi Eichler Academy project

Funded to the tune of €500,000 by Marshall Plan leftovers, Reflect EU&US is a 2-year project (2022-2024) by the Willi Eichler Academy. Its aim? To organise discussions between students outside the university environment, remotely and anonymously.

Reflect EU&US project logo

Points to remember:

  • The project involves 60 students (30 from the United States and 30 from Germany), with a physical meeting planned at the very end of the project to lift the masks.
  • Topics covered include justice, racism, gender and politics.
  • Following the discussions, a library of documents will be created, which will allow the various sources (texts, articles, videos, podcasts, etc.) to be validated (or not).
  • Anonymity makes it easier to accept contradictory opinions.
  • The management of the groups can be complicated by anonymity, but it is an integral part of the project.

From a technical point of view, the platform is based on the OpenTalk tool and was chosen to provide this space for free exchange, with the creation of coloured cards as avatars, making it possible to guarantee the anonymity of the participants. The choice of open source technologies was made specifically with the aim of reassuring participants so that they could exchange in complete peace of mind. This was followed by a live test of the platform with the students (in German, which didn’t allow us to understand everything!).

Open source meets politics

The afternoon continued with a talk by Peer Heinlein, director of OpenTalk, on « True digital independence and sovereignty are impossible without open source ». You can imagine that we at Framasoft have an opinion on this, even if we don’t feel strongly about it… Discussions with the audience followed on open source software, privacy and data encryption.

The next speaker was Maik Außendorf, representative of the Green Party in the European Parliament. Among other things, we discussed how digital technology can help the ecological transition. We learnt that German parliamentarians do not have a choice when it comes to using digital tools, and that national coherence is difficult to achieve with the decentralised organisation of Germany into Länder.

The study visit ended in a restaurant, where we had the opportunity to talk with a SeaWatch activist, highlighting the common values and reflections of the different organisations (precariousness of associations, the need to propose alternatives to the capitalist world, the need for free and emancipatory digital technologies).

This chandelier will have inspired⋅es (can you see the artistic side too?).

An intense week!

We were particularly surprised and excited by the common visions shared by the participants and organisations, whether it be about emancipatory digital, the desire to move towards a world that is more like us, where cooperation and contribution move forward, and the question of how to share our messages while remaining coherent with what we defend.

Although the majority of the week was built around plenary workshops, which did not always encourage exchange between participants or spontaneous speaking, the informal times (meals, coffee breaks, walks) made it possible to create these essential moments.

What next for the ECHO network? The second study visit took place in Brussels from 12 to 16 June. A summary article will follow on the Framablog (but as always, we’ll take our time!).

We couldn’t go to Berlin without visiting the murals on the Berlin Wall: here’s a photo of the trip to round off this article.

 

For further information:




Berlin, mars 2023 : journal de bord de la première visite d’études d’ECHO Network

Du 27 au 31 mars 2023, la première visite d’études du projet européen ECHO Network s’est tenue à Berlin. Ce compte rendu retrace cette semaine d’échanges sur la thématique « jeunes, réseaux sociaux et éducation politique », organisée par Willi Eichler Akademy.

Pour rappel, les participant⋅es à l’échange ECHO Network font partie de 7 organisations différentes dans 5 pays d’Europe : Ceméa France, Ceméa Federzione Italia, Ceméa Belgique, Willi Eichler Academy (Allemagne), Solidar Foundation (réseau européen), Centar Za Mirovne Studije (Croatie), Framasoft (France). Cette visite d’études a compté une vingtaine de participant⋅es.

Ambiance fraîche à Berlin pour ce début de printemps !

 

La route est longue jusque Berlin…!

Pour pousser les valeurs du projet Ethical, Commons, Humans, Open-Source Network (Réseau autour de l’Éthique, les Communs, les Humain⋅es et l’Open-source), les participant⋅es de Framasoft souhaitaient favoriser le train pour se rendre à Berlin. Ainsi, le lundi et le vendredi de cette semaine d’échange étaient banalisés pour le transport.

Les contre-temps faisant partie du voyage, le jour des départs était un jour de grève nationale en Allemagne (où grève ferroviaire = zéro train qui circule !). Ainsi, sur les 4 membres de Framasoft prévu⋅es sur le projet, seul⋅es 3 ont pu se rendre sur place.

Qui dit train dit aussi temps investi, où le transport fait partie intégrante du voyage. En effet, il faut prévoir 9 heures de train depuis Paris, ou encore 13 heures depuis Nantes… Et à cela, il est fortement conseillé d’ajouter 1h ou 2h (voire une demi-journée) de « gestion des imprévus » (retards, annulations, changements de train). Se rendre en Allemagne en train nous a semblé une aventure à part entière (et ce ressenti semble partagé !).

Mardi 28 mars : découvertes et visites hors sentiers touristiques

Après avoir rencontré brièvement la veille les premières et premiers participant⋅es, la journée du mardi continue avec l’objectif de se découvrir les un⋅es les autres (les arrivées se feront au compte-gouttes sur toute la journée suite aux changements d’itinéraire dus à la grève de la veille).

Nous entamons le mardi matin avec une visite du Cimetière juif de Weißensee de Berlin, le plus grand cimetière juif d’Europe. La nature prend le dessus dans ce lieu empreint d’histoire.

Cimetière juif de Weißensee, entre nature et histoire

Nous nous dirigeons ensuite l’après-midi vers une ancienne prison de la Stasi, la prison de Berlin-Hohenschönhausen. Cette visite nous aura particulièrement marqué⋅es : le site a été créé par d’ancien⋅nes prisonnier⋅ères, la prison n’a fermé qu’en 1990, et de nombreuses personnes ayant torturé des prisonnier⋅ères n’ont jamais été jugées. Bref, une page d’histoire sombre mais qu’il est nécessaire de partager (nous conseillons la visite !)…

La journée se terminera par un moment convivial dans un restaurant traditionnel.

 

Mercredi 29 mars : jeunes, moins jeunes et réseaux sociaux

À partir du mercredi, nous étions accueilli⋅es à l’école de cuisine Brillat-Savarin pour nos échanges, ateliers et interventions.

Lustre du hall de l’école de cuisine, on peut dire qu’il est plutôt adapté !

Discussion : on pense quoi des réseaux sociaux dans nos organisations ?

Le premier atelier a été un tour de table où chaque participant⋅e partageait son utilisation et point de vue sur les réseaux sociaux, et particulièrement TikTok, média sur lequel sera utilisé l’atelier suivant.

Ce que l’on peut résumer :

  • Il y a peu d’utilisation des médias sociaux d’un point de vue personnel dans le groupe.
  • Les médias sociaux sont par contre utilisés par la majorité du groupe pour mettre en valeur les actions de son organisation (Facebook, Twitter, Instagram et Mastodon).
  • Personne dans le groupe n’utilise TikTok ce qui pose problème pour comprendre ce média social.
  • Dans le cadre des activités de leur organisation, la majorité du groupe souhaiterait toucher davantage les jeunes et il semble intéressant de les trouver là où iels sont, donc sur les médias sociaux.
  • Le groupe est tout à fait d’accord sur le fait que les médias sociaux ne sont pas des outils neutres et cherchent à monopoliser l’attention de ses utilisateur⋅rices.

Ce temps d’échange a donc permis de voir que nous partageons les mêmes valeurs, difficultés et envies sur les médias sociaux. Cependant, le format « chacun son tour de parole » nous a semblé manquer un peu de dynamisme dans les échanges et de possibilité de discuter à plusieurs.

 

Retour d’atelier d’étudiant⋅es : sensibiliser sur des sujets de société dans une vidéo TikTok

En parallèle de nos échanges du matin sur les médias sociaux, 2 groupes d’étudiant⋅es de la Brillat-Savarin School ont travaillé sur un projet vidéo. Ils devaient produire une vidéo TikTok (une par groupe) pour montrer l’impact sur leur métier de cuisinier⋅ère de l’Union Européenne (1er groupe) et du changement climatique (2ème groupe). Les vidéos nous ont été présentées (incroyable la qualité en 2 heures de travail !), puis nous avons échangé sur le sujet.

Ce que nous retenons de cet atelier :

  • Les étudiant⋅es avaient entre 18 et 22 ans, et n’utilisent pas TikTok . Selon les étudiant⋅es, ce réseau social est tourné pour une cible plus jeune qu’elles et eux (« jeunes » est un terme trop large !). Par contre iels maîtrisaient les codes de la plateformes, étant régulièrement exposé⋅es à du contenu issu de TikTok sur d’autres plateformes telles que Instagram ou YouTube .
  • Iels n’auraient de toute façon pas forcément envie d’utiliser un réseau social pour voir du contenu politique, préférant un usage plus récréatif du réseau (comme regarder des vidéos de chatons par exemple !), même lorsqu’iels se revendiquent politisé⋅es.
  • Iels ont trouvé la démarche particulièrement intéressante de faire passer un message en vidéos, et se questionner sur des sujets les impliquant directement.

L’expérimentation aura été intéressante, même si les échanges en plénière ne permettaient pas l’implication de chacun et chacune.

Photo du groupe d’ECHO Network et quelques étudiant⋅es de l’école

 

Jeudi 30 mars : politique et open source

Reflect EU&US : le projet de la Willi Eichler Akademy

Financé à hauteur de 500k€ par des restes du plan Marshall, Reflect EU&US est un projet sur 2 ans (2022-2024) de la Willi Eichler Akademy. L’objectif ? Organiser des discussions entre étudiant⋅es en dehors du cadre universitaire, à distance et en restant dans l’anonymat.

Logo du projet Reflect EU&US

 

Les points à retenir :

  • Le projet investit 60 étudiant·es (30 des Etats-Unis et 30 d’Allemagne), une rencontre physique est prévue à la toute fin du projet pour lever les masques.
  • Des sujets traités tels que : justice, racisme, genre, politique.
  • Une bibliothèque de documents est alimentée suite aux discussions, permettant de valider (ou non) les différentes sources (textes, articles, vidéos, podcasts, etc).
  • L’anonymat permet plus facilement d’assumer des opinions contradictoires.
  • L’animation des groupes peut être compliquée par l’anonymat, mais fait partie intégrante du projet.

D’un point de vue technique, la plateforme est basée sur l’outil OpenTalk et a été choisie pour avoir cet espace d’échange libre, avec la création de cartes de couleurs comme avatar, permettant de garantir l’anonymat des participant⋅es. Le choix de technologies open-source a été fait spécifiquement dans le but de rassurer les participant⋅es pour qu’iels puissent échanger en toute tranquillité. Un test en direct de la plateforme a suivi avec des étudiant⋅es (en allemand, ce qui ne nous a pas permis de tout comprendre !).

Rencontres entre open source et politique

L’après-midi a continué avec l’intervention de Peer Heinlein, directeur d’OpenTalk, sur le sujet « L’indépendance et la souveraineté numérique réelle sont impossibles sans l’open-source ». Vous vous doutez bien qu’à Framasoft, même si ce n’est pas un aspect qui nous tient à cœur, nous avons un avis sur la question… Des échanges ont suivi avec les participant·e·s sur les logiciels open source, la protection des données personnelles, ou encore le chiffrement des données.

C’est ensuite Maik Außendorf, représentant du Green Party au parlement qui est intervenu. Nous avons, entre autre, échangé sur le numérique pour aider la transition écologique. Nous avons appris que les parlementaires allemand⋅es n’ont pas le choix dans leur utilisation d’outils numériques et qu’une cohérence nationale semble compliquée à mettre en place avec l’organisation décentralisée de l’Allemagne en Länder.

La clôture de la visite d’études a eu lieu dans un restaurant, où nous avons pu notamment échanger avec un activiste de SeaWatch, mettant particulièrement en avant valeurs communes et réflexions partagées entre les différentes organisations (précarisation des associations, nécessité de proposer des alternatives au monde capitaliste, nécessité d’un numérique libre et émancipateur).

Ce lustre nous aura inspiré⋅es (vous aussi vous distinguez un côté artistique ?)

 

Une semaine intense !

Nous avons particulièrement été surpris⋅es et enthousiastes par les visions communes partagées entre participant⋅es et organisations, que ce soit sur le numérique émancipateur, l’envie d’aller vers un monde qui nous ressemble plus, où la coopération et la contribution vont de l’avant et les questionnements sur comment partager nos messages en restant cohérent⋅es avec ce que l’on défend.

Bien que la majorité de la semaine ait été construite sous forme d’ateliers en plénière, ne favorisant pas toujours les échanges entre participant⋅es ou les prises de parole spontanées, les temps informels (repas, pauses café, balades) auront permis de créer ces moments essentiels.

Et la suite d’ECHO Network ? La seconde visite d’études a eu lieu à Bruxelles du 12 au 16 juin. Un article récap’ suivra sur le Framablog (mais comme toujours : on se laisse le temps !).

On ne pouvait pas se rendre à Berlin sans faire un tour par les fresques du mur de Berlin : petite photo de la virée pour boucler cet article.

 

Pour aller plus loin :




Ouvrir le code des algorithmes ? — oui, mais… (2/2)

Voici le deuxième volet (si vous avez raté le premier) de l’enquête approfondie d’Hubert Guillaud sur l’exploration des algorithmes, et de son analyse  des enjeux qui en découlent.


Dans le code source de l’amplification algorithmique : que voulons-nous vraiment savoir ?

par Hubert GUILLAUD

Que voulons-nous vraiment savoir en enquêtant sur l’amplification algorithmique ? C’est justement l’enjeu du projet de recherche qu’Arvind Narayan mène au Knight Institute de l’université Columbia où il a ouvert un blog dédié et qui vient d’accueillir une grande conférence sur le sujet. Parler d’amplification permet de s’intéresser à toute la gamme des réponses qu’apportent les plateformes, allant de l’amélioration de la portée des discours à leur suppression, tout en se défiant d’une réduction binaire à la seule modération automatisée, entre ce qui doit être supprimé et ce qui ne doit pas l’être. Or, les phénomènes d’amplification ne sont pas sans effets de bord, qui vont bien au-delà de la seule désinformation, à l’image des effets très concrets qu’ont les influenceurs sur le commerce ou le tourisme. Le gros problème, pourtant, reste de pouvoir les étudier sans toujours y avoir accès.

Outre des analyses sur TikTok et les IA génératives, le blog recèle quelques trésors, notamment une monumentale synthèse qui fait le tour du sujet en expliquant les principes de fonctionnements des algorithmes (l’article est également très riche en liens et références, la synthèse que j’en propose y recourra assez peu).

Narayan rappelle que les plateformes disposent de très nombreux algorithmes entremêlés, mais ceux qui l’intéressent particulièrement sont les algorithmes de recommandation, ceux qui génèrent les flux, les contenus qui nous sont mis à disposition. Alors que les algorithmes de recherche sont limités par le terme recherché, les algorithmes de recommandation sont bien plus larges et donnent aux plateformes un contrôle bien plus grand sur ce qu’elles recommandent à un utilisateur.

La souscription, le réseau et l’algorithme

Pour Narayan, il y a 3 grands types de leviers de propagation : la souscription (ou abonnement), le réseau et l’algorithme. Dans le modèle par abonnement, le message atteint les personnes qui se sont abonnées à l’auteur du message. Dans le modèle de réseau, il se propage en cascade à travers le réseau tant que les utilisateurs qui le voient choisissent de le propager. Dans le modèle algorithmique, les utilisateurs ayant des intérêts similaires (tels que définis par l’algorithme sur la base de leurs engagements passés) sont représentés plus près les uns des autres. Plus les intérêts d’un utilisateur sont similaires à ceux définis, plus il est probable que le contenu lui sera recommandé.

À l’origine, les réseaux sociaux comme Facebook ou Twitter ne fonctionnaient qu’à l’abonnement : vous ne voyiez que les contenus des personnes auxquelles vous étiez abonnés et vous ne pouviez pas republier les messages des autres ! Dans le modèle de réseau, un utilisateur voit non seulement les messages créés par les personnes auxquelles il s’est abonné, mais aussi les messages que ces utilisateurs choisissent d’amplifier, ce qui crée la possibilité de cascades d’informations et de contenus “viraux”, comme c’était le cas de Twitter jusqu’en 2016, moment où le réseau introduisit le classement algorithmique. Dans le modèle algorithmique, la souscription est bien souvent minorée, le réseau amplifié mais surtout, le flux dépend principalement de ce que l’algorithme estime être le plus susceptible d’intéresser l’utilisateur. C’est ce que Cory Doctorow désigne comme « l’emmerdification  » de nos flux, le fait de traiter la liste des personnes auxquelles nous sommes abonnés comme des suggestions et non comme des commandes.

Le passage aux recommandations algorithmiques a toujours généré des contestations, notamment parce que, si dans les modèles d’abonnement et de réseau, les créateurs peuvent se concentrer sur la construction de leur réseau, dans le « modèle algorithmique, cela ne sert à rien, car le nombre d’abonnés n’a rien à voir avec la performance des messages » (mais comme nous sommes dans des mélanges entre les trois modèles, le nombre d’abonnés a encore un peu voire beaucoup d’influence dans l’amplification). Dans le modèle algorithmique, l’audience de chaque message est optimisée de manière indépendante en fonction du sujet, de la « qualité » du message et d’un certain nombre de paramètres pris en compte par le modèle.

Amplification et viralité

La question de l’amplification interroge la question de la viralité, c’est-à-dire le fait qu’un contenu soit amplifié par une cascade de reprises, et non pas seulement diffusé d’un émetteur à son public. Le problème de la viralité est que sa portée reste imprévisible. Pour Narayan, sur toutes les grandes plateformes, pour la plupart des créateurs, la majorité de l’engagement provient d’une petite fraction de contenu viral. Sur TikTok comme sur YouTube, 20 % des vidéos les plus vues d’un compte obtiennent plus de 70 % des vues. Plus le rôle de l’algorithme dans la propagation du contenu est important, par opposition aux abonnements ou au réseau, plus cette inégalité semble importante.

Parce qu’il est particulièrement repérable dans la masse des contenus, le contenu viral se prête assez bien à la rétropropagation, c’est-à-dire à son déclassement ou à sa suppression. Le problème justement, c’est qu’il y a plein de manières de restreindre le contenu. Facebook classe les posts rétrogradés plus bas dans le fil d’actualité qu’ils ne le seraient s’ils ne l’avaient pas été, afin que les utilisateurs soient moins susceptibles de le rencontrer et de le propager. À son tour, l’effet de la rétrogradation sur la portée peut être imprévisible, non linéaire et parfois radical, puisque le contenu peut devenir parfaitement invisible. Cette rétrogradation est parfaitement opaque, notamment parce qu’une faible portée n’est pas automatiquement suspecte, étant donné qu’il existe une grande variation dans la portée naturelle du contenu.

Amplification et prédiction de l’engagement

Les plateformes ont plusieurs objectifs de haut niveau : améliorer leurs revenus publicitaires bien sûr et satisfaire suffisamment les utilisateurs pour qu’ils reviennent… Mais ces objectifs n’aident pas vraiment à décider ce qu’il faut donner à un utilisateur spécifique à un moment précis ni à mesurer comment ces décisions impactent à long terme la plateforme. D’où le fait que les plateformes observent l’engagement, c’est-à-dire les actions instantanées des utilisateurs, comme le like, le commentaire ou le partage qui permettent de classer le contenu en fonction de la probabilité que l’utilisateur s’y intéresse. « D’une certaine manière, l’engagement est une approximation des objectifs de haut niveau. Un utilisateur qui s’engage est plus susceptible de revenir et de générer des revenus publicitaires pour la plateforme.  »
Si l’engagement est vertueux, il a aussi de nombreuses limites qui expliquent que les algorithmes intègrent bien d’autres facteurs dans leur calcul. Ainsi, Facebook et Twitter optimisent les « interactions sociales significatives », c’est-à-dire une moyenne pondérée des likes, des partages et des commentaires. YouTube, lui, optimise en fonction de la durée de visionnage que l’algorithme prédit. TikTok utilise les interactions sociales et valorise les vidéos qui ont été regardées jusqu’au bout, comme un signal fort et qui explique certainement le caractère addictif de l’application et le fait que les vidéos courtes (qui ont donc tendance à obtenir un score élevé) continuent de dominer la plateforme.

En plus de ces logiques de base, il existe bien d’autres logiques secondaires, comme par exemple, pour que l’expérience utilisateur ne soit pas ralentie par le calcul, que les suggestions restent limitées, sélectionnées plus que classées, selon divers critères plus que selon des critères uniques (par exemple en proposant des nouveaux contenus et pas seulement des contenus similaires à ceux qu’on a apprécié, TikTok se distingue à nouveau par l’importance qu’il accorde à l’exploration de nouveaux contenus… c’est d’ailleurs la tactique suivie désormais par Instagram de Meta via les Reels, boostés sur le modèle de TikTok, qui ont le même effet que sur TikTok, à savoir une augmentation du temps passé sur l’application)… 

« Bien qu’il existe de nombreuses différences dans les détails, les similitudes entre les algorithmes de recommandation des différentes plateformes l’emportent sur leurs différences », estime Narayan. Les différences sont surtout spécifiques, comme Youtube qui optimise selon la durée de visionnage, ou Spotify qui s’appuie davantage sur l’analyse de contenu que sur le comportement. Pour Narayan, ces différences montrent qu’il n’y a pas de risque concurrentiel à l’ouverture des algorithmes des plateformes, car leurs adaptations sont toujours très spécifiques. Ce qui varie, c’est la façon dont les plateformes ajustent l’engagement.

Comment apprécier la similarité ?

Mais la grande question à laquelle tous tentent de répondre est la même : « Comment les utilisateurs similaires à cet utilisateur ont-ils réagi aux messages similaires à ce message ?  »

Si cette approche est populaire dans les traitements, c’est parce qu’elle s’est avérée efficace dans la pratique. Elle repose sur un double calcul de similarité. D’abord, celle entre utilisateurs. La similarité entre utilisateurs dépend du réseau (les gens que l’on suit ou ceux qu’on commente par exemple, que Twitter valorise fortement, mais peu TikTok), du comportement (qui est souvent plus critique, « deux utilisateurs sont similaires s’ils se sont engagés dans un ensemble de messages similaires  ») et les données démographiques (du type âge, sexe, langue, géographie… qui sont en grande partie déduits des comportements).

Ensuite, il y a un calcul sur la similarité des messages qui repose principalement sur leur sujet et qui repose sur des algorithmes d’extraction des caractéristiques (comme la langue) intégrant des évaluations normatives, comme la caractérisation de discours haineux. L’autre signal de similarité des messages tient, là encore, au comportement : « deux messages sont similaires si un ensemble similaire d’utilisateurs s’est engagé avec eux ». Le plus important à retenir, insiste Narayan, c’est que « l’enregistrement comportemental est le carburant du moteur de recommandation ». La grande difficulté, dans ces appréciations algorithmiques, consiste à faire que le calcul reste traitable, face à des volumes d’enregistrements d’informations colossaux.

Une histoire des évolutions des algorithmes de recommandation

« La première génération d’algorithmes de recommandation à grande échelle, comme ceux d’Amazon et de Netflix au début des années 2000, utilisait une technique simple appelée filtrage collaboratif : les clients qui ont acheté ceci ont également acheté cela ». Le principe était de recommander des articles consultés ou achetés d’une manière rudimentaire, mais qui s’est révélé puissant dans le domaine du commerce électronique. En 2006, Netflix a organisé un concours en partageant les évaluations qu’il disposait sur les films pour améliorer son système de recommandation. Ce concours a donné naissance à la « factorisation matricielle », une forme de deuxième génération d’algorithmes de recommandation, c’est-à-dire capables d’identifier des combinaisons d’attributs et de préférences croisées. Le système n’étiquette pas les films avec des termes interprétables facilement (comme “drôle” ou “thriller” ou “informatif”…), mais avec un vaste ensemble d’étiquettes (de micro-genres obscurs comme « documentaires émouvants qui combattent le système ») qu’il associe aux préférences des utilisateurs. Le problème, c’est que cette factorisation matricielle n’est pas très lisible pour l’utilisateur et se voir dire qu’on va aimer tel film sans savoir pourquoi n’est pas très satisfaisant. Enfin, ce qui marche pour un catalogue de film limité n’est pas adapté aux médias sociaux où les messages sont infinis. La prédominance de la factorisation matricielle explique pourquoi les réseaux sociaux ont tardé à se lancer dans la recommandation, qui est longtemps restée inadaptée à leurs besoins.

Pourtant, les réseaux sociaux se sont tous convertis à l’optimisation basée sur l’apprentissage automatique. En 2010, Facebook utilisait un algorithme appelé EdgeRank pour construire le fil d’actualité des utilisateurs qui consistait à afficher les éléments par ordre de priorité décroissant selon un score d’affinité qui représente la prédiction de Facebook quant au degré d’intérêt de l’utilisateur pour les contenus affichés, valorisant les photos plus que le texte par exemple. À l’époque, ces pondérations étaient définies manuellement plutôt qu’apprises. En 2018, Facebook est passé à l’apprentissage automatique. La firme a introduit une métrique appelée « interactions sociales significatives » (MSI pour meaningful social interactions) dans le système d’apprentissage automatique. L’objectif affiché était de diminuer la présence des médias et des contenus de marque au profit des contenus d’amis et de famille. « La formule calcule un score d’interaction sociale pour chaque élément susceptible d’être montré à un utilisateur donné ». Le flux est généré en classant les messages disponibles selon leur score MSI décroissant, avec quelques ajustements, comme d’introduire de la diversité (avec peu d’indications sur la façon dont est calculée et ajoutée cette diversité). Le score MSI prédit la probabilité que l’utilisateur ait un type d’interaction spécifique (comme liker ou commenter) avec le contenu et affine le résultat en fonction de l’affinité de l’utilisateur avec ce qui lui est proposé. Il n’y a plus de pondération dédiée pour certains types de contenus, comme les photos ou les vidéos. Si elles subsistent, c’est uniquement parce que le système l’aura appris à partir des données de chaque utilisateur, et continuera à vous proposer des photos si vous les appréciez.

« Si l’on pousse cette logique jusqu’à sa conclusion naturelle, il ne devrait pas être nécessaire d’ajuster manuellement la formule en fonction des affinités. Si les utilisateurs préfèrent voir le contenu de leurs amis plutôt que celui des marques, l’algorithme devrait être en mesure de l’apprendre ». Ce n’est pourtant pas ce qu’il se passe. Certainement pour lutter contre la logique de l’optimisation de l’engagement, estime Narayan, dans le but d’augmenter la satisfaction à long terme, que l’algorithme ne peut pas mesurer, mais là encore sans que les modalités de ces ajustements ne soient clairement documentés.

Est-ce que tout cela est efficace ?

Reste à savoir si ces algorithmes sont efficaces ! « Il peut sembler évident qu’ils doivent bien fonctionner, étant donné qu’ils alimentent des plateformes technologiques qui valent des dizaines ou des centaines de milliards de dollars. Mais les chiffres racontent une autre histoire. Le taux d’engagement est une façon de quantifier le problème : il s’agit de la probabilité qu’un utilisateur s’intéresse à un message qui lui a été recommandé. Sur la plupart des plateformes, ce taux est inférieur à 1 %. TikTok est une exception, mais même là, ce taux dépasse à peine les 5 %. »

Le problème n’est pas que les algorithmes soient mauvais, mais surtout que les gens ne sont pas si prévisibles. Et qu’au final, les utilisateurs ne se soucient pas tant du manque de précision de la recommandation. « Même s’ils sont imprécis au niveau individuel, ils sont précis dans l’ensemble. Par rapport aux plateformes basées sur les réseaux, les plateformes algorithmiques semblent être plus efficaces pour identifier les contenus viraux (qui trouveront un écho auprès d’un grand nombre de personnes). Elles sont également capables d’identifier des contenus de niche et de les faire correspondre au sous-ensemble d’utilisateurs susceptibles d’y être réceptifs. » Si les algorithmes sont largement limités à la recherche de modèles dans les données comportementales, ils n’ont aucun sens commun. Quant au taux de clic publicitaire, il reste encore plus infinitésimal – même s’il est toujours considéré comme un succès !

Les ingénieurs contrôlent-ils encore les algorithmes ?

Les ingénieurs ont très peu d’espace pour contrôler les effets des algorithmes de recommandation, estime Narayan, en prenant un exemple. En 2019, Facebook s’est rendu compte que les publications virales étaient beaucoup plus susceptibles de contenir des informations erronées ou d’autres types de contenus préjudiciables. En d’autres termes, ils se sont rendu compte que le passage à des interactions sociales significatives (MSI) a eu des effets de bords : les contenus qui suscitaient l’indignation et alimentaient les divisions gagnaient en portée, comme l’a expliqué l’ingénieure et lanceuse d’alerte Frances Haugen à l’origine des Facebook Files, dans ses témoignages. C’est ce que synthétise le tableau de pondération de la formule MSI publié par le Wall Street Journal, qui montrent que certains éléments ont des poids plus forts que d’autres : un commentaire vaut 15 fois plus qu’un like, mais un commentaire signifiant ou un repartage 30 fois plus, chez Facebook. Une pondération aussi élevée permet d’identifier les messages au potentiel viral et de les stimuler davantage. En 2020, Facebook a ramené la pondération des partages à 1,5, mais la pondération des commentaires est restée très élevée (15 à 20 fois plus qu’un like). Alors que les partages et les commentaires étaient regroupés dans une seule catégorie de pondération en 2018, ils ne le sont plus. Cette prime au commentaire demeure une prime aux contenus polémiques. Reste, on le comprend, que le jeu qui reste aux ingénieurs de Facebook consiste à ajuster le poids des paramètres. Pour Narayan : piloter un système d’une telle complexité en utilisant si peu de boutons ne peut qu’être difficile.

Le chercheur rappelle que le système est censé être neutre à l’égard de tous les contenus, à l’exception de certains qui enfreignent les règles de la plateforme. Utilisateurs et messages sont alors rétrogradés de manière algorithmique suite à signalement automatique ou non. Mais cette neutralité est en fait très difficile à atteindre. Les réseaux sociaux favorisent ceux qui ont déjà une grande portée, qu’elle soit méritée ou non, et sont récompensés par une plus grande portée encore. Par exemple, les 1 % d’auteurs les plus importants sur Twitter reçoivent 80 % des vues des tweets. Au final, cette conception de la neutralité finit par récompenser ceux qui sont capables de pirater l’engagement ou de tirer profit des biais sociaux.

Outre cette neutralité, un deuxième grand principe directeur est que « l’algorithme sait mieux que quiconque ». « Ce principe et celui de la neutralité se renforcent mutuellement. Le fait de confier la politique (concernant le contenu à amplifier) aux données signifie que les ingénieurs n’ont pas besoin d’avoir un point de vue à ce sujet. Et cette neutralité fournit à l’algorithme des données plus propres à partir desquelles il peut apprendre. »
Le principe de l’algorithme qui sait le mieux signifie que la même optimisation est appliquée à tous les types de discours : divertissement, informations éducatives, informations sur la santé, actualités, discours politique, discours commercial, etc. En 2021, FB a fait une tentative de rétrograder tout le contenu politique, ce qui a eu pour effet de supprimer plus de sources d’information de haute qualité que de faible qualité, augmentant la désinformation. Cette neutralité affichée permet également une forme de désengagement des ingénieurs.

En 2021, encore, FB a entraîné des modèles d’apprentissage automatique pour classer les messages en deux catégories : bons ou mauvais pour le monde, en interrogeant les utilisateurs pour qu’ils apprécient des contenus qui leurs étaient proposés pour former les données. FB a constaté que les messages ayant une plus grande portée étaient considérés comme étant mauvais pour le monde. FB a donc rétrogradé ces contenus… mais en trouvant moins de contenus polémique, cette modification a entraîné une diminution de l’ouverture de l’application par les utilisateurs. L’entreprise a donc redéployé ce modèle en lui donnant bien moins de poids. Les corrections viennent directement en conflit avec le modèle d’affaires.

Illustration par Jason Alderman « Those Algorithms That Govern Our Lives – Kevin Slavin« . (CC BY 2.0)

Pourquoi l’optimisation de l’engagement nous nuit-elle ?

« Un grand nombre des pathologies familières des médias sociaux sont, à mon avis, des conséquences relativement directes de l’optimisation de l’engagement », suggère encore le chercheur. Cela explique pourquoi les réformes sont difficiles et pourquoi l’amélioration de la transparence des algorithmes, de la modération, voire un meilleur contrôle par l’utilisateur de ce qu’il voit (comme le proposait Gobo mis en place par Ethan Zuckerman), ne sont pas des solutions magiques (même si elles sont nécessaires).

Les données comportementales, celles relatives à l’engagement passé, sont la matière première essentielle des moteurs de recommandations. Les systèmes privilégient la rétroaction implicite sur l’explicite, à la manière de YouTube qui a privilégié le temps passé sur les rétroactions explicites (les likes). Sur TikTok, il n’y a même plus de sélection, il suffit de swipper.

Le problème du feedback implicite est qu’il repose sur nos réactions inconscientes, automatiques et émotionnelles, sur nos pulsions, qui vont avoir tendance à privilégier une vidéo débile sur un contenu expert.

Pour les créateurs de contenu, cette optimisation par l’engagement favorise la variance et l’imprévisibilité, ce qui a pour conséquence d’alimenter une surproduction pour compenser cette variabilité. La production d’un grand volume de contenu, même s’il est de moindre qualité, peut augmenter les chances qu’au moins quelques-uns deviennent viraux chaque mois afin de lisser le flux de revenus. Le fait de récompenser les contenus viraux se fait au détriment de tous les autres types de contenus (d’où certainement le regain d’attraits pour des plateformes non algorithmiques, comme Substack voire dans une autre mesure, Mastodon).

Au niveau de la société, toutes les institutions sont impactées par les plateformes algorithmiques, du tourisme à la science, du journalisme à la santé publique. Or, chaque institution à des valeurs, comme l’équité dans le journalisme, la précision en science, la qualité dans nombre de domaines. Les algorithmes des médias sociaux, eux, ne tiennent pas compte de ces valeurs et de ces signaux de qualité. « Ils récompensent des facteurs sans rapport, sur la base d’une logique qui a du sens pour le divertissement, mais pas pour d’autres domaines ». Pour Narayan, les plateformes de médias sociaux « affaiblissent les institutions en sapant leurs normes de qualité et en les rendant moins dignes de confiance ». C’est particulièrement actif dans le domaine de l’information, mais cela va bien au-delà, même si ce n’est pas au même degré. TikTok peut sembler ne pas représenter une menace pour la science, mais nous savons que les plateformes commencent par être un divertissement avant de s’étendre à d’autres sphères du discours, à l’image d’Instagram devenant un outil de communication politique ou de Twitter, où un tiers des tweets sont politiques.

La science des données en ses limites

Les plateformes sont bien conscientes de leurs limites, pourtant, elles n’ont pas fait beaucoup d’efforts pour résoudre les problèmes. Ces efforts restent occasionnels et rudimentaires, à l’image de la tentative de Facebook de comprendre la valeur des messages diffusés. La raison est bien sûr que ces aménagements nuisent aux résultats financiers de l’entreprise. « Le recours à la prise de décision subconsciente et automatique est tout à fait intentionnelle ; c’est ce qu’on appelle la « conception sans friction ». Le fait que les utilisateurs puissent parfois faire preuve de discernement et résister à leurs impulsions est vu comme un problème à résoudre. »

Pourtant, ces dernières années, la réputation des plateformes n’est plus au beau fixe. Narayan estime qu’il y a une autre limite. « La plupart des inconvénients de l’optimisation de l’engagement ne sont pas visibles dans le cadre dominant de la conception des plateformes, qui accorde une importance considérable à la recherche d’une relation quantitative et causale entre les changements apportés à l’algorithme et leurs effets. »
Si on observe les raisons qui poussent l’utilisateur à quitter une plateforme, la principale est qu’il ne parvient pas à obtenir des recommandations suffisamment intéressantes. Or, c’est exactement ce que l’optimisation par l’engagement est censée éviter. Les entreprises parviennent très bien à optimiser des recommandations qui plaisent à l’utilisateur sur l’instant, mais pas celles qui lui font dire, une fois qu’il a fermé l’application, que ce qu’il y a trouvé l’a enrichi. Elles n’arrivent pas à calculer et à intégrer le bénéfice à long terme, même si elles restent très attentives aux taux de rétention ou aux taux de désabonnement. Pour y parvenir, il faudrait faire de l’A/B testing au long cours. Les plateformes savent le faire. Facebook a constaté que le fait d’afficher plus de notifications augmentait l’engagement à court terme mais avait un effet inverse sur un an. Reste que ce regard sur leurs effets à longs termes ne semble pas être une priorité par rapport à leurs effets de plus courts termes.

Une autre limite repose sur l’individualisme des plateformes. Si les applications sociales sont, globalement, assez satisfaisantes pour chacun, ni les utilisateurs ni les plateformes n’intériorisent leurs préjudices collectifs. Ces systèmes reposent sur l’hypothèse que le comportement de chaque utilisateur est indépendant et que l’effet sur la société (l’atteinte à la démocratie par exemple…) est très difficile à évaluer. Narayan le résume dans un tableau parlant, où la valeur sur la société n’a pas de métrique associée.

Graphique montrant les 4 niveaux sur lesquels les algorithmes des plateformes peuvent avoir des effets. CTR : Click Through Rate (taux de clic). MSI : Meaningful Social Interactions, interactions sociales significatives, la métrique d'engagement de Facebook. DAU : Daily active users, utilisateurs actifs quotidiens.
Tableau montrant les 4 niveaux sur lesquels les algorithmes des plateformes peuvent avoir des effets. CTR : Click Through Rate (taux de clic). MSI : Meaningful Social Interactions, interactions sociales significatives, la métrique d’engagement de Facebook. DAU : Daily active users, utilisateurs actifs quotidiens.

Les algorithmes ne sont pas l’ennemi (enfin si, quand même un peu)

Pour répondre à ces problèmes, beaucoup suggèrent de revenir à des flux plus chronologiques ou a des suivis plus stricts des personnes auxquelles nous sommes abonnés. Pas sûr que cela soit une solution très efficace pour gérer les volumes de flux, estime le chercheur. Les algorithmes de recommandation ont été la réponse à la surcharge d’information, rappelle-t-il : « Il y a beaucoup plus d’informations en ligne en rapport avec les intérêts d’une personne qu’elle n’en a de temps disponible. » Les algorithmes de classement sont devenus une nécessité pratique. Même dans le cas d’un réseau longtemps basé sur l’abonnement, comme Instagram : en 2016, la société indiquait que les utilisateurs manquaient 70 % des publications auxquelles ils étaient abonnés. Aujourd’hui, Instagram compte 5 fois plus d’utilisateurs. En fait, les plateformes subissent d’énormes pressions pour que les algorithmes soient encore plus au cœur de leur fonctionnement que le contraire. Et les systèmes de recommandation font leur entrée dans d’autres domaines, comme l’éducation (avec Coursera) ou la finance (avec Robinhood).

Pour Narayan, l’enjeu reste de mieux comprendre ce qu’ils font. Pour cela, nous devons continuer d’exiger d’eux bien plus de transparence qu’ils n’en livrent. Pas plus que dans le monde des moteurs de recherche nous ne reviendrons aux annuaires, nous ne reviendrons pas aux flux chronologiques dans les moteurs de recommandation. Nous avons encore des efforts à faire pour contrecarrer activement les modèles les plus nuisibles des recommandations. L’enjeu, conclut-il, est peut-être d’esquisser plus d’alternatives que nous n’en disposons, comme par exemple, d’imaginer des algorithmes de recommandations qui n’optimisent pas l’engagement, ou pas seulement. Cela nécessite certainement aussi d’imaginer des réseaux sociaux avec des modèles économiques différents. Un autre internet. Les algorithmes ne sont peut-être pas l’ennemi comme il le dit, mais ceux qui ne sont ni transparents, ni loyaux, et qui optimisent leurs effets en dehors de toute autre considération, ne sont pas nos amis non plus !




Ouvrir le code des algorithmes ? — Oui, mais… (1/2)

Voici le premier des deux articles qu’Hubert Guillaud nous fait le plaisir de partager. Sans s’arrêter à la surface de l’actualité, il aborde la transparence du code des algorithmes, qui entraîne un grand nombre de questions épineuses sur lesquelles il s’est documenté pour nous faire part de ses réflexions.


Dans le code source de l’amplification algorithmique : publier le code ne suffit pas !

par Hubert GUILLAUD

Le 31 mars, Twitter a publié une partie du code source qui alimente son fil d’actualité, comme l’a expliqué l’équipe elle-même dans un billet. Ces dizaines de milliers de lignes de code contiennent pourtant peu d’informations nouvelles. Depuis le rachat de l’oiseau bleu par Musk, Twitter a beaucoup changé et ne cesse de se modifier sous les yeux des utilisateurs. La publication du code source d’un système, même partiel, qui a longtemps été l’un des grands enjeux de la transparence, montre ses limites.

un jeune homme montre une ligne d'une explication de l'encodage des algorithmes au rétroprojecteur
« LZW encoding and decoding algorithms overlapped » par nayukim, licence CC BY 2.0.

Publier le code ne suffit pas

Dans un excellent billet de blog, le chercheur Arvind Narayan (sa newsletter mérite également de s’y abonner) explique ce qu’il faut en retenir. Comme ailleurs, les règles ne sont pas claires. Les algorithmes de recommandation utilisent l’apprentissage automatique ce qui fait que la manière de classer les tweets n’est pas directement spécifiée dans le code, mais apprise par des modèles à partir de données de Twitter sur la manière dont les utilisateurs ont réagi aux tweets dans le passé. Twitter ne divulgue ni ces modèles ni les données d’apprentissages, ce qui signifie qu’il n’est pas possible d’exécuter ces modèles. Le code ne permet pas de comprendre pourquoi un tweet est ou n’est pas recommandé à un utilisateur, ni pourquoi certains contenus sont amplifiés ou invisibilisés. C’est toute la limite de la transparence. Ce que résume très bien le journaliste Nicolas Kayser-Bril pour AlgorithmWatch (pertinemment traduit par le framablog) : « Vous ne pouvez pas auditer un code seulement en le lisant. Il faut l’exécuter sur un ordinateur. »

« Ce que Twitter a publié, c’est le code utilisé pour entraîner les modèles, à partir de données appropriées », explique Narayan, ce qui ne permet pas de comprendre les propagations, notamment du fait de l’absence des données. De plus, les modèles pour détecter les tweets qui violent les politiques de Twitter et qui leur donnent des notes de confiance en fonction de ces politiques sont également absentes (afin que les usagers ne puissent pas déjouer le système, comme nous le répètent trop de systèmes rétifs à l’ouverture). Or, ces classements ont des effets de rétrogradation très importants sur la visibilité de ces tweets, sans qu’on puisse savoir quels tweets sont ainsi classés, selon quelles méthodes et surtout avec quelles limites.

La chose la plus importante que Twitter a révélée en publiant son code, c’est la formule qui spécifie comment les différents types d’engagement (likes, retweets, réponses, etc.) sont pondérés les uns par rapport aux autres… Mais cette formule n’est pas vraiment dans le code. Elle est publiée séparément, notamment parce qu’elle n’est pas statique, mais qu’elle doit être modifiée fréquemment.

Sans surprise, le code révèle ainsi que les abonnés à Twitter Blue, ceux qui payent leur abonnement, bénéficient d’une augmentation de leur portée (ce qui n’est pas sans poser un problème de fond, comme le remarque pertinemment sur Twitter, Guillaume Champeau, car cette préférence pourrait mettre ces utilisateurs dans la position d’être annonceurs, puisqu’ils payent pour être mis en avant, sans que l’interface ne le signale clairement, autrement que par la pastille bleue). Reste que le code n’est pas clair sur l’ampleur de cette accélération. Les notes attribuées aux tweets des abonnés Blue sont multipliées par 2 ou 4, mais cela ne signifie pas que leur portée est pareillement multipliée. « Une fois encore, le code ne nous dit pas le genre de choses que nous voudrions savoir », explique Narayan.

Reste que la publication de la formule d’engagement est un événement majeur. Elle permet de saisir le poids des réactions sur un tweet. On constate que la réponse à tweet est bien plus forte que le like ou que le RT. Et la re-réponse de l’utilisateur originel est prédominante, puisque c’est le signe d’une conversation forte. À l’inverse, le fait qu’un lecteur bloque, mute ou se désabonne d’un utilisateur suite à un tweet est un facteur extrêmement pénalisant pour la propagation du tweet.

Tableau du poids attribué en fonction des types d’engagement possibles sur Twitter.

Ces quelques indications permettent néanmoins d’apprendre certaines choses. Par exemple que Twitter ne semble pas utiliser de prédictions d’actions implicites (comme lorsqu’on s’arrête de faire défiler son fil), ce qui permet d’éviter l’amplification du contenu trash que les gens ne peuvent s’empêcher de regarder, même s’ils ne s’y engagent pas. La formule nous apprend que les retours négatifs ont un poids très élevé, ce qui permet d’améliorer son flux en montrant à l’algorithme ce dont vous ne voulez pas – même si les plateformes devraient permettre des contrôles plus explicites pour les utilisateurs. Enfin, ces poids ont des valeurs souvent précises, ce qui signifie que ce tableau n’est valable qu’à l’instant de la publication et qu’il ne sera utile que si Twitter le met à jour.

Les algorithmes de recommandation qui optimisent l’engagement suivent des modèles assez proches. La publication du code n’est donc pas très révélatrice. Trois éléments sont surtout importants, insiste le chercheur :

« Le premier est la manière dont les algorithmes sont configurés : les signaux utilisés comme entrée, la manière dont l’engagement est défini, etc. Ces informations doivent être considérées comme un élément essentiel de la transparence et peuvent être publiées indépendamment du code. La seconde concerne les modèles d’apprentissage automatique qui, malheureusement, ne peuvent généralement pas être divulgués pour des raisons de protection de la vie privée. Le troisième est la boucle de rétroaction entre les utilisateurs et l’algorithme ».

Autant d’éléments qui demandent des recherches, des expériences et du temps pour en comprendre les limites.

Si la transparence n’est pas une fin en soi, elle reste un moyen de construire un meilleur internet en améliorant la responsabilité envers les utilisateurs, rappelle l’ingénieur Gabriel Nicholas pour le Center for Democracy & Technology. Il souligne néanmoins que la publication d’une partie du code source de Twitter ne contrebalance pas la fermeture du Consortium de recherche sur la modération, ni celle des rapports de transparence relatives aux demandes de retraits des autorités ni celle de l’accès à son API pour chercheurs, devenue extrêmement coûteuse.

« Twitter n’a pas exactement ’ouvert son algorithme’ comme certains l’ont dit. Le code est lourdement expurgé et il manque plusieurs fichiers de configuration, ce qui signifie qu’il est pratiquement impossible pour un chercheur indépendant d’exécuter l’algorithme sur des échantillons ou de le tester d’une autre manière. Le code publié n’est en outre qu’un instantané du système de recommandation de Twitter et n’est pas réellement connecté au code en cours d’exécution sur ses serveurs. Cela signifie que Twitter peut apporter des modifications à son code de production et ne pas l’inclure dans son référentiel public, ou apporter des modifications au référentiel public qui ne sont pas reflétées dans son code de production. »

L’algorithme publié par Twitter est principalement son système de recommandation. Il se décompose en 3 parties, explique encore Nicholas :

  • Un système de génération de contenus candidats. Ici, Twitter sélectionne 1500 tweets susceptibles d’intéresser un utilisateur en prédisant la probabilité que l’utilisateur s’engage dans certaines actions pour chaque tweet (c’est-à-dire qu’il RT ou like par exemple).
  • Un système de classement. Une fois que les 1 500 tweets susceptibles d’être servis sont sélectionnés, ils sont notés en fonction de la probabilité des actions d’engagement, certaines actions étant pondérées plus fortement que d’autres. Les tweets les mieux notés apparaîtront généralement plus haut dans le fil d’actualité de l’utilisateur.
  • Un système de filtrage. Les tweets ne sont pas classés strictement en fonction de leur score. Des heuristiques et des filtres sont appliqués pour, par exemple, éviter d’afficher plusieurs tweets du même auteur ou pour déclasser les tweets d’auteurs que l’utilisateur a déjà signalés pour violation de la politique du site.

Le score final est calculé en additionnant la probabilité de chaque action multipliée par son poids (en prenant certainement en compte la rareté ou la fréquence d’action, le fait de répondre à un tweet étant moins fréquent que de lui attribuer un like). Mais Twitter n’a pas publié la probabilité de base de chacune de ces actions ce qui rend impossible de déterminer l’importance de chacune d’elles dans les recommandations qui lui sont servies.

Twitter a également révélé quelques informations sur les autres facteurs qu’il prend en compte en plus du classement total d’un tweet. Par exemple, en équilibrant les recommandations des personnes que vous suivez avec celles que vous ne suivez pas, en évitant de recommander les tweets d’un même auteur ou en donnant une forte prime aux utilisateurs payants de Twitter Blue.

Il y a aussi beaucoup de code que Twitter n’a pas partagé. Il n’a pas divulgué beaucoup d’informations sur l’algorithme de génération des tweets candidats au classement ni sur ses paramètres et ses données d’entraînement. Twitter n’a pas non plus explicitement partagé ses algorithmes de confiance et de sécurité pour détecter des éléments tels que les abus, la toxicité ou les contenus pour adultes, afin d’empêcher les gens de trouver des solutions de contournement, bien qu’il ait publié certaines des catégories de contenu qu’il signale.

 

graphe des relations entre comptes twitter, tr-s nombreux traits bleus entre minuscules avatars de comptes, le tout donne une impression d'inextricable comlexité
« 20120212-NodeXL-Twitter-socbiz network graph » par Marc_Smith; licence CC BY 2.0.

 

Pour Gabriel Nicholas, la transparence de Twitter serait plus utile si Twitter avait maintenu ouverts ses outils aux chercheurs. Ce n’est pas le cas.

Il y a plein d’autres points que l’ouverture de l’algorithme de Twitter a documentés. Par exemple, l’existence d’un Tweepcred, un score qui classe les utilisateurs et qui permet de voir ses publications boostées si votre score est bon, comme l’expliquait Numerama. Ou encore le fait que chaque compte est clustérisé dans un groupe aux profils similaires dans lequel les tweets sont d’abord diffusés avant d’être envoyés plus largement s’ils rencontrent un premier succès… De même, il semblerait qu’il y ait certaines catégories d’utilisateurs spéciaux (dont une catégorie relative à Elon Musk) mais qui servent peut-être plus certaines statistiques qu’à doper la portée de certains comptes comme on l’a entendu (même s’il semble bien y avoir une catégorie VIP sur Twitter – comme il y a sur Facebook un statut d’exception à la modération)…

Ouvrir, mais ouvrir quoi ?

En conclusion de son article, Narayan pointe vers un très intéressant article qui dresse une liste d’options de transparence pour ceux qui produisent des systèmes de recommandation, publiée par les chercheurs Priyanjana Bengani, Jonathan Stray et Luke Thorburn. Ils rappellent que les plateformes ont mis en place des mesures de transparence, allant de publications statistiques à des interfaces de programmation, en passant par des outils et des ensembles de données protégés. Mais ces mesures, très techniques, restent insuffisantes pour comprendre les algorithmes de recommandation et leur influence sur la société. Une grande partie de cette résistance à la transparence ne tient pas tant aux risques commerciaux qui pourraient être révélés qu’à éviter l’embarras d’avoir à se justifier de choix qui ne le sont pas toujours. D’une manière très pragmatique, les trois chercheurs proposent un menu d’actions pour améliorer la transparence et l’explicabilité des systèmes.

Documenter
L’un des premiers outils, et le plus simple, reste la documentation qui consiste à expliquer en termes clairs – selon différentes échelles et niveaux, me semble-t-il – ce qui est activé par une fonction. Pour les utilisateurs, c’est le cas du bouton « Pourquoi je vois ce message » de Facebook ou du panneau « Fréquemment achetés ensemble » d’Amazon. L’idée ici est de fourbir un « compte rendu honnête ». Pour les plus évoluées de ces interfaces, elles devraient permettre non seulement d’informer et d’expliquer pourquoi on nous recommande ce contenu, mais également, permettre de rectifier et mieux contrôler son expérience en ligne, c’est-à-dire d’avoir des leviers d’actions sur la recommandation.

Une autre forme de documentation est celle sur le fonctionnement général du système et ses décisions de classement, à l’image des rapports de transparence sur les questions de sécurité et d’intégrité que doivent produire la plupart des plateformes (voir celui de Google, par exemple). Cette documentation devrait intégrer des informations sur la conception des algorithmes, ce que les plateformes priorisent, minimisent et retirent, si elles donnent des priorités et à qui, tenir le journal des modifications, des nouvelles fonctionnalités, des changements de politiques. La documentation doit apporter une information solide et loyale, mais elle reste souvent insuffisante.

Les données
Pour comprendre ce qu’il se passe sur une plateforme, il est nécessaire d’obtenir des données. Twitter ou Facebook en ont publié (accessibles sous condition de recherche, ici pour Twitter,  pour Facebook). Une autre approche consiste à ouvrir des interfaces de programmation, à l’image de CrowdTangle de Facebook ou de l’API de Twitter. Depuis le scandale Cambridge Analytica, l’accès aux données est souvent devenu plus difficile, la protection de la vie privée servant parfois d’excuse aux plateformes pour éviter d’avoir à divulguer leurs pratiques. L’accès aux données, même pour la recherche, s’est beaucoup refermé ces dernières années. Les plateformes publient moins de données et CrowdTangle propose des accès toujours plus sélectifs. Chercheurs et journalistes ont été contraints de développer leurs propres outils, comme des extensions de navigateurs permettant aux utilisateurs de faire don de leurs données (à l’image du Citizen Browser de The Markup) ou des simulations automatisées (à l’image de l’analyse robotique de TikTok produite par le Wall Street Journal), que les plateformes ont plutôt eu tendance à bloquer en déniant les résultats obtenus sous prétexte d’incomplétude – ce qui est justement le problème que l’ouverture de données cherche à adresser.

Le code
L’ouverture du code des systèmes de recommandation pourrait être utile, mais elle ne suffit pas, d’abord parce que dans les systèmes de recommandation, il n’y a pas un algorithme unique. Nous sommes face à des ensembles complexes et enchevêtrés où « différents modèles d’apprentissage automatique formés sur différents ensembles de données remplissent diverses fonctions ». Même le classement ou le modèle de valeur pour déterminer le score n’explique pas tout. Ainsi, « le poids élevé sur un contenu d’un type particulier ne signifie pas nécessairement qu’un utilisateur le verra beaucoup, car l’exposition dépend de nombreux autres facteurs, notamment la quantité de ce type de contenu produite par d’autres utilisateurs. »

Peu de plateformes offrent une grande transparence au niveau du code source. Reddit a publié en 2008 son code source, mais a cessé de le mettre à jour. En l’absence de mesures de transparence, comprendre les systèmes nécessite d’écluser le travail des journalistes, des militants et des chercheurs pour tenter d’en obtenir un aperçu toujours incomplet.

La recherche
Les plateformes mènent en permanence une multitude de projets de recherche internes voire externes et testent différentes approches pour leurs systèmes de recommandation. Certains des résultats finissent par être accessibles dans des revues ou des articles soumis à des conférences ou via des fuites d’informations. Quelques efforts de partenariats entre la recherche et les plateformes ont été faits, qui restent embryonnaires et ne visent pas la transparence, mais qui offrent la possibilité à des chercheurs de mener des expériences et donc permettent de répondre à des questions de nature causale, qui ne peuvent pas être résolues uniquement par l’accès aux données.

Enfin, les audits peuvent être considérés comme un type particulier de recherche. À l’heure actuelle, il n’existe pas de bons exemples d’audits de systèmes de recommandation menés à bien. Reste que le Digital Service Act (DSA) européen autorise les audits externes, qu’ils soient lancés par l’entreprise ou dans le cadre d’une surveillance réglementaire, avec des accès élargis par rapport à ceux autorisés pour l’instant. Le DSA exige des évaluations sur le public mineur, sur la sécurité, la santé, les processus électoraux… mais ne précise ni comment ces audits doivent être réalisés ni selon quelles normes. Des méthodes spécifiques ont été avancées pour contrôler la discrimination, la polarisation et l’amplification dans les systèmes de recommandation.

En principe, on pourrait évaluer n’importe quel préjudice par des audits. Ceux-ci visent à vérifier si « la conception et le fonctionnement d’un système de recommandation respectent les meilleures pratiques et si l’entreprise fait ce qu’elle dit qu’elle fait. S’ils sont bien réalisés, les audits pourraient offrir la plupart des avantages d’un code source ouvert et d’un accès aux données des utilisateurs, sans qu’il soit nécessaire de les rendre publics. » Reste qu’il est peu probable que les audits imposés par la surveillance réglementaire couvrent tous les domaines qui préoccupent ceux qui sont confrontés aux effets des outils de recommandations.

Autres moteurs de transparence : la gouvernance et les calculs

Les chercheurs concluent en soulignant qu’il existe donc une gamme d’outils à disposition, mais qu’elle manque de règles et de bonnes pratiques partagées. Face aux obligations de transparence et de contrôles qui arrivent (pour les plus gros acteurs d’abord, mais parions que demain, elles concerneront bien d’autres acteurs), les entreprises peinent à se mettre en ordre de marche pour proposer des outillages et des productions dans ces différents secteurs qui leur permettent à la fois de se mettre en conformité et de faire progresser leurs outils. Ainsi, par exemple, dans le domaine des données, documenter les jeux et les champs de données, à défaut de publier les jeux de données, pourrait déjà permettre un net progrès. Dans le domaine de la documentation, les cartes et les registres permettent également d’expliquer ce que les calculs opèrent (en documentant par exemple leurs marges d’erreurs).

Reste que l’approche très technique que mobilisent les chercheurs oublie quelques leviers supplémentaires. Je pense notamment aux conseils de surveillance, aux conseils éthiques, aux conseils scientifiques, en passant par les organismes de contrôle indépendants, aux comités participatifs ou consultatifs d’utilisateurs… à tous les outils institutionnels, participatifs ou militants qui permettent de remettre les parties prenantes dans le contrôle des décisions que les systèmes prennent. Dans la lutte contre l’opacité des décisions, tous les leviers de gouvernance sont bons à prendre. Et ceux-ci sont de très bons moyens pour faire pression sur la transparence, comme l’expliquait très pertinemment David Robinson dans son livre Voices in the Code.

Un autre levier me semble absent de nombre de propositions… Alors qu’on ne parle que de rendre les calculs transparents, ceux-ci sont toujours absents des discussions. Or, les règles de traitements sont souvent particulièrement efficaces pour améliorer les choses. Il me semble qu’on peut esquisser au moins deux moyens pour rendre les calculs plus transparents et responsables : la minimisation et les interdictions.

La minimisation vise à rappeler qu’un bon calcul ne démultiplie pas nécessairement les critères pris en compte. Quand on regarde les calculs, bien souvent, on est stupéfait d’y trouver des critères qui ne devraient pas être pris en compte, qui n’ont pas de fondements autres que d’être rendus possibles par le calcul. Du risque de récidive au score de risque de fraude à la CAF, en passant par l’attribution de greffes ou aux systèmes de calculs des droits sociaux, on trouve toujours des éléments qui apprécient le calcul alors qu’ils n’ont aucune justification ou pertinence autres que d’être rendu possibles par le calcul ou les données. C’est le cas par exemple du questionnaire qui alimente le calcul de risque de récidive aux Etats-Unis, qui repose sur beaucoup de questions problématiques. Ou de celui du risque de fraude à la CAF, dont les anciennes versions au moins (on ne sait pas pour la plus récente) prenaient en compte par exemple le nombre de fois où les bénéficiaires se connectaient à leur espace en ligne (sur cette question, suivez les travaux de la Quadrature et de Changer de Cap). La minimisation, c’est aussi, comme l’explique l’ex-chercheur de chez Google, El Mahdi El Mhamdi, dans une excellente interview, limiter le nombre de paramètres pris en compte par les calculs et limiter l’hétérogénéité des données.

L’interdiction, elle, vise à déterminer que certains croisements ne devraient pas être autorisés, par exemple, la prise en compte des primes dans les logiciels qui calculent les données d’agenda du personnel, comme semble le faire le logiciel Orion mis en place par la Sncf, ou Isabel, le logiciel RH que Bol.com utilise pour gérer la main-d’œuvre étrangère dans ses entrepôts de logistique néerlandais. Ou encore, comme le soulignait Narayan, le temps passé sur les contenus sur un réseau social par exemple, ou l’analyse de l’émotion dans les systèmes de recrutement (et ailleurs, tant cette technologie pose problème). A l’heure où tous les calculs sont possibles, il va être pertinent de rappeler que selon les secteurs, certains croisements doivent rester interdits parce qu’ils sont trop à risque pour être mobilisés dans le calcul ou que certains calculs ne peuvent être autorisés.

Priyanjana Bengani, Jonathan Stray et Luke Thorburn, pour en revenir à eux, notent enfin que l’exigence de transparence reste formulée en termes très généraux par les autorités réglementaires. Dans des systèmes vastes et complexes, il est difficile de savoir ce que doit signifier réellement la transparence. Pour ma part, je milite pour une transparence “projective”, active, qui permette de se projeter dans les explications, c’est-à-dire de saisir ses effets et dépasser le simple caractère narratif d’une explication loyale, mais bien de pouvoir agir et reprendre la main sur les calculs.

Coincés dans les boucles de l’amplification

Plus récemment, les trois mêmes chercheurs, passé leur article séminal, ont continué à documenter leur réflexion. Ainsi, dans « Rendre l’amplification mesurable », ils expliquent que l’amplification est souvent bien mal définie (notamment juridiquement, ils ont consacré un article entier à la question)… mais proposent d’améliorer les propriétés permettant de la définir. Ils rappellent d’abord que l’amplification est relative, elle consiste à introduire un changement par rapport à un calcul alternatif ou précédent qui va avoir un effet sans que le comportement de l’utilisateur n’ait été, lui, modifié.

L’amplification agit d’abord sur un contenu et nécessite de répondre à la question de savoir ce qui a été amplifié. Mais même dire que les fake news sont amplifiées n’est pas si simple, à défaut d’avoir une définition précise et commune des fake news qui nécessite de comprendre les classifications opérées. Ensuite, l’amplification se mesure par rapport à un point de référence précédent qui est rarement précisé. Enfin, quand l’amplification atteint son but, elle produit un résultat qui se voit dans les résultats liés à l’engagement (le nombre de fois où le contenu a été apprécié ou partagé) mais surtout ceux liés aux impressions (le nombre de fois où le contenu a été vu). Enfin, il faut saisir ce qui relève de l’algorithme et du comportement de l’utilisateur. Si les messages d’un parti politique reçoivent un nombre relativement important d’impressions, est-ce parce que l’algorithme est biaisé en faveur du parti politique en question ou parce que les gens ont tendance à s’engager davantage avec le contenu de ce parti ? Le problème, bien sûr, est de distinguer l’un de l’autre d’une manière claire, alors qu’une modification de l’algorithme entraîne également une modification du comportement de l’utilisateur. En fait, cela ne signifie pas que c’est impossible, mais que c’est difficile, expliquent les chercheurs. Cela nécessite un système d’évaluation de l’efficacité de l’algorithme et beaucoup de tests A/B pour comparer les effets des évolutions du calcul. Enfin, estiment-ils, il faut regarder les effets à long terme, car les changements dans le calcul prennent du temps à se diffuser et impliquent en retour des réactions des utilisateurs à ces changements, qui s’adaptent et réagissent aux transformations.

Dans un autre article, ils reviennent sur la difficulté à caractériser l’effet bulle de filtre des médias sociaux, notamment du fait de conceptions élastiques du phénomène. S’il y a bien des boucles de rétroaction, leur ampleur est très discutée et dépend beaucoup du contexte. Ils en appellent là encore à des mesures plus précises des phénomènes. Certes, ce que l’on fait sur les réseaux sociaux influe sur ce qui est montré, mais il est plus difficile de démontrer que ce qui est montré affecte ce que l’on pense. Il est probable que les effets médiatiques des recommandations soient faibles pour la plupart des gens et la plupart du temps, mais beaucoup plus importants pour quelques individus ou sous-groupes relativement à certaines questions ou enjeux. De plus, il est probable que changer nos façons de penser ne résulte pas d’une exposition ponctuelle, mais d’une exposition à des récits et des thèmes récurrents, cumulatifs et à long terme. Enfin, si les gens ont tendance à s’intéresser davantage à l’information si elle est cohérente avec leur pensée existante, il reste à savoir si ce que l’on pense affecte ce à quoi l’on s’engage. Mais cela est plus difficile à mesurer car cela suppose de savoir ce que les gens pensent et pas seulement constater leurs comportements en ligne. En général, les études montrent plutôt que l’exposition sélective a peu d’effets. Il est probable cependant que là encore, l’exposition sélective soit faible en moyenne, mais plus forte pour certains sous-groupes de personnes en fonction des contextes, des types d’informations.

Bref, là encore, les effets des réseaux sociaux sont difficiles à percer.

Pour comprendre les effets de l’amplification algorithmique, peut-être faut-il aller plus avant dans la compréhension que nous avons des évolutions de celle-ci, afin de mieux saisir ce que nous voulons vraiment savoir. C’est ce que nous tenterons de faire dans la suite de cet article…




Feedback on the ECHO Network opening seminar, January 2023, Paris

From January 14 to 16, 2023, the Ceméa France and Framasoft held the opening seminar of the ECHO Network project. Here is a report of this weekend of international exchanges and discoveries.

A two-year European project

Presented on the Framablog last October, ECHO Network is one of the four flagship projects of our roadmap Collectivisons Internet, Convivialisons Internet.

Ethical, Commons, Humans, Open-Source Network is a project, but also an associative network on a European scale. Led by the new education association Ceméa France, this network is composed of 7 structures from 5 European countries:

These structures share an intent to accompany citizens (via popular education, news, activism, etc.), and to exchange on the digital uses specific to their country, their culture, their language.

Study trips are therefore planned in 2023 in each of the countries to facilitate these exchanges and the understanding of the context of each one, so that in 2024 we can produce commons that can be used by other associations in Europe.

 

Drawing of five islands in a circle, each with constructions of a different culture. They communicate with each other by sending waves, echoes.
ECHO Network – Illustration by David Revoy – Licence : CC-By 4.0

The opening seminar in Paris

The first meeting with all the actors took place from Saturday 13 to Monday 16 January in Saint Ouen, north of Paris, France.

This opening seminar was co-organized by Ceméa France and Framasoft. While we didn’t hesitate to get involved and contribute as much as we could, we have to admit that members of the Ceméa have a precious experience in setting up these events, and that they did a great job overall on organizing this seminar.

In addition to the thirty or so participants representing the partners of the ECHO Network project, we were able to invite more than twenty people from networks interested in new education, digital mediation, the commons and free software to contribute to these first discussions on ethical digital support for citizens.

Thus, this opening seminar was designed to find out how to talk about the same thing when we don’t speak the same languages, even though our contexts are different and our digital cultures varied.

Imagine a large room, about twenty people are sitting on chairs in tight rows. In front of them, a person seems to give them instructions. That’s what it looked like.

Understanding each other through « new education »

These three days were conceived beforehand using the methods of « new education » dear to the Ceméa.

The 55 people were divided into 3 reference groups, in order to share knowledge together. The concept was simple: rather than having poor interactions with 55 people, spend more quality time with a smaller group of 15 of them.

These groups were led by a team of three people (2 members of Ceméa, 1 member of Framasoft). Some periods were also reserved to be spent in micro groups (of 2-4 people) and to realize « mini projects ». Of course, all the participants gathered for the meals and conviviality times in the canteen.

Let’s take a moment to greet and thank the team managing the place, Mains d’œuvres, in Saint-Ouen, for their wonderful welcome and their delicious food. This space dedicated to culture and integrated into the life of the neighborhood was ideal to discover the flavor of Paris that’s lived by the locals. https://www.mainsdoeuvres.org/

The three days were divided into six half-days: the first one to meet each other, then 4 half-days dedicated to exchange on the notion of Ethics, Commons, Humanization and Openness in the digital world (yes, these are the words of the ECHO acronym ;)).

The last half-day of Monday afternoon allowed each group to present to the others a report of the exchanges, to put all this together and to say goodbye.

 

Grand papier sur lequel est écrit la question "comment déinirais tu l'éthique ?" et ou plein de cartes affichant des concepts autour du numérique éthiques sont collées

Conviviality as a political tool

The objective was to meet and to understand what brings us together in our political actions (which aim at organizing the society in a different way), and for that, the Ceméa and Framasoft relied on conviviality and exchange.

The participants had different sensitivities about digital uses. Most of them knew Mastodon but not all of them. Most of them had an idea of what free software is but not all of them. The activities allowed them to share their knowledge of the different themes.

The workshops took several very imaginative formats, such as:

  • inventing one’s own social network (with its codes, terms of use, and functioning), and imagining how one would moderate the posts of other communities
  • imagining what would be acceptable or unthinkable to put or remove in a « lifephone », a low-tech phone that everyone would keep all their life
  • Use the Métacartes Numérique Éthique to explore one to three topics in a small group and then present these topics to the rest of the group and facilitate the discussion
  • a moving debate where you position yourself in the room (near the « agree » wall or on the other side near the « disagree » wall) around assertions concerning ethics and digital technology
  • and many other animations, which are documented in the article written by the Ceméa

A5 cards from the 'life phone workshop' are spread out on a table. They represent concepts of a life phone: "a very small battery", "do not disturb", "a phone for two", etc.
The « Life Phone » workshop.

During the time devoted to these mini-projects, we were able to observe some beautiful initiatives:

  • Imagining an adaptation of the « Métacartes Numérique Éthique » to make them more accessible to a young audience
  • A writing workshop on what a desirable digital world could look like. You can read the results on Chosto’s blog (FR), from the Picasoft association
  • Digging into the question of digital support for associations with a turnkey kit
  • Laying down the principles that would help to create an ethical and collaborative video game
  • Chatting about how to introduce the societal issues of digital technology in higher technical education.

In short, collective intelligence has shown again, during these three days, its wonderful power.

Poster paper explaining "recipe cards", a card game idea to explain digital in the form of cooked dishes and recipes for children from 8 years.
Recipe cards, a tool idea that makes you drool!

Study visits to follow

If we already know that these will not necessarily resemble this seminar (where we have chosen new education methods as a tool for meeting and exchange), the next study visits have already been scheduled. In fact, as we finish writing these lines, all the partners are in Berlin for another meeting.

The main themes for those visits are, in our opinion, quite attractive:

  • Germany (March 2023) – Centralized social networks among young people, a tool for emancipation or alienation?
  • Belgium (June 2023) – New Education practices to raise awareness on ethical tools
  • Italy (September 2023) – Between face-to-face and distance learning, which use of digital technology?
  • Croatia (December 2023) – Inclusivity and accessibility in the Digital world

Of course, we will continue to report here about our experiences within these meetings and this project. All the articles can be found in the ECHO Network category on the Framablog… To be continued, then!

The picture is blurry, but you can see the main thing: the « Star Trek » room we used during the plenary sessions.

 




Retour sur le séminaire d’ouverture d’ECHO Network, janvier 2023, Paris

Du 14 au 16 janvier 2023, les Ceméa France et Framasoft ont tenu le séminaire d’ouverture du projet ECHO Network. Voici un compte rendu de ce week-end d’échanges et de découvertes internationales.

Un projet européen sur deux ans

Présenté sur le Framablog en octobre dernier, ECHO Network est l’un des quatre projets phare de notre feuille de route Collectivisons Internet, Convivialisons Internet.

Ethical, Commons, Humans, Open-Source Network (Réseau autour de l’Éthique, les Communs, les Humaines et l’Open-source) est un projet, mais aussi un réseau associatif à échelle européenne. Mené par l’association d’éducation nouvelle des Ceméa France, ce réseau se compose de 7 structures provenant de 5 pays européens :

Ces structures ont en commun d’accompagner des citoyen·nes (éducation populaire, nouvelle, militantisme, etc.), et pour objectif d’échanger sur les usages numériques spécifiques à leurs pays, leur culture, leur langue.

Des visites d’études sont donc prévues en 2023 dans chacun des pays pour faciliter ces échanges et la compréhension du contexte de chacun·e, afin qu’en 2024 l’on puisse produire des communs pouvant servir à d’autres associations en Europe.

Dessin de cinq iles en cercle, chacune avec des constructions d'une culture différente. Elles communiquent ensemble en s'envoyant des ondes, des échos.
ECHO Network – Illustration de David Revoy – Licence : CC-By 4.0

Un séminaire d’ouverture à Paris

La première rencontre des acteurs et actrices a donc eu lieu du samedi 13 au lundi 16 janvier dernier, à Saint-Ouen, au nord de Paris.

Ce séminaire d’ouverture était co-organisé par les Ceméa France et Framasoft. Si nous n’avons pas hésité à nous impliquer et contribuer de notre mieux, il faut reconnaître que les Ceméa ont une expérience précieuse sur l’organisation de ces événements, et qu’iels ont fourni un formidable travail sur ce séminaire (on a aidé comme on a pu ^^).

Car en plus de la trentaine de participant·es représentant des partenaires du projet ECHO Network, nous avons pu inviter plus de vingt personnes des réseaux de l’éducation nouvelle, de la médiation numérique, des communs et du libre pour alimenter ces premiers échanges autour du numérique éthique dans l’accompagnement citoyen.

Ainsi, ce séminaire d’ouverture a été pensé pour trouver comment parler de la même chose quand on ne parle pas les mêmes langues, alors que nos contextes sont différents, et nos cultures numériques variées.

dans une grande salle, une vingtaine de personnes sont assises sur des chaises en rangs serrés. Devant elles une personne semble leur donner des consignes.
Le jeu du « pac man IRL », pour se ré-énergiser après le déjeuner et avant de s’y remettre, était assez épique.

Se comprendre grâce à l’éducation nouvelle

Ces trois jours ont été conçus en amont en reprenant les méthodes de l’éducation nouvelle chères aux Ceméa.

Les 55 personnes ont été réparties en 3 groupes de référence, pour pouvoir partager les savoirs ensemble. Le concept était simple : plutôt que de mal rencontrer 55 personnes, prendre le temps d’échanger avec une petite quinzaine.

Ces groupes étaient animés par une équipe de trois personnes (2 membres des Ceméa, 1 membre de Framasoft). Des temps étaient aussi réservés pour se trouver en micro groupes (de 2-4 personnes) et réaliser des « mini projets ». Bien entendu, l’ensemble des participant·es se rassemblait pour les repas et temps de convivialités dans la cantine.

Prenons d’ailleurs un temps pour saluer et remercier l’équipe du lieu Mains d’œuvres, à Saint-Ouen, pour son accueil formidable et ses plats délicieux. Cet espace consacré à la culture et intégré à la vie de quartier était idéal pour faire découvrir à nos partenaires de l’Europe Paris telle qu’elle est vécue par les personnes qui y habitent.

Les trois jours ont été découpés en six demi-journées : la première pour se rencontrer, puis 4 demi-journées consacrées à échanger sur les notions d’Éthique, de Communs, d’Humanisation et d’Ouverture dans le numérique (oui, ce sont les mots de l’acronyme ECHO ;)).

La dernière demi-journée du lundi après-midi a permis à chaque groupe de présenter aux autres un compte rendu des échanges, de mettre en commun tout cela et de se dire au revoir.

Grand papier sur lequel est écrit la question "comment définirais-tu l'éthique ?" et ou plein de cartes affichant des concepts autour du numérique éthiques sont collées

La convivialité comme outil politique

L’objectif était donc de se rencontrer et de comprendre ce qui nous rassemble dans nos actions politiques (qui visent à organiser la société autrement), et pour cela les Ceméa et Framasoft ont misé sur la convivialité et l’échange.

Les participant·es avaient des sensibilités différentes sur les usages du numérique. La plupart connaissaient Mastodon mais pas toustes. La plupart avaient un aperçu de ce qu’est le logiciel libre mais pas toustes. Les activités leur ont permis de se partager, entre elles et eux, leurs connaissances des différentes thématiques abordées.

Les ateliers ont pris plusieurs formes très imaginatives, par exemple :

  • inventer son réseau social (avec ses codes, ses conditions générales d’utilisation, son fonctionnement), et imaginer comment l’on modérerait les posts d’autres communautés
  • imaginer ce qu’il serait acceptable ou impensable de mettre ou de retirer dans un téléphone « lifephone » que chacune garderait toute sa vie
  • utiliser les Métacartes Numérique Éthique pour creuser un à trois sujets en petit groupe puis présenter ces sujets au reste du groupe et animer la discussion
  • un débat mouvant où l’on se positionne dans la salle (près du mur « d’accord » ou de l’autre côté près du mur « pas d’accord ») autour d’affirmations concernant l’éthique et le numérique
  • … et bien d’autres animations, qui sont documentées dans l’article écrit par les Ceméa

Des cartes A5 de 'atelier life phone sont étalées sur une table. Elles représentent des concepts d'un téléphone à vie : "une toute petite batterie" , "ne pas déranger", "un téléphone pour deux", etc.
L’atelier Life Phone, imaginons à quoi ressemblerait un téléphone low-tech, qui nous tiendrait toute notre vie.

Durant les temps consacrés à ces mini-projets, nous avons pu observer de belles initiatives :

  • Imaginer une adaptation des Métacartes Numériques pour les rendre plus accessibles à un public d’enfants.
  • Un atelier d’écriture sur ce à quoi pourrait ressembler un numérique souhaitable. Vous pouvez lire les créations sur le blog de Chosto, de l’association Picasoft.
  • Approfondir la question de l’accompagnement numérique des associations avec une mallette clé-en-main (ça a notamment causé de RÉSOLU).
  • Poser les principes qui permettrait de créer un jeu vidéo éthique et collaboratif.
  • Papoter sur la façon d’introduire les enjeux sociétaux du numérique dans les formations supérieures techniques.

En bref, l’intelligence collective a encore montré, durant ces trois jours, ses merveilleuses capacités.

Papier affiche expliquant les "cartes recettes", une idée de jeu de cartes pour expliquer le numérique sous forme de plats cuisinés et de recettes pour les enfants dès 8 ans.
Les cartes-recettes, une idée d’outil qui fait saliver !

Des visites d’études à suivre

Si l’on sait déjà qu’elles ne ressembleront pas forcément à ce séminaire (où nous avons fait le choix de l’éducation nouvelle comme outil de rencontre et d’échanges), les visites d’études sont déjà programmées. D’ailleurs, au moment où nous finissons de rédiger ces lignes, c’est à Berlin que l’ensemble des partenaires est en train d’échanger.

Le programme des thématiques est alléchant :

  • Allemagne (mars 2023) – Les réseaux sociaux centralisés chez les jeunes, outil d’émancipation ou d’aliénation ?
  • Belgique (juin 2023) – Pratiques d’Éducation Nouvelle pour sensibiliser aux outils éthiques
  • Italie (septembre 2023) – Entre présentiel et distanciel, quelle utilisation du numérique ?
  • Croatie (décembre 2023) – Inclusivité et accessibilité du Numérique

Bien entendu, nous continuerons de rendre compte, ici-même, de notre expérience au sein de ces rencontres et de ce projet, l’ensemble des articles pourra être suivi grâce à la catégorie ECHO Network sur le Framablog… à suivre, donc !

La photo est floue, mais on y voit le principal : la salle « Star Trek » qui nous a servi lors des séances de plénière.




Échirolles libérée ! La dégooglisation (2)

Voici le deuxième volet du processus de dégooglisation de la ville d’Échirolles (si vous avez manqué le début) tel que Nicolas Vivant nous en rend compte. Nous le re-publions volontiers, en souhaitant bien sûr que cet exemple suscite d’autres migrations vers des solutions libres et plus respectueuses des citoyens.


Dégooglisation d’Échirolles, partie 2 : la transformation numérique

par Nicolas Vivant

Le numérique est en train de vivre une révolution. Disposer d’une stratégie, même étayée par des enjeux politiques forts, ne permet pas d’y échapper. Le monde change et il faut s’adapter, sous peine de passer à côté des nombreuses possibilités offertes par les dernières technologies… et de se noyer dans la masse de données que nous générons chaque jour. Les mots-clés du changement : collaboratif, transparence, ouverture. Mais qu’est ce que cela veut dire, concrètement ?

L’inévitable transformation numérique

L’informatique s’est construite, depuis les années 90, autour d’un modèle que nous connaissons toutes et tous, et qui est en train de disparaître. Le poste client repose généralement sur :

  • Un système d’exploitation (généralement Windows, parfois Mac, rarement Linux)
  • Une suite bureautique (souvent Microsoft, parfois LibreOffice)
  • Un serveur de fichiers (avec un classement par arborescence et une gestion des droits centralisée)
  • Une messagerie (avec un client lourd de type Outlook, ou via une interface web) souvent couplée à un agenda

L’évolution que l’on constate partout :

  • Un système d’exploitation qui devient une simple interface de connexion
  • De plus en plus de terminaux mobiles (smartphone, PC portables, tablettes)
  • Des applications qui sont le plus souvent accessibles via un navigateur web
  • Un logiciel intégrant les fonctions de suite bureautique, de messagerie, d’agenda, d’édition collaborative et d’échanges textuels, audio ou vidéo (souvent basé sur un « cloud »)

Le changement culturel à opérer est majeur. Les utilisateurs, aux compétences souvent durement acquises, vont devoir s’adapter et notre responsabilité est de nous assurer que cette transition ne se fera pas dans la douleur.

Des fonctionnements durablement inscrits dans notre rapport à l’informatique sont repensés, sans que la question de l’adoption par les utilisateurs se pose. Exemple : l’organisation et la recherche de l’information. Aujourd’hui, la plupart des serveurs de fichiers et des systèmes de stockage de données sont organisés sous la forme d’une arborescence. Pendant très longtemps, ce classement a été le moyen le plus efficace de retrouver de l’information. Mais la masse de données numériques a grandi, la taille (et le nombre) des répertoires est devenue énorme, et les moteurs de recherche sont souvent inefficaces/lents (cf. la fonction « recherche » de l’explorateur de Windows quand il s’agit de chercher sur un serveur).

En ligne, cette question a été tranchée depuis longtemps. Aux début de l’internet, deux moteurs de recherche dominaient le marché : Yahoo, alors basé sur un classement des sites web en arborescence, par grands domaines, et Altavista (de la société, aujourd’hui disparue, Digital), qui fonctionnait sur le même principe que Google avec un unique champ de recherche. La masse d’information à gérer ayant explosé, c’est ce dernier principe qui a prévalu.

On a parfois cru que la GED (Gestion Électronique de Documents), pouvait être une réponse. Mais l’effort à consentir pour ajouter, souvent manuellement, les métadonnées lui permettant d’être efficace était important. Ce qu’on appelle le « big data » a tout changé. Aujourd’hui, la grande majorité des métadonnées peuvent être générées automatiquement par une analyse du contenu des documents, et des moteurs de recherche puissants sont disponibles. Dans ce domaine, le logiciel libre est roi (pensez à Elastic Search) et des solutions, associées à un cloud, permettent de retrouver rapidement une information, indépendamment de la façon dont elle est générée, classée ou commentée. C’est un changement majeur à conceptualiser dans le cadre de la transformation numérique, et les enjeux de formation et d’information des utilisatrices et utilisateurs ne peuvent pas être ignorés.

S’organiser pour évoluer

Si la feuille de route des élus échirollois ne nous dit pas ce qui doit être fait, elle met l’accent sur un certain nombre de thèmes qu’il va falloir prendre en compte : limitation de l’impact environnemental, réduction de toutes les fractures numériques, gestion responsable des données, autonomie et logiciels libres. À nous de nous adapter, en prenant garde, comme toujours, à la cohérence, la sécurité et la stabilité du système d’information… et en ne négligeant ni l’effort de formation, ni la nécessaire communication autour de ces changements.

Dans ma commune, c’est le rôle de la direction de la stratégie et de la culture numériques (souvent appelée, ailleurs, « direction de la transformation — ou de la transition — numérique ») en lien étroit avec la DSI, qui dispose des compétences opérationnelles.

Conjuguer autonomie et déploiement de logiciels libres a un coût : celui de l’expertise technique. Sans compétences techniques fortes, le nombre de prestations explose nécessairement et vient contredire l’objectif d’un système d’information maîtrisé, aussi bien en termes de responsabilités qu’au niveau financier. Hébergement, installation, paramétrage, sécurisation, maintenance et formation doivent pouvoir, autant que possible, être assurés en interne. Le DSI lui-même doit pouvoir faire des choix sur la base de critères qui ne sont pas seulement fonctionnels mais également techniques. La réorganisation du service est donc inévitable et l’implication de la direction des ressources humaines indispensable. Vouloir mettre en œuvre une politique autour du libre sans compétences ni appétences pour le sujet serait voué à l’échec.

À Échirolles, la grande proximité entre DSCN et DSI a permis de décliner la stratégie numérique en méthodologies opérationnelles qui, mises bout à bout, permettent de s’assurer que nous ne perdons pas de vue l’objectif stratégique. Pour chaque demande d’un nouveau logiciel exprimée par un service, par exemple, nous procédons comme suit :

  • Existe-t-il un logiciel en interne permettant de répondre au besoin ? Si oui, formons les utilisateurs et utilisons-le.
  • Si non, existe-t-il un logiciel libre permettant de répondre au besoin ? Installons-le.
  • Si non, existe-t-il un logiciel propriétaire ? Achetons-le.
  • Si non, en dernier recours, créons-le.

On mesure immédiatement ce que ce fonctionnement implique au niveau du recrutement et de l’organisation : il nous faut une équipe capable de gérer cette procédure de bout en bout et donc, forcément, une compétence en développement. Nous avons donc créé un « pôle applicatif » en charge de ce travail, et recruté un développeur. Et puisque la question de la contribution se pose également, nous avons décidé que 20% du temps de travail de ce poste serait consacré à des contributions au code de logiciels libres utilisés par la ville.

À chaque mise en place d’une solution technique, la question de l’interopérabilité se pose. Partant du principe que le « cloud » deviendra central dans l’architecture future du système d’information, nous nous sommes penchés sur les logiciels libres qui permettraient de remplir cette fonction et nous avons fait le choix, très tôt et comme beaucoup, de Nextcloud, associé à Collabora pour l’édition collaborative des documents. Nous nous assurons donc, depuis, que tout nouveau logiciel installé dans la collectivité sera correctement interopérable avec ce logiciel quand, dans quelques années, la transition sera achevée.

Mais nous parlerons de logiciels dans la troisième partie de ce récit.

Retour vers l’épisode 1 : la structuration.

***

Retrouvez-moi sur Mastodon : https://colter.social/@nicolasvivant




La dégooglisation du GRAP, partie 2 : Au revoir Google Agenda et Gmail

On vous a partagé la semaine dernière la première partie de la démarche de dégooglisation du GRAP qui vous invitait à découvrir comment iels avaient réussi à sortir de Google Drive. Voici donc la suite (mais pas la fin) de ce récit de dégooglisation qui nous permet de prendre conscience que ce n’est toujours facile de sortir des griffes de ces géants de la tech. Bonne lecture !

Dans l’épisode précédent…

En janvier 2020, après plus d’un an à avoir pris la décision de passer sur Nextcloud en remplacement de Google Drive, la migration était officiellement finie ! Mais voilà, nous passions encore pas mal de temps à ouvrir un onglet Google pour consulter nos agendas, ainsi que nos mails pour les personnes utilisant Gmail en ligne.

/2021/ Fini Google Agenda, go Nextcloud Agenda

Fin septembre 2020, nous décidons collectivement de passer sur l’agenda Nextcloud. Nous nous laissons 3 mois pour commencer l’année 2021 sur le nouvel outil. Quelques personnes (notamment le pôle informatique) vont alors tester en conditions réelles Nextcloud Agenda.

Le challenge est sympa car nous décidons de faire ça en pleine migration d’Odoo de version 8 à la version 12, qui est le résultat de pas moins de 1000 heures de temps de travail et 294 tests de non régression.

L’export de données de Google Agenda se passe relativement bien, et l’import sur Nextcloud Agenda aussi. Les seuls soucis viennent de soucis d’exportation d’évènements récurrents du côté Google. On demande alors de recréer ces évènements du côté de Nextcloud Agenda.

Début 2021, la migration n’est pas possible pour trop de monde dans l’équipe : nous décidons de nous donner du mou et de fixer une date de bascule au 29 mars 2021 après que certains temps collectifs soient passés (l’assemblée générale notamment).

Une procédure est écrite pour que chaque personne s’autonomise dans sa migration, mais la majorité de la migration se fait collectivement à la date choisie du 29 mars :

  • export de l’agenda Google
  • import dans l’agenda Nextcloud
  • partage de son agenda au reste de l’équipe
  • (optionnel) synchronisation de l’agenda avec Thunderbird
  • création des agendas partagés pour les salles de réunion

Tout est documenté ici : https://librairie.grap.coop/books/nextcloud/page/agenda-nextcloud

Depuis avril 2021, nous sommes donc officiellement toustes sur Nextcloud Agenda.

L’application reçoit régulièrement des mises à jour porteuses de fonctionnalités bien chouettes (corbeille, recherche d’évènements, recherche d’un créneau de disponibilité), ou de corrections de bugs.

/2021-22/ La transformation complète : sortir de Gmail

Nous voilà arrivé·es à la dernière étape qui nous permet de sortir des outils Google pour l’équipage (nouveau nom de l’équipe interne). La plus dure. Même si cette étape ne concerne « que » les membres de l’équipage, cette transformation fut la plus longue à mener.

Pourquoi ? Parce que :

  • le mail est l’outil principal de la majorité des salarié·es de l’équipe qui l’utilisent toute la journée
  • Gmail est très performant, notamment dans la recherche de mail
  • certain·es personnes ont jusqu’à 10 ans d’habitudes de travail avec Gmail

D’ailleurs, on l’a constaté empiriquement, les personnes les plus anciennes de Grap furent les personnes les plus compliquées à faire transiter. Autant du point de vue technique (transférer 10 ans de mail est forcement plus compliqué que pour une personne arrivée récemment) que des habitudes prises sur le logiciel.

Conseil n°1 : plus on s’y prend tôt à se dégoogliser, moins ça sera compliqué dans la conduite du changement de logiciel.

🌱 Été 2021 – Trouver la solution technique remplaçante

Gandi pour la gestion de l’hébergement de mail

Nous travaillons avec Gandi pour la majorité des activités de Grap afin de gérer leur nom de domaine et leurs mails. Pourquoi Gandi ?

  • Gandi est engagé depuis longtemps dans le respect de la vie privée
  • Gandi est une entreprise qui roule à priori bien sur laquelle on peut compter sur la durée
  • Gandi a un support de qualité qui répond rapidement à toutes nos demandes (et ce fut bien utile lors des moments de doute technique pour cette dégooglisation)
  • Gandi est une entreprise française qui paye à priori ses impôts en France  😉

Thunderbird comme logiciel bureau

Thunderbird va être notre pierre angulaire pour cette dé-gmail-isation. Autant pour permettre le transfert des mails de Google à Gandi, que pour travailler ses mails pour la suite. Ce fut une évidence de partir sur Thunderbird au début.

  • Ce logiciel libre est complet. Peut-être même trop complet, ce qui rend son ergonomie critiquable.
  • Ce logiciel est aussi assez ancien, ce qui lui donne une bonne robustesse. Peut-être trop ancien, ce qui rend son ergonomie critiquable  😉
  • Ce logiciel a une communauté importante qui développe de très nombreux modules complémentaires (à voir ici) qui viennent se greffer à Thunderbird pour apporter une myriade de possibilités.

Quelques mois plus tard, après la prise en main de certain·es utilisateur·ices, et de leur critique légitime, on s’est senti obligé de réaliser un banc d’essai (benchmark), qui validera définitivement ce choix.

Le benchmark pour choisir notre logiciel de bureau pour la gestion des emails

Les critères suivants ont été retenus :

  • logiciel libre
  • fonctionne sur Linux Ubuntu et Windows
  • communauté vivante et grande
  • modèle économique viable
  • installation simple
  • rempli les fonctionnalités de base demandées par les collègues (voir plus tard dans le texte)

🌿 Automne 2021 – Identifier les besoins et fonctionnalités utilisées

Pour être certain de pouvoir sortir de Google, il faut s’assurer que les collègues vont retrouver leurs petits, ou que l’on assume collectivement que l’on perdra des usages / fonctionnalités en passant sur Thunderbird.

Pour cela, nous envoyons un sondage qui nous permet d’y voir plus clair sur les fonctionnalités utilisées par l’équipe pour ajuster nos formations, documentations et recherches de modules complémentaires dans Thunderbird.

Réponse à la question « Quelles fonctionnalités mail utilises-tu actuellement ? »

 

Réponse à la question « Quelles fonctionnalités mail AIMERAIS-tu découvrir ou utiliser ? »

Sur la question « Sur une échelle de 0 à 6, est-ce que tu souhaites être précurseur·se de ce changement ? (0 : non / 6 : trop chaud·e)« , la moyenne et la médiane est à 3,5. Les gens sont donc.. moyennent chaud·es en général !

⚠️ Voici les points les plus bloquants pour un passage sur Thunderbird selon notre analyse :

  • les mails ne sont pas gérés sous la forme de fils de conversation
  • la recherche Thunderbird est laborieuse et pas aussi précise et rapide que Gmail
  • la peur de perdre des mails anciens
  • l’ergonomie de Thunderbird, notamment la différence de fluidité par rapport à une page web comme Gmail

Pour réussir ce changement de logiciel, il faut que les étapes soient claires et transparentes pour les utilisateur·ices. Cela leur permet de se projeter : « ok dans 6 mois / 1 an je change d’outil et je sais à peu près ce qui m’attend ! ».

Après ce premier sondage, un calendrier a donc été partagé, indiquant les différentes dates menant à la dégooglisation de tout le monde.

🪴 Automne – Hiver 2021 – Formation et Documentation Thunderbird

4 personnes sur 20 utilisent déjà Thunderbird. Pour les 16 autres, nous prévoyons d’étaler les formations par petits groupes sur 3 mois : les personnes les plus intéressées commencent dès mi-octobre, et les personnes les plus frileuses seront formées en janvier, ce qui nous laissera le temps d’avoir des retours, d’ajuster la formation et la documentation.

La formation suit le programme que vous pouvez retrouver ici :

  • une aide à l’installation de Thunderbird et du paramétrage du compte Gmail
  • une présentation globale de l’outil
  • une présentation des fonctionnalités de base
  • des conseils globaux d’utilisation et la présentation des meilleurs modules complémentaires.

La documentation va jouer un rôle très important dans la dégooglisation. Et dès septembre, on va mettre le paquet pour tout bien documenter.

✊ Dégooglisation – sortir de Gmail → https://librairie.grap.coop/books/mail/chapter/degooglisation-sortir-de-gmail
📪 Tutos Thunderbird 💻 → https://librairie.grap.coop/books/mail/chapter/tutos-thunderbird

Ce travail de plusieurs mois va être itératif : chaque formation apporte son lot de questions, ou de bugs, ou de besoins qu’il faut alors documenter et faire repartager à tout le monde. De nombreux points mails (ou des messages informels) sont envoyés à l’équipe pour leur faire part des retours, de l’avancée et des nouveaux modules complémentaires ou paramétrages trouvés pour faciliter l’utilisation de Thunderbird.

🙊 Une difficulté anticipée mais relou : le lien Thunderbird – Gmail

Thunderbird a des défauts indéniables. Mais dans cette dégooglisation, on n’est pas aidé par Gmail qui aime bien avoir des comportements… embêtants. Une de ses particularités est le traitement des mails dans un dossier appelé « Tous les messages ». Pour citer la doc officielle de Thunderbird :

Tous les messages : contient une copie de tous les messages de votre compte Gmail, en incluant le dossier « Courrier entrant », le dossier « Envoyé » et les messages archivés.

Donc si vous avez 10 000 messages entrants et sortants, Thunderbird va télécharger 20 000 mails. Sachant qu’on retrouve tous ses mails dans Courrier entrant et Envoyés, ce dossier ne sert donc à rien. Après plusieurs semaines d’utilisation, et certains ralentissements au lancement de Thunderbird, nous avons fini par conseiller aux gens de se désabonner de ce dossier.

D’autres conseils seront documentés par la suite ici : https://librairie.grap.coop/books/mail/page/thunderbird-et-gmail

☘️ Avril 2022 – Premier bilan et questionnement technique

Le calendrier des formations a été quasiment tenu. C’est seulement en janvier que certaines formations n’ont pas eu lieu, du fait de difficultés professionnelles rencontrées dans certains pôles de l’équipe. Il ne restait alors que 2 personnes à former.

Mais entre temps, Quentin qui est responsable de cette dégooglisation, est parti en congés sans solde en février-mars. La décision avait été prise de ne pas se presser avant son départ et de faire le point en avril, nous y voilà.

  • 2 personnes non formées en janvier + 2 arrivées
  • Certaines personnes de l’équipe n’ont pas pris le pli et sont revenues un peu / beaucoup sur Gmail
  • Un tableau partagé a fait remonter les problèmes soulevés :
    • La plupart peuvent être réglés par contournement ou par une meilleure documentation.
    • La recherche de mails est laborieuse.

Nous décidons de :

  • former les gens qui ne l’ont pas été
  • continuer à documenter et informer des meilleurs modules et petits paramétrages qui changent la vie
  • s’interroger sur pourquoi certaines personnes n’ont pas pris le pli
  • demander l’avis des membres de l’équipe sur Thunderbird et la dégooglisation en cours
  • faire un benchmark des solutions (voir si Thunderbird est vraiment le cheval gagnant)
  • s’assurer et valider le processus technique de bascule qu’il faudra faire (le voici)
  • prendre une décision lors de notre comité de pilotage informatique qui arrive

Conseil n°2 : Nous prenons aussi la décision que Quentin ne soit pas le seul porter ce projet. Il ressent une charge mentale et une certaine pression à gérer les retours des personnes en difficulté. Pour ne pas non plus tomber dans une posture de l’informaticien libriste qui impose le choix, et pour bien affirmer que nous prenons des choix collectivement, nous allons dé-personnifier le projet. Désormais le travail sera soutenu et partagé avec Sandie, et les mails signés par le pôle informatique.

⚡ Mai 2022 – La recherche boostée à notre rescousse !

Enfin ! Nous avons trouvé un moyen de répondre aux soucis de recherche sur Thunderbird. Avec un habile mélange de dossier virtuel et d’un module complémentaire de recherche avancée, nous parvenons à lier rapidité et complexité de recherche !

Nous le documentons dans la partie 4 de ce tuto : https://librairie.grap.coop/books/mail/page/recherche-mail-booste

🍀 Juin 2022 – Deuxième bilan : on y va, on sort de Google ?

Notre comité de pilotage ne prend pas une décision ferme. On continue juste à valider de travailler sur cette dégooglisation. En dehors de tous les aspects politiques, en sortant de Google, nous allons cesser de payer 2000€/an pour les comptes pros que nous avons, et c’est toujours ça de gagné dans un moment de crise économique !

Deux mois plus tôt, nous avions envoyé ce formulaire à l’équipe, commenté par cette phrase qui résume son intention « Vive le consentement, à bas la coercition 🌞 » pour prendre la température de l’équipe sur l’utilisation de Thunderbird. Voici notre analyse résumée des résultats :

🔴 les personnes n’ayant pas encore franchi l’étape Thunderbird sont :

  • une grande partie d’un pôle en surcharge
  • les « ancien⋅nes » qui sont là depuis longtemps

🔴 les difficultés principales vis-à-vis de l’outil sont :

  • la recherche de mail
  • le changement d’usage ergonomique
  • des problèmes liés à la connexion avec Google
  • des besoins spécifiques non fonctionnels (invitation Outlook)
  • des problèmes spécifiques réglés depuis (soucis d’antivirus, paramétrage mail d’absence, etc.)

✅ l’équipe est chaude pour sortir de Google !

✅ l’équipe se sent bien accompagnée à ce changement.

☑️ une minorité de l’équipe (3~4 personnes) ne se sent pas sécurisée ou perd quelques minutes par jour à l’utilisation de Thunderbird. Ces 3~4 personnes se recoupent avec les personnes utilisant Gmail. Nous pensons qu’avec l’usage et les améliorations du logiciel, nous parviendrons à améliorer ça.

⭕ les personnes revenues sur Gmail l’expliquent par :

  • « la flemme »
  • un mauvais timing / mauvais paramétrage au début
  • pôle ou personne avec grosse charge de travail

Nous décidons alors :

  • de réaliser deux sessions de formation à la recherche boostée  ⚡
  • de travailler sur la solution d’application smartphone adéquate pour sortir de l’application Gmail
  • de redonner une formation aux 5 personnes qui n’ont pas fait le switch afin qu’elles y arrivent
  • de fixer la date de sortie de Google : cela sera la 1ère ou 2ème semaine d’août
  • de commencer à créer toutes les boîtes mails et redirections mails nécessaires

Conseil n°3 : Nous avions 17 boîtes mails à recréer et 80 redirections de mails assez complexes à réaliser. C’est un travail fastidieux qui demande de se concentrer pour ne pas louper un mail dans la redirection mail créée. Car non, il n’existait pas d’export Google des « groupes Google » que nous utilisions. Le conseil est donc le suivant : partagez le travail 🙂 Merci Sandie pour ce gros taf !

🚀 Juillet 2022 – la bonne nouvelle : Thunderbird s’améliore

Alors que nous venions de fixer le créneau de départ de Google (début août), Thunderbird sort sa dernière version (la 102), le 29 juin. Cette version apporte de très nombreuses améliorations ergonomiques, rendant le logiciel bien plus agréable à utiliser. Et quand on utilise un logiciel toute la journée, ce n’est pas un petit détail que de pouvoir modifier la taille d’affichage, la taille de police, les couleurs des dossiers mails ou encore une gestion des contacts totalement re-désignée. Leur annonce officielle ici.

Et les bonnes nouvelles s’enchaînent :

  • Thunderbird annonce rejoindre le projet K-9 Mail pour une application libre sur Android qui va donc s’améliorer encore plus vite !
  • Et leur feuille de route de modifications futures sont très très prometteuses pour répondre aux soucis les plus courants :
    • des fils de conversations natifs !
    • une ergonomie qui s’améliore de jour en jour avec notamment l’affichage des mails sur plusieurs lignes
    • une synchronisation de son compte qui permettrait d’avoir deux Thunderbird sur deux ordis différents

🌸 Voici à quoi pourrait ressembler Thunderbird en mi-2023 🌸

🌲 9 Août 2022 – Le fil rouge sur le bouton rouge..

Depuis quelques mois, on discutait avec Gandi pour nous assurer que la procédure était la bonne. Quel plaisir d’avoir des gens qui répondent rapidement à ces demandes. Merci ! Nous étions donc plutôt prêts pour ce switch. Le mardi 9 août à 22h, alors que les collègues sont pour la plupart en vacances, on change les DNS du domaine grap.coop (DNS = règles techniques qui disent ce qui se passe avec grap.coop) pour débrancher Google et brancher Gandi.

Le mardi 9 août à 23h50, après quelques tests d’envoi et de réception de mails, j’annonce officiellement que tout semble fonctionner comme prévu. Les mails de Gandi partent bien. On reçoit bien les mails sur la nouvelle boîte mail. Le monde n’a pas cessé de tourner. Victoire !

Grap vs Google, allégorie

🙊 Une difficulté pas anticipée : l’envoi de mail par notre logiciel Odoo [tech]

En créant toutes les boîtes mails sur Gandi, nous nous étions rendu compte des cas particuliers (des personnes qui avaient un compte mail mais qui n’étaient pas ou plus dans l’équipe par exemple) mais ce n’est que tardivement qu’on a réalisé que la boîte mail serveurs <arobase> grap.coop servait de boîte d’envoi à l’ensemble des mails du logiciel Odoo utilisé par les 65 activités. Comment cela allait se comporter en passant chez Gandi ? Deux soucis sont encore en cours :

1 – L’usurpation d’identité
  • En fait, chaque activité envoie ses bons de commandes et factures depuis Odoo. Odoo utilise une seule boîte mail serveurs grap.coop mais lors de l’envoi, prend l’identité de l’activité qui envoie un mail.
  • Cette « usurpation d’identité » était bien acceptée car nous étions chez Google. Mais avec le passage chez Gandi, cette usurpation d’identité n’est plus acceptée par les boîtes mail à la réception si celles-ci sont chez Google.
  • L’activité a un mail d’envoi géré par Gandi → envoi par serveurs qui est géré par Gandi → OK
  • L’activité a un mail d’envoi géré par Google / OVH / Ecomail etc. → envoi par serveurs qui est géré par Gandi → NOK si à la réception la personne utilise Google.

La solution future : améliorer l’envoi de mail sur Odoo pour que chaque activité puisse envoyer avec les informations de sa vraie boîte mail.

2 – Les mails envoyés par les serveurs <arobase> grap.coop ne sont pas automatiquement enregistrés dans le dossier Envoyés
  • À priori, l’envoi de mail n’est pas totalement bien développé et il manque quelques informations dans le mail pour que celui-ci soit bien mis dans le dossier Envoyés.
  • Mais avec Google, cela fonctionnait. Il devrait réussir à comprendre qu’un mail partait de sa boite mail, et il le plaçait le mail dans le dossier Envoyés. Ce qui était pratique pour vérifier que le mail était bien parti.

La solution future : améliorer l’envoi de mail sur Odoo pour que le mail arrive dans le dossier Envoyés.

🙊 Un comportement pas anticipé : Google, le mort-vivant

Malgré la déconnexion technique du nom de domaine grap.coop avec Google, il était encore possible de se connecter à Gmail et d’envoyer des mails. Alors certes, les réponses n’arrivaient plus sur Gmail, mais cela permettait encore aux irréductibles de résister au changement ! 😛

Surtout, même après avoir supprimé le compte Google sur Thunderbird (n’ayant alors que le compte Gandi), un paramétrage technique (le serveur SMTP d’envoi) faisait que les mails envoyés l’étaient par le serveur Google.

Donc au moment de la suppression réelle du compte Google, l’envoi par Thunderbird était bloqué. Ce n’est pas un gros souci, mais nous avons documenté le petit changement à faire.

🐢 Septembre 2022 – La fin de la route est longue, mais la voie est libre

Après la dégooglisation technique, place à la dernière étape, supprimer réellement les comptes Google. Chaque personne devait suivre un tutoriel nommé « Google débranché 💃🕺 La suite ✌️ » comportant ces étapes :

  • 🧹 Nettoyer derrière soi
  • 🚪 Fermer la porte
  • 🔧 S’assurer que l’on envoie ses mails avec les bons paramétrages
  • 🫑 Embellir son nouveau jardin
  • 📫 Découvrir le webmail (logiciel en ligne) de Gandi
  • 📱 Connecter son ordiphone
  • 💥 Quitter définitivement Google

Il a fallu 2 mois pour que les 30 personnes concernées suivent réellement ce tutoriel – voire rattrapent leur « retard » pour sortir leur mail de Google. Ce fut l’une des étapes les plus chronophages en termes de relance, de suivi personnel, de questions / réponses, de gestion de cas particuliers (certaines personnes n’avaient pas pu transférer leur mail à cause d’une connexion Internet trop faible par exemple). C’est aussi à ce moment que l’on devait bien vérifier qu’aucune autre donnée n’était encore stockée sur Google Drive / Google Photos / Agenda etc., ce qui a ralenti quelques personnes.

Conseil n°4 : pour motiver chaque personne à passer le pas, communiquer de façon informelle et encourageante !

💀 Octobre 2022 – Au revoir Google, tu ne vas pas me manquer

Même si nous avons tout fait pour être coercitifs, certaines personnes ont besoin de date limite pour prioriser leur travail. Trois semaines avant, la date butoir du 07 octobre est donc fixée pour motiver les dernières personnes.

🎄 Novembre 2022 – Jusqu’au bout !

La première date butoir et les nombreuses relances n’ont pas suffi à faire remonter en priorité n°1 à tou·te·s les collègues de sortir de Gmail.

Comme nous ne sommes pas des grands méchants, et que nous comprenons les difficultés et calendrier de chacun·e, nous redonnons du rab : le mardi 23 novembre. La veille de la fête des 10 ans de Grap, cela semble une date symbolique et assez lointaine pour réellement partir. Pour de bon.

Le mardi 23 novembre, à 13h35, nous étions 5 à nous réunir autour d’un ordinateur, observant ce moment… un peu stressant, comme quand on part d’un lieu en espérant n’y avoir rien oublié. À 13h43, Google était derrière nous.  ✊

To be continued…

Dans la troisième (et dernière) partie, nous continuerons notre récit de dégooglisation en faisant le bilan de cette démarche. A la semaine prochaine !

Si vous aussi, vous faites partie d’une organisation qui s’est lancée dans une démarche similaire et que vous souhaitez partager votre expérience, n’hésitez pas à nous envoyer un message pour nous le faire savoir. On sera ravi d’en parler ici !