TLDR (too long, I didn’t read it): It was just too much fun! You can feel that the bonds between participants are getting stronger, and that the methods of popular/permanent/active/new education (place the term of your choice before education) are bearing fruit!
That week, from June 12 to 17, 2023, Brussels was bathed in sunshine.
A crosswalk in LGBT+ colors leading to parliament.
We were two Framasoft members: Fred and Booteille.
In ECHO Network meetings, Mondays and Fridays are dedicated to travel, since the various people are more or less far from the meeting place.
But our Belgian pals had planned a debate evening for Monday evening, so we had to arrive not too late.
Luckily, we both had trains that allowed us to arrive around noon, so we met up at the Gare du… Midi and set off together to explore the city center of the European capital in search of our hotel.
Smurf ceiling in Brussels. Comics are everywhere.
Once we’d packed up, we took a quick stroll to find a place to eat.
Brussels is a great city, where you can go from an upmarket district to a working-class one just by crossing the street. I’m sure that’s true elsewhere, but it struck us. Fred’s tip: if you want to be offered something to smoke, walk around with a guy who looks like Bob Marley.
After that, Fred wandered off while Booteille recuperated from his three nights of 3-4h in a row (he’d just come from another association’s AGM and a few parties).
So we met up directly at the DK workshop, a very nice association bar, where we were going to discuss what Framasoft is with a few dozen members of the public. The invitation had been extended by Tactic (which supports and hosts ethical digital services) and Neutrinet (a Belgian non-profit ISP); Tactic being one of the Belgian partners who co-organized some of the activities during our stay in Brussels.
The time, the people and the place were really nice. We were made to feel very welcome, and it was a pleasure to be with so many allies we didn’t know.
A journalist was at the party for a documentary he’s preparing on privacy. He wants to sell it to RTBF. He took video captures of the discussion.
Gerben, who works for NLnet, was there. NLNet is a foundation that funds a lot of digital projects that contribute to improving our society. PeerTube is one of these projects.
On the first evening, we had a meal downtown with the ECHO partners. For Booteille, who was bursting with fatigue, it was particularly difficult to start exchanging in English that evening.
On Tuesday, we kicked off the first day of activities at Maxima, a very nice third-party association.
Everyone had arrived, despite a few people’s transport problems. There were members of Solidar Foundation, CÉMÉA Italy, CÉMÉA France, Willi Eichler Akademy, La Ligue des Familles in Belgium, Tactic, Framasoft…
It’s important to note that the theme of the week was « active education practices to raise awareness of ethical tools ».
So we started by doing some activities to get us into the spirit of the week, to start building links between participants, based – as will be the case for almost all activities – on active/permanent/popular/new education methods; choose your favorite term among these. While not everyone agreed on the name (and some didn’t necessarily mean the same thing as others), everyone validated their interest, and that’s the important thing!
Next, we got into groups to discuss what we thought active education and popular education were and were not. We had to draw our interpretations on panels. In a few years’ time, our work may be found again, and the world may mistake it for a painting by Leonardo da Vinci. Expect the foundations of what we call « art » to change after that. There will have been a before and an after. 🙂
After the small-group discussions, we watched a video on Joseph Jacotot, « Peut-on enseigner sans savoir? » (Can we teach without knowing?).
We then presented our panels and had a large-group discussion.
In the afternoon, we did an activity based on key digital figures: money, quantity of data, pollution, place the figures given opposite the right question. Not an easy task, even for geeks. Quite a few people made corrections to the figures given after the activity, as the cards were three or four years old. This highlighted the speed at which digital technology is evolving, which is quite staggering.
Then we had a meeting with people from Code du Numérique. An ultra-cool project. They are working to build coherent legislative proposals to put to elected representatives – particularly on issues of inclusion. These proposals are developed through workshops with a wide range of people, both those who are comfortable with digital technology and those who are not. You don’t like legal issues: go and talk to these people!
There are some great videos on their website, which we recommend!
We also suggested that they be interviewed on the Framablog, because we were so enthusiastic about it.
The day ended with a review of the activities carried out. As always with popular education, you get the impression that the hours have just flown by and that you haven’t made any effort, but when you look back you realise how rich the exchanges have been and how much work has been done.
We then went for a drink and a bite to eat with some of the group. And to answer the question on your lips, yes, some people had chips!
The next day, we had a date at another venue, the PianoFabriek, in Saint-Gilles.
We had a beautiful (dance) hall with an outdoor area.
In the morning, Cécile and Annie, from the Ligue des Familles, suggested « the hidden side of clicking » as a theme, where we would discuss the attention economy.
But before that, we played a little presentation game, where each pair had to find something in common that the others didn’t have. Contrary to what you might think, many people have been on roadtrips to Spain and would like to listen to opera.
Annie and Cécile then asked us to answer 12 yes or no questions. These 12 statements are designed to help identify an addiction (see an example here) and have been adapted for use with smartphones. For example: « I feel nervous or anxious if I’ve left my smartphone at home ».
Several people in the group were a little « shocked » by the results of their answers.
Answering two (2!) of the statements with « yes » underlines addictive behaviour. Suffice it to say that the geeks have hit the roof.
In Belgium, Fred’s addiction to Speculoos is reawakening.
We then watched the Dopamine episode on Facebook, which many people were just discovering, and discussed it with our respective small groups.
The next activity was cognitive bias bingo. The names of several biases and their descriptions were posted around the room, and a randomly selected pair of us were asked to write down the name of the bias for each description on an index card.
After this activity, we discovered Ardoino’s grid in which we had to place, first on our own and then with our groups, solutions to the problems raised by digital technology.
Were these solutions of an individual, interpersonal, group, organizational or institutional nature? Let’s think about it!
The aim was to highlight the fact that many impactful actions are not just individual matters (you know, peeing, showering, etc.).
We ended our activities at PianoFabriek with a moving debate.
Individually, we wrote answers to « For me, active pedagogy is… » and « For me, active pedagogy is not… » on sticky notes.
After which, Alain, from CÉMÉA Belgium (who co-hosted most of the week with Sarah, also from CÉMÉA Belgium), chose a few answers and had us move around the space to indicate « I agree » or « I disagree ».
Once positioned, we were able to speak up and discuss the reasons for our position. At any moment, we could change our position, physically showing the evolution of our thinking.
We really enjoyed this form of debate.
Incidentally, we haven’t noted it yet, but it’s important to know that we mainly exchanged ideas in English, and translated into English what people who spoke in French were saying. Most people seemed to understand enough English not to translate systematically from English into French, and would indicate when there was a need for translation in that direction.
The translation work was a considerable effort, but for the people in charge of the animation, it was even more exhausting. At the ECHO Network session in Paris, those able to express themselves in English had formed a group which spent the whole week exchanging in that language. In Brussels, this was not possible. European project, European constraints!
After the PianoFabriek, we joined members of EDRI and Technopolice Brussels for an exploratory walk in public spaces (notably the Gare du Midi) in search of CCTV cameras.
These two people helped us to better understand the thinking behind the installation of cameras: « Which locations with which lenses? » In the Gare du Midi, for example, each door is necessarily equipped with a dedicated camera. There’s also a camera in front of every staircase leading up to the platforms, so that faces can be clearly identified. Not to mention the store, where a camera is also pointed… at the cashier’s hands!
We noticed that there are far more cameras in the poorer neighborhoods (including Molenbeek-Saint-Jean) than in the richer ones. One fact that impressed us: a camera was located in front of a subway station in a working-class neighborhood. Residents didn’t like it, and it was damaged. Another camera was placed much further down the street, but it monitored the same subway exit. These cameras have an impressive zoom capability.
The cost of installing a camera is estimated at €20,000, and cities are installing hundreds of them, although their effectiveness in combating crime has not been proven in the slightest.
The premises of the Belgian Cyber Security Center are packed with surveillance cameras. No, nothing. All is well.
Ha, I think it’s time to ask this but… HOW IS IT THAT IN BRUSSELS YOU HAVE TO PAY FOR BOTTLED WATER IN ALL RESTAURANTS! NO FREE TAP WATER! JUST WATER! RAAAAAAAAAAAAAAAAAAAAAAAAAAH! LET’S BURN CAPITALISM!
A poster « Are you a communist? Join us! » we came across while wandering around Brussels.
Sorry for the outburst, it’s okay now.
For the last day, we were back at Maxima, where a number of digital, image (video) and radio players presented their projects to us, including RadioPanik, a free radio station (which makes fascinating impossible programs) and ZinTV, an organization close to social movements.
After the presentation of their projects, we had a large-group discussion on the difficulties of migrating to open-source solutions for certain structures.
During the day, we had to join either ZinTV to learn how to make video recordings, or RadioPanik to learn how to make radio.
We learned how an ultra-light portable radio transmitter works, or how to use OBS to broadcast live TV.
At the end of the day, there was a PeerTube presentation from someone who learned a little late that she had to do it, poor thing. Luckily, Booteille was on hand to answer any questions.
After that, the ECHO Network core group and I took stock of the week.
The results were really positive. The partners who didn’t really see the value of popular education methods during the first session in Paris are now convinced. The links between the different members and structures were further strengthened.
We had the feeling that we were really starting to form a body, a real group, and that we were all really moving in the same direction, which for a pan-European project like this is really motivating.
In the evening, before dinner, we attended a conference on Tyler Reigeluth‘s book, « The Intelligence of Cities, Critique of Endless Transparency ».
Before the conference, Booteille spoke on behalf of Framasoft alongside Morgane (co-organizer of the ECHO project, member of CÉMÉA France), Sarah (who was co-organizing the trip to Belgium) and Célo (member of Tactic and Neutrinet, who played an important part in organizing the activities), into the microphone of RadioPanik, which was broadcasting live.
We gave a brief presentation of our structures and the ECHO Network project.
The conference then got under way, and to be honest, we weren’t very good at it. Our ECHO Network accomplices, who had learned how to make radio and TV that very afternoon, were broadcasting the conference over the airwaves, and we couldn’t help but give them a helping hand. The PeerTube streaming of the rebroadcast had a problem, and Booteille had to get his hands dirty (Booteille’s note: In truth, they managed just fine without me, haha!).
Right after the conference, we went out to eat, drink and chat until late.
Antonio, our Croatian colleague (from Center for Peace Studies), hosted the evening. He’ll be part of the host team in Zagreb, and he’s quite a character!
This « Show Me The Budget » graffiti near the Gare du Midi is indisputable proof that pyg has been to Brussels.
Bruxelles, juin 2023 : journal de bord de la deuxième visite d’études d’ECHO Network
TLDR (trop long, j’pas lu): C’était vraiment trop chouette ! On sent que les liens entre les participant·es se renforcent et que les méthodes d’éducation populaire/permanente/active/nouvelle (placez le terme de votre choix après éducation) portent leurs fruits !
Cette semaine-là, celle du 12 au 17 juin 2023, Bruxelles était écrasée de soleil.
Nous étions deux membres de Framasoft à partir : Fred et Booteille.
Dans les rencontres ECHO Network, les lundis et les vendredis sont dédiés aux trajets, puisque les différentes personnes sont plus ou moins loin du lieu de rendez-vous.
Mais les potes Belges nous avaient prévu une soirée débat le lundi soir, il nous fallait donc arriver pas trop tard.
Par chance, nous avions tous deux des trains qui nous permettaient d’arriver aux alentours de midi, donc nous nous sommes retrouvés à la gare du… Midi et sommes allés, ensemble, explorer le centre-ville de la capitale européenne à la recherche de notre hôtel.
Une fois les affaires déposées, on s’est baladé vite fait pour trouver un coin où manger.
Bruxelles est une ville formidable, où on passe d’un quartier huppé à un quartier populaire en traversant la rue. Ça doit être vrai ailleurs, mais ça nous a frappés. Astuce de Fred : si vous voulez qu’on vous propose de quoi fumer, promenez-vous avec un type qui ressemble à Bob Marley.
Après quoi Fred s’est baladé pendant que Booteille récupérait de ses trois nuits de 3-4h d’affilée (il sortait de l’AG d’une autre association et de quelques soirées).
Nous nous sommes donc rejoints directement à l’atelier DK, un bar associatif très chouette, où nous allions discuter de ce qu’est Framasoft avec quelques dizaines de personnes du public. L’invitation avait été faite par Tactic (qui fait de l’accompagnement et de l’hébergement de services numériques éthiques) et Neutrinet (un FAI associatif belge) ; Tactic étant un des partenaires belges ayant co-organisé certaines activités du séjour bruxellois.
Le moment, le public et le lieu étaient vraiment sympathiques. Nous avons été super bien accueillis et ça faisait plaisir d’être avec autant d’allié·es que nous ne connaissions pas.
Un journaliste était présent à la soirée pour un documentaire qu’il prépare sur la vie privée. Il souhaite le vendre à RTBF. Il a pris des captures vidéos de la discussion.
Gerben, qui travaille pour NLnet, était venu. NLNet est une fondation qui finance pas mal de projets numériques qui contribuent à améliorer notre société. PeerTube est un de ces projets.
Le premier soir, on a fait un repas en centre-ville avec les partenaires d’ECHO. Pour Booteille, qui était explosé de fatigue, c’était particulièrement difficile de commencer à échanger en anglais dès ce soir là.
Mardi, on a démarré la première journée d’activités à Maxima, un tiers lieu associatif très chouette.
Tout le monde était arrivé, modulo les soucis de transports de quelques personnes. On comptait des membres de Solidar Foundation, Les CÉMÉA Italie, Les CÉMÉA France, la Willi Eichler Akademy, La Ligue des Familles en Belgique, Tactic, Framasoft…
Il est important de noter que la thématique de la semaine était « pratiques d’éducation active pour sensibiliser aux outils éthiques ».
Nous avons donc commencé par faire des activités permettant de nous mettre dans l’esprit de la semaine, de commencer à construire du lien entre les participant·es, en s’appuyant, comme ce sera le cas pour presque toutes les activités, sur des méthodes d’éducation active/permanente/populaire/nouvelle ; choisissez votre terme préféré parmi ceux-ci. Si tout le monde n’est pas raccord sur le nom (et que certains ne signifient pas forcément la même chose que d’autres), tout le monde valide leur intérêt, et c’est bien ça l’important !
Ensuite, nous nous sommes mis en groupe pour discuter de ce que nous pensons être ou ne pas être l’éducation active et l’éducation populaire. Nous devions dessiner sur des panneaux nos interprétations. Dans quelques années on risque de retrouver nos œuvres et le monde risque de le confondre avec une peinture de Léonard de Vinci. Attendez-vous à ce que les fondements de ce qu’on appelle « art » changent après ça. Il y aura eu un avant et un après. 🙂
Après les échanges en petits groupes, on a regardé une vidéo sur Joseph Jacotot « Peut-on enseigner sans savoir ? ».
Suite à quoi nous avons présenté nos panneaux et eu un échange en grand groupe.
L’après-midi, nous avons fait une activité autour des chiffres clés du numérique : pognon, quantité de données, pollution, placez les chiffres donnés en face de la bonne question. Pas évident, même pour des geeks. Pas mal de personnes ont apporté des corrections aux chiffres donnés après l’activité, car les fiches dataient d’il y a trois ou quatre ans. Ça a permis de souligner la vitesse à laquelle le numérique évolue, ce qui est assez effarant.
Ensuite, on a eu une rencontre avec des personnes du Code du Numérique. Un projet ultra-chouette. Iels travaillent à construire des propositions de loi cohérentes à proposer aux élu·es — notamment sur les questions d’inclusion. Ces propositions sont pensées à l’aide d’ateliers avec plein de gens, à l’aise avec le numérique ou non. Vous n’aimez pas les questions juridiques : allez discuter avec ces gens là !
Il y a des vidéos sur leur site web qui sont formidables, nous vous les recommandons !
Nous leur avons proposé une interview dans le Framablog, tellement ça nous a passionnés.
La journée s’est terminée après un bilan sur les activités réalisées. Comme toujours avec l’éducation populaire, on a l’impression que les heures ont coulé toutes seules et qu’on n’a pas fourni d’effort, mais quand on regarde dans le rétro on se rend compte de la richesse des échanges et de la quantité de boulot qui a été abattue.
Nous sommes ensuite allés boire un verre puis manger avec une partie du groupe. Et pour répondre à la question qui vous brûle les lèvres, oui, des personnes ont pris des frites !
Le lendemain, nous avions rendez-vous dans un autre lieu, le PianoFabriek, à Saint-Gilles.
Nous avions une très belle salle (de danse) avec un extérieur.
Le matin, Cécile et Annie, de la Ligue des Familles, nous ont proposé comme thématique « la face cachée du clic », où nous discuterons économie de l’attention.
Mais avant ça, nous avons fait un petit jeu de présentations où par binôme, nous devions trouver un point commun que les autres n’auraient pas. Figurez-vous que contrairement à ce que l’on pourrait penser, beaucoup de personnes ont fait des roadtrips en Espagne et aimeraient écouter de l’opéra.
Ensuite, Annie et Cécile nous ont fait répondre à 12 affirmations par oui ou par non. Ce sont douze affirmations qui permettent d’aider à identifier une addiction (un exemple ici) et qui ont été adaptées pour l’usage des smartphones. Par exemple : « Je me sens fébrile ou angoissé·e si j’ai oublié mon smartphone à la maison ».
Plusieurs personnes dans le groupe étaient un peu « choquées » par le résultat de leurs réponses.
En effet… Répondre à deux (2 !) des affirmations par « oui » souligne un comportement addictif. Autant vous dire que les geeks ont crevé le plafond.
Ensuite, on a regardé l’épisode de Dopamine consacré à Facebook, que plusieurs personnes découvraient et nous en avons par la suite discuté avec nos petits groupes respectifs.
La prochaine activité était un bingo des biais cognitifs. Le nom de plusieurs biais et leur description étaient affichés sur l’ensemble de la salle et, avec un binôme choisi aléatoirement, nous devions, sur une fiche, indiquer le nom du biais pour chaque description proposée.
Après cette activité, nous avons découvert la grille d’Ardoino dans laquelle nous devions y placer, d’abord en solo puis avec nos groupes, les solutions aux problématiques soulevées par le numérique.
Est-ce que ces solutions relevaient de l’ordre de l’individuel, de l’interpersonnel, du groupe, de l’organisationnel ou des institutions ? À nous d’y réfléchir !
Le but était de souligner que beaucoup d’actions impactantes relèvent d’autres choses que de l’individuel. (Vous savez, le pipi, la douche, toussa toussa…)
On a terminé les activités au PianoFabriek avec un débat mouvant.
Individuellement, nous avons écrit sur des papillons repositionnables des réponses à « Pour moi, les pédagogies actives c’est… » et « Pour moi, les pédagogies actives ce n’est pas… ».
Après quoi, Alain, des CÉMÉA Belgique (qui a co-animé avec Sarah, des CÉMÉA Belgique aussi, la majeure partie de la semaine), a choisi quelques réponses et nous a fait nous déplacer dans l’espace pour indiquer « Je suis d’accord » ou « Je ne suis pas d’accord ».
Une fois positionnés, nous pouvions prendre la parole et échanger sur les raisons de notre positionnement. À tout moment, nous pouvions changer de position, montrant physiquement l’évolution de notre réflexion.
Nous avons beaucoup aimé cette forme de débat.
D’ailleurs, nous ne l’avons pas encore noté mais il est important de savoir que nous échangions principalement en anglais et traduisions, en anglais, les propos des personnes qui s’exprimaient en français. La plupart des gens semblaient comprendre suffisamment l’anglais pour ne pas traduire systématiquement de l’anglais vers le français et indiquaient quand il y a un besoin de traduction dans ce sens.
Le travail de traduction représentait mine de rien un effort considérable mais autant dire que pour les responsables de l’animation, c’était encore plus épuisant. Lors de la session ECHO Network à Paris les personnes capables de s’exprimer en anglais avaient formé un groupe qui avait passé la semaine entière à échanger dans cette langue. À Bruxelles ce n’était pas possible. À projet européen, contraintes européennes !
Après le PianoFabriek, nous avons rejoint des membres d’EDRI et de Technopolice Bruxelles, pour faire une ballade exploratoire dans l’espace public (et notamment la gare du Midi) à la recherche de caméras de vidéosurveillance.
Ces deux personnes nous ont permis de mieux comprendre la réflexion dans la pose des caméras : « Quels lieux avec quels objectifs ? » Dans la gare du Midi, par exemple, chaque porte a forcément une caméra dédiée. Une caméra est aussi placée devant chaque escalier montant aux quais de manière à pouvoir bien identifier les visages. Sans parler de la boutique où une caméra est aussi pointée… sur les mains du caissier !
Nous avons pu constater qu’il y a beaucoup plus de caméras dans les quartiers pauvres (notamment Molenbeek-Saint-Jean) que dans les riches. Un fait qui nous a impressionnés : une caméra était située devant la station de métro d’un quartier populaire. Les habitants n’ont pas apprécié et elle a été endommagée. Une autre caméra a été placée beaucoup plus loin dans la rue, mais elle surveille la même sortie de métro. On se rend compte que ces caméras ont une impressionnante capacité de zoom.
On estime à 20 000 € le prix de la pose d’une caméra, les villes en installent des centaines, et leur efficacité pour lutter contre la délinquance n’est absolument pas prouvée.
Ha, je crois que c’est le moment de le poser là mais… COMMENT CA SE FAIT QU’À BRUXELLES IELS FONT PAYER OBLIGATOIREMENT DE L’EAU EN BOUTEILLE DANS TOUS LES RESTAURANTS BORDAYL DE ZUT ! PAS POSSIBILITÉ D’AVOIR DE L’EAU DU ROBINET GRATUITEMENT ! DE L’EAU QUOI ! RAAAAAAAAAAAAAAAAAAAAAAAAH ! BRÛLONS LE CAPITALISME !
Pardon pour le coup de sang, ça va mieux.
Pour la dernière journée, nous étions de retour à Maxima, où des acteurices du numérique, de l’image (vidéo) et de la radio nous ont présenté leurs projets, notamment, RadioPanik, une radio libre (qui fait des émissions impossibles passionnantes) et ZinTV, une organisation proche des mouvements sociaux.
Après la présentation de leurs projets, nous avons échangé en grand groupe sur les difficultés de migrer vers des solutions libres pour certaines structures.
Durant la journée, nous devions nous joindre soit à ZinTV pour apprendre à faire de la captation vidéo, soit à RadioPanik pour apprendre à faire de la radio.
Nous avons appris comment fonctionne un émetteur radio portatif ultra-léger ou l’utilisation d’OBS pour diffuser de la télé en live.
À la fin de la journée, il y a eu une présentation de PeerTube d’une personne qui a appris un peu tard qu’elle devait la faire, la pauvre. Heureusement, Booteille l’a un peu assisté pour répondre aux questions.
Après ça, nous avons fait un bilan avec le groupe cœur d’ECHO Network, sur la semaine.
Le bilan était vraiment positif. Les partenaires qui ne voyaient pas trop l’intérêt des méthodes de l’éducation populaire lors de la première session parisienne sont désormais convaincu·es. Les liens entre les différent·es membres et différentes structures se sont encore renforcés.
Nous avons eu le sentiment que nous commencions à faire réellement corps, à faire réellement groupe, et que nous avancions vraiment toutes et tous dans la même direction, ce qui pour un projet pan-européen comme celui-ci est vraiment motivant.
Avant la conférence, Booteille a parlé au nom de Framasoft aux côtés de Morgane (co-organisatrice du projet ECHO, membre des CÉMÉA France), Sarah (qui co-organisait le séjour en Belgique) et Célo (membre de Tactic et Neutrinet, qui a pris une part importante dans l’organisation des activités), dans le micro de RadioPanik qui diffusait en direct.
Nous y avons fait une brève présentation de nos structures et du projet ECHO Network.
Après quoi la conférence a commencé et pour être honnête nous n’avons pas été très bons élèves. Nos complices d’ECHO Network qui avaient appris à faire de la radio et de la télé l’après-midi même retransmettaient la conférence sur les ondes, et nous n’avons pas pu nous empêcher de leur donner un coup de pouce. Le streaming sur PeerTube de la retransmission a eu un souci et Booteille a dû mettre les mains dans le cambouis. (Note de Booteille : En vrai, iels s’en sortaient très bien sans moi, haha !)
Juste après la conférence nous sommes allés manger, boire et discuter jusqu’à une heure avancée.
Antonio, notre camarade croate (de Center for Peace Studies), a animé la soirée. Il fera partie de l’équipe accueillante à Zagreb, et c’est un sacré personnage !
Métacartes, des communs pédagogiques pour accompagner les accompagnateurs de transition numérique
Nous vous avons déjà parlé à plusieurs reprises du projet « Métacartes » que nous trouvons très pertinent pour aborder des sujets complexes de façon simple (et collective !).
Mélanie et Lilian, les créateur⋅ices de cette initiative (et des personnes fabuleuses par ailleurs), reviennent aujourd’hui nous partager un point d’étape important. Nous sommes ravi⋅es de leur laisser la parole.
Rappel des épisodes précédents
À tout point de vue, le modèle actuel du numérique est catastrophique (si vous en doutez lisez chaque semaine le fabuleux Khryspresso où la réalité dépasse souvent la fiction). Pourtant, même quand on est conscient qu’il faut changer de modèle, il est difficile de passer à l’action car c’est un problème complexe qui nécessite des changements à la fois individuels et collectifs.
Pour soutenir les professionnels qui accompagnent des collectifs dans des démarches vers un numérique plus éthique, ainsi que les formateur.ice.s et médiateur.ice.s numériques, nous avons conçu les Métacartes Numérique éthique : une boite à outils sous forme de cartes papier reliées à des fiches en ligne (rappel des épisodes précédents sur le Framablog ici, ici et ici).
Un outil d’animation participative et d’apprentissage coopératif
Les Métacartes ont été conçues pour offrir une multitude de possibilités :
structurer les échanges et les réflexions sur le numérique grâce à un outil de médiation synthétique qui tient dans la poche
apprendre et réfléchir au numérique en sortant la tête des écrans
faciliter l’échange et le partage des connaissances avec des publics de tous âges, à travers la manipulation d’un support physique
faciliter la coopération et l’apprentissage par les pairs (pas seulement via le formateur.ice),
mettre en action les individus et collectifs sur des projets concrets (pas juste du théorique),
mobiliser tous les styles d’apprentissage, visuels, auditifs, kinesthésiques, en utilisant le visuel, l’écoute, la manipulation et le mouvement (pas de journée complète en position assise).
consulter et proposer des ressources en lignes actualisées et enrichies régulièrement.
consulter et proposer des tutoriels complémentaires adaptés à des publics ou contextes particuliers
Fruit d’un travail de plus de deux ans en coopération ouverte avec un groupe d’acteur·ice·s du libre et de la société civile, cet outil constitue un commun pédagogique qui peut être personnalisé pour vos usages et enrichi par vos contributions.
Deux ans après, il s’est passé plein de choses : on vous raconte.
De nouveaux outils, complémentaires
Au fur et à mesure des retours et de nos propres usages, nous avons complété les cartes avec une série d’outils téléchargeables sur le site.
Pensé pour les animateur·ice·s et les formateur·ice·s, ce tableau offre une vue d’ensemble des cartes et de leur utilisation. Lors de la conception de vos séquences pédagogiques, vous serez guidé sur les cartes à choisir en fonction de votre objectif, les objectifs étant reliés aux différentes étapes du canevas “vous êtes ici” :
Lors de la conception des cartes Numérique éthique, nous avons collecté beaucoup de ressources et de contenus de grande qualité sur le sujet. Nous avons mis à jour et catégorisé cette base de ressources afin de vous aider à trouver des contenus pertinents pour enrichir vos ateliers ou vos formations.
Pour cela, vous pouvez filtrer les ressources par objectifs précédemment cités (prendre conscience des enjeux, faire le point,…) par l’un des critères du set (intimité numérique, accessibilité, transparences algorithme…).
Dans Numérique éthique, nous avons un parti pris : rien ne sert de remplacer un outil non-éthique par un outil éthique si l’usage demeure problématique. Outils et usages sont intrinsèquement reliés, alors quitte à changer d’outil autant profiter de ce moment pour prendre du recul sur ses usages.
Les cartes ingrédients catégorie #usages, servent à cela : se poser des questions sur ses pratiques et ses besoins avant de tester et éventuellement d’adopter de nouveaux outils.
Pour chaque usage, il y a plusieurs propositions de sous-usages plus précis et à chaque fois, un lien vers un outil ou un tutoriel.
Si les cartes sont utiles pour travailler avec un groupe, ce tableau destiné lui aussi aux animateur·ice·s et les formateur·ice·s, offre un panorama complet de l’ensemble des propositions d’alternatives éthiques classées en 20 familles d’usages (correspondant aux 20 cartes INGRÉDIENTS #usages).
Inspirés de la base d’alternative proposée initialement par Degooglisons Internet, nous l’avons enrichie pour montrer les nombreux usages et outils existants en proposant à chaque fois une alternative éthique.
Au total ce sont plus de 130 propositions d’usages et d’outils dans lesquelles vous pouvez piocher pour transformer vos usages personnels ou enrichir vos ateliers et formations.
Des remix et des tutos
Ce qui est chouette avec le libre, c’est que d’autres peuvent s’emparer de votre travail pour leur propre besoin et inventer de nouvelles choses ! Depuis la sortie des cartes, nous avons récolté plusieurs retours d’usages dans différents contextes et nous les avons postés dans la section mode d’emploi sous forme succincte afin de montrer d’autres usages possibles.
L’objectif de cette activité est de faire animer des petits ateliers par des étudiant·e·s à propos de questions éthiques autour du numérique en général et du Web en particulier.
Une amélioration de l’éthic-o-test expérimentée pour un Atelier usages numériques et réflexivité des étudiants : comment développer un esprit critique et porter les enjeux éthiques des usages numériques auprès des étudiant·e·s ?
Dans cet atelier, des cartes recettes et ingrédients ont été utilisées pour faire prendre du recul sur les outils, les usages et les enjeux éthiques à des professionnels de l’action sociale et médico-sociale ayant des fonctions de coordination ou en passe de les avoir.
Des retours sur la méthode et la stratégie
Ce qui est intéressant c’est que dans la plupart de ces ressources, les auteur·ice·s partagent non seulement la recette (le déroulé), mais aussi une analyse réflexive sur ce qui a marché ou serait à améliorer. ce qui est au moins aussi intéressant que le déroulé.
Un commun pédagogique qui peut être enrichi
En concevant numérique éthique, nous avons essayé de le penser comme un commun pédagogique polyvalent, une base solide qui peut être enrichie et personnalisée selon les contextes.
Nous sommes très intéressés de voir comment les cartes sont utilisées dans différents contextes et nous aimerions beaucoup que demain il existe des recettes annexes adaptées à différents publics (enfants, ados, adultes, …) ou contextes (professionnels du numérique, de la médiation, de la formation, associations, centre sociaux, collectivités…)
Des formations pour cheminer (ou aider à cheminer) vers un Numérique éthique
5 ans après la sortie de Faire Ensemble et 2 ans après la sortie de Numérique Éthique, nous avons remis à plat notre offre de formations.
Formation et accompagnement à distance : Pour l’instant nous proposons un format unique de mini formation/accompagnement d’une heure. D’un temps de “simple décoinçage” à du temps de conseil sur un sujet très spécifique, ce format est polyvalent et s’adapte aux différents besoins. Nous sommes en train de réfléchir à proposer une offre d’accompagnement sur plusieurs mois.
Formations en présence : En tant que formateur.ice·s, nous avons à cœur de proposer des moments de formations qui développent le pouvoir d’agir des individus et des organisations, favorisent les actions concrètes et l’autonomisation, sans créer de dépendances. Nous souhaitons que nos formations, comme nos conceptions et animations d’évènements, contribuent à un changement positif en remettant du sens dans toutes vos actions.
En pratique, pour les formations, cela implique que :
l’apprentissage se fait aussi par les pairs (pas seulement via le formateur.ice),
nous pratiquons une mise en action sur du concret (pas juste théorique),
nous apprenons en manipulant un support physique qui permet l’échange et le partage des connaissances, à destination de tous les âges,
nous utilisons le visuel, et le mouvement (pas de journée complète en position assise) et cela mobilise tous les styles d’apprentissage, visuels auditifs, kinesthésiques.
niveau 1 – Cheminer vers des outils et des usages numériques éthiques
niveau 2 – Accompagner des collectifs dans leur réflexion autour de l’éthique du numérique.
La première formation s’adresse à des collectifs souhaitant évoluer vers des pratiques plus éthiques en utilisant les cartes, tandis que la seconde s’adresse plus à des professionnels de la transition numérique qui souhaite mieux prendre en main les cartes pour les utiliser dans leurs accompagnements.
Et bien sur, les formations pourront aussi servir à co-créer des communs complémentaires 😉
Prochaines idées et envies
Nous sommes à l’écoute de la communauté, des besoins, mais nous faisons attention à ne pas tomber dans la démesure et dans la course en avant. Nous essayons donc prendre soin de la ressource, de nous, et faire les choses pas à pas, ce qui n’est pas toujours facile. Pour autant nous aimons partager nos envies, car elles peuvent résonner avec celles d’autres personnes.
Rendre les cartes interopérables avec le référentiel CRCN/PIX
Pix est le service public en ligne pour évaluer, développer, et certifier ses compétences numériques. Ce référentiel français pour l’évaluation des compétences numériques est lui-même basé sur le référentiel européen DigComp.
Notre outil pouvant être utilisé pour de la formation ou de la médiation numérique, nous sommes en train de réfléchir à une intégration entre ce référentiel et nos outils.
Rendre interopérable le référentiel PIX avec les Métacartes pourrait faciliter l’appropriation des Métacartes par les formateur·ice·s, mais aussi, peut-être, mettre plus de réflexion éthique dans les parcours proposés par PIX.
Traduire les contenus Numérique éthique en anglais
Nous avons présenté (à distance) les Métacartes Numérique éthique lors de LibrePlanet, la conférence annuelle de la Free Software Foundation. Le projet a suscité intérêt et plusieurs participants ont manifesté leur volonté de participer à une traduction en anglais du contenu des cartes si un jour nous allions dans ce sens. Faute de temps et soucieux de stabiliser nos travaux actuels, nous n’irons pas dans cette direction pour l’instant, mais l’idée reste et nous espérons pouvoir y travailler quand les conditions seront favorables.
La fresque du numérique et les autres fresques ont eu beaucoup de succès ces dernières années. Pourtant si la méthode d’animation participative présente un certain intérêt, plusieurs choses nous ennuient/déplaisent. Malgré le nom fresque la dimension dessinée est minimaliste, l’atelier représente un “jeu fermé” (il y a un nombre limité de “bonnes réponses” détenues par les animateur·ice·s), la méthode n’est pas sous licence libre, le format consacre beaucoup de temps à la prise de conscience qui peut être très anxiogène et les solutions de petits gestes présentées occultent les enjeux systémiques et politiques et réduisent notre pouvoir d’agir. À la place nous proposons d’inventer une/des alter (anti?) fresque(s) qui pourraient être animées/personnalisées/remixées sur le numérique éthique en général ou certains sujets plus ciblés.
L’occasion de travailler avec des copain.e.s et d’apprendre à mieux se connaître, coopération entre Mélanie et Lilian de Métacartes et Romain et Julie de L’établi numérique.
Nous avons ainsi testé notre premier prototype sur le thème de l’hébergement web éthique avec un premier atelier test animé par Romain et Lilian lors du camp CHATONS 2023.
Organiser des ateliers thématiques d’échanges de pratiques :
Nous aimerions organiser des ateliers d’échanges de pratiques (à distance) autour de Numérique éthique pour différents contextes (médiateurs, pour les enseignants, centre sociaux, pour les collectivités, pour les professionnels de l’action sociale, …) ou publics (enfants, ados, adultes, …). Ces ateliers pourraient servir à partager des pratiques, mais aussi les documenter pour enrichir la base de ressources communes.
Animer des discussions et réflexions sur les questions éthiques
Une autre de nos envies serait d’animer ou de contribuer à l’organisation de discussion sur les questions éthiques. Par exemple poser des questions comme « Le Libre est il éthique ? ». Le libre des origines répondait à un certain besoin éthique. Mais aujourd’hui où en est on ? et où veut-on aller ? Nous n’avons pas la réponse, mais nous avons des questions et nous pensons qu’il est extrêmement important de les explorer collectivement en utilisant un format participatif qui favorise l’expression de toustes.
Ou encore organiser le « procès de chatGPT » comme un prétexte pour créer des espaces de discussion sur les enjeux de l’IA, sujet sur lequel il serait essentiel de rendre intelligibles les enjeux pour avoir un vrai débat de société. Ça pourrait être un atelier d’échange basé sur des cartes ou bien une conférence gesticulée, peu importe, mais il est urgent d’avoir des discussions là-dessus car cette technologie va bouleverser nos sociétés et risque de faire beaucoup de dommages si nous ne nous posons pas de vraies questions sur son usage.
Se relier à d’autres acteur·ice·s
Enfin une envie que nous avons depuis le début et qui demeure essentielle pour nous : se relier avec les autres acteur·ice·s qui œuvrent pour plus d’éthique, rendre visibles les initiatives qui vont dans ce sens à la fois dans le monde du numérique (Res numérica, l’établi numérique, libérons nos ordis, l’april, les CHATONS) mais aussi dans d’autres domaines afin casser les silos et rompre la tragédie du LSD (l’isolement entre différentes cultures comme les libristes, les solidaristes,les durabilistes, les artistes … qui ont des problèmes et des solutions différents et complémentaires, mais communiquent peu entre eux).
Mais nous aimons rêver et nous pensons qu’en partageant nos envies cela peut donner envie à d’autres de s’y relier et d’avancer sur ces sujets, que ce soit avec nous ou bien simplement de leur coté. Car, comme Framasoft nous croyons beaucoup à l’idée d’archipelisation, une coopération qui se nourrit de la diversité et des différences.
Logiciel libre et anarchisme
Par sa volonté de décentralisation, le logiciel libre est présenté comme porteur de valeurs anarchistes, et parfois vilipendé par certaines institutions pour cela. Mais pour autant que les méthodes de travail puissent être reliées à des pratiques libertaires, voire revendiquées comme telles, peut-on réellement considérer qu’il en adopte toutes les valeurs, les ambitions et le message politique ?
Framatophe vous propose ici de retracer un peu la façon dont les mouvements du logiciel libre et des mouvements anarchistes se sont côtoyés au fil des ans et, surtout, comment ils pourraient mieux apprendre l’un de l’autre.
Logiciel libre et anarchisme
À travers le monde et à travers l’histoire, les mouvements anarchistes ont toujours subi la surveillance des communications. Interdiction des discours publics et rassemblements, arrestations d’imprimeurs, interceptions téléphoniques, surveillance numérique. Lorsque je parle ici de mouvements anarchistes, je désigne plutôt tous les mouvements qui contiennent des valeurs libertaires. Bien au-delà des anciennes luttes productivistes des mouvements ouvriers, anarcho-syndicalistes et autres, le fait est qu’aujourd’hui énormément de luttes solidaires et pour la justice sociale ont au moins un aspect anarchiste sans pour autant qu’elles soient issues de mouvements anarchistes « historiques ». Et lorsqu’en vertu de ce « déjà-là » anarchiste qui les imprègne les sociétés font valoir leurs libertés et leurs souhaits en se structurant en organes collectifs, les États et les organes capitalistes renforcent leurs capacités autoritaires dont l’un des aspects reconnaissables est le contrôle des outils numériques.
Cela aboutit parfois à des mélanges qu’on trouverait cocasses s’ils ne démontraient pas en même temps la volonté d’organiser la confusion pour mieux dénigrer l’anarchisme. Par exemple cette analyse lamentable issue de l’École de Guerre Économique, au sujet de l’emploi du chiffrement des communications, qui confond anarchisme et crypto-anarchisme comme une seule « idéologie » dangereuse. Or il y a bien une différence entre prémunir les gens contre l’autoritarisme et le contrôle numérique et souhaiter l’avènement de nouvelles féodalités ultra-capitalistes au nom dévoyé de la liberté. Cette confusion est d’autant plus savamment orchestrée qu’elle cause des tragédies. En France, l’affaire dite du 8 décembre 20201, sorte de remake de l’affaire Tarnac, relate les gardes à vue et les poursuites abusives à l’encontre de personnes dont le fait d’avoir utilisé des protocoles de chiffrement et des logiciels libres est déclaré suspect et assimilable à un comportement dont le risque terroriste serait avéré – en plus d’avoir lu des livres d’auteurs anarchistes comme Blanqui et Kropotkine. Avec de tels fantasmes, il va falloir construire beaucoup de prisons.
Le logiciel libre a pourtant acquis ses lettres de noblesses. Par exemple, si Internet fonctionne aujourd’hui, c’est grâce à une foule de logiciels libres. Ces derniers sont utilisés par la plupart des entreprises aujourd’hui et il n’y a guère de secteurs d’activités qui en soient exempts. En revanche, lorsqu’on considère l’ensemble des pratiques numériques basées sur l’utilisation de tels communs numériques, elles font très souvent passer les utilisateurs experts pour de dangereux hackers. Or, lorsque ces utilisations ont pour objectif de ne pas dépendre d’une multinationale pour produire des documents, de protéger l’intimité numérique sur Internet, de faire fonctionner des ordinateurs de manière optimale, ne sont-ce pas là des préoccupations tout à fait légitimes ? Ces projections établissent un lien, souvent péjoratif, entre logiciel libre, activité hacker et anarchisme. Et ce lien est postulé et mentionné depuis longtemps. Le seul fait de bricoler des logiciels et des machines est-il le seul rapport entre logiciel libre et anarchisme ? Que des idiots trouvent ce rapport suspect en fait-il pour autant une réalité tangible, un lien évident ?
Le logiciel libre comporte quatre libertés : celle d’utiliser comme bon nous semble le logiciel, celle de partager le code source tout en ayant accès à ce code, celle de le modifier, et celle de partager ces modifications. Tout cela est contractuellement formalisé par les licences libres et la première d’entre elles, la Licence Publique Générale, sert bien souvent de point de repère. L’accès ouvert au code combiné aux libertés d’usage et d’exploitation sont communément considérés comme les meilleurs exemples de construction de communs numériques et de gestion collective, et représentent les meilleures garanties contre l’exploitation déloyale des données personnelles (on peut toujours savoir et expertiser ce que fait le logiciel ou le service). Quelle belle idée que de concevoir le Libre comme la traduction concrète de principes anarchistes : la lutte contre l’accaparement du code, son partage collaboratif, l’autogestion de ce commun, l’horizontalité de la conception et de l’usage (par opposition à la verticalité d’un pouvoir arbitraire qui dirait seul ce que vous pouvez faire du code et, par extension, de la machine). Et tout cela pourrait être mis au service des mouvements anarchistes pour contrecarrer la surveillance des communications et le contrôle des populations, assurer la liberté d’expression, bref créer de nouveaux communs, avec des outils libres et une liberté de gestion.
Belle idée, partiellement concrétisée à maints endroits, mais qui recèle une grande part d’ombre. Sur les communs que composent les logiciels libres et toutes les œuvres libres (logiciels ou autres), prolifère tout un écosystème dont les buts sont en réalité malveillants. Il s’agit de l’accaparement de ces communs par des acteurs moins bien intentionnés et qui paradoxalement figurent parmi les plus importants contributeurs au code libre / open source. C’est que face à la liberté d’user et de partager, celle d’abuser et d’accaparer n’ont jamais été contraintes ni éliminées : les licences libres ne sont pas moralistes, pas plus qu’elles ne peuvent légitimer une quelconque autorité si ce n’est celle du contrat juridique qu’elles ne font que proposer. On verra que c’est là leur fragilité, nécessitant une identification claire des luttes dont ne peut se départir le mouvement du logiciel libre.
Collaboration sans pouvoir, contribution et partage : ce qui pourrait bien s’apparenter à de grands principes anarchistes fait-il pour autant des mouvements libristes des mouvements anarchistes et du logiciel libre un pur produit de l’anarchie ? Par exemple, est-il légitime que le système d’exploitation Android de Google-Alphabet soit basé sur un commun libre (le noyau Linux) tout en imposant un monopole et des contraintes d’usage, une surveillance des utilisateurs et une extraction lucrative des données personnelles ? En poussant un peu plus loin la réflexion, on constate que la création d’un objet technique et son usage ne sont pas censés véhiculer les mêmes valeurs. Pourtant nous verrons que c’est bien à l’anarchie que font référence certains acteurs du logiciel libre. Cette imprégnation trouve sa source principale dans le rejet de la propriété intellectuelle et du pouvoir qu’elle confère. Mais elle laisse néanmoins l’esprit anarchiste libriste recroquevillé dans la seule production technique, ouvrant la voie aux critiques, entre tentation libertarienne, techno-solutionnisme et mépris de classe. Sous certains aspects, l’éthique des hackers est en effet tout à fait fongible dans le néolibéralisme. Mais il y a pourtant un potentiel libertaire dans le libre, et il ne peut s’exprimer qu’à partir d’une convergence avec les luttes anticapitalistes existantes.
Des libertés fragiles
Avant d’entrer dans une discussion sur le rapport historique entre logiciel libre et anarchie, il faut expliquer le contexte dans lequel un tel rapport peut être analysé. Deux points de repère peuvent être envisagés. Le premier point de repère consiste à prendre en compte que logiciel libre et les licences libres proposent des développements et des usages qui sont seulement susceptibles de garantir nos libertés. Cette nuance a toute son importance. Le second point consiste à se demander, pour chaque outil numérique utilisé, dans quelle mesure il participe du capitalisme de surveillance, dans quelle mesure il ouvre une brèche dans nos libertés (en particulier la liberté d’expression), dans quelle mesure il peut devenir un outil de contrôle. C’est ce qui ouvre le débat de l’implication des mouvements libristes dans diverses luttes pour les libertés qui dépassent le seul logiciel en tant qu’objet technique, ou l’œuvre intellectuelle ou encore artistique placée sous licence libre.
Ce sont des techniques…
Il ne faut jamais perdre de vue que, en tant que supports de pensée, de communication et d’échanges, les logiciels (qu’ils soient libres ou non) les configurent en même temps2. C’est la question de l’aliénation qui nous renvoie aux anciennes conceptions du rapport production-machine. D’un point de vue marxiste, la technique est d’abord un moyen d’oppression aux mains des classes dominantes (l’activité travail dominée par les machines et perte ou éloignement du savoir technique). Le logiciel libre n’est pas exempt de causer cet effet de domination ne serait-ce parce que les rapports aux technologies sont rarement équilibrés. On a beau postuler l’horizontalité entre concepteur et utilisateur, ce dernier sera toujours dépendant, au moins sur le plan cognitif. Dans une économie contributive idéale du Libre, concepteurs et utilisateurs devraient avoir les mêmes compétences et le même degré de connaissance. Mais ce n’est généralement pas le cas et comme disait Lawrence Lessig, « Code is law »3.
Le point de vue de Simondon, lui, est tout aussi acceptable. En effet l’automatisation – autonomisation de la technique (émancipation par rapport au travail) suppose aussi une forme d’aliénation des possédants vis-à-vis de la technique4. Le capital permet la perpétuation de la technique dans le non-sens du travail et des comportements, leur algorithmisation, ce qui explique le rêve de l’usine automatisée, étendu à la consommation, au-delà du simple fait de se débarrasser des travailleurs (ou de la liberté des individus-consommateurs). Cependant la culture technique n’équivaut pas à la maîtrise de la technique (toujours subordonnée au capital). Censé nous livrer une culture technique émancipatrice à la fois du travail et du capital (la licence libre opposée à la propriété intellectuelle du « bien » de production qu’est le logiciel), le postulat libriste de l’équilibre entre l’utilisateur et le concepteur est dans les faits rarement accompli, à la fois parce que les connaissances et les compétences ne sont pas les mêmes (voir paragraphe précédent) mais aussi parce que le producteur lui-même dépend d’un système économique, social, technique, psychologique qui l’enferme dans un jeu de dépendances parfois pas si différentes de celles de l’utilisateur. L’équilibre peut alors être trouvé en créant des chaînes de confiance, c’est-à-dire des efforts collectifs de création de communs de la connaissance (formations, entraide, vulgarisation) et des communs productifs : des organisations à tendances coopératives et associatives capables de proposer des formules d’émancipation pour tous. Créer du Libre sans proposer de solutions collectives d’émancipation revient à démontrer que la liberté existe à des esclaves enchaînés tout en les rendant responsables de leurs entraves.
…Issues de la culture hacker
La culture hacker est un héritage à double tranchant. On a longtemps glorifié les communautés hackers des années 1960 et 1970 parce qu’elles sont à l’origine de l’aventure libératrice de l’ordinateur et des programmes hors du monde hiérarchisé de la Défense et de l’Université. Une sorte de « démocratisation » de la machine. Mais ce qu’on glorifie surtout c’est le mode de production informatique, celui qui a donné lieu aux grandes histoires des communautés qui partageaient la même éthique des libertés numériques et que Steven Lévy a largement popularisé en définissant les contours de cette « éthique hacker »5. Le projet GNU de R. M. Stallman, à l’origine dans les années 1980 de la Licence Publique Générale et de la formulation des libertés logicielles en droit, est surtout l’illustration d’une économie logicielle qui contraint la contribution (c’est la viralité de la licence copyleft) et promeut un mode de développement collectif. Ce qu’on retient aussi de la culture hacker, c’est la réaction aux notions de propriété intellectuelle et d’accaparement du code. On lui doit aussi le fait qu’Internet s’est construit sur des protocoles ouverts ou encore les concepts d’ouverture des formats. Pourtant l’état de l’économie logicielle et de l’Internet des plateformes montre qu’aujourd’hui nous sommes loin d’une éthique de la collaboration et du partage. Les enjeux de pouvoir existent toujours y compris dans les communautés libristes, lorsque par exemple des formats ou des protocoles sont imposés davantage par effet de nombre ou de mode que par consensus6.
Comme le montre très bien Sébastien Broca7, l’éthique hacker n’est pas une simple utopie contrariée. Issue de la critique antihiérarchique des sixties, elle a aussi intégré le discours néomanagérial de l’accomplissement individuel qui voit le travail comme expression de soi, et non plus du collectif. Elle a aussi suivi les transformations sociales qu’a entraîné le capitalisme de la fin du XXe siècle qui a remodelé la critique artistique des sixties en solutionnisme technologique dont le fleuron est la Silicon Valley. C’est Fred Tuner qui l’écrit si bien dans un ouvrage de référence, Aux sources de l’utopie numérique : de la contre culture à la cyberculture8. Et pour paraphraser un article récent de ma plume à son propos9 : quelle ironie de voir comment les ordinateurs sont devenus synonymes d’émancipation sociale et de rapprochements entre les groupes sociaux, alors qu’ils sont en même temps devenus les instruments du capitalisme, du nouveau management et de la finance (ce que Detlef Hartmann appelait l’offensive technologique10), aussi bien que les instruments de la surveillance et de la « société du dossier ». C’est bien en tant que « menaces sur la vie privée » que les dépeignaient les premiers détracteurs des bases de données gouvernementales et des banques à l’instar d’Alan Westin11 au soir des années 1960. Tout s’est déroulé exactement comme si les signaux d’alerte ne s’étaient jamais déclenchés, alors que depuis plus de 50 ans de nombreuses lois entendent réguler l’appétit vorace des plateformes. Pourquoi ? Fred Turner y répond : parce que la priorité avait été choisie, celle de transformer le personal is political12 en idéologie néolibérale par le biais d’une philosophie hacker elle-même dévoyée au nom de la liberté et de l’accomplissement de soi.
Des communs mal compris et mal protégés
Ces communs sont mal compris parce qu’ils sont la plupart du temps invisibilisés. La majorité des serveurs sur Internet fonctionnent grâce à des logiciels libres, des protocoles parmi les plus courants sont des protocoles ouverts, des systèmes d’exploitation tels Android sont en fait construits sur un noyau Linux, etc. De tout cela, la plupart des utilisateurs n’ont cure… et c’est très bien. On ne peut pas attendre d’eux une parfaite connaissance des infrastructures numériques. Cela plonge néanmoins tout le monde dans un univers d’incompréhensions.
D’un côté, il y a l’ignorance du public (et bien souvent aussi des politiques publiques) du fait que la majeure partie des infrastructures numériques d’aujourd’hui reposent sur des communs, comme l’a montré N. Egbhal13. Ce fait crée deux effets pervers : le ticket d’entrée dans la « nouvelle économie », pour une start-up dont le modèle repose sur l’exploitation d’un système d’information logiciel, nécessite bien moins de ressources d’infrastructure que dans les années 1990 au point que la quasi-exclusivité de la valeur ajoutée repose sur l’exploitation de l’information et non la création logicielle. Il en résulte un appauvrissement des communs (on les exploite mais on ne les enrichit pas14) et un accroissement de l’économie de plateforme au détriment des infrastructures elles-mêmes : pour amoindrir encore les coûts, on s’en remet toujours plus aux entreprises monopolistes qui s’occupent de l’infrastructure matérielle (les câbles, les datacenter). D’un autre côté, il y a le fait que beaucoup d’organisations n’envisagent ces communs numériques qu’à l’aune de la rentabilité et de la compromission avec la propriété productive, ce qui a donné son grain à moudre à l’Open Source Initiative et sa postérité, reléguant les libristes dans la catégorie des doux utopistes. Mais l’utopie elle-même a ses limites : ce n’est pas parce qu’un service est rendu par des logiciels libres qu’il est sécurisé, durable ou protège pour autant les utilisateurs de l’exploitation lucrative de leurs données personnelles. Tout dépend de qui exploite ces communs. Cela relève en réalité du degré de confiance qu’on est capable de prêter aux personnes et aux organisations qui rendent le service possible.
Les licences libres elles-mêmes sont mal comprises, souvent vécues comme un abandon de l’œuvre et un manque à gagner tant les concepts de la « propriété intellectuelle » imprègnent jusqu’à la dernière fibre le tissu économique dans lequel nous sommes plus ou moins contraints d’opérer. Cela est valable pour les logiciels comme pour les productions intellectuelles de tous ordres, et cela empêche aussi le partage là où il pourrait être le plus bénéfique pour tous, par exemple dans le domaine de la recherche médicale.
Au lieu de cela, on assiste à un pillage des communs15, un phénomène bien identifié et qui connaît depuis les années 2000 une levée en force d’organisations de lutte contre ce pillage, qu’il s’agisse des biens communs matériels (comme l’eau, les ressources cultivables, le code génétique…) ou immatériels (l’art, la connaissance, les logiciels…). C’est la raison pour laquelle la décentralisation et l’autogestion deviennent bien plus que de simples possibilités à opposer à l’accaparement général des communs, mais elles sont aussi autant de voies à envisager par la jonction méthodologique et conceptuelle des organisations libristes, de l’économie solidaire et des mouvements durabilistes16.
Le libre et ses luttes, le besoin d’une convergence
Alors si le Libre n’est ni l’alpha ni l’oméga, si le mouvement pour le logiciel Libre a besoin de réviser sa copie pour mieux intégrer les modèles de développement solidaires et émancipateurs, c’est parce qu’on ne peut manifestement pas les décorréler de quatre autres luttes qui structurent ou devraient structurer les mouvements libristes aujourd’hui.
Une lutte pour imposer de nouveaux équilibres en droit
Les licences libres et leurs domaines d’application, en particulier dans les communs immatériels, ont besoin de compétences et d’alliances pour ne plus servir d’épouvantail, de libre-washing ou, pire, être détournés au profit d’une lucrativité de l’accès ouvert (comme c’est le cas dans le monde des revues scientifiques). Elles ont aussi besoin de compétences et d’alliances pour être mieux défendues : même si beaucoup de juristes s’en sont fait une spécialité, leur travail est rendu excessivement difficile tant le cadre du droit est rigide et fonctionne en référence au modèle économique dominant.
Une lutte pour imposer de nouveaux équilibres en économie
Pouvons-nous sciemment continuer à fermer les yeux sur l’usage d’une soi-disant éthique hacker au nom de la liberté économique sachant qu’une grande part des modèles économiques qui reposent sur des communs immatériels ont un intérêt public extrêmement faible en proportion des capacités d’exploitation lucrative et de la prolétarisation17 qu’ils entraînent. Cela explique par exemple que des multinationales telles Intel et IBM ou Google et Microsoft figurent parmi les grands contributeurs au Logiciel libre et open source18 : ils ont besoin de ces communs19. Et en même temps, on crée des inégalités sociales et économiques : l’exploitation de main-d’œuvre bon marché (comme les travailleurs du clic20) dont se gavent les entreprises du numérique repose elle aussi sur des infrastructures numériques libres et open source. Les communs numériques ne devraient plus être les supports de ce capitalisme21.
Une lutte pour un rééquilibrage infrastructurel
Parce que créer du code libre ne suffit pas, encore faut-il s’assurer de la protection des libertés que la licence implique. En particulier la liberté d’usage. À quoi sert un code libre si je ne peux l’utiliser que sur une plateforme non libre ? à quoi sert un protocole ouvert si son utilisation est accaparée par des systèmes d’information non libres ? À défaut de pouvoir rendre collectifs les câbles sous-marins (eux-mêmes soumis à des contraintes géopolitiques), il est toutefois possible de développer des protocoles et des logiciels dont la conception elle-même empêche ces effets d’accaparement. Dans une certaine mesure c’est ce qui a été réalisé avec les applications du Fediverse22. Ce dernier montre que la création logicielle n’est rien si les organisations libristes ne se mobilisent pas autour d’un projet commun et imaginent un monde numérique solidaire.
Une lutte contre les effets sociaux du capitalisme de surveillance
Qu’il s’agisse du conformisme des subjectivités engendré par l’extraction et l’exploitation des informations comportementales (ce qui dure depuis très longtemps23) ou du contrôle des populations rendu possible par ces mêmes infrastructures numériques dont la technopolice se sert (entre autres), les communautés libristes s’impliquent de plus en plus dans la lutte anti-surveillance et anti-autoritaire. C’est une tradition, assurément, mais ce qu’il manque cruellement encore, c’est la multiplication de points de contact avec les autres organisations impliquées dans les mêmes luttes et qui, bien souvent, se situent sur la question bien plus vaste des biens communs matériels. Combien d’organisations et de collectifs en lutte dans les domaines durabilistes comme l’écologie, le partage de l’eau, les enjeux climatiques, en sont encore à communiquer sur des services tels Whatsapp alors qu’il existe des canaux bien plus protégés24 ? Réciproquement combien d’associations libristes capables de déployer des solutions et de les vulgariser ne parlent jamais aux durabilistes ou autres ? Or, penser les organisations libristes sur un mode solidaire et anti-capitaliste revient à participer concrètement aux luttes en faveur des biens communs matériels, créer des alliances de compétences et de connaissances pour rendre ces luttes plus efficaces.
Le (mauvais) calcul anarchiste
Il y a toute une littérature qui traite du rapport entre librisme et anarchisme. Bien qu’elle ne soit pas toujours issue de recherches académiques, cela n’enlève rien à la pertinence et la profondeur des textes qui ont toujours le mérite d’identifier les valeurs communes tels l’anti-autoritarisme de l’éthique hacker, le copyleft conçu comme une lutte contre la propriété privée, le partage, ou encore les libertés d’usage. Et ces valeurs se retrouvent dans de nombreuses autres sphères inspirées du modèle libriste25 et toutes anticapitalistes. Pour autant, l’éthique hacker ou l’utopie « concrète » du logiciel libre, parce qu’elles sont d’abord et avant tout des formes de pratiques technologiques, ne portent pas per se ces valeurs. Comme je l’ai mentionné plus haut, l’éthique hacker et les utopies plus ou moins issues de la tradition hippie des années 1960 et 1970 sont aussi dépositaires du capitalisme techno-solutionniste exprimé, pour les besoins de la cause, par l’idéologie de la Silicon Valley.
C’est ce point de tension qui a tendance aujourd’hui à causer la diffusion d’une conception binaire du lien entre anarchisme et philosophie hacker. Elle repose sur l’idée selon laquelle c’est l’anarchisme américain qui donne une part fondatrice à la philosophie hacker et qui crée en quelque sorte une opposition interne entre une faction « de gauche » attachée aux combats contre la propriété et une faction « de droite » fongible dans le capitalisme dans la mesure où c’est l’efficacité dans l’innovation qui emporte le reste, c’est-à-dire un anarchisme réduit à être un mode d’organisation de la production et un faire-valoir d’une liberté de lucrativité « décomplexée ».
C’est caricatural, mais la première partie n’est pas inexacte. En effet, nous parlons pour l’essentiel d’un mouvement né aux États-Unis et, qui plus est, dans une période où s’est structurée la Nouvelle Gauche Américaine en phase avec des mouvements libertaires et/ou utopistes issus de la génération anti-guerre des années 1950. Simultanément, les ordinateurs mainframe ont commencé à être plus accessibles dans les milieux universitaires et les entreprises, favorisant la naissance des communautés hackers dans un mouvement d’apprentissage, de partage de connaissances et de pratiques. Par la suite ces communautés se structurèrent grâce aux communications numériques, en particulier Internet, et s’agrandirent avec l’apparition de la microinformatique.
Se reconnaissent-elles dans l’anarchisme ? Même si ses pratiques sont anarchistes, un collectif n’a nul besoin de se reconnaître en tant que tel. Il peut même ne pas en avoir conscience. C’est donc du côté des pratiques et in situ qu’il faut envisager les choses. Les communautés hacker sont issues d’une conjonction historique classique entre la cristallisation des idées hippies et libertaires et l’avènement des innovations techniques qui transforment alors radicalement l’économie (les systèmes d’information numériques). Cela crée par effet rétroactif des communautés qui génèrent elles-mêmes des objets techniques en se réappropriant ces innovations, et en changeant à leur tour le paysage économique en proposant d’autres innovations. On pense par exemple aux Bulletin Board Systems (par exemple le projet Community Memory, premier forum électronique géant et collaboratif), aux systèmes d’exploitation (comment Unix fut créé, ou comment Linux devint l’un des plus grands projets collaboratifs au monde), à des logiciels (le projet GNU), etc. Toutes ces pratiques remettent en cause la structure autoritaire (souvent académique) de l’accès aux machines, provoquent une démocratisation des usages informatiques, incarnent des systèmes de collaboration fondés sur le partage du code et des connaissances, permettent l’adoption de pratiques de prise de décision collective, souvent consensuelles. Couronnant le tout, l’apparition de la Licence Publique Générale initiée par Richard M. Stallman et Eben Moglen avec la Free Software Foundation propose une remise en question radicale de la propriété intellectuelle et du pouvoir qu’elle confère.
Le rapport avec l’anarchisme est de ce point de vue exprimé à maintes reprises dans l’histoire des communautés hacker. On y croise très souvent des références. Dans la biographie de Richard M. Stallman26, par exemple, le AI Lab qui devient le haut lieu de la « Commune Emacs », est décrit ainsi : « La culture hacker qui y régnait et sa politique d’anarchie allaient conférer au lieu l’aura d’éternel rebelle ». Plus loin dans le même livre, E. Moglen se remémore sa rencontre avec R. M. Stallman qu’il décrit comme la rencontre de deux anarchistes. Inversement, R. M. Stallman ne s’est jamais défini comme un anarchiste. Il va même jusqu’à soutenir que le logiciel libre est un mélange de communisme (au sens d’appropriation collective de la production), de capitalisme « éthique » (pouvoir en tirer des avantages lucratifs tant qu’on respecte les libertés des autres), et d’anarchisme (réduit à la liberté de contribuer ou non et d’user comme on veut)27.
Une approche fondée sur une enquête plus solide montre néanmoins que les principes anarchistes ne sont pas considérés comme de simples étiquettes dans les communautés hacker d’aujourd’hui. Menée au cœur des communautés libristes californiennnes, l’enquête de Michel Lallement dans L’âge du faire28 montre une typologie intéressante chez les hackers entre les « pur jus », parmi les plus anciens le plus souvent des hommes au charisme de leader ou de gourous et qui se réclament d’un certain radicalisme anarchiste (sur lequel je vais revenir plus loin) et la masse plus diffuse, plus ou moins concernée par l’aspect politique. Majoritaires sont cependant ceux qui ont tendance à la compromission, jusqu’au point où parfois le travail à l’intérieur de la communauté est valorisé dans l’exercice même de la réussite capitaliste à l’extérieur. J’irais même jusqu’à dire, pour en avoir côtoyé, que certains voient dans le hacking et l’éthique hacker une sorte d’exutoire de la vie professionnelle étouffée par l’économie capitaliste.
Sur l’aspect proprement américain, ce qui est surtout mis en avant, c’est l’opposition entre la bureaucratie (entendue au sens de l’action procédurière et autoritaire) et l’anarchisme. À l’image des anciennes communautés hacker calquées sur l’antique Homebrew Club, ce refus de l’autorité institutionnelle s’apparente surtout à une forme de potacherie corporatiste. Le point commun des communautés, néanmoins, consiste à s’interroger sur les process de prise de décision communautaire, en particulier la place faite au consensus : c’est l’efficacité qui est visée, c’est-à-dire la meilleure façon de donner corps à une délibération collective. C’est ce qui permet de regrouper Noisebridge, MetaLab ou le Chaos Computer Club. Certes, au point de vue du fonctionnement interne, on peut invoquer beaucoup de principes anarchistes. Une critique pointerait cependant que ces considérations restent justement internalistes. On sait que le consensus consolide le lien social, mais la technologie et les savoir-faire ont tendance à concentrer la communauté dans une sorte d’exclusion élective : diplômée, issue d’une classe sociale dominante et bourgeoise, en majorité masculine (bien que des efforts soient menés sur la question du genre).
Si nous restons sur le plan internaliste, on peut tenter de comprendre ce qu’est ce drôle d’anarchisme. Pour certains auteurs, il s’agit de se concentrer sur l’apparente opposition entre libre et open source, c’est-à-dire le rapport que les communautés hacker entretiennent avec le système économique capitaliste. On peut prendre pour repères les travaux de Christian Imhorst29 et Dale A. Bradley30. Pour suivre leur analyse il faut envisager l’anarchisme américain comme il se présentait à la fin des années 1970 et comment il a pu imprégner les hackers de l’époque. Le sous-entendu serait que cette imprégnation perdure jusqu’à aujourd’hui. Deux étapes dans la démonstration.
En premier lieu, la remise en cause de la propriété et de l’autorité est perçue comme un radicalisme beaucoup plus fortement qu’elle ne pouvait l’être en Europe au regard de l’héritage de Proudhon et de Bakhounine. Cela tient essentiellement au fait que la structuration du radicalisme américain s’est établie sur une réverbération du bipartisme américain. C’est ce qu’analyse bien en 1973 la chercheuse Marie-Christine Granjon au moment de l’éveil de la Nouvelle Gauche aux États-Unis : chasser les radicaux du paysage politique en particulier du paysage ouvrier dont on maintenait un niveau de vie (de consommation) juste assez élevé pour cela, de manière à « maintenir en place la structure monopolistique de l’économie sur laquelle repose le Welfare State — l’État des monopoles, des managers, des boss du monde syndical et de la politique —, pour protéger cette Amérique, terre de l’égalité, de la liberté et de la poursuite du bonheur, où les idéologies n’avaient plus de raison d’être, où les radicaux étaient voués à la marginalité et tolérés dans la mesure de leur inaction et de leur audience réduite »31. En d’autres termes, être radical c’est être contre l’État américain, donc soit contre le bien-être du peuple et ses libertés, soit le contraire (et chercher à le démontrer), mais en tout cas, contre l’État américain.
En second lieu, la dichotomie entre anarchisme de droite et anarchisme de gauche pourrait se résumer à la distinction entre libertariens et communautaires anticapitalistes. Ce n’est pas le cas. Mais c’est ainsi que posent les prémisses du problème C. Imhorst comme D. A. Bradley et avec eux beaucoup de ceux qui réduisent la distinction open-source / librisme. Sur ce point on reprend souvent la célèbre opposition entre les grandes figures des deux « camps », d’un côté R. M. Stallman, et de l’autre côté Eric S. Raymond, auteur de La Cathédrale et le bazar, évangéliste du marché libre ne retenant de la pensée hacker que l’efficacité de son organisation non hiérarchique. Cette lecture binaire de l’anarchisme américain, entre droite et gauche, est exprimée par David DeLeon en 1978 dans son livre The American as Anarchist32, assez critiqué pour son manque de rigueur à sa sortie, mais plusieurs fois réédité, et cité de nombreuses fois par C. Imhorst. Dans la perspective de DeLeon, l’anarchisme américain est essentiellement un radicalisme qui peut s’exprimer sur la droite de l’échiquier politique comme le libertarianisme, profondément capitaliste, individualiste-propriétariste et contre l’État, comme sur la gauche, profondément anticapitaliste, communautaire, contre la propriété et donc aussi contre l’État parce qu’il protège la propriété et reste une institution autoritaire. En écho, réduire le mouvement libriste « radical » à la figure de R. M. Stallman, et l’opposer au libertarianisme de E. S. Raymond, revient à nier toutes les nuances exprimées en quarante ans de débats et de nouveautés (prenons simplement l’exemple de l’apparition du mouvement Creative Commons).
Le but, ici, n’est pas tant de critiquer la simplicité de l’analyse, mais de remarquer une chose plus importante : si le mouvement hacker est perçu comme un radicalisme aux États-Unis dès son émergence, c’est parce qu’à cette même époque (et c’est pourquoi j’ai cité deux références de l’analyse politique des années 1970) le radicalisme est conçu hors du champ politique bipartite, contre l’État, et donc renvoyé à l’anarchisme. En retour, les caractéristiques de l’anarchisme américain offrent un choix aux hackers. Ce même choix qui est exprimé par Fred Turner dans son analyse historique : comment articuler les utopies hippies de la Nouvelle Gauche avec la technologie d’un côté, et le rendement capitaliste de l’autre. Si on est libertarien, le choix est vite effectué : l’efficacité de l’organisation anarchiste dans une communauté permet de s’affranchir de nombreux cadres vécus comme des freins à l’innovation et dans la mesure où l’individualisme peut passer pour un accomplissement de soi dans la réussite économique, la propriété n’a aucune raison d’être opposée au partage du code et ce partage n’a pas lieu de primer sur la lucrativité.
Considérer le mouvement pour le logiciel libre comme un mouvement radical est une manière d’exacerber deux positions antagonistes qui partent des mêmes principes libertaires et qui aboutissent à deux camps, les partageux qui ne font aucun compromis et les ultra-libéraux prêts à tous les compromis avec le capitalisme. On peut néanmoins suivre D. A. Bradley sur un point : le logiciel libre propose à minima la réorganisation d’une composante du capitalisme qu’est l’économie numérique. Si on conçoit que la technologie n’est autre que le support de la domination capitaliste, penser le Libre comme un radicalisme reviendrait en fait à une contradiction, celle de vouloir lutter contre les méfaits de la technologie par la technologie, une sorte de primitivisme qui s’accommoderait d’une éthique censée rendre plus supportable le techno-capitalisme. Or, les technologies ne sont pas intrinsèquement oppressives. Par exemple, les technologies de communication numérique, surtout lorsqu’elles sont libres, permettent la médiatisation sociale tout en favorisant l’appropriation collective de l’expression médiatisée. Leurs licences libres, leurs libertés d’usages, ne rendent pas ces technologies suffisantes, mais elles facilitent l’auto-gestion et l’émergence de collectifs émancipateurs : ouvrir une instance Mastodon, utiliser un système de messagerie sécurisée, relayer les informations anonymisées de camarades qui subissent l’oppression politique, etc.
L’anarchisme… productiviste, sérieusement ?
Le Libre n’est pas un existentialisme, pas plus que l’anarchisme ne devrait l’être. Il ne s’agit pas d’opposer des modes de vie où le Libre serait un retour idéaliste vers l’absence de technologie oppressive. Les technologies sont toujours les enfants du couple pouvoir-connaissance, mais comme disait Murray Bookchin, si on les confond avec le capitalisme pour en dénoncer le caractère oppresseur, cela revient à « masquer les relations sociales spécifiques, seules à même d’expliquer pourquoi certains en viennent à exploiter d’autres ou à les dominer hiérarchiquement ». Il ajoutait, à propos de cette manière de voir : « en laissant dans l’ombre l’accumulation du capital et l’exploitation du travail, qui sont pourtant la cause tant de la croissance que des destructions environnementales, elle ne fait ainsi que leur faciliter la tâche. » 33
Le rapport entre le libre et l’anarchisme devrait donc s’envisager sur un autre plan que l’opposition interne entre capitalistes et communistes et/ou libertaires (et/ou commonists), d’autant plus que ce type de brouillage n’a jusqu’à présent fait qu’accréditer les arguments en faveur de la privatisation logicielle aux yeux de la majorité des acteurs de l’économie numérique34. Ce rapport devrait plutôt s’envisager du point de vue émancipateur ou non par rapport au capitalisme. De ce point de vue, exit les libertariens. Mais alors, comme nous avons vu que pour l’essentiel l’anarchisme libriste est un mode de production efficace dans une économie contributive (qui devrait être néanmoins plus équilibrée), a-t-il quelque chose de plus ?
Nous pouvons partir d’un autre texte célèbre chez les libristes, celui d’Eben Moglen, fondateur du Software Freedom Law Center, qui intitulait puissamment son article : « L’anarchisme triomphant : le logiciel libre et la mort du copyright »35. Selon lui, le logiciel conçu comme une propriété crée un rapport de force dont il est extrêmement difficile de sortir avec les seules bonnes intentions des licences libres. E. Moglen prend l’exemple du très long combat contre la mainmise de Microsoft sur les ordinateurs neufs grâce à la vente liée, et nous n’en sommes pas complètement sortis. Aujourd’hui, nous pourrions prendre bien d’autres exemples qui, tous, sont le fait d’alliances mondialisées et de consortiums sur-financiarisés de fabricants de matériel et de fournisseurs de services. Il faut donc opposer à cette situation une nouvelle manière d’envisager la production et la créativité.
Code source et commentaires désignent le couple entre fonctionnalité et expressivité des programmes. En tant que tels, ils peuvent être considérés comme autant de preuves que le travail intellectuel nécessaire à l’élaboration d’un programme n’est pas uniquement le fait de travailler sur des algorithmes mais aussi en inventer les propriétés. Dès lors, on peut comprendre que le copyright puisse s’appliquer à plein. Dès l’instant que les ordinateurs ont cessé d’être des machines centrales aux coûts extrêmement élevés, et que pour les faire fonctionner les logiciels ont cessé d’être donnés (car le coût marginal de la création logicielle était faible en comparaison du coût de fabrication d’une grosse machine), l’ordinateur personnel a multiplié mécaniquement le besoin de réaliser des plus-values sur le logiciel et enfermé ce dernier dans une logique de copyright. Seulement voilà : lorsqu’une entreprise (par exemple Microsoft) exerce un monopole sur le logiciel, bien qu’elle puisse embaucher des centaines de développeurs, elle ne sera jamais en mesure d’adapter, tester à grande échelle, proposer des variations de son logiciel en quantités suffisantes pour qu’il puisse correspondre aux besoins qui, eux, ont tendance à se multiplier au fur et à mesure que les ordinateurs pénètrent dans les pratiques sociales et que la société devient un maillage en réseau. Si bien que la qualité et la flexibilité des logiciels privateurs n’est jamais au rendez-vous. Si ce défaut de qualité passe souvent inaperçu, c’est aux yeux de l’immense majorité des utilisateurs qui ne sont pas techniciens, et pour lesquels les monopoles créent des cages d’assistanat et les empêche (par la technique du FUD) d’y regarder de plus près. Après tout, chacun peut se contenter du produit et laisser de côté des défauts dont il peut toujours (essayer de) s’accommoder.
En somme, les utilisateurs ont été sciemment écartés du processus de production logicielle. Alors qu’à l’époque plus ancienne des gros ordinateurs, on adaptait les logiciels aux besoins et usages, et on pouvait les échanger et les améliorer en partant de leur utilisation. Or, l’histoire des sciences et des technologies nous apprend que l’avancement des sciences et technologies dépendent d’apprentissages par la pratique, d’appropriations collectives de l’existant, d’innovation par incrémentation et implications communautaires (c’est ce qu’ont montré David Edgerton36 et Clifford Conner37). En ce sens, le modèle économique des monopoles du logiciel marche contre l’histoire.
C’est de ce point de vue que le logiciel libre peut être envisagé non seulement comme la production d’un mouvement de résistance38, mais aussi comme un mode de production conçu avant tout comme une réaction à la logique marchande, devant lutter sans cesse contre la « plasticité du capitalisme » (au sens de F. Braudel39), avec des résultats plus ou moins tangibles. Même si la question de l’écriture collective du code source mériterait d’être mieux analysée pour ses valeurs performatives intrinsèques40.
Comme le dit Eben Moglen racontant le projet GNU de R. M. Stallman : le logiciel libre pouvait « devenir un projet auto-organisé, dans lequel aucune innovation ne serait perdue à travers l’exercice des droits de propriété ». Depuis le milieu des années 1980 jusqu’à la fin des années 1990, non seulement des logiciels ont été produits de manière collective en dehors du copyright, mais en plus de cela, des systèmes d’exploitation comme GNU Linux aux logiciels de serveurs et à la bureautique, leur reconnaissance par l’industrie elle-même (normes et standards) s’est imposée à une échelle si vaste que le logiciel libre a bel et bien gagné la course dans un monde où la concurrence était faussée si l’on jouait avec les mêmes cartes du copyright.
C’est ce qui fait dire à Eben Moglen que « lorsqu’il est question de faire de bons logiciels, l’anarchisme gagne ». Il oppose deux choses à l’industrie copyrightée du logiciel :
les faits : le logiciel libre est partout, il n’est pas une utopie,
le mode de production : l’anarchisme est selon lui la meilleure « organisation » de la production.
Reste à voir comment il conçoit l’anarchisme. Il faut confronter ici deux pensées qui sont contemporaines, celle d’Eben Moglen et celle de Murray Bookchin. Le second écrit en 1995 que le mot « anarchisme » allait bientôt être employé comme catégorie d’action bourgeoise41 :
« les objectifs révolutionnaires et sociaux de l’anarchisme souffrent d’une telle dégradation que le mot « anarchie » fera bientôt partie intégrante du vocabulaire chic bourgeois du siècle à venir : une chose quelque peu polissonne, rebelle, insouciante, mais délicieusement inoffensive ».
Bookchin écrivait aussi « Ainsi, chez nombre d’anarchistes autoproclamés, le capitalisme disparaît, remplacé par une « société industrielle » abstraite. »
Mais d’un autre côté, à peine six ans plus tard, il y a cette volonté d’E. Moglen d’utiliser ce mot et d’entrer en confrontation assez directe avec ce que M. Bookchin disait de la tendance new age férue d’individualisme et de primitivisme et qui n’avait plus de rien de socialiste. En fin de compte, si on conçoit avec E. Moglen l’anarchisme comme un mode de production du logiciel libre, alors on fait aussi une jonction entre la lutte contre le modèle du monopole et du copyright et la volonté de produire des biens numériques, à commencer par des logiciels, tout en changeant assez radicalement l’organisation sociale de la production contre une machinerie industrielle. Et cette lutte n’a alors plus rien d’abstrait. La critique de M. Bookchin, était motivée par le fait que l’anarchisme s’est transformé des années 1970 aux années 1990 et a fini par dévoyer complètement les théories classiques de l’anarchisme au profit d’une culture individualiste et d’un accomplissement de soi exclusif. Le logiciel libre, de ce point de vue, pourrait avoir le mérite de resituer l’action anarchiste dans un contexte industriel (la production de logiciels) et social (les équilibres de conception et d’usage entre utilisateurs et concepteurs).
Et l’État dans tout cela ? est-il évacué de l’équation ? Ces dernières décennies sont teintées d’un néolibéralisme qui façonne les institutions et le droit de manière à créer un espace marchand où les êtres humains sont transformés en agents compétitifs. La production communautaire de logiciel libre ne serait-elle qu’un enfermement dans une plasticité capitaliste telle qu’elle intègre elle-même le mode de production anarchiste du libre dans une compétition dont le grand gagnant est toujours celui qui réussit à piller le mieux les communs ainsi produits ? Car si c’est le cas, alors M. Bookchin avait en partie raison : l’anarchisme n’a jamais pu résoudre la tension entre autonomie individuelle et liberté sociale autrement qu’en se contentant de s’opposer à l’autorité et à l’État, ce qu’on retrouve dans la reductio de l’anarchisme des libertariens – et contre cela M. Bookchin propose un tout autre programme, municipaliste et environnementaliste. Or, si on suit E. Moglen, on ne perçoit certes pas d’opposition frontale contre l’État, mais dans un contexte néolibéral, les monopoles industriels ne peuvent-ils pas être considérés comme les nouvelles figures d’opposition d’autorité et de pouvoir ?
Pour ma part, je pense que qu’État et monopoles se contractent dans le capitalisme de surveillance, un Léviathan contre lequel il faut se confronter. Toute la question est de savoir à quelle société libertaire est censé nous mener le logiciel libre. J’ai bien l’impression que sur ce point les libristes old school qui s’autoproclament anarchistes se trompent : ce n’est pas parce que le mouvement du logiciel libre propose une auto-organisation de la production logicielle et culturelle, contre les monopoles mais avec une simple injonction à l’émancipation, que cela peut déboucher sur un ordre social libertaire.
Là où le logiciel libre pourrait se réclamer de l’anarchisme, c’est dans le fait qu’il propose une très forte opposition aux institutions sociales oppressives que sont les monopoles et l’État, mais seulement à partir du moment où on conçoit le mouvement du logiciel libre non comme un mode de production anarchiste, mais comme un moment qui préfigure42 un ordre social parce qu’il s’engage dans une lutte contre l’oppression tout en mettant en œuvre un mode de production alternatif, et qu’il constitue un modèle qui peut s’étendre à d’autres domaines d’activité (prenons l’exemple des semences paysannes). Et par conséquent il devient un modèle anarchiste.
Si on se contente de n’y voir qu’un mode de production, le soi-disant anarchisme du logiciel libre est voué à n’être qu’un modèle bourgeois (pour reprendre l’idée de M. Bookchin), c’est à dire dénué de projet de lutte sociale, et qui se contente d’améliorer le modèle économique capitaliste qui accapare les communs : il devient l’un des rouages de l’oppression, il n’est conçu que comme une utopie « bourgeoisement acceptable ». C’est-à-dire un statut duquel on ne sort pas ou bien les pieds devant, comme un mode de production que le néomanagement a bel et bien intégré. Or, s’il y a une lutte anarchiste à concevoir aujourd’hui, elle ne peut pas se contenter d’opposer un modèle de production à un autre, elle doit se confronter de manière globale au capitalisme, son mode de production mais aussi son mode d’exploitation sociale.
Les limites de l’anarchisme utopique du Libre ont été révélées depuis un moment déjà. L’Electronic Frontier Foundation (où Eben Moglen officie) le reconnaît implicitement dans un article de mai 2023 écrit par Cory Doctorow et publié par l’EFF 43 :
« Alors que les régulateurs et les législateurs réfléchissent à l’amélioration de l’internet pour les êtres humains, leur priorité absolue devrait être de redonner du pouvoir aux utilisateurs. La promesse d’Internet était de supprimer les barrières qui se dressaient sur notre chemin : la distance, bien sûr, mais aussi les barrières érigées par les grandes entreprises et les États oppressifs. Mais les entreprises ont pris pied dans cet environnement de barrières abaissées, se sont retournées et ont érigé de nouvelles barrières de leur côté. Des milliards d’entre nous se sont ainsi retrouvés piégés sur des plateformes que beaucoup d’entre nous n’aiment pas, mais qu’ils ne peuvent pas quitter. »
Il faut donc des alternatives parce que les acteurs qui avaient promis de rendre les réseaux plus ouverts (le Don’t be evil de Google) ont non seulement failli mais, en plus, déploient des stratégies juridiques et commerciales perverses pour coincer les utilisateurs sur leurs plateformes. Dès lors, on voit bien que le problème qui se pose n’est pas d’opposer un mode de production à un autre, mais de tenter de gagner les libertés que le capitalisme de surveillance contient et contraint. On voit aussi que depuis 2001, les problématiques se concentrent surtout sur les réseaux et le pouvoir des monopoles. Là, on commence à toucher sérieusement les questions anarchistes. Dès lors l’EFF propose deux principes pour re-créer un Internet « d’intérêt public » :
le chiffrement de bout en bout et la neutralité du Net,
contourner les grandes plateformes.
Faut-il pour autant, comme le propose Kristin Ross44, pratiquer une sorte d’évacuation générale et se replier, certes de manière constructive, sur des objets de lutte plus fondamentaux, au risque de ne concevoir de lutte pertinente que des luttes exclusives, presque limitées à la paysannerie et l’économie de subsistance ? Je ne suis pas d’accord. Oui, il faut composer avec l’existant mais dans les zones urbaines, les zones rurales comme dans le cyberespace on peut préfigurer des formes d’organisation autonomes et des espaces à défendre. Le repli individualiste ou collectiviste-exclusif n’est pas une posture anarchiste. Premièrement parce qu’elle n’agit pas concrètement pour les travailleurs, deuxièmement parce que cela revient à abandonner ceux qui ne peuvent pas pratiquer ce repli de subsistance au risque de ce qu’on reprochait déjà aux petits-bourgeois communautaires hippies des années 1970, et troisièmement enfin, parce que je ne souhaite pas vivre dans une économie de subsistance, je veux vivre dans l’abondance culturelle, scientifique et même technique et donc lutter pour un nouvel ordre social égalitaire général et pas réservé à ceux qui feraient un choix de retrait, individuel et (il faut le reconnaître) parfois courageux.
Alors, vers quel anarchisme se diriger ?
Le potentiel libertaire de la technologie
En 1971, Sam Dolgoff publie un article sans concession dans la petite revue Newyorkaise Libertarian Analysis. L’article fut ensuite tiré à part à plusieurs reprises si bien que, sous le titre The Relevance of Anarchism to Modern Society45, le texte figure parmi les must read de la fin des années 1970. Dolgoff y décrit l’état de l’anarchisme dans une société prise dans les contradictions de la contre-culture des années 1960, et dont les effets se rapportent à autant de conceptions erronées de l’anarchisme qui se cristallisent dans un « néo-anarchisme » bourgeois discutable. Ce contre quoi S. Dolgoff avance ses arguments est l’idée selon laquelle l’anarchisme « filière historique » serait dépassé étant donné la tendance mondiale vers la centralisation économique, fruit des récents développements des sciences et des techniques, une sorte de fin de l’histoire (avant l’heure de celle de Fukuyama en 1992) contre laquelle on ne pourrait rien. Le sous-entendu met en avant la contradiction entre le positivisme dont s’inspire pourtant l’anarchisme de Proudhon à Bakounine, c’est-à-dire le développement en soi émancipateur des sciences et des techniques (à condition d’une éducation populaire), et le fait que cet élan positiviste a produit une mondialisation capitaliste contre laquelle aucune alternative anarchiste n’a pu s’imposer. Le réflexe social qu’on retrouve dans le mouvement contre-culturel des années 1960 et 1970, associé à ce que S. Dolgoff nomme le néo-anarchisme (bourgeois)46 (et qui sera repris en partie par M. Bookchin plus tard), amène à penser l’anarchisme comme une réaction à cette contradiction et par conséquent un moment de critique de l’anarchisme classique qui n’envisagerait pas correctement la complexité sociale, c’est-à-dire la grande diversité des nuances entre compromission et radicalisme, dans les rapports modernes entre économie, sciences, technologies et société. Ce qui donne finalement un anarchisme réactionnaire en lieu et place d’un anarchisme constructif, c’est-à-dire une auto-organisation fédéraliste qui accepte ces nuances, en particulier lors de l’avènement d’une société des médias, du numérique et de leur mondialisation (en plus des inégalités entre les pays).
Or, S. Dolgoff oppose à cette idée pessimiste le fait que la pensée anarchiste a au contraire toujours pris en compte cette complexité. Cela revient à ne justement pas penser l’anarchisme comme une série d’alternatives simplistes au gouvernementalisme (le contrôle de la majorité par quelques-uns). Il ne suffit pas de s’opposer au gouvernementalisme pour être anarchiste. Et c’est pourtant ce que les libertariens vont finir par faire, de manière absurde. L’anarchisme, au contraire a toujours pris en compte le fait qu’une société anarchiste implique une adaptation des relations toujours changeantes entre une société et son environnement pour créer une dynamique qui recherche équilibre et harmonie indépendamment de tout autoritarisme. Dès lors les sciences et techniques ont toujours été des alliées possibles. Pour preuve, cybernétique et anarchisme ont toujours fait bon ménage, comme le montre T. Swann dans un article au sujet de Stafford Beer, le concepteur du projet Cybersyn au Chili sous la présidence S. Allende47 : un mécanisme de contrôle qui serait extérieur à la société implique l’autoritarisme et un contrôle toujours plus contraignant, alors qu’un mécanisme inclus dans un système auto-organisé implique une adaptation optimale au changement48. L’optimisation sociale implique la décentralisation, c’est ce qu’ont toujours pensé les anarchistes. En ce sens, les outils numériques sont des alliés possibles.
En 1986, quinze ans après son article de 1971, dans le premier numéro de la revue qu’il participe à fonder (la Libertarian Labor Review), S. Dolgoff publie un court article intitulé « Modern Technology and Anarchism »49. Il revient sur la question du lien entre l’anarchisme et les nouvelles technologies de communication et d’information qu’il a vu naître et s’imposer dans le mouvement d’automatisation de l’industrie et plus généralement dans la société. Les réseaux sont pour lui comme un pharmakon (au sens de B. Stiegler), ils organisent une dépossession par certains aspects mais en même temps peuvent être des instruments d’émancipation.
Cet article de 1986 est quelque peu redondant avec celui de 1971. On y retrouve d’ailleurs à certains endroits les mêmes phrases et les mêmes idées. Pour les principales : il y a un déjà-là anarchiste, et la société est un réseau cohérent de travail coopératif. Pour S. Dolgoff, la technologie moderne a résolu le problème de l’accès aux avantages de l’industrie moderne, mais ce faisant elle a aussi accru significativement la décentralisation dans les entreprises avec la multiplication de travailleurs hautement qualifiés capables de prendre des décisions aux bas niveaux des organisations. S. Dolgoff cite plusieurs auteurs qui ont fait ce constat. Ce dernier est certes largement terni par le fait que cette décentralisation fait écho à la mondialisation qui a transformé les anciennes villes industrielles en villes fantômes, mais cette mondialisation est aussi un moment que l’anarchie ne peut pas ne pas saisir. En effet, cette mise en réseau du monde est aussi une mise en réseau des personnes. Si les technologies modernes d’information, les ordinateurs et les réseaux, permettent d’éliminer la bureaucratie et abandonner une fois pour toutes la centralisation des décisions, alors les principes de coopération et du déjà-là anarchiste pourront se déployer. Faire circuler librement l’information est pour S. Dolgoff la condition nécessaire pour déployer tout le « potentiel libertaire de la technologie ». Mais là où il pouvait se montrer naïf quinze ans auparavant, il concède que les obstacles sont de taille et sont formés par :
« Une classe croissante de bureaucraties étatiques, locales, provinciales et nationales, de scientifiques, d’ingénieurs, de techniciens et d’autres professions, qui jouissent tous d’un niveau de vie bien supérieur à celui du travailleur moyen. Une classe dont le statut privilégié dépend de l’acceptation et du soutien du système social réactionnaire, qui renforce considérablement les variétés « démocratiques », « sociales » et « socialistes » du capitalisme. (…) Tous reprennent les slogans de l’autogestion et de la libre association, mais ils n’osent pas lever un doigt accusateur sur l’arc sacré de l’État. Ils ne montrent pas le moindre signe de compréhension du fait évident que l’élimination de l’abîme séparant les donneurs d’ordres des preneurs d’ordres – non seulement dans l’État mais à tous les niveaux – est la condition indispensable à la réalisation de l’autogestion et de la libre association : le cœur et l’âme même de la société libre. »
Peu d’années avant son décès, et après une longue carrière qui lui avait permis de prendre la mesure de l’automatisation de l’industrie et voir l’arrivée des ordinateurs dans les processus de production et de contrôle, Sam Dolgoff a bien saisi la contradiction entre le « potentiel libertaire de la technologie » et l’apparition d’une classe sociale qui, avec l’aide de l’État et forte de subventions, réussit le tour de force d’accaparer justement ce potentiel dans une démarche capitaliste tout en parant des meilleures intentions et des meilleurs slogans ce hold-hup sur le travail collectif et la coopération.
C’est pourquoi il est pertinent de parler d’idéologie concernant la Silicon Valley, et c’est d’ailleurs ce que Fred Turner avait bien vu50 :
« La promesse utopique de la Valley est la suivante : Venez ici, et construisez-y l’avenir avec d’autres individus partageant les mêmes idées. Immergez-vous dans le projet et ressortez-en en ayant sauvé l’avenir. »
Les nouvelles frontières sociales des utopistes de la Silicon Valley ont été une interprétation du potentiel libertaire de la technologie, faite de néo-communautarisme et de cette Nouvelle Gauche que S. Dolgoff critiquait dès 1971. Mais ces nouvelles frontières ont été transformées en mythe parce que la question est de savoir aujourd’hui qui décide de ces nouvelles frontières, qui décide de consommer les technologies de communication censées permettre à tous d’avoir accès à l’innovation. Qui décide qu’un téléphone à plus de 1000€ est la meilleure chose à avoir sur soi pour une meilleure intégration sociale ? Qui décide que la nouvelle frontière repose sur la circulation de berlines sur batteries en employant une main-d’œuvre bon marché ?
Ouvrir le Libre
Il est temps de réhabiliter la pensée de Sam Dolgoff. Le Libre n’est pas qu’un mode de production anarchiste, il peut être considéré comme un instrument de libération du potentiel libertaire de la technologie.
Scander haut et fort que les hackers sont des anarchistes ne veut rien dire, tant que le modèle organisationnel et économique ne sert pas à autre chose que de développer du code. Rester dans le positivisme hérité des anarchistes de la première moitié du XXe siècle a ce double effet : un sentiment de dépassement lorsqu’on considère combien le « progrès » technologique sert à nous oppresser, et un sentiment d’abandon parce que celleux qui sont en mesure de proposer des alternatives techniques d’émancipation ont tendance à le faire en vase clos et reproduisent, souvent inconsciemment, une forme de domination.
Ce double sentiment a des conséquences qui dépassent largement la question des logiciels. Il est toujours associé à la tendance toujours plus grande de l’État à accroître les inégalités sociales, associé aux conséquences climatiques du système économique dominant qui nous conduit au désastre écologique, associé à la répression toujours plus forte par l’autoritarisme des gouvernements qui défendent les intérêts des plus riches contre les travailleurs et contre tout le reste. Il en résulte alors un désarmement technologique des individus là où il faut se défendre. À défaut, les solutions envisagées ont toujours petit goût pathétique : des plaidoyers qui ne sont jamais écoutés et trouvent encore moins d’écho dans la représentation élective, ou des actions pacifiques réprimées dans la violence.
Le potentiel libertaire du logiciel libre a cette capacité de réarmement technologique des collectifs car nous évoluons dans une société de la communication où les outils que nous imposent les classes dominantes sont toujours autant d’outils de contrôle et de surveillance. Il a aussi cette capacité de réarmement conceptuel dans la mesure où notre seule chance de salut consiste à accroître et multiplier les communs, qu’ils soient numériques ou matériels. Or, la gestion collective de ces communs est un savoir-faire que les mouvements libristes possèdent et diffusent. Ils mettent en pratique de vieux concepts comme l’autogestion, mais savent aussi innover dans les pratiques coopératives, collaboratives et contributives.
Occupy Wall Street, Nuit Debout, et bien d’autres évènements du genre, ont été qualifiés de préfiguratifs parce qu’ils opposaient de nouveaux imaginaires et de nouvelles manières de penser le monde tout en mettant en pratique les concepts mêmes qu’ils proposaient. Mais ce spontanéisme a tendance à se montrer évanescent face à des concrétisations préfiguratives comme les ZAD, la Comuna de Oaxaca, le mouvement zapatiste, et des milliers d’autres concrétisations à travers le monde et dont la liste serait fastidieuse. Rien qu’en matière d’autogestion, il suffit de jeter un œil sur les 11 tomes (!) de l’encyclopédie de l’Association Autogestion (2019)51. Or, dans tous ces mouvements, on retrouve du logiciel libre, on retrouve des libristes, on retrouve des pratiques libristes. Et ce n’est que très rarement identifié et formalisé.
Que faire ? Peut-être commencer par s’accorder sur quelques points, surtout entre communautés libristes et communautés libertaires :
Ce n’est pas parce qu’on est libriste qu’on est anarchiste, et l’éthique hacker n’est pas un marqueur d’anarchisme. De manière générale, mieux vaut se méfier de l’autoproclamation dans ce domaine, surtout si, en pratique, il s’agit de légitimer le pillage des communs. Par contre il y a beaucoup d’anarchistes libristes.
Les pratiques anarchistes n’impliquent pas obligatoirement l’utilisation et/ou la création de logiciels libres ou d’autres productions libres des communs numériques. Le Libre n’a pas à s’imposer. Mais dans notre monde de communication, le Libre en tant qu’outil est un puissant moteur libertaire. Il permet aux libertaires de mettre en œuvre des actions de communication, de coopération et de stratégie.
Proposer le logiciel libre ou les licences libres n’est pas un acte altruiste ni solidaire s’il n’est pas accompagné de discours ou d’actes émancipateurs. Il peut même créer l’inverse par excès, submersion de connaissances et finalement exclusion. Il faut travailler de plus en plus les conditions d’adoption de solutions techniques libres dans les collectifs, mieux partager les expériences, favoriser l’inclusion dans la décision d’adoption de telles ou telles techniques. Elles doivent apporter du sens à l’action (et nous revoici dans la réflexion déjà ancienne du rapport entre travailleurs et machines).
Il vaut mieux privilégier l’émancipation non-numérique à la noyade techno-solutionniste qui résulte d’un manque de compétences et de connaissances.
La solidarité doit être le pilier d’une éducation populaire au numérique. Cela ne concerne pas uniquement l’anarchisme. Mais un collectif ne peut pas seul effectuer une démarche critique sur ses usages numériques s’il n’a pas en même temps les moyens de les changer efficacement. Les collectifs doivent donc échanger et s’entraider sur ces points (combien de groupes anarchistes utilisent Facebook / Whatsapp pour s’organiser ? ce n’est pas par plaisir, sûr !).
Notes
La Quadrature du Net, « Affaire du 8 décembre : le chiffrement des communications assimilé à un comportement terroriste », 5 juin 2023, URL.↩︎
On peut prendre un exemple trivial, celui du microblogage qui transforme la communication en flux d’information. Le fait de ne pouvoir s’exprimer qu’avec un nombre limité de caractère et de considérer l’outil comme le support d’un réseau social (où le dialogue est primordial), fait que les idées et les concepts ne peuvent que rarement être développés et discutés, ce qui transforme l’outil en support de partage d’opinions non développées, raccourcies, caricaturales. Ajoutons à cela le fait que, sur un système de microblogage commercial, les algorithmes visant à générer de la lucrativité attentionnelle, ce sont les contenus les poins pertinents pour la pensée et les plus pertinents pour le trafic qui sont mis en avant. Contrairement à ce qu’annoncent les plateformes commerciales de microblogage, ce dernier ne constitue absolument pas un support d’expression libre, au contraire il réduit la pensée à l’opinion (ou ne sert que de support d’annonces diverses). Un autre exemple concerne la « rédaction web » : avec la multiplication des sites d’information, la manière d’écrire un article pour le web est indissociable de l’optimisation du référencement. Le résultat est que depuis les années 2000 les contenus sont tous plus ou moins calibrés de manière identique et les outils rédactionnels sont configurés pour cela.↩︎
Aliénation de tout le monde en fait. « L’aliénation apparaît au moment où le travailleur n’est plus propriétaire de ses moyens de production, mais elle n’apparaît pas seulement à cause de cette rupture du lien de propriété. Elle apparaît aussi en dehors de tout rapport collectif aux moyens de production, au niveau proprement individuel, physiologique et psychologique (…) Nous voulons dire par là qu’il n’est pas besoin de supposer une dialectique du maître et de l’esclave pour rendre compte de l’existence d’une aliénation dans les classes possédantes ». G. Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 1989, p. 118.↩︎
Steven Levy, Hackers. Heroes of the Computer Revolution, New York, Dell Publishing, 1994. Steven Lévy, L’éthique des hackers, Paris, Globe, 2013.↩︎
Ainsi on peut s’interroger sur la tendance du protocole ouvert ActivityPub (qui fait fonctionner Mastodon, par exemple) à couvrir de nombreuses applications du Fediverse sans qu’une discussion n’ait été réellement menée entre les collectifs sur une stratégie commune multiformats dans le Fediverse. Cela crée une brèche récemment exploitée par l’intention de Meta de vouloir intégrer le Fediverse avec Threads, au risque d’une stratégie de contention progressive des utilisateurs qui mettrait en danger l’utilisation même d’ActivityPub et par extension l’ensemble du Fediverse. On peut lire à ce sujet la tribune de La Quadrature du Net : « L’arrivée de Meta sur le Fédivers est-elle une bonne nouvelle ? », 09 août 2023, URL.↩︎
Sébastien Broca, Utopie du logiciel libre. Lyon, Éditions le Passager clandestin, 2018.↩︎
Fred Turner, Aux sources de l’utopie numérique : De la contre culture à la cyberculture. Stewart Brand, un homme d’influence, Caen, C&F Editions, 2012.↩︎
Christophe Masutti, « Lire Fred Turner : de l’usage de l’histoire pour préfigurer demain », dans Retour d’Utopie. De l’influence du livre de Fred Turner, Caen, Les cahiers de C&F éditions 6, juin 2023, p. 70-82.↩︎
Detlef Hartmann, Die Alternative: Leben als Sabotage – zur Krise der technologischen Gewalt, Tübingen: IVA-Verlag, 1981. Voir aussi Capulcu Kollektiv, DISRUPT ! – Widerstand gegen den technologischen Angriff, sept. 2017 (URL).↩︎
Alan F. Westin, Privacy and Freedom, New York, Atheneum, 1967.↩︎
C’est le ralliement des mouvements pour les droits et libertés individuels, le lien entre l’expérience personnelle (par exemple les inégalités de race ou de genre dont des individus pourraient faire l’expérience quotidienne) et les structures politiques et sociales qui sont à la source des problèmes et dont il fallait procéder à la remise en question.↩︎
Nadia Eghbal, Sur quoi reposent nos infrastructures numériques ? : Le travail invisible des faiseurs du web. Marseille, OpenEdition Press, 2017. https://doi.org/10.4000/books.oep.1797.↩︎
Dans le cas de communs numériques, qui sont des biens non rivaux, il peut être difficile de comprendre cette notion d’appauvrissement. Comme le montrent Pierre Dardot et Christian Laval dans leur livre Communs, pour un commun, la richesse dépend autant du processus contributif (l’activité collective qui consiste à en faire un commun) que du bien lui-même, même s’il peut être dupliqué à l’infini dans le cas des biens non rivaux. Prenons deux exemples : 1) pour un champ cultivé, si tout le monde se sert et en abuse et personne ne sème ni n’entretient et qu’il n’y a pas d’organisation collective pour coordonner les efforts et décider ensemble que faire du champ, ce dernier reste bien un commun mais il ne donne rien et va disparaître. 2) Pour un logiciel, si personne ne propose de mise à jour, si personne n’enrichit ou corrige régulièrement le code et s’il n’y a pas d’organisation des contributions, ce logiciel aura tendance à disparaître aussi. Voir Pierre Dardot et Christian Laval, Communs. Essai sur la révolution au XXIe siècle, Paris, La Découverte, 2014.↩︎
Pierre Crétois (dir.), L’accaparement des biens communs, Paris, Presses universitaires de Paris Nanterre, 2022.↩︎
On peut voir sur ce point le travail que réalise Laurent Marseault : https://cocotier.xyz/?ConfPompier.↩︎
Au sens où l’entendait Bernard Stiegler, c’est-à-dire la privation d’un sujet de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser). Voir Bernard Stiegler, États de choc: bêtise et savoir au XXIe siècle, Paris, France, Mille et une nuits, 2012.↩︎
On peut voir les statistiques sur l’Open Source Contributor Index : https://opensourceindex.io/.↩︎
Simon Butler et al., « On Company Contributions to Community Open Source Software Projects », IEEE Transactions on Software Engineering, 47-7, 2021, p. 1381‑1401.↩︎
Antonio A. Casilli, En attendant les robots: enquête sur le travail du clic, Paris, France, Éditions du Seuil, 2019.↩︎
Et ils sont souvent les dindons de la farce. En Europe, la situation est équivoque. D’un côté, un espace est ouvert grâce aux dispositifs juridiques censés protéger l’économie européenne et les européens contre les effets des multinationales à l’encontre de la vie privée, au nom de la défense des consommateurs, et en faveur de la souveraineté numérique. Les logiciels libres y trouvent quelques débouchés pertinents auprès du public et des petites structures. Mais d’un autre côté, une grande part de la production libre et open source repose sur des individus et des petites entreprises, alors même que les gouvernements (et c’est particulièrement le cas en France) leur créent des conditions d’accès au marché très défavorables et privilégient les monopoles extra-européens par des jeux de partenariats entre ces derniers et les intégrateurs, largement subventionnés. Voir Jean-Paul Smets, « Confiance numérique ou autonomie, il faut choisir », in Annales des Mines, 23, La souveraineté numérique : dix ans de débat, et après ?, Paris, 2023., p. 30-38.↩︎
Même si le protocole ActivityPub pourrait être suffisamment détourné ou influencé pour ne plus assurer l’interopérabilité nécessaire. La communauté du Fediverse doit pour cela s’opposer en masse à Thread, la solution que commence à imposer l’entreprise Meta (Facebook), dans l’optique de combler le manque à gagner que représente le Fediverse par rapport aux média sociaux privateurs.↩︎
Christophe Masutti, « En passant par l’Arkansas. Ordinateurs, politique et marketing au tournant des années 1970 », Zilsel, 9-2, 2021, p. 29‑70.↩︎
On peut se reporter à cette louable tentative issue de It’s Going Down, et que nous avons publiée sur le Framablog. Il s’agit d’un livret d’auto-défense en communication numérique pour les groupes anarchistes. Bien qu’offrant un panorama complet et efficace des modes de communications et rappelant le principe de base qui consiste en fait à les éviter pour privilégier les rencontres physiques, on voit tout de même qu’elle souffre d’un certain manque de clairvoyance sur les points d’achoppement techniques et complexes qu’il serait justement profitable de partager. Voir « Infrastructures numériques de communication pour les anarchistes (et tous les autres…) », Framablog, 14 avril 2023.↩︎
Philippe Borrel, La bataille du Libre (documentaire), prod. Temps Noir, 2019, URL.↩︎
Sam Williams, Richard Stallman et Christophe Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, 1re éd., Eyrolles, 2010.↩︎
Richard Stallman (interview), « Is Free Software Anarchist? », vidéo sur Youtube.↩︎
Michel Lallement, L’âge du faire: hacking, travail, anarchie, Paris, France, Éditions Points, 2018.↩︎
Christian Imhorst, Die Anarchie der Hacker, Marburg, Tectum – Der Wissenschaftsverlag, 2011. Christian Imhorst, « Anarchie und Quellcode – Was hat die freie Software-Bewegung mit Anarchismus zu tun? », in Open Source Jahrbuch 2005, Berlin, 2005.↩︎
Dale A. Bradley, « The Divergent Anarcho-utopian Discourses of the Open Source Software Movement », Canadian Journal of Communication, 30-4, 2006, p. 585‑612.↩︎
Marie-Christine Granjon, « Les radicaux américains et le «système» », Raison présente, 28-1, 1973, p. 93‑112.↩︎
David DeLeon, The American as Anarchist: Reflections on Indigenous Radicalism, Baltimore, Johns Hopkins University Press, 2019.↩︎
Murray Bookchin, Changer sa vie sans changer le monde. L’anarchisme contemporain entre émancipation individuelle et révolution sociale, Marseille, Agone, 2019, pp. 61-63.↩︎
En 2015, c’est ce qui a permis à Bill Gates de caricaturer, sans les citer, des personnes comme Joseph Stiglitz et d’autres partisans pour une réforme des brevets (pas seulement logiciels) en sortes de néocommunistes qui avanceraient masqués. Voir cet entretien, cet article de Libération, et cette « réponse » de R. M. Stallman.↩︎
Eben Moglen, « L’anarchisme triomphant. Le logiciel libre et la mort du copyright », Multitudes, 5-2, 2001, p. 146‑183.↩︎
David Edgerton, « De l’innovation aux usages. Dix thèses éclectiques sur l’histoire des techniques », Annales. Histoire, sciences sociales, 53-4, 1998, p. 815‑837.↩︎
Clifford D. Conner, Histoire populaire des sciences, Montreuil, France, Éditions L’Échappée, 2011.↩︎
Amaelle Guiton, Hackers: au cœur de la résistance numérique, Vauvert, France, Au diable Vauvert, 2013.↩︎
« Le capitalisme est d’essence conjoncturelle. Aujourd’hui encore, une de ses grandes forces est sa facilité d’adaptation et de reconversion », Fernand Braudel, La dynamique du capitalisme, Paris, Flammarion, 2018.↩︎
Stéphane Couture, « L’écriture collective du code source informatique. Le cas du commit comme acte d’écriture », Revue d’anthropologie des connaissances, 6, 1-1, 2012, p. 21‑42.↩︎
Murray Bookchin, Changer sa vie sans changer le monde, op. cit., p. 12 et p. 10.↩︎
Comme je l’ai écrit dans un précédent billet de blog, plusieurs auteurs donnent des définitions du concept de préfiguration. À commencer par David Graeber, pour qui la préfiguration est « l’idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer ». Un peu plus de précision selon Darcy Leach pour qui la préfigurativité est « fondée sur la prémisse selon laquelle les fins qu’un mouvement social vise sont fondamentalement constituées par les moyens qu’il emploie, et que les mouvements doivent par conséquent faire de leur mieux pour incarner – ou “préfigurer” – le type de société qu’ils veulent voir advenir. ». David Graeber, Comme si nous étions déjà libres, Montréal, Canada, Lux éditeur, 2014. Darcy K. Leach, « Prefigurative Politics », in The Wiley-Blackwell Encyclopedia of Social and Political Movements, John Wiley & Sons, Ltd, 2013.↩︎
Cory Doctorow, « As Platforms Decay, Let’s Put Users First », 09 mai 2023, URL.↩︎
Kristin Ross, La forme-Commune. La lutte comme manière d’habiter, Paris, La Fabrique Editions, 2023.↩︎
Sam Dolgoff, The relevance of anarchism to modern society, Troisième édition., Tucson, AZ, See Sharp Press, 2001.↩︎
Sam Dolgoff, « Le Néo-anarchisme américain. Nouvelle gauche et gauche traditionnelle », Le Mouvement social, num. 83, 1973, p. 181‑99. « (…) intellectuels petits-bourgeois, des étudiants et des « hippies » qui constituaient l’essentiel de la nouvelle gauche ».↩︎
Thomas Swann, « Towards an anarchist cybernetics: Stafford Beer, self-organisation and radical social movements | Ephemeral Journal », Ephemera. Theory and politics in organization, 18-3, 2018, p. 427‑456.↩︎
En théorie du moins. Si on regarde de plus près l’histoire du projet Cybersyn, c’est par la force des choses que le système a aussi été utilisé comme un outil de contrôle, en particulier lorsque les tensions existaient entre les difficultés d’investissement locales et les rendements attendus au niveau national. En d’autres termes, il fallait aussi surveiller et contrôler les remontées des données, lorsqu’elles n’étaient pas en phase avec la planification. Cet aspect technocratique a vite édulcoré l’idée de la prise de décision collective locale et de la participation socialiste, et a fini par classer Cybersyn au rang des systèmes de surveillance. Hermann Schwember, qui était l’un des acteurs du projet est revenu sur ces questions l’année du coup d’État de Pinochet et peu de temps après. Hermann Schwember, « Convivialité et socialisme », Esprit, juil. 1973, vol. 426, p. 39-66. Hermann Schwember, « Cybernetics in Government: Experience With New Tools for Management in Chile 1971-1973 », In : Hartmut Bossel (dir.), Concepts and Tools of Computer Based Policy Analysis, Basel, Birkhäuser – Springer Basel AG, 1977, vol.1, p. 79-138. Pour une histoire complète, voir Eden Medina, Cybernetic Revolutionaries. Technology and Politics in Allende’s Chile, Boston, MIT Press, 2011. Et une section de mon ouvrage Christophe Masutti, Affaires privées. Aux sources du capitalisme de surveillance, Caen, C&F Éditions, 2020.↩︎
Sam Dolgoff, « Modern Technology and Anarchism », Libertarian Labor Review, 1, 1986, p. 7‑12.↩︎
Fred Turner, « Ne soyez pas malveillants. Utopies, frontières et brogrammers », Esprit, 434, mai 2019, URL.↩︎
Association Autogestion, Autogestion. L’encyclopédie internationale, Paris, Syllepse, 2019, vol. 1-11.↩︎
Un créateur passe de DC (Comics) à DP (Domaine Public)
Bill Willingham, fort mécontent de son éditeur DC Comics, décide de porter toutes ses Fables dans le Domaine Public. Il s’en explique dans un communiqué de presse du 14 septembre.
En édition, le modèle auquel nous sommes conformé·es, c’est qu’une personne qui souhaite avoir un revenu de sa plume confie le fruit de son labeur à un tiers, l’éditeur, qui se chargera de le faire fructifier et qui reversera en échange de cet accord encadré par contrat une partie des revenus générés à l’artiste. C’est ce que le droit d’auteur standard défend comme modèle.
Sauf que la réalité est bien loin de cette jolie fiction et les relations conflictuelles qui naissent au sein de l’industrie ne sont pas rares. Auteurs et autrices sont fréquemment confronté·es à des soucis avec leur « partenaire » : retards de paiements, mensonges sur les tirages, obfuscation des résultats de vente, obligation de participation gratuite au marketing, non-respect des souhaits initiaux, abus au sein des clauses contractuelles.
Bref, il arrive que le capitalisme basé sur la propriété intellectuelle ne puisse s’empêcher de traiter auteurs et autrices comme tous ses fournisseurs : comme des quantités négligeables dont il faut extraire le plus de valeur possible tout en minimisant au maximum les contreparties, quitte à profiter d’un rapport de force favorable pour ne pas honorer ses accords ou en le faisant de façon abusive. Et, comme le prouve l’histoire ci-dessous, la réaction des artistes tend parfois à la radicalité.
Nous ne pouvons déterminer exactement quelles seront les conséquences juridiques (et pratiques quant à l’usage de son univers) des décisions de Bill Willingham, surtout qu’elles prennent place en milieu anglo-saxon où la propriété intellectuelle ne relève pas des mêmes cadres juridiques qu’en France (soumise à la convention de Berne), mais il nous semblait intéressant de traduire le billet où il exprime son ras-le-bol et sa décision d’autant plus surprenante qu’il s’est toujours considéré comme un conservateur, politiquement parlant.
Vous trouverez au bas de cet article des liens qui exposent la situation des auteurs en France (spoiler alert : c’est pas brillant…).
Bill Willingham élève Fables dans le domaine public
À compter du 15 septembre 2023, la propriété de la BD Fables, ce qui inclut tous les personnages et les séries dérivées, entre dans le domaine public. Ce qui appartenait intégralement au seul Bill Willingham est désormais la propriété de tout le monde et pour toujours. C’est chose faite et comme vous le diront la plupart des spécialistes, une fois que c’est fait, pas de retour en arrière possible. Ce n’est ni possible ni envisageable.
— Pourquoi avoir fait ça ?
Pour plusieurs de raisons. Voilà un certain temps que j’y réfléchis. Donc, sans ordre particulier :
1. Sous l’angle pratique : quand j’ai signé mon premier contrat d’édition en tant qu’auteur-créateur avec DC Comics, l’entreprise était dirigée par des hommes et des femmes honnêtes et intègres. La plupart interprétaient les détails du contrat de façon équitable et transparente. Il arrivait immanquablement que des problèmes apparaissent et nous réglions ça comme des femmes et des hommes raisonnables. Depuis lors, au cours d’une vingtaine d’années à peu près, ces personnes sont parties ou ont été virées pour être remplacées par un ballet renouvelé d’inconnus sans intégrité mesurable, qui dorénavant choisissent d’interpréter chaque détail du contrat dans le seul intérêt de DC Comics et ses filiales. À une époque la propriété des Fables était entre de bonnes mains, mais maintenant, avec l’usure et le remplacement des personnels, la propriété des Fables est tombée entre de mauvaises mains.
Comme je n’ai pas les moyens d’intenter un procès à DC Comics pour les contraindre à respecter la lettre et l’esprit de nos accords de longue date, et puisque même si je gagnais un procès ça me coûterait des sommes d’argent pharamineuses et des années de ma vie (j’ai 67 ans donc pas d’années à perdre), j’ai décidé de suivre une autre voie et de combattre sur un autre front, inspiré par les principes de la guerre asymétrique.
J’ai choisi de l’offrir à tout le monde. Si je n’ai pas pu empêcher Fables de tomber entre de mauvaises mains, c’est au moins une façon de faire en sorte qu’elles tombent également entre de nombreuses bonnes mains. Puisque je crois sincèrement qu’il y a encore davantage de bonnes personnes que de mauvaises dans le monde, je considère cela comme une forme de victoire.
2. Sous l’angle philosophique : au cours de la dernière décennie, mes réflexions sur la manière de réformer les lois sur les marques et le droit d’auteur dans ce pays (et dans d’autres, je suppose) ont subi une transformation radicale. Les lois actuelles sont un méli-mélo d’accords sous la table et contraires à l’éthique visant à maintenir les marques et les droits d’auteur entre les mains de grandes entreprises, qui peuvent largement se permettre d’acheter les résultats qu’elles souhaitent.
Dans mon modèle idéal de réforme radicale de ces lois, j’aimerais qu’une propriété intellectuelle soit la propriété de son créateur d’origine pendant une période pouvant aller jusqu’à vingt ans à compter de la première publication, puis qu’elle tombe dans le domaine public pour que tous puissent l’utiliser. Cependant, à tout moment avant l’expiration de cette période de vingt ans, vous, le propriétaire de la propriété intellectuelle, pouvez la vendre à une autre personne physique ou morale, qui peut en avoir l’usage exclusif pendant une durée maximale de dix ans. C’est ainsi maintenant et il ne peut alors pas être revendu. Cela entre dans le domaine public. Toute propriété intellectuelle peut-elle être conservée à usage exclusif au maximum pendant une trentaine d’années au maximum, et pas plus, sans exception.
Bien sûr, si je dois croire à des idées aussi radicales, quel genre d’hypocrite serais-je si je ne les mettais pas en pratique ? Fables est mon bébé depuis une vingtaine d’années maintenant. Il est temps de laisser tomber. C’est mon premier test de ce processus. Si cela fonctionne, et je ne vois aucune raison légale pour laquelle cela ne fonctionnerait pas, d’autres propriétés viendront à l’avenir. Étant donné que DC, ou tout autre personne morale, n’est pas réellement propriétaire de l’œuvre, ils n’ont pas leur mot à dire dans cette décision.
— Qu’est-ce que DC Comics vous a fait au juste pour provoquer ça ?
Trop de choses pour les lister de manière exhaustive, mais voici les points essentiels. Pendant toutes ces années où j’ai été en affaires avec DC Comics, que ce soit avec Fables ou d’autres propriétés intellectuelles, DC a toujours violé ses accords avec moi. En général sur des points mineurs, comme d’oublier de me demander mon avis sur les artistes pour de nouvelles histoires, ou pour les images de couverture, les formats des nouvelles collections, etc.
À cette époque, quand on les appelait pour ça, ils répondaient à chaque fois : « Désolé, on vous a encore oublié, c’est passé entre les mailles du filet. Ils ont utilisé si souvent cette expression « passer entre les mailles » comme un automatisme que j’ai fini par leur interdire de l’employer encore. Ils sont souvent en retard pour la déclaration des royalties et les sous-estiment souvent, ce qui me force à les poursuivre pour qu’ils paient le reste de ce qu’ils me doivent.
Dernièrement, leurs pratiques sont devenues plus que pénibles, débouchant sur une espèce de confrontation. Pour commencer, ils ont essayé de m’extorquer la propriété de Fables. Lorsque Mark Doyle et Dan Didio (tout deux bons professionnels et licenciés par DC depuis) m’avaient approché avec le projet de republier Fables pour son 20e anniversaire, pendant les négociations contractuelles pour ces nouvelles parutions, leurs négociateurs juridiques ont tenté d’imposer comme condition que le travail soit réalisé comme prestataire1, transférant de fait, et irrévocablement, la propriété à DC.
Lorsque ça n’a pas fonctionné, leur excuse a été : « Désolé, nous n’avons pas lu votre contrat avant ces négociations, nous pensions que nous en étions propriétaires ».
Plus récemment, lors de discussions pour tenter de résoudre ces différends, les personnes de DC ont admis que leur interprétation de notre accord de publication et de l’accord subséquent sur les droits des médias, étaient qu’ils pouvaient faire ce que bon leur semble avec cette propriété intellectuelle. Ils pourraient changer les histoires ou les personnages à leur convenance. Ils n’auraient aucune obligation de protéger l’intégrité et la valeur de la propriété intellectuelle, d’eux-mêmes ou de parties tierces (Telltale Games par exemple) et qu’ils pourraient radicalement modifier les personnages, le cadre, le prologue de l’histoire (je suis tombé sur le script (texte) qu’ils avaient essayé de me cacher il y a quelques années). Comme une telle licence d’utilisation n’avait pas été négociée dans notre accord de publication initial, ils ne me devraient pas non plus d’argent s’ils fournissaient des droits d’usages de Fables à de tierces parties.
Puis, après avoir capitulé sur certains points lors de réunions téléphoniques suivantes, promettant de me payer l’argent qu’ils me devaient pour avoir fourni une licence de Fables à Telltale Games, dans le cadre de notre nouvel accord, ils sont revenus sur leur parole et m’ont proposé de me payer le montant comme « honoraires de consultant », ce qui leur évitait d’admettre qu’ils me devaient cet argent, tout en incluant un accord de confidentialité m’empêchant de dire quoi que ce soit de négatif à propos de Telltale ou de la licence.
On pourrait encore continuer longtemps ainsi. Il y a tant d’autres, mais comme je l’ai dit, il s’agit là de quelques points saillants. À ce moment-là, comme je n’étais pas d’accord avec toutes leurs nouvelles interprétations de nos accords de longue date, nous étions en conflit. Ils m’ont pratiquement mis au défi de les poursuivre en justice pour faire valoir mes droits, sachant que ce serait une procédure longue, débilitante et coûteuse. Au lieu de cela, j’ai commencé à envisager d’autres solutions.
— Êtes-vous inquiet de savoir ce que DC va faire maintenant ?
Non. Je leur ai donné des années pour faire ce qu’il fallait. J’ai essayé de les raisonner, mais on ne peut pas raisonner ceux qui ne sont pas raisonnables. Ils ont utilisé ces années pour faire des promesses lénifiantes, mentir sur leur volonté de résoudre le problème et faire traîner les choses le plus longtemps possible. Je leur ai donné l’occasion de renégocier les contrats de fond en comble, en formulant les choses sans ambiguïté, et ils ont ignoré cette offre. Je leur ai donné l’occasion, à deux reprises, de simplement déchirer nos contrats et de nous séparer, mais ils ont ignoré ces offres. J’ai essayé de passer par-dessus leur tête, de traiter directement avec leurs nouveaux maîtres et peut-être de trouver quelqu’un disposé à traiter de bonne foi, mais ils ont bloqué toute tentative en ce sens. (Je vous mets au défi d’essayer de demander à n’importe quel responsable de DC Comics d’indiquer à qui il rend compte dans la hiérarchie de l’entreprise). Quoi qu’il en soit, sans leur donner de détails, je les ai prévenus des mois à l’avance que ce moment allait arriver. Je leur ai dit que ce que j’allais faire serait « à la fois légal et éthique ». Et maintenant, c’est arrivé.
Notez que mes contrats avec DC Comics sont toujours en vigueur. Je n’ai rien fait pour les rompre et je ne peux pas y mettre fin unilatéralement. Je ne peux toujours pas publier les bandes dessinées Fables par l’intermédiaire de quelqu’un d’autre que DC Comics. Je ne peux toujours pas autoriser un film Fables par l’intermédiaire de quelqu’un d’autre que DC Comics. Je ne peux pas non plus concéder de licence pour des jouets, des boîtes à lunch ou quoi que ce soit d’autre. Ils doivent toujours me payer pour les livres qu’ils publient. Et je n’abandonne pas les autres sommes qu’ils me doivent. D’une manière ou d’une autre, j’ai l’intention d’obtenir mes 50 % de l’argent qu’ils me doivent depuis des années pour le jeu Telltale et d’autres projets.
De toutes façons, les nouveaux propriétaires à 100 % de Fables n’ont jamais signé de tels contrats.
Pour le meilleur et pour le pire, DC et moi sommes enchaînés par un mariage malheureux, peut-être pour toujours. Mais pas vous.
Si ma compréhension de la loi est correcte (et je préfère vous dire que la loi sur le copyright est un bazar, intentionnellement vague et trouble et qu’il n’y a pas deux avocats, même ceux spécialisés sur les lois des marques et du copyright, qui tomberaient d’accord sur ces sujets), vous avez le droit de créer vos propres films, dessins animés Fables, de publier vos libres Fables, de fabriquer vos jouets Fables, de faire ce que bon vous semble avec cette propriété, car c’est de la vôtre dont il s’agit.
Mark Buckingham est libre d’écrire sa propre version de Fables (et j’espère de tout mon cœur qu’il le fera). Steve Leialoha est libre d’écrire sa version de Fables (que j’aimerais beaucoup voir), etc. Vous n’avez pas besoin de ma permission (mais vous pouvez avoir mon aval ma bénédiction, selon votre projet). Vous n’avez pas besoin de la permission de DC ou de qui que ce soit d’autres. Vous n’avez jamais signé les accords que j’ai signés avec DC Comics.
Je possède toujours 100% de Fables. Mais maintenant, chaque homme, chaque femme et chaque enfant du monde, ainsi que tous ceux qui naîtront jusqu’à la fin des temps, possèdent également 100 % de Fables. Ce n’est pas une propriété divisée entre nous tous, c’est une propriété multipliée à l’infini entre nous tous. Plutôt cool, non ? Chaque personne possède Fables en totalité et peut décider elle-même de ce qu’elle veut en faire, le cas échéant. C’est un peu comme le miracle de la multiplication des pains et des poissons, métaphoriquement parlant, bien sûr. Quel que soit le nombre de participants, il y en a assez pour tout le monde.
J’ai eu l’immense joie et le plaisir de vous proposer les récits de Fables pendant les vingt dernières années. J’ai hâte de voir ce que vous allez en faire.
« Le comics Fables et ses différents romans graphiques publiés chez DC Comics, de même que les personnages, les histoires et les éléments qui les composent, sont la propriété de DC Comics et restent protégés par la loi des États-Unis sur le copyright et à travers le monde, en accord avec les lois appliquées sur chaque territoire, et ne font pas partie des œuvres tombées dans le domaine public.
DC conserve l’intégralité des droits et prendra les décisions nécessaires pour protéger ses droits à la propriété intellectuelle. »
Liens utiles sur la situation des auteurs en France :
IA génératives : la fin des exercices rédactionnels à l’université ?
En décembre 2022 le magazine États-unien The Atlantic titre : « The College Essay Is Dead » ( Marche, 2022 [1] ). L’auteur de l’article, écrivain, attribue un B+ à une rédaction produite avec le LLM [2] GPT-3 dans le cadre du cours de Mike Sharples, enseignant en sciences humaines. J’ai moi même attribué la note de 14/15 à un exercice rédactionnel réalisé avec ChatpGPT en février 2023 à l’UTC ( Turcs mécaniques ou magie noire ? ). Une enseignante de philosophie lui a attribué une note de 11/20 au baccalauréat ( Lellouche, 2023 [3] ).
J’ai depuis observé plusieurs cas de « triche » avec des LLM à l’UTC en 2023.
Se pose donc la question de la réaction à court terme pour les enseignants concernant les exercices rédactionnels qui sont réalisés par les étudiants à distance.
Je parlerai de LLM
Je parlerai de LLM [2] dans cet article plutôt que de ChatGPT.
ChatGPT est un outil de l’entreprise OpenIA basé sur un LLM [2] à vocation de conversation généraliste (capable d’aborder n’importe quel sujet) et le premier à avoir introduit une rupture d’usage dans ce domaine. Le problème abordé ici concerne bien cette classe d’outils, mais pas seulement ceux d’OpenIA : des outils concurrents existent à présent (certains pourront devenir plus puissants), des outils plus spécialisés existent (pour la traduction par exemple), d’autres sont probablement amenés à voir le jour (orientés vers la production de textes universitaires, pourquoi pas ?).
Les LLM [2] ne génèrent pas que des textes à la demande, ils génèrent aussi de nombreuses opinions parmi les spécialistes et les usagers ; j’essaierai de me borner aux faits présents, à ce que l’on peut raisonnablement anticiper à court terme (sans faire de science-fiction) et à la seule question de l’évaluation en contexte pédagogique (mais je n’y arriverai pas totalement…).
Je ne parlerai donc pas :
des autres enjeux pédagogiques : quel est le rôle de l’université face au développement des LLM ? doit-on former à leurs usages ? les enseignants doivent-il utiliser des LLM eux-mêmes ? est-ce que ça a du sens d’apprendre à rédiger à l’ère des LLM ?
des enjeux technico-fonctionnels : qu’est-ce que les LLM ne savent pas faire aujourd’hui ? qu’est-ce qu’on pense qu’ils ne seront jamais capables de faire ?
des enjeux politiques et éthiques : est-ce un progrès ? est-ce qu’on peut arrêter le progrès ? que penser de la dépendance croissante aux entreprises de la tech États-uniennes ? du déploiement du capitalisme de surveillance ?
des enjeux socio-écologiques : à quoi ça sert ? quels humains ça remplace ? quel est l’impact environnemental des LLM ?
des enjeux philosophiques : les LLM sont-ils neutres ? est-ce que ça dépend comment on s’en sert ? ou bien l’automatisation introduite change-t-elle radicalement notre rapport au langage et à la raison ? compléter des textes en utilisant des fonctions statistiques, est-ce penser ? qu’est-ce que l’intelligence ?
des enjeux juridiques : est-ce que les LLM respectent le droit d’auteur ? un texte produit avec un LLM est-il une création originale ?
…
TL;DR
Cet article étant un peu long, cette page en propose un résumé (TL;DR signifiant : « Too Long; Didn’t Read ») : Résumé du présent article.
Problématique et hypothèse
Problématique
Peut-on continuer à faire faire des exercices rédactionnels « à la maison » comme avant ?
Sans statuer sur la dimension de rupture des LLM — est-ce une nouvelle évolution liée au numérique qui percute le monde de la pédagogie, comme les moteurs de recherche ou Wikipédia avant elle, ou bien une révolution qui va changer radicalement les règles du jeu — il parait nécessaire de réinterroger nos pratiques : « sans sombrer dans le catastrophisme, il serait tout aussi idiot de ne pas envisager que nous sommes une nouvelle fois devant un changement absolument majeur de notre manière d’enseigner, de transmettre, et d’interagir dans un cadre éducatif, a fortiori lorsque celui-ci est asynchrone et/ou à distance. ( Ertzscheid, 2023 [6]) »
Hypothèse
L’automatisation permise par les LLM rend raisonnable une triche automatisée dont le rapport coût/bénéfice est beaucoup plus avantageux qu’une triche manuelle.
De nombreux modules universitaires comportent des exercices rédactionnels à réaliser chez soi. Ces travaux sont généralement évalués et cette évaluation compte pour la validation du module et donc in fine, pour l’attribution d’un diplôme.
Dans certains contextes, il n’y a pas d’évaluation en présentiel sans ordinateur et donc la totalité de la note peut bénéficier d’une « aide extérieure ».
Souvent à l’université la présence et/ou la participation effective des étudiants lors des cours et TD n’est pas elle-même évaluée, et parfois il n’y a pas d’examen classique, en conséquence un étudiant a la possibilité de valider un cours sans y assister en produisant des rendus écrits qualitatifs à domicile.
Cette situation pré-existe à l’arrivée des LLM, mais nous faisons l’hypothèse suivante :
sans LLM il reste un travail significatif pour se faire aider par un humain ou copier des contenus glanés sur le Web ;
sans LLM il reste un risque important d’une production de qualité insuffisante (l’humain qui a aidé ou fait à la place n’est pas assez compétent, les contenus Web copiés ont été mal sélectionnés, ou mal reformulés, etc.) ;
avec un LMM il est possible de produire un écrit standard sans aucun effort, pour exemple la copie de philo évaluée à 11 a été produite en 1,5 minute ( Lellouche, 2023 [3]).
Triche ?
J’utilise le terme de triche car si la consigne est de produire un texte original soi-même alors le faire produire par un tiers est de la triche. L’existence d’un moyen simple pour réaliser un exercice n’est pas en soi une autorisation à l’utiliser dans un contexte d’apprentissage. C’est similaire à ce qu’on peut trouver dans un contexte sportif par exemple, si vous faites une course à vélo, vous ne devez pas être aidé d’un moteur électrique.
LLM et moteurs de recherche : différence de degré ou de nature ?
J’écrivais en 2015 à propos de l’usage des moteurs de recherche ( Le syndrome de la Bibliothèque de Babel) : « La question intéressante qui se pose aux pédagogues n’est tant de savoir si l’élève va copier ou pas, s’il va « tricher ». La question est de savoir comment maintenir un travail d’élaboration d’une démarche et de production sensément originale et personnelle qui repose explicitement sur une recherche – donc une recherche sur le web – alors que la réponse à la question posée s’invite sur l’écran, formulée très exactement telle qu’attendue. C’est à peine une simplification en l’espèce de dire que la réponse a été jointe à la question, par celui même qui a posé cette question. »
Les LLM font sauter cette barrière : là où les moteurs de recherche permettaient une réponse facile à une question récurrente, les LLM permettent une réponse immédiate à une question originale.
L’évaluation de tout travail avec un ordinateur
Notons que le problème se pose pour tous les travaux rédactionnels avec ordinateur, même en présentiel ou en synchrone. En effet dès lors que l’on veut que nos exercices s’appuient sur un accès à un traitement de texte, des recherches Web ou d’autres outils numériques, alors ils ouvrent l’accès aux LLM.
Il existe des solutions humaines ou techniques de surveillance des examens pour ouvrir l’accès à certains outils seulement, mais d’une part elles posent des problèmes pratiques, éthiques et juridiques, et d’autre part les LLM s’introduisent progressivement au sein des autres outils, ainsi par exemple le moteur de recherche.
Les LLM et les étudiants
Les LLM sont utilisés par les étudiants
Lors de mes cours du semestre dernier (mars à juillet 2023), j’ai rencontré plusieurs cas d’usage de LLM.
Ces cas s’apparentent à de la triche.
Les étudiants n’ont pas facilement admis leur usage (allant dans certains cas jusqu’à nier des évidences).
Ce sont des cas d’usages stupides de la part des étudiants, car non nécessaires pour la validation du cours, sans intérêt du point de vue pédagogique, et facilement détectables.
On peut retenir les arguments principaux revendiqués par les étudiants :
Le gain de temps (même si je sais faire, « flemme » ou « retard »).
La nécessité de ne pas échouer et la peur d’être pénalisé sur le niveau d’expression écrite.
Le fait de ne pas être « sûr » de tricher (ce n’est pas explicitement interdit).
Des étudiants qui n’utilisent pas encore les LLM pour les exercices rédactionnels les utilisent plus facilement pour la traduction automatique.
UTC : Un premier étudiant utilise ChatGPT (IS03)
Au sein du cours de l’UTC IS03 (« Low-technicisation et numérique »), les étudiants doivent réaliser des notes de lecture sur la base d’articles scientifiques. Un étudiant étranger non-francophone utilise grossièrement un LLM (probablement ChatGPT) pour produire en une semaine le résumé de plusieurs dizaines de pages de lectures d’articles scientifiques difficiles et de rapports longs. J’avais donné une liste de plusieurs lectures possibles, mais n’attendais évidemment des notes que concernant un ou deux documents.
Il faut plusieurs minutes de discussion pour qu’il reconnaisse ne pas être l’auteur des notes. Mon premier argument étant sur le niveau de langue obtenue (aucune faute, très bonne expression…) l’étudiant commencera par reconnaître qu’il utilise des LLM pour corriger son français (on verra que cette « excuse » sera souvent mobilisée). Sur le volume de travail fournit, il reconnaît alors utiliser des LLM pour « résumer ».
In fine, il se justifiera en affirmant qu’il n’a pas utilisé ChatGPT mais d’autres outils (ce qui est très probablement faux, mais en l’espèce n’a pas beaucoup d’importance).
C’était un cas tout à fait « stupide », l’étudiant avait produit des notes sur près d’une dizaine de rapports et articles, sous-tendant plusieurs heures de lectures scientifiques et autant de résumés, et avait produit des énoncés sans aucune faute, tout cela en maîtrisant mal le français.
UTC : 6 cas identifiés lors de l’Api Libre Culture
Une Activité Pédagogique d’Intersemestre (Api) est un cours que les étudiants choisissent au lieu de partir en vacances, en général par intérêt, dont les conditions d’obtention sont faciles : les étudiants sont en mode stage pendant une semaine (ils ne suivent que l’Api) et leur présence régulière suffit en général pour valider le cours et obtenir les 2 crédits ECTS associés. Un devoir individuel était à réaliser sur machine pour clôturer l’Api Libre Culture de juillet 2023. Il consistait essentiellement en un retour personnel sur la semaine de formation.
Lors de ce devoir de fin d’Api, 6 étudiantes et étudiants (parmi 20 participants en tout) ont mobilisé de façon facilement visible un LLM (ChatGPT ou un autre). Pour 4 d’entre eux c’était un usage partiel (groupe 1), pour 2 d’entre eux un usage massif pour répondre à certaines questions (groupe 2). J’ai communiqué avec ces 6 personnes par mail.
3 des étudiants du groupe 1 ont avoué spontanément, en s’excusant, conscients donc d’avoir certainement transgressé les règles de l’examen. La 4e personne a reconnu les faits après que j’ai insisté (envoi d’un second mail en réponse à un premier mail de déni).
Pour les 2 étudiants du groupe 2 :
le premier n’a reconnu les faits qu’après plusieurs mails et que je lui aie montré l’historique d’un pad (traitement de texte en ligne) qui comportait un copie/coller évident de ChatGPT.
le second, étudiant étranger parlant très bien français, n’a jamais vraiment reconnu les faits, s’en tenant à un usage partiel « pour s’aider en français » (loin de ce que j’ai constaté).
À noter qu’aucun étudiant ne niait avoir utilisé un LLM, leur défense était un usage non déterminant pour s’aider à formuler des choses qu’ils avaient produites eux-mêmes.
Pour les deux étudiants du groupe 2, j’ai décidé de ne pas valider l’Api, ils n’ont donc pas eu les crédits qu’ils auraient eu facilement en me rendant un travail de leur fait, même de faible niveau. Ils n’ont pas contesté ma décision, l’un des deux précisera même : « d’autant plus que j’ai déjà les compétences du fait du cours suivi dans un semestre précédent ».
Un étudiant en Nouvelle-Zélande reconnaît utiliser ChatGPT
« In May, a student in New Zealand confessed to using AI to write their papers, justifying it as a tool like Grammarly or spell-check: “I have the knowledge, I have the lived experience, I’m a good student, I go to all the tutorials and I go to all the lectures and I read everything we have to read but I kind of felt I was being penalised because I don’t write eloquently and I didn’t feel that was right,” they told a student paper in Christchurch. They don’t feel like they’re cheating, because the student guidelines at their university state only that you’re not allowed to get somebody else to do your work for you. GPT-3 isn’t “somebody else”—it’s a program. » ( Marche, 2022 [1] )
On note les deux arguments principaux produits :
je l’utilise car je ne suis pas très fort à l’écrit et je ne trouve pas normal que cela ma pénalise ;
ce n’est pas clairement interdit à l’université.
J’ai interviewé des collégiens et lycéens
ChatGPT est déjà utilisé au collège et au lycée : surtout par les « mauvais » élèves (selon les bons élèves)…
…et par les bons élèves occasionnellement, mais pour une « bonne raison » : manque de temps, difficultés rencontrées, etc.
Des outils d’IA dédiés à la traduction sont plus largement utilisés, y compris par les bons élèves.
À l’école « l’échec c’est mal » donc le plus important est de rendre un bon devoir (voire un devoir parfait).
Cet article fait suite à « Turcs mécaniques ou magie noire ? » un autre article écrit en janvier sur la base d’un test de ChatGPT à qui j’avais fait passer un de mes examens. Pour mémoire ChatGPT obtenait selon ma correction 14/15 à cet examen second, égalité donc avec les meilleurs étudiants du cours.
B+ à un exercice rédactionnel en Grande-Bretagne
En mai 2022, Mike Sharples utilise le LLM [2] GPT-3 pour produire une rédaction dans le cadre de son cours de pédagogie ( Sharples, 2022 [7] ). Il estime qu’un étudiant qui aurait produit ce résultat aurait validé son cours. Il en conclut que les LLM sont capables de produire des travaux rédactionnels du niveau attendu des étudiants et qu’il faut revoir nos façons d’évaluer (et même, selon lui, nos façons d’enseigner).
Le journaliste et écrivain qui rapport l’expérience dans The Antlantic attribue un B+ à la rédaction mise à disposition par Mike Sharples ( Marche, 2022 [1] ).
11 au bac de philo
ChatGPT s’est vu attribué la note de 11/20 par une correctrice (qui savait qu’elle corrigeait le produit d’une IA) au bac de philosophie 2023. Le protocole n’est pas rigoureux, mais le plus important, comme le note l’article de Numerama ( Lellouche, 2023 [3] ) c’est que le texte produit est loin d’être nul, alors même que le LLM n’est pas spécifiquement programmé pour cet exercice. Un « GPTphilo » aurait indubitablement obtenu une meilleure note, et la version 2024 aura progressé. Probablement pas assez pour être capable de réaliser de vraie productions de philosophe, mais certainement assez pour être capable de rendre caduque un tel exercice d’évaluation (s’il était réalisé à distance avec un ordinateur).
66% de réussite dans le cadre d’une étude comparative
Farazouli et al. ( 2023 [8] ) ont mené un travail plus rigoureux pour évaluer dans quelle mesure ChatGPT est capable de réussir dans le cadre de travaux réalisés à la maison, et quelles conséquences cela a sur les pratiques d’évaluation. 22 enseignants ont eu à corriger 6 copies dont 3 étaient des copies ChatGPT et 3 des copies d’étudiants ayant préalablement obtenu les notes A, C et E (pour 4 de ces enseignants, ils n’avaient que 5 copies dont 2 écrites avec ChatGPT).
« ChatGPT achieved a high passing grade rate of more than 66% in home examination questions in the fields of humanities, social sciences and law. »
Dont :
1 travail noté A sans suspicion que c’était une copie ChatGPT ;
4 rendus notés B, dont 1 seul était suspecté d’avoir été réalisé avec ChatGPT.
On observe des disparités assez importantes en fonction des domaines :
Les notes obtenues par ChatGPT ont été meilleures en philosophie et en sociologie et moins bonnes en droits et en éducation
F
E
D
C
B
A
Philosophie
3
2
7
6
3
0
Droit
9
4
0
2
0
0
Sociologie
6
6
1
1
3
1
Éducation
5
2
0
1
0
0
Remarque
On observe une grande disparité dans les évaluations d’un même travail (humain ou ChatGPT) par des évaluateurs différents (de F à A), ce qui interroge sur le protocole suivi et/ou sur la nature même de l’évaluation.
Corriger c’était déjà chiant…
La plupart des enseignants s’accordent sur le fait que le plus ennuyeux dans leur métier est la correction des travaux étudiants. Savoir que l’on corrige potentiellement des travaux qui n’ont même pas été produits par les étudiants est tout à fait démobilisant…
« La question c’est celle d’une dilution exponentielle des heuristiques de preuve. Celle d’une loi de Brandolini dans laquelle toute production sémiotique, par ses conditions de production même (ces dernières étant par ailleurs souvent dissimulées ou indiscernables), poserait la question de l’énergie nécessaire à sa réfutation ou à l’établissement de ses propres heuristiques de preuve. » ( Ertzscheid, 2023 [6] ).
Il est coûteux pour un évaluateur de détecter du ChatGPT
Prenons un exemple, Devereaux ( 2023 [9] ) nous dit qu’il devrait être facile pour un évaluateur de savoir si une source existe ou non. Il prend cet exemple car ChatGPT produit des références bibliographiques imaginaires.
C’est en effet possible, mais ce n’est pas « facile », au sens où si vous avez beaucoup de rédactions avec beaucoup de références à lire, cela demande un travail important et a priori inutile ; lors de la correction de l’exercice de ChatGPT ( Turcs mécaniques ou magie noire ?), je me suis moi-même « fait avoir » y compris avec un auteur que je connaissais très bien : je ne connaissais pas les ouvrages mentionnés, mais les titres et co-auteurs était crédibles (et l’auteur prolifique !).
C’est aussi un bon exemple de limite conjoncturelle de l’outil, il paraît informatiquement assez facile de coupler un LLM avec des bases de données bibliographiques pour produire des références à des sources qui soient existantes. La détection ne supposera pas seulement de vérifier que la référence existe mais qu’on soit capable de dire à quel point elle est utilisée à propos. Le correcteur se retrouve alors plus proche d’une posture de révision d’article scientifique, ce qui suppose un travail beaucoup plus important, de plusieurs heures contre plusieurs minutes pour la correction d’un travail d’étudiant.
À quoi sert la rédaction à l’école ?
À quoi sert la rédaction à l’école ?
L’exercice rédactionnel est un moyen pour faire travailler un contenu, mais c’est surtout un moyen pour les étudiants d’apprendre à travailler leur raisonnement.
On peut penser que la généralisation de l’usage de LLM conduise à la perte de compétences à l’écrit, mais surtout à la perte de capacités de raisonnement, pour lesquelles l’écrit est un mode d’entraînement
Pourquoi faire écrire ?
Bret Devereaux ( 2023 [9] ) s’est posé la même question — à quoi sert un exercice rédactionnel ( « teaching essay ») — dans le même contexte de l’arrivée de ChatGPT ? Il propose trois fonctions pour cet exercice.
L’exercice est un moyen pour travailler (chercher, lire, explorer, étudier…) un contenu tiers (histoire, idée…) : l’usage de ChatGPT rend l’exercice totalement inutile, mais on peut assez facilement imaginer d’autres façon de faire travailler le contenu.
L’exercice est un moyen d’apprendre à faire des rédactions : l’usage de ChatGPT rend aussi l’exercice inutile, mais une part importante des étudiants n’aura plus à produire de rédaction en dehors de l’école.
L’exercice est un moyen d’apprendre à mettre en forme des idées par écrit. Ici encore l’usage de ChatGPT rend l’exercice inutile, puisque bien entendu, le résultat final obtenu n’a aucune importance (le contenu sera détruit après usage), et que seul compte le processus suivi (analyse des idées, organisation…). On peut considérer que l’usage d’un LLM est ici plus dommageable en ce sens qu’apprendre à penser via l’exercice rédactionnel est un processus d’apprentissage assez fondamental.
Exemple
Un étudiant qui a utilisé ChatGPT pour un exercice rédactionnel à l’UTC m’a transmis un de ses exemples d’usage, pour me montrer qu’il n’avait pas « triché » puisque le contenu venait de lui.
Il a ainsi donné en entrée à ChatGPT le texte suivant : « Le droit d’auteur, est une licence qui protège les œuvres artistiques et intellectuelles, genre les bouquins, les musiques, les films ou les tableaux. Ça donne aux créateurs le pouvoir de décider comment on peut utiliser, copier ou diffuser leur travail, et ça leur assure d’être reconnus comme ceux qui l’ont créé. »
Si l’on demande une reformulation à ChatGPT on obtient : « Le droit d’auteur est une forme de protection légale qui s’applique aux œuvres artistiques et intellectuelles, telles que les livres, la musique, les films et les œuvres d’art. Il accorde aux créateurs le pouvoir de contrôler l’utilisation, la reproduction et la diffusion de leur travail, tout en garantissant qu’ils soient reconnus en tant que créateurs de ces œuvres. »
On observe une correction de style, mais aussi une correction de fond. Le droit d’auteur n’est pas une « licence » (cette phrase n’a pas de sens) comme l’écrit l’étudiant, mais bien « une forme de protection légale » . En outre le même texte écrit avec beaucoup de fautes ressortira parfaitement écrit en français (l’étudiant qui m’écrivait avait certainement déjà corrigé préalablement son texte car le mail qui l’accompagnait comportait beaucoup de fautes d’orthographe et de formulation).
Si ChatGPT peut l’écrire, ça ne sert à rien ?
Un argument que produit Bret Devereaux et pas mal d’autres commentateurs devant les résultats obtenus par ChatGPT est le suivant : si une machine y arrive c’est que l’exercice est sans intérêt. « If your essay prompt can be successfully answered using nothing but vague ChatGPT generated platitudes, it is a bad prompt » ( Devereaux, 2023 [9] ).
C’est discutable :
Cette assertion suppose que l’exercice n’avait pas de sens en soi, même s’il était pratiqué avec intérêt avant, et la preuve qui est donnée est qu’une machine peut le faire. On peut faire l’analogie avec le fait de s’entraîner à faire de la course à pied à l’ère de la voiture (des arts martiaux à l’ère du fusil, du jardinage à l’ère de l’agriculture industrielle, etc.), ce n’est pas parce qu’une machine peut réaliser une tâche qu’il est inutile pour un humain de s’entraîner à la réaliser.
Farazouli et al. ( 2023 [8]) relèvent que les qualités mise en avant par les évaluateurs après correction de copies produites par ChatGPT étaient notamment : la qualité du langage, la cohérence, et la créativité. Dans certains contextes les productions de ChatGPT ne sont donc pas évaluées comme médiocres.
Ce que ChatGPT ne fait pas bien
À l’inverse Farazouli et al. ( 2023 [8] ) ont identifié des lacunes dans l’argumentation, le manque de références au cours et au contraire la présence de contenus extérieurs au cours.
La faiblesse argumentative est peut-être un défaut intrinsèque au sens où la mécanique statistique des LLM ne serait pas capable de simuler certains raisonnements. En revanche on note que le manque de références au cours et la présence de références extérieures est discutable (ça peut rester un moyen de détecter, mais c’est un assez mauvais objectif en soi).
En premier cycle universitaire on ne souhaite pas en général cette relation étroite au cours (il existe plusieurs approches, et un étudiant qui ferait le travail par lui-même serait tout à fait dans son rôle).
En second cycle, cela peut être le cas lorsque le cours porte sur un domaine en lien avec la recherche de l’enseignant typiquement. Mais la recherche est en général publiée et le LLM peut tout à fait être entraîné sur ces données et donc « connaître » ce domaine.
À quoi servent les évaluations à l’école ?
L’évaluation joue un double rôle : l’évaluation formative sert à guider l’apprenant (elle a vocation à lui rendre service), tandis que l’évaluation sommative joue un rôle de certification (elle a vocation à rendre service à un tiers).
Or on est souvent en situation de confusion de ces deux fonctions et cela conduit l’apprenant à se comporter comme s’il était en situation d’évaluation sommative et à chercher à maximiser ses résultats.
On note en particulier :
la fonction de classement entre les élèves des notes ;
la confusion entre l’exercice rédactionnel comme moyen (c’est le processus qui compte) ou comme fin (c’est le résultat qui compte).
Certifier (évaluation sommative) afin de statuer sur les acquis, valider un module de cours, délivrer un diplôme ; cette évaluation se situe après la formation.
Réguler (évaluation formative) afin de guider l’apprenant dans son processus d’apprentissage ; cette évaluation se situe pendant la formation.
Orienter (évaluation diagnostique) afin d’aider à choisir les modalités d’étude les plus appropriées en fonction des intérêts, des aptitudes et de l’acquisition des pré-requis ; cette évaluation se situe avant la formation (et en cela l’évaluation diagnostique se distingue bien de l’évaluation sommative en ce qu’elle se place avant la formation du point de vue de l’évaluateur).
« L’évaluation survient souvent à un moment trop précoce par rapport au processus d’apprentissage en cours ( Astofi, 1992 [11]) ».
C’est un défaut du contrôle continu, arrivant tôt, dès le début du cours même, il nous place d’emblée en posture sommative. Celui qui ne sait pas encore faire est donc potentiellement stressé par l’évaluation dont il refuse ou minore la dimension formative.
Entraîner ou arbitrer ? (confusion des rôles)
« Les fonctions d’entraîneur et d’arbitre sont trop souvent confondues. C’est toujours celle d’entraîneur dont le poids est minoré. ( Astofi, 1992 [11]) »
« Il reste à articuler les deux logiques de l’évaluation, dont l’une exige la confiance alors que l’autre oppose évaluateur et évalué ( Perrenoud, 1997 [12]) ».
Cette confusion des temps entraîne une confusion des rôles : l’enseignant est toujours de fait un certificateur, celui qui permet la validation du cours, la poursuite des études, l’orientation…
Se faire confiance
La question de la confiance au sein de la relation apprenant-enseignant était également relevée par Farazouli et al. ( 2023 [8] ) qui insistait sur la dégradation potentielle introduite par les LLM :
« The presence of AI chatbots may prompt teachers to ask “who has written the text?” and thereby question students’ authorship, potentially reinforcing mistrust at the core of teacher–student relationship »
Évaluation des compétences
Philippe Perrenoud ( 1997 [12]) défend une approche par compétences qui s’écarte d’une « comparaison entre les élèves » pour se diriger vers une comparaison entre « ce que l’élève a fait, et qu’il ferait s’il était plus compétent ». L’auteur souligne que ce système est moins simple et moins économique : « l’évaluation par les compétences ne peut qu’être complexe, personnalisée, imbriquée au travail de formation proprement dit ». Il faut, nous dit-il, renoncer à organiser un « examen de compétence en plaçant tous les concurrents sur la même ligne ».
Cet éloignement à la fonction de classement est intéressante à interroger. La fonction de classement des évaluations n’est pas, en général, revendiquée comme telle, mais elle persiste à travers les notes (A, B, C, D, E), la courbe de Gauss attendue de la répartition de ces notes, le taux de réussite, d’échec, de A. Ces notes ont également une fonction de classement pour l’accès à des semestres d’étude à l’étranger par exemple, ou pour des stages.
Il ne s’agit donc pas seulement de la fonction formative et de l’apprenant face à sa note.
La tâche n’est qu’un prétexte
« La tâche n’est qu’un prétexte », nous rappelle Philippe Meirieu ( Meirieu, 2004 [13]), pour s’exercer en situation d’apprentissage ou pour vérifier qu’on a acquis certaines habiletés.
Il est déterminant de différencier les deux situations :
dans le premier cas on peut travailler à apprendre avec l’apprenant sans se focaliser sur ce qu’on produit ;
dans le second, en revanche, cas l’énergie de l’apprenant est concentrée sur le résultat, il cherche à se conformer aux attentes de l’évaluation.
On oublie que la tâche n’est qu’un prétexte, le « livrable » qu’on demande est un outil et non un objectif, dans l’immense majorité des cas la dissertation ne sera pas lue pour ce qu’elle raconte, mais uniquement pour produire une évaluation. La résolution du problème de mathématique ou le compte-rendu d’expérience de chimie ne revêt aucun intérêt en soi, puisque, par construction, le lecteur connaît déjà la réponse. C’est à la fois une évidence et quelque chose que le processus évaluatif fait oublier, et in fine, c’est bien au résultat qui est produit que l’étudiant, comme souvent l’enseignant, prête attention, plutôt qu’au processus d’apprentissage.
Évaluation des moyens mis en œuvre et non d’un niveau atteint
À travers l’étude des travaux de Joseph Jacotot, Jacques Rancière ( 1987 [14]) propose que ce qui compte n’est pas ce qu’on apprend mais le fait qu’on apprenne et qu’on sache que l’on peut apprendre, avec sa propre intelligence. Le « maître ignorant » n’est pas celui qui transmet le savoir, il est celui qui provoque l’engagement de l’apprenant, qui s’assure qu’il y a engagement. Selon ce dispositif, la notion même d’évaluation sommative n’est pas possible, puisque le maître est ignorant de ce que l’élève apprend (Jacotot enseigne ainsi les mathématiques ou la musique dont il n’a pas la connaissance).
Cette approche pourrait inspirer à l’évaluation un rôle de suivi de l’engagement (présence, travail…) décorrélé de toute évaluation de résultat : présence et participation en cours et en TD. Notons que le système ECTS [15] est déjà basé sur une charge de travail requise (25 à 30 heures pour 1 crédit).
Remise en question de l’évaluation sommative
L’évaluation via des examens et des notes est un processus peu fiable, en témoignent les variations que l’on observe entre différents évaluateurs, et les variations dans le temps observées auprès d’un même évaluateur ( Hadji, 1989 [10]). On peut donc minorer l’importance de la fonction certifiante de certaines notes. Or les notes coûtent cher à produire par le temps et l’attention qu’elles exigent des enseignants et des apprenants.
On peut donc se poser la question du supprimer, ou diminuer, l’évaluation sommative. Cela pour une partie des enseignements au moins, quitte à garder des espaces sommatifs pour répondre à des nécessités de classement ou certification.
Qu’est-ce qu’on peut faire maintenant ?
Interdire l’usage des LLM par défaut dans le règlement des études (en sachant que ça va devenir difficile d’identifier quand ils sont mobilisés) ?
Utiliser des moyens techniques de détection de fraude (et entrer dans une « course à l’armement ») ?
Améliorer nos exercices rédactionnel pour « échapper aux LLM » tout en restant en veille sur ce qu’ils savent adresser de nouveau ?
Renoncer aux travaux rédactionnels évalués à la maison ?
Évaluer uniquement en fin de module, voire en dehors des modules et/ou procéder à des évaluations de compétence individuelles ?
Organiser des évaluations certifiantes en dehors des cours (évaluation de compétences, examens transversaux…) ?
Diminuer la pression sur les étudiants et modifier le contrat pédagogique passé avec eux ?
Simplifier la notation, ne conserver que les résultats admis ou non admis, pour évacuer toute idée de classement ?
Passer d’une obligation de résultat à une obligation de moyen, c’est à dire valider les cours sur la base de la présence ?
Ne plus du tout évaluer certains cours (en réfléchissant contextuellement à la fonction de l’évaluation sommative) ?
Interdire ChatGPT ?
« And that’s the thing: in a free market, a competitor cannot simply exclude a disruptive new technology. But in a classroom, we can absolutely do this thing ( Devereaux, 2023 [9]) »
C’est vrai, et le règlement des études peut intégrer cette interdiction a priori. Mais les LLM vont s’immiscer au sein de tous les outils numériques, a commencer par les moteurs de recherche, et cela va être difficile de maintenir l’usage d’outils numériques sans LLM.
Utiliser des moyens techniques de détection de fraude ?
Des systèmes de contrôle dans le contexte de l’évaluation à distance ou des logiciels anti-plagiat existent, mais :
cela pose des problèmes de surveillance et d’intrusion dans les machines des apprenants ;
cela suppose une « course à l’armement » entre les systèmes de détection et les systèmes de triche.
Il faut des résultats fiables pour être en mesure d’accuser un étudiant de fraude.
Adapter nos exercices et rester en veille ?
« Likewise, poorly designed assignments will be easier for students to cheat on, but that simply calls on all of us to be more careful and intentional with our assignment design ( Devereaux, 2023 [9]). »
Certains exercices pourront être en effet aménagés pour rendre plus difficile l’usage de LLM. On peut avoir une exigence argumentative plus élevée et/ou poser des questions plus complexes (en réfléchissant à pourquoi on ne le faisait pas avant, ce qui doit être modifié pour atteindre ce nouvel objectif, etc.). On peut augmenter le niveau d’exigence demandé (en réfléchissant au fait que cela puisse exclure des étudiants, au fait qu’il faille relâcher d’autres exercices par ailleurs…).
Mais pour certains exercices ce ne sera pas possible (thème et version en langue par exemple). Et de plus cela implique une logique de veille active entre la conception de ces exercices et l’évolution rapide des capacités des outils qui intégreront des LLM.
Renoncer aux travaux à la maison (ou à leur évaluation)
On peut décider de ne plus évaluer les travaux réalisés à la maison.
On peut alors imaginer plusieurs formes de substitution : retour aux devoirs sur table et sans ordinateur, passage à l’oral…
Évaluer en dehors des cours ?
On peut imaginer :
des évaluations certifiantes totalement en dehors des cours (sur le modèle du TOEIC ou du baccalauréat, par exemple pour les langues donc, pour l’expression française, pour des connaissances dans certains domaines, des compétences rédactionnelles…) ;
des évaluations certifiantes calées uniquement en fin d’UV (examen final de sortie de cours, avec éventuellement rattrapage, sans plus aucune note intermédiaire) ;
des évaluations de compétences individuelles (intéressantes pédagogiquement, mais coûteuses à organiser et demandant des compétences avancées de la part des évaluateurs).
Diminuer la pression sur les étudiants ?
Le contrat ECTS est très exigeant. 30 crédits par semestre c’est 750 à 900 heures attendues de travail en 16 semaines, vacances comprises, soit 45h à 55h par semaine. Plus la pression sur le temps est importante plus la tentation de tricher est grande.
On peut imaginer de renouer un contrat pédagogique d’un autre ordre avec les étudiants, fondé sur la confiance réciproque et la recherche de leur intérêt.
Simplifier la notation (pass or fail) ?
L’UTC a connu un système à 3 notes : « admis », « non admis » et « mention » (équivalent à A). Dans ce système, on prête moins d’attention à la fonction sommative des évaluations. Si un apprenant obtient une note suffisante à un premier examen par exemple, il sait qu’il validera le module et il n’a pas d’intérêt particulier à optimiser ses autres évaluations sommatives.
Passer d’une obligation de résultat à une obligation de moyen ?
De fait certains cours sont mobilisés pour la validation du diplôme, voire la sélection et le classement des étudiants, et d’autres comptent très peu pour cet objectif en pratique.
Certains cours pourraient donc être exclus du processus d’évaluation sommative (comme en formation professionnelle). On économiserait le temps de travail d’évaluation sommative qui pourrait être réinvesti ailleurs. Quelques étudiants en profiteraient certainement pour « passer au travers » de certains contenus, il faudrait pouvoir évaluer dans quelle mesure cela serait pire qu’aujourd’hui.
Renoncer à noter ? (pourquoi note-t-on ?)
Certains cours, sinon tous, pourraient donc échapper totalement à la notation.
À quelle fin évalue-t-on les étudiants dans une école qui a sélectionné à l’entrée comme l’UTC ?
Pour valider que les étudiants ont été « bien » sélectionnés ?
Pour les « forcer » à travailler ?
Pour faire « sérieux » ?
Pour répondre aux demandes d’organismes de certification du diplôme ?
[2] – LLM (Large Language Model) : Les grands modèles de langage (ou LLM, pour « Large Language Model ») sont des mécanismes d’Intelligence Artificielle. Une de leurs applications les plus connues est la génération de textes ou d’images. L’ouverture au public de ChatGPT, en novembre 2022, a popularisé cette application. Chaque grande entreprise de l’informatique sort désormais son propre modèle, son propre LLM.
[8] – Farazouli Alexandra, Cerratto-Pargman Teresa, Bolander-Laksov Klara, McGrath Cormac. 2023. Hello GPT! Goodbye home examination? An exploratory study of AI chatbots impact on university teachers’ assessment practicesHello GPT! Goodbye home examination?. in Assessment & Evaluation in Higher Education. vol.0 n°0 pp1-13.https://doi.org/10.1080/02602938.2023.2241676.
[10] – Hadji C.. 1989. L’évaluation, règles du jeu: des intentions aux outils. ESF.
[11] – Astolfi Jean-Pierre. 1992. L’école pour apprendre: l’élève face aux savoirsL’école pour apprendre. ESF.
[12] – Perrenoud Philippe. 1997. Construire des compétences dès l’école. ESF.
[13] – Meirieu Philippe. 2004. Faire l’école, faire la classe: démocratie et pédagogieFaire l’école, faire la classe. ESF.
[14] – Rancière Jacques. 1987. Le maître ignorant: cinq leçons sur l’émancipation intellectuelleLe maître ignorant. Fayard.
[15] – ECTS (European Credit Transfer and accumulation System). Le système européen de transfert et d’accumulation de crédits a pour objectif de faciliter la comparaison des programmes d’études au sein des différents pays européens. Le système ECTS s’applique principalement à la formation universitaire. Il a remplacé le système des unités de valeur (UV) jusque-là utilisé en France. wikipedia.org
Voilà ce qui arrive quand on se met à lire vraiment les politiques de confidentialité
Une récente polémique sur la capacité de Zoom à entraîner des intelligences artificielles avec les conversations des utilisateurs montre l’importance de lire les petits caractères
Bonjour, je m’appelle Aaron Sankin, je suis journaliste d’investigation à The Markup. J’écris ici pour vous expliquer que si vous faites quelque chose de très pénible (lire les documents dans lesquels les entreprises expliquent ce qu’elles peuvent faire avec vos données), vous pourrez ensuite faire quelque chose d’un peu drôle (piquer votre crise en ligne).
Au cours du dernier quart de siècle, les politiques de protection de la vie privée – ce langage juridique long et dense que l’on parcourt rapidement avant de cliquer sans réfléchir sur « J’accepte » – sont devenues à la fois plus longues et plus touffues. Une étude publiée l’année dernière a montré que non seulement la longueur moyenne des politiques de confidentialité a quadruplé entre 1996 et 2021, mais qu’elles sont également devenues beaucoup plus difficiles à comprendre.
Voici ce qu’a écrit Isabel Wagner, professeur associé à l’université De Montfort, qui a utilisé l’apprentissage automatique afin d’analyser environ 50 000 politiques de confidentialité de sites web pour mener son étude :
« En analysant le contenu des politiques de confidentialité, nous identifions plusieurs tendances préoccupantes, notamment l’utilisation croissante de données de localisation, l’exploitation croissante de données collectées implicitement, l’absence de choix véritablement éclairé, l’absence de notification efficace des modifications de la politique de confidentialité, l’augmentation du partage des données avec des parties tierces opaques et le manque d’informations spécifiques sur les mesures de sécurité et de confidentialité »
Si l’apprentissage automatique peut être un outil efficace pour comprendre l’univers des politiques de confidentialité, sa présence à l’intérieur d’une politique de confidentialité peut déclencher un ouragan. Un cas concret : Zoom.
En début de semaine dernière, Zoom, le service populaire de visioconférence devenu omniprésent lorsque les confinements ont transformé de nombreuses réunions en présentiel en réunions dans de mini-fenêtres sur des mini-écrans d’ordinateurs portables, a récemment fait l’objet de vives critiques de la part des utilisateurs et des défenseurs de la vie privée, lorsqu’un article du site d’actualités technologiques Stack Diary a mis en évidence une section des conditions de service de l’entreprise indiquant qu’elle pouvait utiliser les données collectées auprès de ses utilisateurs pour entraîner l’intelligence artificielle.
Le contrat d’utilisation stipulait que les utilisateurs de Zoom donnaient à l’entreprise « une licence perpétuelle, non exclusive, libre de redevances, susceptible d’être cédée en sous-licence et transférable » pour utiliser le « Contenu client » à des fins diverses, notamment « de marketing, d’analyse des données, d’assurance qualité, d’apprentissage automatique, d’intelligence artificielle, etc.». Cette section ne précisait pas que les utilisateurs devaient d’abord donner leur consentement explicite pour que l’entreprise puisse le faire.
Une entreprise qui utilise secrètement les données d’une personne pour entraîner un modèle d’intelligence artificielle est particulièrement controversée par les temps qui courent. L’utilisation de l’IA pour remplacer les acteurs et les scénaristes en chair et en os est l’un des principaux points d’achoppement des grèves en cours qui ont paralysé Hollywood. OpenAI, la société à l’origine de ChatGPT, a fait l’objet d’une vague de poursuites judiciaires l’accusant d’avoir entraîné ses systèmes sur le travail d’écrivains sans leur consentement. Des entreprises comme Stack Overflow, Reddit et X (le nom qu’Elon Musk a décidé de donner à Twitter) ont également pris des mesures énergiques pour empêcher les entreprises d’IA d’utiliser leurs contenus pour entraîner des modèles sans obtenir elles-mêmes une part de l’activité.
La réaction en ligne contre Zoom a été féroce et immédiate, certaines organisations, comme le média Bellingcat, proclamant leur intention de ne plus utiliser Zoom pour les vidéoconférences. Meredith Whittaker, présidente de l’application de messagerie Signal spécialisée dans la protection de la vie privée, a profité de l’occasion pour faire de la publicité :
« HUM : Les appels vidéo de @signalapp fonctionnent très bien, même avec une faible bande passante, et ne collectent AUCUNE DONNÉE SUR VOUS NI SUR LA PERSONNE À QUI VOUS PARLEZ ! Une autre façon tangible et importante pour Signal de s’engager réellement en faveur de la vie privée est d’interrompre le pipeline vorace de surveillance des IA. »
Zoom, sans surprise, a éprouvé le besoin de réagir.
Dans les heures qui ont suivi la diffusion de l’histoire, le lundi même, Smita Hashim, responsable des produits chez Zoom, a publié un billet de blog visant à apaiser des personnes qui craignent de voir leurs propos et comportements être intégrés dans des modèles d’entraînement d’IA, alors qu’elles souhaitent virtuellement un joyeux anniversaire à leur grand-mère, à des milliers de kilomètres de distance.
« Dans le cadre de notre engagement en faveur de la transparence et du contrôle par l’utilisateur, nous clarifions notre approche de deux aspects essentiels de nos services : les fonctions d’intelligence artificielle de Zoom et le partage de contenu avec les clients à des fins d’amélioration du produit », a écrit Mme Hashim. « Notre objectif est de permettre aux propriétaires de comptes Zoom et aux administrateurs de contrôler ces fonctions et leurs décisions, et nous sommes là pour faire la lumière sur la façon dont nous le faisons et comment cela affecte certains groupes de clients ».
Mme Hashim écrit que Zoom a mis à jour ses conditions d’utilisation pour donner plus de contexte sur les politiques d’utilisation des données par l’entreprise. Alors que le paragraphe sur Zoom ayant « une licence perpétuelle, non exclusive, libre de redevances, pouvant faire l’objet d’une sous-licence et transférable » pour utiliser les données des clients pour « l’apprentissage automatique, l’intelligence artificielle, la formation, les tests » est resté intact [N de T. cependant cette mention semble avoir disparu dans la version du 11 août 2023], une nouvelle phrase a été ajoutée juste en dessous :
« Zoom n’utilise aucun Contenu client audio, vidéo, chat, partage d’écran, pièces jointes ou autres communications comme le Contenu client (tels que les résultats des sondages, les tableaux blancs et les réactions) pour entraîner les modèles d’intelligence artificielle de Zoom ou de tiers. »
Dans son billet de blog, Mme Hashim insiste sur le fait que Zoom n’utilise le contenu des utilisateurs que pour former l’IA à des produits spécifiques, comme un outil qui génère automatiquement des résumés de réunions, et seulement après que les utilisateurs auront explicitement choisi d’utiliser ces produits. « Un exemple de service d’apprentissage automatique pour lequel nous avons besoin d’une licence et de droits d’utilisation est notre analyse automatisée des invitations et des rappels de webinaires pour s’assurer que nous ne sommes pas utilisés involontairement pour spammer ou frauder les participants », écrit-elle. « Le client est propriétaire de l’invitation au webinaire et nous sommes autorisés à fournir le service à partir de ce contenu. En ce qui concerne l’IA, nous n’utilisons pas de contenus audios, de vidéos ou de chats pour entraîner nos modèles sans le consentement du client. »
La politique de confidentialité de Zoom – document distinct de ses conditions de service – ne mentionne l’intelligence artificielle ou l’apprentissage automatique que dans le contexte de la fourniture de « fonctions et produits intelligents (sic), tels que Zoom IQ ou d’autres outils pour recommander le chat, le courrier électronique ou d’autres contenus ».
Pour avoir une idée de ce que tout cela signifie, j’ai échangé avec Jesse Woo, un ingénieur spécialisé en données de The Markup qui, en tant qu’avocat spécialisé dans la protection de la vie privée, a participé à la rédaction de politiques institutionnelles d’utilisation des données.
M. Woo explique que, bien qu’il comprenne pourquoi la formulation des conditions d’utilisation de Zoom touche un point sensible, la mention suivant laquelle les utilisateurs autorisent l’entreprise à copier et à utiliser leur contenu est en fait assez standard dans ce type d’accord d’utilisation. Le problème est que la politique de Zoom a été rédigée de manière à ce que chacun des droits cédés à l’entreprise soit spécifiquement énuméré, ce qui peut sembler beaucoup. Mais c’est aussi ce qui se passe lorsque vous utilisez des produits ou des services en 2023, désolé, bienvenue dans le futur !
Pour illustrer la différence, M. Woo prend l’exemple de la politique de confidentialité du service de vidéoconférence concurrent Webex, qui stipule ce qui suit : « Nous ne surveillerons pas le contenu, sauf : (i) si cela est nécessaire pour fournir, soutenir ou améliorer la fourniture des services, (ii) pour enquêter sur des fraudes potentielles ou présumées, (iii) si vous nous l’avez demandé ou autorisé, ou (iv) si la loi l’exige ou pour exercer ou protéger nos droits légaux ».
Cette formulation semble beaucoup moins effrayante, même si, comme l’a noté M. Woo, l’entraînement de modèles d’IA pourrait probablement être mentionné par une entreprise sous couvert de mesures pour « soutenir ou améliorer la fourniture de services ».
L’idée que les gens puissent paniquer si les données qu’ils fournissent à une entreprise dans un but évident et simple (comme opérer un appel de vidéoconférence) sont ensuite utilisées à d’autres fins (comme entraîner un algorithme) n’est pas nouvelle. Un rapport publié par le Forum sur le futur de la vie privée (Future of Privacy Forum), en 2018, avertissait que « le besoin de grandes quantités de données pendant le développement en tant que « données d’entraînement » crée des problèmes de consentement pour les personnes qui pourraient avoir accepté de fournir des données personnelles dans un contexte commercial ou de recherche particulier, sans comprendre ou s’attendre à ce qu’elles soient ensuite utilisées pour la conception et le développement de nouveaux algorithmes. »
Pour Woo, l’essentiel est que, selon les termes des conditions de service initiales, Zoom aurait pu utiliser toutes les données des utilisateurs qu’elle souhaitait pour entraîner l’IA sans demander leur consentement et sans courir de risque juridique dans ce processus.
Ils sont actuellement liés par les restrictions qu’ils viennent d’inclure dans leurs conditions d’utilisation, mais rien ne les empêche de les modifier ultérieurement. Jesse Woo, ingénieur en données chez The Markup
« Tout le risque qu’ils ont pris dans ce fiasco est en termes de réputation, et le seul recours des utilisateurs est de choisir un autre service de vidéoconférence », explique M. Woo. « S’ils avaient été intelligents, ils auraient utilisé un langage plus circonspect, mais toujours précis, tout en proposant l’option du refus, ce qui est une sorte d’illusion de choix pour la plupart des gens qui n’exercent pas leur droit de refus. »
Changements futurs mis à part, il y a quelque chose de remarquable dans le fait qu’un tollé public réussisse à obtenir d’une entreprise qu’elle déclare officiellement qu’elle ne fera pas quelque chose d’effrayant. L’ensemble de ces informations sert d’avertissement à d’autres sur le fait que l’entraînement de systèmes d’IA sur des données clients sans leur consentement pourrait susciter la colère de bon nombre de ces clients.
Les conditions d’utilisation de Zoom mentionnent la politique de l’entreprise en matière d’intelligence artificielle depuis le mois de mars, mais cette politique n’a attiré l’attention du grand public que la semaine dernière. Ce décalage suggère que les gens ne lisent peut-être pas les données juridiques, de plus en plus longues et de plus en plus denses, dans lesquelles les entreprises expliquent en détail ce qu’elles font avec vos données.
Heureusement, Woo et Jon Keegan, journalistes d’investigation sur les données pour The Markup, ont récemment publié un guide pratique (en anglais) indiquant comment lire une politique de confidentialité et en identifier rapidement les parties importantes, effrayantes ou révoltantes.
l’installation « I Agree » de l’artiste Dima Yarovinsky qui en 2018 a imprimé les conditions d’utilisation de WhatsApp, Google, Tinder, Twitter, Facebook, Snapchat et Instagram et les a ensuite accrochées dans une galerie en précisant le nombre de mots de chaque document et son temps de lecture.
David Revoy, un artiste face aux IA génératives
Depuis plusieurs années, Framasoft est honoré et enchanté des illustrations que lui fournit David Revoy, comme sont ravi⋅es les lectrices et lecteurs qui apprécient les aventures de Pepper et Carrot et les graphistes qui bénéficient de ses tutoriels. Ses créations graphiques sont sous licence libre (CC-BY), ce qui est un choix courageux compte tenu des « éditeurs » dépourvus de scrupules comme on peut le lire dans cet article.
Cet artiste talentueux autant que généreux explique aujourd’hui son embarras face aux IA génératives et pourquoi son éthique ainsi que son processus créatif personnel l’empêchent de les utiliser comme le font les « IArtistes »…
Intelligence artificielle : voici pourquoi je n’utiliserai pas pour mes créations artistiques de hashtag #HumanArt, #HumanMade ou #NoAI
par David REVOY
« C’est cool, vous avez utilisé quel IA pour faire ça ? »
« Son travail est sans aucun doute de l’IA »
« C’est de l’art fait avec de l’IA et je trouve ça déprimant… »
… voilà un échantillon des commentaires que je reçois de plus en plus sur mon travail artistique.
Et ce n’est pas agréable.
Dans un monde où des légions d’IArtistes envahissent les plateformes comme celles des médias sociaux, de DeviantArt ou ArtStation, je remarque que dans l’esprit du plus grand nombre on commence à mettre l’Art-par-IA et l’art numérique dans le même panier. En tant qu’artiste numérique qui crée son œuvre comme une vraie peinture, je trouve cette situation très injuste. J’utilise une tablette graphique, des layers (couches d’images), des peintures numériques et des pinceaux numériques. J’y travaille dur des heures et des heures. Je ne me contente pas de saisir au clavier une invite et d’appuyer sur Entrée pour avoir mes images.
C’est pourquoi j’ai commencé à ajouter les hashtags #HumanArt puis #HumanMade à mes œuvres sur les réseaux sociaux pour indiquer clairement que mon art est « fait à la main » et qu’il n’utilise pas Stable Diffusion, Dall-E, Midjourney ou n’importe quel outil de génération automatique d’images disponible aujourd’hui. Je voulais clarifier cela pour ne plus recevoir le genre de commentaires que j’ai cités au début de mon intro. Mais quel est le meilleur hashtag pour cela ?
Je ne savais pas trop, alors j’ai lancé un sondage sur mon fil Mastodon
Résultats
Sur 954 personnes qui ont voté (je les remercie), #HumanMade l’emporte par 55 % contre 30 % pour #HumanArt. Mais ce qui m’a fait changer d’idée c’est la diversité et la richesse des points de vue que j’ai reçus en commentaires. Bon nombre d’entre eux étaient privés et donc vous ne pouvez pas les parcourir. Mais ils m’ont vraiment fait changer d’avis sur la question. C’est pourquoi j’ai décidé de rédiger cet article pour en parler un peu.
Critiques des hashtags #HumanMade et #HumanArt
Tout d’abord, #HumanArt sonne comme une opposition au célèbre tag #FurryArt de la communauté Furry. Bien vu, ce n’est pas ce que je veux.
Et puis #HumanMade est un choix qui a été critiqué parce que l’IA aussi était une création humaine, ce qui lui faisait perdre sa pertinence. Mais la plupart des personnes pouvaient facilement comprendre ce que #HumanMade signifierait sous une création artistique. Donc 55 % des votes était un score cohérent.
J’ai aussi reçu pas mal de propositions d’alternatives comme #HandCrafted, #HandMade, #Art et autres suggestions.
Le succès de #NoAI
J’ai également reçu beaucoup de suggestions en faveur du hashtag #NoAI, ainsi que des variantes plus drôles et surtout plus crues. C’était tout à fait marrant, mais je n’ai pas l’intention de m’attaquer à toute l’intelligence artificielle. Certains de ses usages qui reposent sur des jeux de données éthiques pourraient à l’avenir s’avérer de bons outils. J’y reviendrai plus loin dans cet article.
De toutes façons, j’ai toujours essayé d’avoir un état d’esprit « favorable à » plutôt que « opposé à » quelque chose.
C’est aux artistes qui utilisent l’IA de taguer leur message
Ceci est revenu aussi très fréquemment dans les commentaires. Malheureusement, les IArtistes taguent rarement leur travail, comme on peut le voir sur les réseaux sociaux, DeviantArt ou ArtStation. Et je les comprends, vu le nombre d’avantages qu’ils ont à ne pas le faire.
Pour commencer, ils peuvent se faire passer pour des artistes sans grand effort. Ensuite, ils peuvent conférer à leur art davantage de légitimité à leurs yeux et aux yeux de leur public. Enfin, ils peuvent probablement éviter les commentaires hostiles et les signalements des artistes anti-IA des diverses plateformes.
Je n’ai donc pas l’espoir qu’ils le feront un jour. Je déteste cette situation parce qu’elle est injuste.
Mais récemment j’ai commencé à apprécier ce comportement sous un autre angle, dans la mesure où ces impostures pourraient ruiner tous les jeux de données et les modèles d’apprentissage : les IA se dévorent elles-mêmes.
Quand David propose de saboter les jeux de données… 😛
Pas de hashtag du tout
La dernière suggestion que j’ai fréquemment reçue était de ne pas utiliser de hashtag du tout.
En effet, écrire #HumanArt, #HumanMade ou #NoAI signalerait immédiatement le message et l’œuvre comme une cible de qualité pour l’apprentissage sur les jeux de données à venir. Comme je l’ai écrit plus haut, obtenir des jeux de données réalisées par des humains est le futur défi des IA. Je ne veux surtout pas leur faciliter la tâche.
Il m’est toujours possible d’indiquer mon éthique personnelle en écrivant « Œuvre réalisée sans utilisation de générateur d’image par IA qui repose sur des jeux de données non éthiques » dans la section d’informations de mon profil de média social, ou bien d’ajouter simplement un lien vers l’article que j’écris en ce moment même.
Conclusion et considérations sur les IA
J’ai donc pris ma décision : je n’utiliserai pour ma création artistique aucun hashtag, ni #HumanArt, ni #HumanMade, ni #NoAI.
Je continuerai à publier en ligne mes œuvres numériques, comme je le fais depuis le début des années 2000.
Je continuerai à tout publier sous une licence permissive Creative Commons et avec les fichiers sources, parce que c’est ainsi que j’aime qualifier mon art : libre et gratuit.
Malheureusement, je ne serai jamais en mesure d’empêcher des entreprises dépourvues d’éthique de siphonner complètement mes collections d’œuvres. Le mal est en tout cas déjà fait : des centaines, voire des milliers de mes illustrations et cases de bandes dessinées ont été utilisées pour entraîner leurs IA. Il est facile d’en avoir la preuve (par exemple sur haveibeentrained.com ou bien en parcourant le jeu de données d’apprentissage Laion5B).
Je ne suis pas du tout d’accord avec ça.
Quelles sont mes possibilités ? Pas grand-chose… Je ne peux pas supprimer mes créations une à une de leur jeu de données. Elles ont été copiées sur tellement de sites de fonds d’écran, de galeries, forums et autres projets. Je n’ai pas les ressources pour me lancer là-dedans. Je ne peux pas non plus exclure mes créations futures des prochaines moissons par scans. De plus, les méthodes de protection comme Glaze me paraissent une piètre solution au problème, je ne suis pas convaincu. Pas plus que par la perspective d’imposer des filigranes à mes images…
Ne vous y trompez pas : je n’ai rien contre la technologie des IA en elle-même.On la trouve partout en ce moment. Dans le smartphones pour améliorer les photos, dans les logiciels de 3D pour éliminer le « bruit » des processeurs graphiques, dans les outils de traduction [N. de T. la présente traduction a en effet été réalisée avec l’aide DeepL pour le premier jet], derrière les moteurs de recherche etc. Les techniques de réseaux neuronaux et d’apprentissage machine sur les jeux de données s’avèrent très efficaces pour certaines tâches.
Les projets FLOSS (Free Libre and Open Source Software) eux-mêmes comme GMIC développent leurs propres bibliothèques de réseaux neuronaux. Bien sûr elles reposeront sur des jeux de données éthiques. Comme d’habitude, mon problème n’est pas la technologie en elle-même. Mon problème, c’est le mode de gouvernance et l’éthique de ceux qui utilisent de telles technologies.
Pour ma part, je continuerai à ne pas utiliser d’IA génératives dans mon travail (Stable Diffusion, Dall-E, Midjourney et Cie). Je les ai expérimentées sur les médias sociaux par le passé, parfois sérieusement, parfois en étant impressionné, mais le plus souvent de façon sarcastique .
Je n’aime pas du tout le processus des IA…
Quand je crée une nouvelle œuvre, je n’exprime pas mes idées avec des mots.
Quand je crée une nouvelle œuvre, je n’envoie pas l’idée par texto à mon cerveau.
C’est un mixage complexe d’émotions, de formes, de couleurs et de textures. C’est comme saisir au vol une scène éphémère venue d’un rêve passager rendant visite à mon cerveau. Elle n’a nul besoin d’être traduite en une formulation verbale. Quand je fais cela, je partage une part intime de mon rêve intérieur. Cela va au-delà des mots pour atteindre certaines émotions, souvenirs et sensations.
Avec les IA, les IArtistes se contentent de saisir au clavier un certains nombre de mots-clés pour le thème. Ils l’agrémentent d’autres mots-clés, ciblent l’imitation d’un artiste ou d’un style. Puis ils laissent le hasard opérer pour avoir un résultat. Ensuite ils découvrent que ce résultat, bien sûr, inclut des émotions sous forme picturale, des formes, des couleurs et des textures. Mais ces émotions sont-elles les leurs ou bien un sous-produit de leur processus ? Quoi qu’il en soit, ils peuvent posséder ces émotions.
Les IArtistes sont juste des mineurs qui forent dans les œuvres d’art générées artificiellement, c’est le nouveau Readymade numérique de notre temps. Cette technologie recherche la productivité au moindre coût et au moindre effort. Je pense que c’est très cohérent avec notre époque. Cela fournit à beaucoup d’écrivains des illustrations médiocres pour les couvertures de leurs livres, aux rédacteurs pour leurs articles, aux musiciens pour leurs albums et aux IArtistes pour leurs portfolios…
Je comprends bien qu’on ne peut pas revenir en arrière, ce public se sent comme empuissanté par les IA. Il peut finalement avoir des illustrations vite et pas cher. Et il va traiter de luddites tous les artistes qui luttent contre ça…
Mais je vais persister ici à déclarer que personnellement je n’aime pas cette forme d’art, parce qu’elle ne dit rien de ses créateurs. Ce qu’ils pensent, quel est leur goût esthétique, ce qu’ils ont en eux-mêmes pour tracer une ligne ou donner tel coup de pinceau, quelle lumière brille en eux, comment ils masquent leurs imperfections, leurs délicieuses inexactitudes en les maquillant… Je veux voir tout cela et suivre la vie des personnes, œuvre après œuvre.