L’IA Open Source existe-t-elle vraiment ?

À l’heure où tous les mastodontes du numérique, GAFAM comme instituts de recherche comme nouveaux entrants financés par le capital risque se mettent à publier des modèles en masse (la plateforme Hugging Face a ainsi dépassé le million de modèles déposés le mois dernier), la question du caractère « open-source » de l’IA se pose de plus en plus.

Ainsi, l’Open Source Initiative (OSI) vient de publier une première définition de l’IA Open-Source, et la Linux Foundation (dont le nom peut prêter à confusion, mais qui ne représente surtout qu’une oligarchie d’entreprises du secteur) s’interroge également sur le terme.

Au milieu de tout cela, OpenAI devient de manière assez prévisible de moins en moins « open », et si Zuckerberg et Meta s’efforcent de jouer la carte de la transparence en devenant des hérauts de l’« IA Open-Source », c’est justement l’OSI qui leur met des bâtons dans les roues en ayant une vision différente de ce que devrait être une IA Open-Source, avec en particulier un pré-requis plus élevé sur la transparence des données d’entraînement.

Néanmoins, la définition de l’OSI, si elle embête un peu certaines entreprises, manque selon la personne ayant écrit ce billet (dont le pseudo est « tante ») d’un élément assez essentiel, au point qu’elle se demande si « l’IA open source existe-t-elle vraiment ? ».

Note : L’article originel a été publié avant la sortie du texte final de l’OSI, mais celui-ci n’a semble t-il pas changé entre la version RC1 et la version finale.

L’IA Open Source existe-t-elle vraiment ?

Par tante, sous licence CC BY-SA (article originel).
Une traduction Framalang par tcit et deux contributeur·ices anonymes.
Photo de la bannière par Robert Couse-Baker.

 

 

L’Open Source Initiative (OSI) a publié la RC1 (« Release Candidate 1 » signifiant : cet écrit est pratiquement terminé et sera publié en tant que tel à moins que quelque chose de catastrophique ne se produise) de la « Définition de l’IA Open Source ».

D’aucuns pourraient se demander en quoi cela est important. Plein de personnes écrivent sur l’IA, qu’est-ce que cela apporte de plus ? C’est la principale activité sur LinkedIn à l’heure actuelle. Mais l’OSI joue un rôle très particulier dans l’écosystème des logiciels libres. En effet, l’open source n’est pas seulement basé sur le fait que l’on peut voir le code, mais aussi sur la licence sous laquelle le code est distribué : Vous pouvez obtenir du code que vous pouvez voir mais que vous n’êtes pas autorisé à modifier (pensez au débat sur la publication récente de celui de WinAMP). L’OSI s’est essentiellement chargée de définir parmi les différentes licences utilisées partout lesquelles sont réellement « open source » et lesquelles sont assorties de restrictions qui sapent cette idée.

C’est très important : le choix d’une licence est un acte politique lourd de conséquences. Elle peut autoriser ou interdire différents modes d’interaction avec un objet ou imposer certaines conditions d’utilisation. La célèbre GPL, par exemple, vous permet de prendre le code mais vous oblige à publier vos propres modifications. D’autres licences n’imposent pas cette exigence. Le choix d’une licence a des effets tangibles.

Petit aparté : « open source » est déjà un terme un peu problématique, c’est (à mon avis) une façon de dépolitiser l’idée de « Logiciel libre ». Les deux partagent certaines idées, mais là où « open source » encadre les choses d’une manière plus pragmatique « les entreprises veulent savoir quel code elles peuvent utiliser », le logiciel libre a toujours été un mouvement plus politique qui défend les droits et la liberté de l’utilisateur. C’est une idée qui a probablement été le plus abimée par les figures les plus visibles de cet espace et qui devraient aujourd’hui s’effacer.

Qu’est-ce qui fait qu’une chose est « open source » ? L’OSI en dresse une courte liste. Vous pouvez la lire rapidement, mais concentrons-nous sur le point 2 : le code source :

Le programme doit inclure le code source et doit permettre la distribution du code source et de la version compilée. Lorsqu’une quelconque forme d’un produit n’est pas distribuée avec le code source, il doit exister un moyen bien connu d’obtenir le code source pour un coût de reproduction raisonnable, de préférence en le téléchargeant gratuitement sur Internet. Le code source doit être la forme préférée sous laquelle un programmeur modifierait le programme. Le code source délibérément obscurci n’est pas autorisé. Les formes intermédiaires telles que la sortie d’un préprocesseur ou d’un traducteur ne sont pas autorisées.
Open Source Initiative

Pour être open source, un logiciel doit donc être accompagné de ses sources. D’accord, ce n’est pas surprenant. Mais les rédacteurs ont vu pas mal de conneries et ont donc ajouté que le code obfusqué (c’est-à-dire le code qui a été manipulé pour être illisible) ou les formes intermédiaires (c’est-à-dire que vous n’obtenez pas les sources réelles mais quelque chose qui a déjà été traité) ne sont pas autorisés. Très bien. C’est logique. Mais pourquoi les gens s’intéressent-ils aux sources ?

Les sources de la vérité

L’open source est un phénomène de masse relativement récent. Nous avions déjà des logiciels, et même certains pour lesquels nous ne devions pas payer. À l’époque, on les appelait des « Freeware », des « logiciels gratuits ». Les freewares sont des logiciels que vous pouvez utiliser gratuitement mais dont vous n’obtenez pas le code source. Vous ne pouvez pas modifier le programme (légalement), vous ne pouvez pas l’auditer, vous ne pouvez pas le compléter. Mais il est gratuit. Et il y avait beaucoup de cela dans ma jeunesse. WinAMP, le lecteur audio dont j’ai parlé plus haut, était un freeware et tout le monde l’utilisait. Alors pourquoi se préoccuper des sources ?

Pour certains, il s’agissait de pouvoir modifier les outils plus facilement, surtout si le responsable du logiciel ne travaillait plus vraiment dessus ou commençait à ajouter toutes sortes de choses avec lesquelles ils n’étaient pas d’accord (pensez à tous ces logiciels propriétaires que vous devez utiliser aujourd’hui pour le travail et qui contiennent de l’IA derrière tous les autres boutons). Mais il n’y a pas que les demandes de fonctionnalités. Il y a aussi la confiance.

Lorsque j’utilise un logiciel, je dois faire confiance aux personnes qui l’ont écrit. Leur faire confiance pour qu’ils fassent du bon travail, pour qu’ils créent des logiciels fiables et robustes. Qu’ils n’ajoutent que les fonctionnalités décrites dans la documentation et rien de caché, de potentiellement nuisible.

Les questions de confiance sont de plus en plus importantes, d’autant plus qu’une grande partie de notre vie réelle repose sur des infrastructures numériques. Nous savons tous que nos infrastructures doivent comporter des algorithmes de chiffrement entièrement ouverts, évalués par des pairs et testés sur le terrain, afin que nos communications soient à l’abri de tout danger.

L’open source est – en particulier pour les systèmes et infrastructures critiques – un élément clé de l’établissement de cette confiance : Parce que vous voulez que (quelqu’un) soit en mesure de vérifier ce qui se passe. On assiste depuis longtemps à une poussée en faveur d’une plus grande reproductibilité des processus de construction. Ces processus de compilation garantissent essentiellement qu’avec le même code d’entrée, on obtient le même résultat compilé. Cela signifie que si vous voulez savoir si quelqu’un vous a vraiment livré exactement ce qu’il a dit, vous pouvez le vérifier. Parce que votre processus de construction créerait un artefact identique.

Logo du projet Reproducible builds
Le projet Reproducible builds cherche à promouvoir la reproductibilité des systèmes libres, pour plus de transparence.
Le projet est notamment financé par le Sovereign Tech Fund.

 

Bien entendu, tout le monde n’effectue pas ce niveau d’analyse. Et encore moins de personnes n’utilisent que des logiciels issus de processus de construction reproductibles – surtout si l’on considère que de nombreux logiciels ne sont pas compilés aujourd’hui. Mais les relations sont plus nuancées que le code et la confiance est une relation : si vous me parlez ouvertement de votre code et de la manière dont la version binaire a été construite, il me sera beaucoup plus facile de vous faire confiance. Savoir ce que contient le logiciel que j’exécute sur la machine qui contient également mes relevés bancaires ou mes clés de chiffrement.

Mais quel est le rapport avec l’IA ?

Les systèmes d’IA et les 4 libertés

Les systèmes d’IA sont un peu particuliers. En effet, les systèmes d’IA – en particulier les grands systèmes qui fascinent tout le monde – ne contiennent pas beaucoup de code par rapport à leur taille. La mise en œuvre d’un réseau neuronal se résume à quelques centaines de lignes de Python, par exemple. Un « système d’IA » ne consiste pas seulement en du code, mais en un grand nombre de paramètres et de données.

Un LLM moderne (ou un générateur d’images) se compose d’un peu de code. Vous avez également besoin d’une architecture de réseau, c’est-à-dire de la configuration des neurones numériques utilisés et de la manière dont ils sont connectés. Cette architecture est ensuite paramétrée avec ce que l’on appelle les « poids » (weights), qui sont les milliards de chiffres dont vous avez besoin pour que le système fasse quelque chose. Mais ce n’est pas tout.

Pour traduire des syllabes ou des mots en nombres qu’une « IA » peut consommer, vous avez besoin d’une intégration, une sorte de table de recherche qui vous indique à quel « jeton » (token) correspond le nombre « 227 ». Si vous prenez le même réseau neuronal mais que vous lui appliquez une intégration différente de celle avec laquelle il a été formé, tout tomberait à l’eau. Les structures ne correspondraient pas.

Représentation d'une puce informatique sous la forme d'un cerveau.
Image sous CC BY par Mike MacKenzie & Liam Huang

Ensuite, il y a le processus de formation, c’est-à-dire le processus qui a créé tous les « poids ». Pour entraîner une « IA », vous lui fournissez toutes les données que vous pouvez trouver et, après des millions et des milliards d’itérations, les poids commencent à émerger et à se cristalliser. Le processus de formation, les données utilisées et la manière dont elles le sont sont essentiels pour comprendre les capacités et les problèmes d’un système d’apprentissage automatique : si vous voulez réduire les dommages dans un réseau, vous devez savoir s’il a été formé sur Valeurs Actuelles ou non, pour donner un exemple.

Et c’est là qu’est le problème.

L’OSI « The Open Source AI Definition – 1.0-RC1 » exige d’une IA open source qu’elle offre quatre libertés à ses utilisateurs :

  1. Utiliser le système à n’importe quelle fin et sans avoir à demander la permission.
  2. Étudier le fonctionnement du système et inspecter ses composants.
  3. Modifier le système dans n’importe quel but, y compris pour changer ses résultats.
  4. Partager le système pour que d’autres puissent l’utiliser, avec ou sans modifications, dans n’importe quel but.

Jusqu’ici tout va bien. Cela semble raisonnable, n’est-ce pas ? Vous pouvez inspecter, modifier, utiliser et tout ça. Génial. Tout est couvert dans les moindre détails, n’est-ce pas ? Voyons rapidement ce qu’un système d’IA doit offrir. Le code : Check. Les paramètres du modèle (poids, configurations) : Check ! Nous sommes sur la bonne voie. Qu’en est-il des données ?

Informations sur les données : Informations suffisamment détaillées sur les données utilisées pour entraîner le système, de manière à ce qu’une personne compétente puisse construire un système substantiellement équivalent. Les informations sur les données sont mises à disposition dans des conditions approuvées par l’OSI.

En particulier, cela doit inclure (1) une description détaillée de toutes les données utilisées pour la formation, y compris (le cas échéant) des données non partageables, indiquant la provenance des données, leur portée et leurs caractéristiques, la manière dont les données ont été obtenues et sélectionnées, les procédures d’étiquetage et les méthodes de nettoyage des données ; (2) une liste de toutes les données de formation accessibles au public et l’endroit où les obtenir ; et (3) une liste de toutes les données de formation pouvant être obtenues auprès de tiers et l’endroit où les obtenir, y compris à titre onéreux.
Open Source Initiative

Que signifie « informations suffisamment détaillées » ? La définition de l’open source ne parle jamais de « code source suffisamment détaillé ». Vous devez obtenir le code source. Tout le code source. Et pas sous une forme obscurcie ou déformée. Le vrai code. Sinon, cela ne veut pas dire grand-chose et ne permet pas d’instaurer la confiance.

La définition de l’« IA Open Source » donnée par l’OSI porte un grand coup à l’idée d’open source : en rendant une partie essentielle du modèle (les données d’entraînement) particulière de cette manière étrange et bancale, ils qualifient d’« open source » toutes sortes de choses qui ne le sont pas vraiment, sur la base de leur propre définition de ce qu’est l’open source et de ce à quoi elle sert.

Les données d’apprentissage d’un système d’IA font à toutes fins utiles partie de son « code ». Elles sont aussi pertinentes pour le fonctionnement du modèle que le code littéral. Pour les systèmes d’IA, elles le sont probablement encore plus, car le code n’est qu’une opération matricielle générique avec des illusions de grandeur.

L’OSI met une autre cerise sur le gâteau : les utilisateurs méritent une description des « données non partageables » qui ont été utilisées pour entraîner un modèle. Qu’est-ce que c’est ? Appliquons cela au code à nouveau : si un produit logiciel nous donne une partie essentielle de ses fonctionnalités simplement sous la forme d’un artefact compilé et nous jure ensuite que tout est totalement franc et honnête, mais que le code n’est pas « partageable », nous n’appellerions pas ce logiciel « open source ». Parce qu’il n’ouvre pas toutes les sources.

Une « description » de données partiellement « non partageables » vous aide-t-elle à reproduire le modèle ? Non. Vous pouvez essayer de reconstruire le modèle et il peut sembler un peu similaire, mais il est significativement différent. Cela vous aide-t-il d’« étudier le système et d’inspecter ses composants » ? Seulement à un niveau superficiel. Mais si vous voulez vraiment analyser ce qu’il y a dans la boîte de statistiques magiques, vous devez savoir ce qu’il y a dedans. Qu’est-ce qui a été filtré exactement, qu’est-ce qui est entré ?

Cette définition semble très étrange venant de l’OSI, n’est-ce pas ? De toute évidence, cela va à l’encontre des idées fondamentales de ce que les gens pensent que l’open source est et devrait être. Alors pourquoi le faire ?

L’IA (non) open source

Voici le truc. À l’échelle où nous parlons aujourd’hui de ces systèmes statistiques en tant qu’« IA », l’IA open source ne peut pas exister.

De nombreux modèles plus petits ont été entraînés sur des ensembles de données publics explicitement sélectionnés et organisés. Ceux-ci peuvent fournir toutes les données, tout le code, tous les processus et peuvent être appelés IA open-source. Mais ce ne sont pas ces systèmes qui font s’envoler l’action de NVIDIA.

Ces grands systèmes que l’on appelle « IA » – qu’ils soient destinés à la génération d’images, de texte ou multimodaux – sont tous basés sur du matériel acquis et utilisé illégalement. Parce que les ensembles de données sont trop volumineux pour effectuer un filtrage réel et garantir leur légalité. C’est tout simplement trop.

Maintenant, les plus naïfs d’entre vous pourraient se demander : « D’accord, mais si vous ne pouvez pas le faire légalement, comment pouvez-vous prétendre qu’il s’agit d’une entreprise légitime ? » et vous auriez raison, mais nous vivons aussi dans un monde étrange où l’espoir qu’une innovation magique et / ou de l’argent viendront de la reproduction de messages Reddit, sauvant notre économie et notre progrès.

L’« IA open source » est une tentative de « blanchir » les systèmes propriétaires. Dans leur article « Repenser l’IA générative open source : l’openwashing et le règlement sur l’IA de l’UE », Andreas Liesenfeld et Mark Dingemanse ont montré que de nombreux modèles d’IA « Open-Source » n’offrent guère plus que des poids de modèles ouverts. Signification : Vous pouvez faire fonctionner la chose mais vous ne savez pas vraiment ce que c’est.

Cela ressemble à quelque chose que nous avons déjà eu : c’est un freeware. Les modèles open source que nous voyons aujourd’hui sont des blobs freeware propriétaires. Ce qui est potentiellement un peu mieux que l’approche totalement fermée d’OpenAI, mais seulement un peu.

Certains modèles proposent des fiches de présentation du modèle ou d’autres documents, mais la plupart vous laissent dans l’ignorance. Cela s’explique par le fait que la plupart de ces modèles sont développés par des entreprises financées par le capital-risque qui ont besoin d’une voie théorique vers la monétisation.

L’« open source » est devenu un autocollant comme le « Commerce équitable », quelque chose qui donne l’impression que votre produit est bon et digne de confiance. Pour le positionner en dehors du diabolique espace commercial, en lui donnant un sentiment de proximité. « Nous sommes dans le même bateau » et tout le reste. Mais ce n’est pas le cas. Nous ne sommes pas dans le même bateau que Mark fucking Zuckerberg, même s’il distribue gratuitement des poids de LLM parce que cela nuit à ses concurrents. Nous, en tant que personnes normales vivant sur cette planète qui ne cesse de se réchauffer, ne sommes avec aucune de ces personnes.

Photo d'un sticker où il est marqué « Open-Source Fuck Yeah ».
Les libristes adorent pourtant les stickers. Image sous CC BY-SA par Kirsten Comandich.

Mais il y a un autre aspect à cette question, en dehors de redorer l’image des grands noms de la technologie et de leurs entreprises. Il s’agit de la légalité. Au moins en Allemagne, il existe des exceptions à certaines lois qui concernent normalement les auteurs de LLM : si vous le faites à des fins de recherche, vous êtes autorisé à récupérer pratiquement n’importe quoi. Vous pouvez ensuite entraîner des modèles et publier ces poids, et même s’il y a des contenus de Disney là-dedans, vous n’avez rien à craindre. C’est là que l’idée de l’IA open source joue un rôle important : il s’agit d’un moyen de légitimer un comportement probablement illégal par le biais de l’openwashing : en tant qu’entreprise, vous prenez de l’« IA open source » qui est basée sur tous les éléments que vous ne seriez pas légalement autorisé à toucher et vous l’utilisez pour construire votre produit. Faites de l’entraînement supplémentaire avec des données sous licence, par exemple.

L’Open Source Initiative a attrapé le syndrome FOMO (N.d.T : Fear of Missing Out) – tout comme le jury du prix Nobel. Elle souhaite également participer à l’engouement pour l’« IA ».

Mais pour les systèmes que nous appelons aujourd’hui « IA », l’IA open source n’est pas possible dans la pratique. En effet, nous ne pourrons jamais télécharger toutes les données d’entraînement réelles.

« Mais tante, nous n’aurons jamais d’IA open source ». C’est tout à fait exact. C’est ainsi que fonctionne la réalité. Si vous ne pouvez pas remplir les critères d’une catégorie, vous n’appartenez pas à cette catégorie. La solution n’est pas de changer les critères. C’est comme jouer aux échecs avec les pigeons.

 




IA génératives : la fin des exercices rédactionnels à l’université ?

Stéphane Crozat est membre de Framasoft, auteur de « Traces » et de « Les libres », et surtout, enseignant à l’Université de Technologie de Compiègne (UTC). Il nous livre ci-dessous une réflexion personnelle – initialement publiée sur son blog – au sujet de l’usage des LLM (ChatGPT ou autre) dans les travaux des étudiant⋅es.

IA génératives : la fin des exercices rédactionnels à l’université ?

visage de Stéphane CrozatEn décembre 2022 le magazine États-unien The Atlantic titre : « The College Essay Is Dead » ( Marche, 2022 [1] ). L’auteur de l’article, écrivain, attribue un B+ à une rédaction produite avec le LLM [2] GPT-3 dans le cadre du cours de Mike Sharples, enseignant en sciences humaines. J’ai moi même attribué la note de 14/15 à un exercice rédactionnel réalisé avec ChatpGPT en février 2023 à l’UTC ( Turcs mécaniques ou magie noire ? ). Une enseignante de philosophie lui a attribué une note de 11/20 au baccalauréat ( Lellouche, 2023 [3] ).

J’ai depuis observé plusieurs cas de « triche » avec des LLM à l’UTC en 2023.

Se pose donc la question de la réaction à court terme pour les enseignants concernant les exercices rédactionnels qui sont réalisés par les étudiants à distance.

Je parlerai de LLM

Je parlerai de LLM [2] dans cet article plutôt que de ChatGPT.

ChatGPT est un outil de l’entreprise OpenIA basé sur un LLM [2] à vocation de conversation généraliste (capable d’aborder n’importe quel sujet) et le premier à avoir introduit une rupture d’usage dans ce domaine. Le problème abordé ici concerne bien cette classe d’outils, mais pas seulement ceux d’OpenIA : des outils concurrents existent à présent (certains pourront devenir plus puissants), des outils plus spécialisés existent (pour la traduction par exemple), d’autres sont probablement amenés à voir le jour (orientés vers la production de textes universitaires, pourquoi pas ?).

On pourra lire, par exemple, Bortzmeyer, 2023 [4] ou Tiernan, 2020 [5] pour plus d’informations.

Je ne parlerai pas de…

Les LLM [2] ne génèrent pas que des textes à la demande, ils génèrent aussi de nombreuses opinions parmi les spécialistes et les usagers ; j’essaierai de me borner aux faits présents, à ce que l’on peut raisonnablement anticiper à court terme (sans faire de science-fiction) et à la seule question de l’évaluation en contexte pédagogique (mais je n’y arriverai pas totalement…).

Je ne parlerai donc pas :

  • des autres enjeux pédagogiques : quel est le rôle de l’université face au développement des LLM ? doit-on former à leurs usages ? les enseignants doivent-il utiliser des LLM eux-mêmes ? est-ce que ça a du sens d’apprendre à rédiger à l’ère des LLM ?
  • des enjeux technico-fonctionnels : qu’est-ce que les LLM ne savent pas faire aujourd’hui ? qu’est-ce qu’on pense qu’ils ne seront jamais capables de faire ?
  • des enjeux politiques et éthiques : est-ce un progrès ? est-ce qu’on peut arrêter le progrès ? que penser de la dépendance croissante aux entreprises de la tech États-uniennes ? du déploiement du capitalisme de surveillance ?
  • des enjeux socio-écologiques : à quoi ça sert ? quels humains ça remplace ? quel est l’impact environnemental des LLM ?
  • des enjeux philosophiques : les LLM sont-ils neutres ? est-ce que ça dépend comment on s’en sert ? ou bien l’automatisation introduite change-t-elle radicalement notre rapport au langage et à la raison ? compléter des textes en utilisant des fonctions statistiques, est-ce penser ? qu’est-ce que l’intelligence ?
  • des enjeux juridiques : est-ce que les LLM respectent le droit d’auteur ? un texte produit avec un LLM est-il une création originale ?

TL;DR

Cet article étant un peu long, cette page en propose un résumé (TL;DR signifiant : « Too Long; Didn’t Read ») : Résumé du présent article.

Problématique et hypothèse

Problématique

Peut-on continuer à faire faire des exercices rédactionnels « à la maison » comme avant ?

Sans statuer sur la dimension de rupture des LLM — est-ce une nouvelle évolution liée au numérique qui percute le monde de la pédagogie, comme les moteurs de recherche ou Wikipédia avant elle, ou bien une révolution qui va changer radicalement les règles du jeu — il parait nécessaire de réinterroger nos pratiques : « sans sombrer dans le catastrophisme, il serait tout aussi idiot de ne pas envisager que nous sommes une nouvelle fois devant un changement absolument majeur de notre manière d’enseigner, de transmettre, et d’interagir dans un cadre éducatif, a fortiori lorsque celui-ci est asynchrone et/ou à distance. ( Ertzscheid, 2023 [6]) »

Hypothèse

L’automatisation permise par les LLM rend raisonnable une triche automatisée dont le rapport coût/bénéfice est beaucoup plus avantageux qu’une triche manuelle.

De nombreux modules universitaires comportent des exercices rédactionnels à réaliser chez soi. Ces travaux sont généralement évalués et cette évaluation compte pour la validation du module et donc in fine, pour l’attribution d’un diplôme.

  • Dans certains contextes, il n’y a pas d’évaluation en présentiel sans ordinateur et donc la totalité de la note peut bénéficier d’une « aide extérieure ».
  • Souvent à l’université la présence et/ou la participation effective des étudiants lors des cours et TD n’est pas elle-même évaluée, et parfois il n’y a pas d’examen classique, en conséquence un étudiant a la possibilité de valider un cours sans y assister en produisant des rendus écrits qualitatifs à domicile.

Cette situation pré-existe à l’arrivée des LLM, mais nous faisons l’hypothèse suivante :

  • sans LLM il reste un travail significatif pour se faire aider par un humain ou copier des contenus glanés sur le Web ;
  • sans LLM il reste un risque important d’une production de qualité insuffisante (l’humain qui a aidé ou fait à la place n’est pas assez compétent, les contenus Web copiés ont été mal sélectionnés, ou mal reformulés, etc.) ;
  • avec un LMM il est possible de produire un écrit standard sans aucun effort, pour exemple la copie de philo évaluée à 11 a été produite en 1,5 minute ( Lellouche, 2023 [3]).

Triche ?

J’utilise le terme de triche car si la consigne est de produire un texte original soi-même alors le faire produire par un tiers est de la triche. L’existence d’un moyen simple pour réaliser un exercice n’est pas en soi une autorisation à l’utiliser dans un contexte d’apprentissage. C’est similaire à ce qu’on peut trouver dans un contexte sportif par exemple, si vous faites une course à vélo, vous ne devez pas être aidé d’un moteur électrique.

LLM et moteurs de recherche : différence de degré ou de nature ?

J’écrivais en 2015 à propos de l’usage des moteurs de recherche ( Le syndrome de la Bibliothèque de Babel) : « La question intéressante qui se pose aux pédagogues n’est tant de savoir si l’élève va copier ou pas, s’il va « tricher ». La question est de savoir comment maintenir un travail d’élaboration d’une démarche et de production sensément originale et personnelle qui repose explicitement sur une recherche – donc une recherche sur le web – alors que la réponse à la question posée s’invite sur l’écran, formulée très exactement telle qu’attendue. C’est à peine une simplification en l’espèce de dire que la réponse a été jointe à la question, par celui même qui a posé cette question. »

Les LLM font sauter cette barrière : là où les moteurs de recherche permettaient une réponse facile à une question récurrente, les LLM permettent une réponse immédiate à une question originale.

L’évaluation de tout travail avec un ordinateur

Notons que le problème se pose pour tous les travaux rédactionnels avec ordinateur, même en présentiel ou en synchrone. En effet dès lors que l’on veut que nos exercices s’appuient sur un accès à un traitement de texte, des recherches Web ou d’autres outils numériques, alors ils ouvrent l’accès aux LLM.

Il existe des solutions humaines ou techniques de surveillance des examens pour ouvrir l’accès à certains outils seulement, mais d’une part elles posent des problèmes pratiques, éthiques et juridiques, et d’autre part les LLM s’introduisent progressivement au sein des autres outils, ainsi par exemple le moteur de recherche.

Les LLM et les étudiants

Les LLM sont utilisés par les étudiants

Lors de mes cours du semestre dernier (mars à juillet 2023), j’ai rencontré plusieurs cas d’usage de LLM.

  • Ces cas s’apparentent à de la triche.
  • Les étudiants n’ont pas facilement admis leur usage (allant dans certains cas jusqu’à nier des évidences).
  • Ce sont des cas d’usages stupides de la part des étudiants, car non nécessaires pour la validation du cours, sans intérêt du point de vue pédagogique, et facilement détectables.

On peut retenir les arguments principaux revendiqués par les étudiants :

  • Le gain de temps (même si je sais faire, « flemme » ou « retard »).
  • La nécessité de ne pas échouer et la peur d’être pénalisé sur le niveau d’expression écrite.
  • Le fait de ne pas être « sûr » de tricher (ce n’est pas explicitement interdit).

Des étudiants qui n’utilisent pas encore les LLM pour les exercices rédactionnels les utilisent plus facilement pour la traduction automatique.

UTC : Un premier étudiant utilise ChatGPT (IS03)

Au sein du cours de l’UTC IS03 («  Low-technicisation et numérique »), les étudiants doivent réaliser des notes de lecture sur la base d’articles scientifiques. Un étudiant étranger non-francophone utilise grossièrement un LLM (probablement ChatGPT) pour produire en une semaine le résumé de plusieurs dizaines de pages de lectures d’articles scientifiques difficiles et de rapports longs. J’avais donné une liste de plusieurs lectures possibles, mais n’attendais évidemment des notes que concernant un ou deux documents.

Il faut plusieurs minutes de discussion pour qu’il reconnaisse ne pas être l’auteur des notes. Mon premier argument étant sur le niveau de langue obtenue (aucune faute, très bonne expression…) l’étudiant commencera par reconnaître qu’il utilise des LLM pour corriger son français (on verra que cette « excuse » sera souvent mobilisée). Sur le volume de travail fournit, il reconnaît alors utiliser des LLM pour « résumer ».

In fine, il se justifiera en affirmant qu’il n’a pas utilisé ChatGPT mais d’autres outils (ce qui est très probablement faux, mais en l’espèce n’a pas beaucoup d’importance).

C’était un cas tout à fait « stupide », l’étudiant avait produit des notes sur près d’une dizaine de rapports et articles, sous-tendant plusieurs heures de lectures scientifiques et autant de résumés, et avait produit des énoncés sans aucune faute, tout cela en maîtrisant mal le français.

UTC : 6 cas identifiés lors de l’Api Libre Culture

Une Activité Pédagogique d’Intersemestre (Api) est un cours que les étudiants choisissent au lieu de partir en vacances, en général par intérêt, dont les conditions d’obtention sont faciles : les étudiants sont en mode stage pendant une semaine (ils ne suivent que l’Api) et leur présence régulière suffit en général pour valider le cours et obtenir les 2 crédits ECTS associés. Un devoir individuel était à réaliser sur machine pour clôturer l’Api Libre Culture de juillet 2023. Il consistait essentiellement en un retour personnel sur la semaine de formation.

Lors de ce devoir de fin d’Api, 6 étudiantes et étudiants (parmi 20 participants en tout) ont mobilisé de façon facilement visible un LLM (ChatGPT ou un autre). Pour 4 d’entre eux c’était un usage partiel (groupe 1), pour 2 d’entre eux un usage massif pour répondre à certaines questions (groupe 2). J’ai communiqué avec ces 6 personnes par mail.

3 des étudiants du groupe 1 ont avoué spontanément, en s’excusant, conscients donc d’avoir certainement transgressé les règles de l’examen. La 4e personne a reconnu les faits après que j’ai insisté (envoi d’un second mail en réponse à un premier mail de déni).

Pour les 2 étudiants du groupe 2 :

  • le premier n’a reconnu les faits qu’après plusieurs mails et que je lui aie montré l’historique d’un pad (traitement de texte en ligne) qui comportait un copie/coller évident de ChatGPT.
  • le second, étudiant étranger parlant très bien français, n’a jamais vraiment reconnu les faits, s’en tenant à un usage partiel « pour s’aider en français » (loin de ce que j’ai constaté).

À noter qu’aucun étudiant ne niait avoir utilisé un LLM, leur défense était un usage non déterminant pour s’aider à formuler des choses qu’ils avaient produites eux-mêmes.

Pour les deux étudiants du groupe 2, j’ai décidé de ne pas valider l’Api, ils n’ont donc pas eu les crédits qu’ils auraient eu facilement en me rendant un travail de leur fait, même de faible niveau. Ils n’ont pas contesté ma décision, l’un des deux précisera même : « d’autant plus que j’ai déjà les compétences du fait du cours suivi dans un semestre précédent ».

Un étudiant en Nouvelle-Zélande reconnaît utiliser ChatGPT

« In May, a student in New Zealand confessed to using AI to write their papers, justifying it as a tool like Grammarly or spell-check: “I have the knowledge, I have the lived experience, I’m a good student, I go to all the tutorials and I go to all the lectures and I read everything we have to read but I kind of felt I was being penalised because I don’t write eloquently and I didn’t feel that was right,” they told a student paper in Christchurch. They don’t feel like they’re cheating, because the student guidelines at their university state only that you’re not allowed to get somebody else to do your work for you. GPT-3 isn’t “somebody else”—it’s a program. » ( Marche, 2022 [1] )

On note les deux arguments principaux produits :

  • je l’utilise car je ne suis pas très fort à l’écrit et je ne trouve pas normal que cela ma pénalise ;
  • ce n’est pas clairement interdit à l’université.

J’ai interviewé des collégiens et lycéens

  • ChatGPT est déjà utilisé au collège et au lycée : surtout par les « mauvais » élèves (selon les bons élèves)…
  • …et par les bons élèves occasionnellement, mais pour une « bonne raison » : manque de temps, difficultés rencontrées, etc.
  • Des outils d’IA dédiés à la traduction sont plus largement utilisés, y compris par les bons élèves.
  • À l’école « l’échec c’est mal » donc le plus important est de rendre un bon devoir (voire un devoir parfait).

Interviews de 6 collégiens et lycéens à propos des LLM

Les LLM sont capables d’avoir de bonnes notes

A à un exercice rédactionnel à l’UTC

Cet article fait suite à «  Turcs mécaniques ou magie noire ? » un autre article écrit en janvier sur la base d’un test de ChatGPT à qui j’avais fait passer un de mes examens. Pour mémoire ChatGPT obtenait selon ma correction 14/15 à cet examen second, égalité donc avec les meilleurs étudiants du cours.

B+ à un exercice rédactionnel en Grande-Bretagne

En mai 2022, Mike Sharples utilise le LLM [2] GPT-3 pour produire une rédaction dans le cadre de son cours de pédagogie ( Sharples, 2022 [7] ). Il estime qu’un étudiant qui aurait produit ce résultat aurait validé son cours. Il en conclut que les LLM sont capables de produire des travaux rédactionnels du niveau attendu des étudiants et qu’il faut revoir nos façons d’évaluer (et même, selon lui, nos façons d’enseigner).

Le journaliste et écrivain qui rapport l’expérience dans The Antlantic attribue un B+ à la rédaction mise à disposition par Mike Sharples ( Marche, 2022 [1] ).

11 au bac de philo

ChatGPT s’est vu attribué la note de 11/20 par une correctrice (qui savait qu’elle corrigeait le produit d’une IA) au bac de philosophie 2023. Le protocole n’est pas rigoureux, mais le plus important, comme le note l’article de Numerama ( Lellouche, 2023 [3] ) c’est que le texte produit est loin d’être nul, alors même que le LLM n’est pas spécifiquement programmé pour cet exercice. Un « GPTphilo » aurait indubitablement obtenu une meilleure note, et la version 2024 aura progressé. Probablement pas assez pour être capable de réaliser de vraie productions de philosophe, mais certainement assez pour être capable de rendre caduque un tel exercice d’évaluation (s’il était réalisé à distance avec un ordinateur).

66% de réussite dans le cadre d’une étude comparative

Farazouli et al. ( 2023 [8] ) ont mené un travail plus rigoureux pour évaluer dans quelle mesure ChatGPT est capable de réussir dans le cadre de travaux réalisés à la maison, et quelles conséquences cela a sur les pratiques d’évaluation. 22 enseignants ont eu à corriger 6 copies dont 3 étaient des copies ChatGPT et 3 des copies d’étudiants ayant préalablement obtenu les notes A, C et E (pour 4 de ces enseignants, ils n’avaient que 5 copies dont 2 écrites avec ChatGPT).

« ChatGPT achieved a high passing grade rate of more than 66% in home examination questions in the fields of humanities, social sciences and law. »

Dont :

  • 1 travail noté A sans suspicion que c’était une copie ChatGPT ;
  • 4 rendus notés B, dont 1 seul était suspecté d’avoir été réalisé avec ChatGPT.

On observe des disparités assez importantes en fonction des domaines :

Les notes obtenues par ChatGPT ont été meilleures en philosophie et en sociologie et moins bonnes en droits et en éducation
F E D C B A
Philosophie 3 2 7 6 3 0
Droit 9 4 0 2 0 0
Sociologie 6 6 1 1 3 1
Éducation 5 2 0 1 0 0

Remarque

On observe une grande disparité dans les évaluations d’un même travail (humain ou ChatGPT) par des évaluateurs différents (de F à A), ce qui interroge sur le protocole suivi et/ou sur la nature même de l’évaluation.

Corriger c’était déjà chiant…

La plupart des enseignants s’accordent sur le fait que le plus ennuyeux dans leur métier est la correction des travaux étudiants. Savoir que l’on corrige potentiellement des travaux qui n’ont même pas été produits par les étudiants est tout à fait démobilisant…

« La question c’est celle d’une dilution exponentielle des heuristiques de preuve. Celle d’une loi de Brandolini dans laquelle toute production sémiotique, par ses conditions de production même (ces dernières étant par ailleurs souvent dissimulées ou indiscernables), poserait la question de l’énergie nécessaire à sa réfutation ou à l’établissement de ses propres heuristiques de preuve. » ( Ertzscheid, 2023 [6] ).

Il est coûteux pour un évaluateur de détecter du ChatGPT

Prenons un exemple, Devereaux ( 2023 [9] ) nous dit qu’il devrait être facile pour un évaluateur de savoir si une source existe ou non. Il prend cet exemple car ChatGPT produit des références bibliographiques imaginaires.

  1. C’est en effet possible, mais ce n’est pas « facile », au sens où si vous avez beaucoup de rédactions avec beaucoup de références à lire, cela demande un travail important et a priori inutile ; lors de la correction de l’exercice de ChatGPT ( Turcs mécaniques ou magie noire ?), je me suis moi-même « fait avoir » y compris avec un auteur que je connaissais très bien : je ne connaissais pas les ouvrages mentionnés, mais les titres et co-auteurs était crédibles (et l’auteur prolifique !).
  2. C’est aussi un bon exemple de limite conjoncturelle de l’outil, il paraît informatiquement assez facile de coupler un LLM avec des bases de données bibliographiques pour produire des références à des sources qui soient existantes. La détection ne supposera pas seulement de vérifier que la référence existe mais qu’on soit capable de dire à quel point elle est utilisée à propos. Le correcteur se retrouve alors plus proche d’une posture de révision d’article scientifique, ce qui suppose un travail beaucoup plus important, de plusieurs heures contre plusieurs minutes pour la correction d’un travail d’étudiant.

À quoi sert la rédaction à l’école ?

À quoi sert la rédaction à l’école ?

L’exercice rédactionnel est un moyen pour faire travailler un contenu, mais c’est surtout un moyen pour les étudiants d’apprendre à travailler leur raisonnement.

On peut penser que la généralisation de l’usage de LLM conduise à la perte de compétences à l’écrit, mais surtout à la perte de capacités de raisonnement, pour lesquelles l’écrit est un mode d’entraînement

Pourquoi faire écrire ?

Bret Devereaux ( 2023 [9] ) s’est posé la même question — à quoi sert un exercice rédactionnel ( « teaching essay ») — dans le même contexte de l’arrivée de ChatGPT ? Il propose trois fonctions pour cet exercice.

  1. L’exercice est un moyen pour travailler (chercher, lire, explorer, étudier…) un contenu tiers (histoire, idée…) : l’usage de ChatGPT rend l’exercice totalement inutile, mais on peut assez facilement imaginer d’autres façon de faire travailler le contenu.
  2. L’exercice est un moyen d’apprendre à faire des rédactions : l’usage de ChatGPT rend aussi l’exercice inutile, mais une part importante des étudiants n’aura plus à produire de rédaction en dehors de l’école.
  3. L’exercice est un moyen d’apprendre à mettre en forme des idées par écrit. Ici encore l’usage de ChatGPT rend l’exercice inutile, puisque bien entendu, le résultat final obtenu n’a aucune importance (le contenu sera détruit après usage), et que seul compte le processus suivi (analyse des idées, organisation…). On peut considérer que l’usage d’un LLM est ici plus dommageable en ce sens qu’apprendre à penser via l’exercice rédactionnel est un processus d’apprentissage assez fondamental.

Exemple

Un étudiant qui a utilisé ChatGPT pour un exercice rédactionnel à l’UTC m’a transmis un de ses exemples d’usage, pour me montrer qu’il n’avait pas « triché » puisque le contenu venait de lui.

Il a ainsi donné en entrée à ChatGPT le texte suivant : « Le droit d’auteur, est une licence qui protège les œuvres artistiques et intellectuelles, genre les bouquins, les musiques, les films ou les tableaux. Ça donne aux créateurs le pouvoir de décider comment on peut utiliser, copier ou diffuser leur travail, et ça leur assure d’être reconnus comme ceux qui l’ont créé. »

Si l’on demande une reformulation à ChatGPT on obtient : « Le droit d’auteur est une forme de protection légale qui s’applique aux œuvres artistiques et intellectuelles, telles que les livres, la musique, les films et les œuvres d’art. Il accorde aux créateurs le pouvoir de contrôler l’utilisation, la reproduction et la diffusion de leur travail, tout en garantissant qu’ils soient reconnus en tant que créateurs de ces œuvres. »

On observe une correction de style, mais aussi une correction de fond. Le droit d’auteur n’est pas une « licence » (cette phrase n’a pas de sens) comme l’écrit l’étudiant, mais bien « une forme de protection légale » . En outre le même texte écrit avec beaucoup de fautes ressortira parfaitement écrit en français (l’étudiant qui m’écrivait avait certainement déjà corrigé préalablement son texte car le mail qui l’accompagnait comportait beaucoup de fautes d’orthographe et de formulation).

Si ChatGPT peut l’écrire, ça ne sert à rien ?

Un argument que produit Bret Devereaux et pas mal d’autres commentateurs devant les résultats obtenus par ChatGPT est le suivant : si une machine y arrive c’est que l’exercice est sans intérêt. « If your essay prompt can be successfully answered using nothing but vague ChatGPT generated platitudes, it is a bad prompt » ( Devereaux, 2023 [9] ).

C’est discutable :

  • Cette assertion suppose que l’exercice n’avait pas de sens en soi, même s’il était pratiqué avec intérêt avant, et la preuve qui est donnée est qu’une machine peut le faire. On peut faire l’analogie avec le fait de s’entraîner à faire de la course à pied à l’ère de la voiture (des arts martiaux à l’ère du fusil, du jardinage à l’ère de l’agriculture industrielle, etc.), ce n’est pas parce qu’une machine peut réaliser une tâche qu’il est inutile pour un humain de s’entraîner à la réaliser.
  • Farazouli et al. ( 2023 [8]) relèvent que les qualités mise en avant par les évaluateurs après correction de copies produites par ChatGPT étaient notamment : la qualité du langage, la cohérence, et la créativité. Dans certains contextes les productions de ChatGPT ne sont donc pas évaluées comme médiocres.

Ce que ChatGPT ne fait pas bien

À l’inverse Farazouli et al. ( 2023 [8] ) ont identifié des lacunes dans l’argumentation, le manque de références au cours et au contraire la présence de contenus extérieurs au cours.

La faiblesse argumentative est peut-être un défaut intrinsèque au sens où la mécanique statistique des LLM ne serait pas capable de simuler certains raisonnements. En revanche on note que le manque de références au cours et la présence de références extérieures est discutable (ça peut rester un moyen de détecter, mais c’est un assez mauvais objectif en soi).

  • En premier cycle universitaire on ne souhaite pas en général cette relation étroite au cours (il existe plusieurs approches, et un étudiant qui ferait le travail par lui-même serait tout à fait dans son rôle).
  • En second cycle, cela peut être le cas lorsque le cours porte sur un domaine en lien avec la recherche de l’enseignant typiquement. Mais la recherche est en général publiée et le LLM peut tout à fait être entraîné sur ces données et donc « connaître » ce domaine.

À quoi servent les évaluations à l’école ?

L’évaluation joue un double rôle : l’évaluation formative sert à guider l’apprenant (elle a vocation à lui rendre service), tandis que l’évaluation sommative joue un rôle de certification (elle a vocation à rendre service à un tiers).

Or on est souvent en situation de confusion de ces deux fonctions et cela conduit l’apprenant à se comporter comme s’il était en situation d’évaluation sommative et à chercher à maximiser ses résultats.

On note en particulier :

  • la fonction de classement entre les élèves des notes ;
  • la confusion entre l’exercice rédactionnel comme moyen (c’est le processus qui compte) ou comme fin (c’est le résultat qui compte).

Certifier ou réguler ? (confusion des temps)

L’évaluation peut poursuivre trois fonctions ( Hadji, 1989 [10]) :

  • Certifier (évaluation sommative) afin de statuer sur les acquis, valider un module de cours, délivrer un diplôme ; cette évaluation se situe après la formation.
  • Réguler (évaluation formative) afin de guider l’apprenant dans son processus d’apprentissage ; cette évaluation se situe pendant la formation.
  • Orienter (évaluation diagnostique) afin d’aider à choisir les modalités d’étude les plus appropriées en fonction des intérêts, des aptitudes et de l’acquisition des pré-requis ; cette évaluation se situe avant la formation (et en cela l’évaluation diagnostique se distingue bien de l’évaluation sommative en ce qu’elle se place avant la formation du point de vue de l’évaluateur).

« L’évaluation survient souvent à un moment trop précoce par rapport au processus d’apprentissage en cours ( Astofi, 1992 [11]) ».

C’est un défaut du contrôle continu, arrivant tôt, dès le début du cours même, il nous place d’emblée en posture sommative. Celui qui ne sait pas encore faire est donc potentiellement stressé par l’évaluation dont il refuse ou minore la dimension formative.

Entraîner ou arbitrer ? (confusion des rôles)

« Les fonctions d’entraîneur et d’arbitre sont trop souvent confondues. C’est toujours celle d’entraîneur dont le poids est minoré. ( Astofi, 1992 [11]) »

« Il reste à articuler les deux logiques de l’évaluation, dont l’une exige la confiance alors que l’autre oppose évaluateur et évalué ( Perrenoud, 1997 [12]) ».

Cette confusion des temps entraîne une confusion des rôles : l’enseignant est toujours de fait un certificateur, celui qui permet la validation du cours, la poursuite des études, l’orientation…

Se faire confiance

La question de la confiance au sein de la relation apprenant-enseignant était également relevée par Farazouli et al. ( 2023 [8] ) qui insistait sur la dégradation potentielle introduite par les LLM :

« The presence of AI chatbots may prompt teachers to ask “who has written the text?” and thereby question students’ authorship, potentially reinforcing mistrust at the core of teacher–student relationship »

Évaluation des compétences

Philippe Perrenoud ( 1997 [12]) défend une approche par compétences qui s’écarte d’une « comparaison entre les élèves » pour se diriger vers une comparaison entre « ce que l’élève a fait, et qu’il ferait s’il était plus compétent ». L’auteur souligne que ce système est moins simple et moins économique : « l’évaluation par les compétences ne peut qu’être complexe, personnalisée, imbriquée au travail de formation proprement dit ». Il faut, nous dit-il, renoncer à organiser un « examen de compétence en plaçant tous les concurrents sur la même ligne ».
Cet éloignement à la fonction de classement est intéressante à interroger. La fonction de classement des évaluations n’est pas, en général, revendiquée comme telle, mais elle persiste à travers les notes (A, B, C, D, E), la courbe de Gauss attendue de la répartition de ces notes, le taux de réussite, d’échec, de A. Ces notes ont également une fonction de classement pour l’accès à des semestres d’étude à l’étranger par exemple, ou pour des stages.

Il ne s’agit donc pas seulement de la fonction formative et de l’apprenant face à sa note.

La tâche n’est qu’un prétexte

« La tâche n’est qu’un prétexte », nous rappelle Philippe Meirieu ( Meirieu, 2004 [13]), pour s’exercer en situation d’apprentissage ou pour vérifier qu’on a acquis certaines habiletés.

Il est déterminant de différencier les deux situations :

  • dans le premier cas on peut travailler à apprendre avec l’apprenant sans se focaliser sur ce qu’on produit ;
  • dans le second, en revanche, cas l’énergie de l’apprenant est concentrée sur le résultat, il cherche à se conformer aux attentes de l’évaluation.

On oublie que la tâche n’est qu’un prétexte, le « livrable » qu’on demande est un outil et non un objectif, dans l’immense majorité des cas la dissertation ne sera pas lue pour ce qu’elle raconte, mais uniquement pour produire une évaluation. La résolution du problème de mathématique ou le compte-rendu d’expérience de chimie ne revêt aucun intérêt en soi, puisque, par construction, le lecteur connaît déjà la réponse. C’est à la fois une évidence et quelque chose que le processus évaluatif fait oublier, et in fine, c’est bien au résultat qui est produit que l’étudiant, comme souvent l’enseignant, prête attention, plutôt qu’au processus d’apprentissage.

Évaluation des moyens mis en œuvre et non d’un niveau atteint

À travers l’étude des travaux de Joseph Jacotot, Jacques Rancière ( 1987 [14]) propose que ce qui compte n’est pas ce qu’on apprend mais le fait qu’on apprenne et qu’on sache que l’on peut apprendre, avec sa propre intelligence. Le « maître ignorant » n’est pas celui qui transmet le savoir, il est celui qui provoque l’engagement de l’apprenant, qui s’assure qu’il y a engagement. Selon ce dispositif, la notion même d’évaluation sommative n’est pas possible, puisque le maître est ignorant de ce que l’élève apprend (Jacotot enseigne ainsi les mathématiques ou la musique dont il n’a pas la connaissance).

Cette approche pourrait inspirer à l’évaluation un rôle de suivi de l’engagement (présence, travail…) décorrélé de toute évaluation de résultat : présence et participation en cours et en TD. Notons que le système ECTS [15] est déjà basé sur une charge de travail requise (25 à 30 heures pour 1 crédit).

Remise en question de l’évaluation sommative

L’évaluation via des examens et des notes est un processus peu fiable, en témoignent les variations que l’on observe entre différents évaluateurs, et les variations dans le temps observées auprès d’un même évaluateur ( Hadji, 1989 [10]). On peut donc minorer l’importance de la fonction certifiante de certaines notes. Or les notes coûtent cher à produire par le temps et l’attention qu’elles exigent des enseignants et des apprenants.

On peut donc se poser la question du supprimer, ou diminuer, l’évaluation sommative. Cela pour une partie des enseignements au moins, quitte à garder des espaces sommatifs pour répondre à des nécessités de classement ou certification.

Qu’est-ce qu’on peut faire maintenant ?

  • Interdire l’usage des LLM par défaut dans le règlement des études (en sachant que ça va devenir difficile d’identifier quand ils sont mobilisés) ?
  • Utiliser des moyens techniques de détection de fraude (et entrer dans une « course à l’armement ») ?
  • Améliorer nos exercices rédactionnel pour « échapper aux LLM » tout en restant en veille sur ce qu’ils savent adresser de nouveau ?
  • Renoncer aux travaux rédactionnels évalués à la maison ?
  • Évaluer uniquement en fin de module, voire en dehors des modules et/ou procéder à des évaluations de compétence individuelles ?
  • Organiser des évaluations certifiantes en dehors des cours (évaluation de compétences, examens transversaux…) ?
  • Diminuer la pression sur les étudiants et modifier le contrat pédagogique passé avec eux ?
  • Simplifier la notation, ne conserver que les résultats admis ou non admis, pour évacuer toute idée de classement ?
  • Passer d’une obligation de résultat à une obligation de moyen, c’est à dire valider les cours sur la base de la présence ?
  • Ne plus du tout évaluer certains cours (en réfléchissant contextuellement à la fonction de l’évaluation sommative) ?

Interdire ChatGPT ?

« And that’s the thing: in a free market, a competitor cannot simply exclude a disruptive new technology. But in a classroom, we can absolutely do this thing ( Devereaux, 2023 [9]) »

C’est vrai, et le règlement des études peut intégrer cette interdiction a priori. Mais les LLM vont s’immiscer au sein de tous les outils numériques, a commencer par les moteurs de recherche, et cela va être difficile de maintenir l’usage d’outils numériques sans LLM.

mème classique : Bernie Sanders, un vieil homme face caméra sous le titre "les profs" dit : "je vous demande une fois encore de ne pas utiliser chatGPT"

Utiliser des moyens techniques de détection de fraude ?

Des systèmes de contrôle dans le contexte de l’évaluation à distance ou des logiciels anti-plagiat existent, mais :

  • cela pose des problèmes de surveillance et d’intrusion dans les machines des apprenants ;
  • cela suppose une « course à l’armement » entre les systèmes de détection et les systèmes de triche.

Il faut des résultats fiables pour être en mesure d’accuser un étudiant de fraude.

Adapter nos exercices et rester en veille ?

« Likewise, poorly designed assignments will be easier for students to cheat on, but that simply calls on all of us to be more careful and intentional with our assignment design ( Devereaux, 2023 [9]). »

Certains exercices pourront être en effet aménagés pour rendre plus difficile l’usage de LLM. On peut avoir une exigence argumentative plus élevée et/ou poser des questions plus complexes (en réfléchissant à pourquoi on ne le faisait pas avant, ce qui doit être modifié pour atteindre ce nouvel objectif, etc.). On peut augmenter le niveau d’exigence demandé (en réfléchissant au fait que cela puisse exclure des étudiants, au fait qu’il faille relâcher d’autres exercices par ailleurs…).

Mais pour certains exercices ce ne sera pas possible (thème et version en langue par exemple). Et de plus cela implique une logique de veille active entre la conception de ces exercices et l’évolution rapide des capacités des outils qui intégreront des LLM.

Renoncer aux travaux à la maison (ou à leur évaluation)

On peut décider de ne plus évaluer les travaux réalisés à la maison.

On peut alors imaginer plusieurs formes de substitution : retour aux devoirs sur table et sans ordinateur, passage à l’oral…

Évaluer en dehors des cours ?

On peut imaginer :

  • des évaluations certifiantes totalement en dehors des cours (sur le modèle du TOEIC ou du baccalauréat, par exemple pour les langues donc, pour l’expression française, pour des connaissances dans certains domaines, des compétences rédactionnelles…) ;
  • des évaluations certifiantes calées uniquement en fin d’UV (examen final de sortie de cours, avec éventuellement rattrapage, sans plus aucune note intermédiaire) ;
  • des évaluations de compétences individuelles (intéressantes pédagogiquement, mais coûteuses à organiser et demandant des compétences avancées de la part des évaluateurs).

Diminuer la pression sur les étudiants ?

Le contrat ECTS est très exigeant. 30 crédits par semestre c’est 750 à 900 heures attendues de travail en 16 semaines, vacances comprises, soit 45h à 55h par semaine. Plus la pression sur le temps est importante plus la tentation de tricher est grande.

On peut imaginer de renouer un contrat pédagogique d’un autre ordre avec les étudiants, fondé sur la confiance réciproque et la recherche de leur intérêt.

Simplifier la notation (pass or fail) ?

L’UTC a connu un système à 3 notes : « admis », « non admis » et « mention » (équivalent à A). Dans ce système, on prête moins d’attention à la fonction sommative des évaluations. Si un apprenant obtient une note suffisante à un premier examen par exemple, il sait qu’il validera le module et il n’a pas d’intérêt particulier à optimiser ses autres évaluations sommatives.

Sauf à viser un A, mais on peut aussi se passer du A : c’est le cas des Activité Pédagogiques d’Inter-semestre à l’UTC qui sont évaluées juste avec « reçu » ou « non reçu ».

Mème classique avec personnage dégoûté par "corriger des copies d'étudiant⋅es rédigées par des IA", le même ravi par "Demander à des IA de corriger des copies d'étudiant⋅es rédigées par des IA"

Passer d’une obligation de résultat à une obligation de moyen ?

De fait certains cours sont mobilisés pour la validation du diplôme, voire la sélection et le classement des étudiants, et d’autres comptent très peu pour cet objectif en pratique.

Certains cours pourraient donc être exclus du processus d’évaluation sommative (comme en formation professionnelle). On économiserait le temps de travail d’évaluation sommative qui pourrait être réinvesti ailleurs. Quelques étudiants en profiteraient certainement pour « passer au travers » de certains contenus, il faudrait pouvoir évaluer dans quelle mesure cela serait pire qu’aujourd’hui.

Renoncer à noter ? (pourquoi note-t-on ?)

Certains cours, sinon tous, pourraient donc échapper totalement à la notation.

À quelle fin évalue-t-on les étudiants dans une école qui a sélectionné à l’entrée comme l’UTC ?

  • Pour valider que les étudiants ont été « bien » sélectionnés ?
  • Pour les « forcer » à travailler ?
  • Pour faire « sérieux » ?
  • Pour répondre aux demandes d’organismes de certification du diplôme ?

 

réunion de conseil d'administration d'université — nous avons un grave problème : comment allons-nous évaluer les étudiants s'ils fraudent avec un LLM ? — on interdit tout sauf le stylo ? — on les punit ? — on arrête de noter ? Le jeune homme décontracté qui faisait cette dernière suggestion déclenche la fureur de l'animateur de la réunion, qui le passe par la fenêtre de l'immeuble.

Notes et références

[1] – Marche Stephen. 2022. The College Essay Is Dead. in The Atlantic. https://www.theatlantic.com/technology/archive/2022/12/chatgpt-ai-writing-college-student-essays/672371/

[2] – LLM (Large Language Model) : Les grands modèles de langage (ou LLM, pour « Large Language Model ») sont des mécanismes d’Intelligence Artificielle. Une de leurs applications les plus connues est la génération de textes ou d’images. L’ouverture au public de ChatGPT, en novembre 2022, a popularisé cette application. Chaque grande entreprise de l’informatique sort désormais son propre modèle, son propre LLM.

https://framablog.org/2023/07/31/que-veut-dire-libre-ou-open-source-pour-un-grand-modele-de-langage/

[3] – Lellouche Nicolas. 2023. Oubliez Enthoven : ChatGPT a eu la moyenne au bac de philo et c’est ce qui compte, Oubliez Enthoven. in Numerama. https://www.numerama.com/tech/1415146-vous-navez-pas-besoin-de-neurone-pour-avoir-votre-bac-de-philo.html.

[4] – Bortzmeyer Stéphane. 2023. Que veut dire « libre » (ou « open source ») pour un grand modèle de langage ?. https://framablog.org/2023/07/31/que-veut-dire-libre-ou-open-source-pour-un-grand-modele-de-langage/.

[5] – Tiernan Ray. 2020. Qu’est-ce que GPT-3 ? Tout ce que votre entreprise doit savoir sur le programme de langage d’IA d’OpenAIQu’est-ce que GPT-3 ?. https://www.zdnet.fr/pratique/qu-est-ce-que-gpt-3-tout-ce-que-votre-entreprise-doit-savoir-sur-le-programme-de-langage-d-ia-d-openai-39908563.htm.

[6] – Ertzscheid Olivier. 2023. GPT-3 : c’est toi le Chat.GPT-3. https://affordance.framasoft.org/2023/01/gpt-3-cest-toi-le-chat/.

[7] – Sharples Mike. 2022. New AI tools that can write student essays require educators to rethink teaching and assessment. https://blogs.lse.ac.uk/impactofsocialsciences/2022/05/17/new-ai-tools-that-can-write-student-essays-require-educators-to-rethink-teaching-and-assessment/.

[8] – Farazouli Alexandra, Cerratto-Pargman Teresa, Bolander-Laksov Klara, McGrath Cormac. 2023. Hello GPT! Goodbye home examination? An exploratory study of AI chatbots impact on university teachers’ assessment practicesHello GPT! Goodbye home examination?. in Assessment & Evaluation in Higher Education. vol.0 n°0 pp1-13.https://doi.org/10.1080/02602938.2023.2241676.

[9] – Devereaux Bret. 2023. Collections: On ChatGPTCollections. in A Collection of Unmitigated Pedantry. https://acoup.blog/2023/02/17/collections-on-chatgpt/.

[10] – Hadji C.. 1989. L’évaluation, règles du jeu: des intentions aux outils. ESF.

[11] – Astolfi Jean-Pierre. 1992. L’école pour apprendre: l’élève face aux savoirsL’école pour apprendre. ESF.

[12] – Perrenoud Philippe. 1997. Construire des compétences dès l’école. ESF.

[13] – Meirieu Philippe. 2004. Faire l’école, faire la classe: démocratie et pédagogieFaire l’école, faire la classe. ESF.

[14] – Rancière Jacques. 1987. Le maître ignorant: cinq leçons sur l’émancipation intellectuelleLe maître ignorant. Fayard.

[15] – ECTS (European Credit Transfer and accumulation System). Le système européen de transfert et d’accumulation de crédits a pour objectif de faciliter la comparaison des programmes d’études au sein des différents pays européens. Le système ECTS s’applique principalement à la formation universitaire. Il a remplacé le système des unités de valeur (UV) jusque-là utilisé en France. wikipedia.org




Zoom et les politiques de confidentialité

Cet article a été publié à l’origine par THE MARKUP, il est traduit et republié avec l’accord de l’auteur selon les termes de la licence CC BY-NC-ND 4.0

 

Publication originale sur le site themarkup.org

 

Traduction Framalang : goofy, MO, Henri-Paul, Wisi_eu

 

Voilà ce qui arrive quand on se met à lire vraiment les politiques de confidentialité

Une récente polémique sur la capacité de Zoom à entraîner des intelligences artificielles avec les conversations des utilisateurs montre l’importance de lire les petits caractères

par Aaron Sankin

 

Photo de l'extérieur du siège de Zoom le 07 février 2023 à San José, Californie. Les côtés droit et gauche de la photo sont masqués par deux zones sombres qui ne sont pas mises au point.
Justin Sullivan/Getty Images

 

photo de l'auteurBonjour, je m’appelle Aaron Sankin, je suis journaliste d’investigation à The Markup. J’écris ici pour vous expliquer que si vous faites quelque chose de très pénible (lire les documents dans lesquels les entreprises expliquent ce qu’elles peuvent faire avec vos données), vous pourrez ensuite faire quelque chose d’un peu drôle (piquer votre crise en ligne).

Au cours du dernier quart de siècle, les politiques de protection de la vie privée – ce langage juridique long et dense que l’on parcourt rapidement avant de cliquer sans réfléchir sur « J’accepte » – sont devenues à la fois plus longues et plus touffues. Une étude publiée l’année dernière a montré que non seulement la longueur moyenne des politiques de confidentialité a quadruplé entre 1996 et 2021, mais qu’elles sont également devenues beaucoup plus difficiles à comprendre.

Voici ce qu’a écrit Isabel Wagner, professeur associé à l’université De Montfort, qui a utilisé l’apprentissage automatique afin d’analyser environ 50 000 politiques de confidentialité de sites web pour mener son étude :

« En analysant le contenu des politiques de confidentialité, nous identifions plusieurs tendances préoccupantes, notamment l’utilisation croissante de données de localisation, l’exploitation croissante de données collectées implicitement, l’absence de choix véritablement éclairé, l’absence de notification efficace des modifications de la politique de confidentialité, l’augmentation du partage des données avec des parties tierces opaques et le manque d’informations spécifiques sur les mesures de sécurité et de confidentialité »

Si l’apprentissage automatique peut être un outil efficace pour comprendre l’univers des politiques de confidentialité, sa présence à l’intérieur d’une politique de confidentialité peut déclencher un ouragan. Un cas concret : Zoom.

En début de semaine dernière, Zoom, le service populaire de visioconférence devenu omniprésent lorsque les confinements ont transformé de nombreuses réunions en présentiel en réunions dans de mini-fenêtres sur des mini-écrans d’ordinateurs portables, a récemment fait l’objet de vives critiques de la part des utilisateurs et des défenseurs de la vie privée, lorsqu’un article du site d’actualités technologiques Stack Diary a mis en évidence une section des conditions de service de l’entreprise indiquant qu’elle pouvait utiliser les données collectées auprès de ses utilisateurs pour entraîner l’intelligence artificielle.

version anglaise début août, capturée par la Wayback Machine d’Internet Archive

le texte précise bien l'usage consenti par l'utilisateur de ses données pour l'apprentissage automatique et l'intelligence artificielle
version française fin juillet, capturée par la Wayback Machine d’Internet Archive

 

Le contrat d’utilisation stipulait que les utilisateurs de Zoom donnaient à l’entreprise « une licence perpétuelle, non exclusive, libre de redevances, susceptible d’être cédée en sous-licence et transférable » pour utiliser le « Contenu client » à des fins diverses, notamment « de marketing, d’analyse des données, d’assurance qualité, d’apprentissage automatique, d’intelligence artificielle, etc.». Cette section ne précisait pas que les utilisateurs devaient d’abord donner leur consentement explicite pour que l’entreprise puisse le faire.

Une entreprise qui utilise secrètement les données d’une personne pour entraîner un modèle d’intelligence artificielle est particulièrement controversée par les temps qui courent. L’utilisation de l’IA pour remplacer les acteurs et les scénaristes en chair et en os est l’un des principaux points d’achoppement des grèves en cours qui ont paralysé Hollywood. OpenAI, la société à l’origine de ChatGPT, a fait l’objet d’une vague de poursuites judiciaires l’accusant d’avoir entraîné ses systèmes sur le travail d’écrivains sans leur consentement. Des entreprises comme Stack Overflow, Reddit et X (le nom qu’Elon Musk a décidé de donner à Twitter) ont également pris des mesures énergiques pour empêcher les entreprises d’IA d’utiliser leurs contenus pour entraîner des modèles sans obtenir elles-mêmes une part de l’activité.

La réaction en ligne contre Zoom a été féroce et immédiate, certaines organisations, comme le média Bellingcat, proclamant leur intention de ne plus utiliser Zoom pour les vidéoconférences. Meredith Whittaker, présidente de l’application de messagerie Signal spécialisée dans la protection de la vie privée, a profité de l’occasion pour faire de la publicité :

« HUM : Les appels vidéo de @signalapp fonctionnent très bien, même avec une faible bande passante, et ne collectent AUCUNE DONNÉE SUR VOUS NI SUR LA PERSONNE À QUI VOUS PARLEZ ! Une autre façon tangible et importante pour Signal de s’engager réellement en faveur de la vie privée est d’interrompre le pipeline vorace de surveillance des IA. »

Zoom, sans surprise, a éprouvé le besoin de réagir.

Dans les heures qui ont suivi la diffusion de l’histoire, le lundi même, Smita Hashim, responsable des produits chez Zoom, a publié un billet de blog visant à apaiser des personnes qui craignent de voir  leurs propos et comportements être intégrés dans des modèles d’entraînement d’IA, alors qu’elles souhaitent virtuellement un joyeux anniversaire à leur grand-mère, à des milliers de kilomètres de distance.

« Dans le cadre de notre engagement en faveur de la transparence et du contrôle par l’utilisateur, nous clarifions notre approche de deux aspects essentiels de nos services : les fonctions d’intelligence artificielle de Zoom et le partage de contenu avec les clients à des fins d’amélioration du produit », a écrit Mme Hashim. « Notre objectif est de permettre aux propriétaires de comptes Zoom et aux administrateurs de contrôler ces fonctions et leurs décisions, et nous sommes là pour faire la lumière sur la façon dont nous le faisons et comment cela affecte certains groupes de clients ».

Mme Hashim écrit que Zoom a mis à jour ses conditions d’utilisation pour donner plus de contexte sur les politiques d’utilisation des données par l’entreprise. Alors que le paragraphe sur Zoom ayant « une licence perpétuelle, non exclusive, libre de redevances, pouvant faire l’objet d’une sous-licence et transférable » pour utiliser les données des clients pour « l’apprentissage automatique, l’intelligence artificielle, la formation, les tests » est resté intact [N de T. cependant cette mention semble avoir disparu dans la version du 11 août 2023], une nouvelle phrase a été ajoutée juste en dessous :

« Zoom n’utilise aucun Contenu client audio, vidéo, chat, partage d’écran, pièces jointes ou autres communications comme le Contenu client (tels que les résultats des sondages, les tableaux blancs et les réactions) pour entraîner les modèles d’intelligence artificielle de Zoom ou de tiers. »

Comment utilisons-nous vos données à caractère personnel ?Les employés de Zoom n’accèdent pas au Contenu client des réunions, des webinaires, des messageries ou des e-mails (en particulier, l’audio, la vidéo, les fichiers, les tableaux blancs en réunion et les contenus des messageries ou des e-mails), ni au contenu généré ou partagé dans le cadre d’autres fonctions de collaboration (comme les tableaux blancs hors réunion), et ne les utilisent pas, à moins que le titulaire du compte hébergeant le produit ou Service Zoom où le Contenu client a été généré ne le demande ou que cela ne soit nécessaire pour des raisons juridiques, de sûreté ou de sécurité. Zoom n’utilise aucun Contenu client audio, vidéo, chat, partage d’écran, pièces jointes ou autres communications comme le Contenu client (tels que les résultats des sondages, les tableaux blancs et les réactions) pour entraîner les modèles d’intelligence artificielle de Zoom ou de tiers.
copie d’écran du 16/08/2023, page https://explore.zoom.us/fr/privacy/

 

Dans son billet de blog, Mme Hashim insiste sur le fait que Zoom n’utilise le contenu des utilisateurs que pour former l’IA à des produits spécifiques, comme un outil qui génère automatiquement des résumés de réunions, et seulement après que les utilisateurs auront explicitement choisi d’utiliser ces produits. « Un exemple de service d’apprentissage automatique pour lequel nous avons besoin d’une licence et de droits d’utilisation est notre analyse automatisée des invitations et des rappels de webinaires pour s’assurer que nous ne sommes pas utilisés involontairement pour spammer ou frauder les participants », écrit-elle. « Le client est propriétaire de l’invitation au webinaire et nous sommes autorisés à fournir le service à partir de ce contenu. En ce qui concerne l’IA, nous n’utilisons pas de contenus audios, de vidéos ou de chats pour entraîner nos modèles sans le consentement du client. »

La politique de confidentialité de Zoom – document distinct de ses conditions de service – ne mentionne l’intelligence artificielle ou l’apprentissage automatique que dans le contexte de la fourniture de « fonctions et produits intelligents (sic), tels que Zoom IQ ou d’autres outils pour recommander le chat, le courrier électronique ou d’autres contenus ».

Pour avoir une idée de ce que tout cela signifie, j’ai échangé avec Jesse Woo, un ingénieur spécialisé en données de The Markup qui, en tant qu’avocat spécialisé dans la protection de la vie privée, a participé à la rédaction de politiques institutionnelles d’utilisation des données.

M. Woo explique que, bien qu’il comprenne pourquoi la formulation des conditions d’utilisation de Zoom touche un point sensible, la mention suivant laquelle les utilisateurs autorisent l’entreprise à copier et à utiliser leur contenu est en fait assez standard dans ce type d’accord d’utilisation. Le problème est que la politique de Zoom a été rédigée de manière à ce que chacun des droits cédés à l’entreprise soit spécifiquement énuméré, ce qui peut sembler beaucoup. Mais c’est aussi ce qui se passe lorsque vous utilisez des produits ou des services en 2023, désolé, bienvenue dans le futur !

Pour illustrer la différence, M. Woo prend l’exemple de la politique de confidentialité du service de vidéoconférence concurrent Webex, qui stipule ce qui suit : « Nous ne surveillerons pas le contenu, sauf : (i) si cela est nécessaire pour fournir, soutenir ou améliorer la fourniture des services, (ii) pour enquêter sur des fraudes potentielles ou présumées, (iii) si vous nous l’avez demandé ou autorisé, ou (iv) si la loi l’exige ou pour exercer ou protéger nos droits légaux ».

Cette formulation semble beaucoup moins effrayante, même si, comme l’a noté M. Woo, l’entraînement de modèles d’IA pourrait probablement être mentionné par une entreprise sous couvert de mesures pour « soutenir ou améliorer la fourniture de services ».

L’idée que les gens puissent paniquer si les données qu’ils fournissent à une entreprise dans un but évident et simple (comme opérer un appel de vidéoconférence) sont ensuite utilisées à d’autres fins (comme entraîner un algorithme) n’est pas nouvelle. Un rapport publié par le Forum sur le futur de la vie privée (Future of Privacy Forum), en 2018, avertissait que « le besoin de grandes quantités de données pendant le développement en tant que « données d’entraînement » crée des problèmes de consentement pour les personnes qui pourraient avoir accepté de fournir des données personnelles dans un contexte commercial ou de recherche particulier, sans comprendre ou s’attendre à ce qu’elles soient ensuite utilisées pour la conception et le développement de nouveaux algorithmes. »

Pour Woo, l’essentiel est que, selon les termes des conditions de service initiales, Zoom aurait pu utiliser toutes les données des utilisateurs qu’elle souhaitait pour entraîner l’IA sans demander leur consentement et sans courir de risque juridique dans ce processus.

Ils sont actuellement liés par les restrictions qu’ils viennent d’inclure dans leurs conditions d’utilisation, mais rien ne les empêche de les modifier ultérieurement.
Jesse Woo, ingénieur en données chez The Markup

« Tout le risque qu’ils ont pris dans ce fiasco est en termes de réputation, et le seul recours des utilisateurs est de choisir un autre service de vidéoconférence », explique M. Woo. « S’ils avaient été intelligents, ils auraient utilisé un langage plus circonspect, mais toujours précis, tout en proposant l’option du refus, ce qui est une sorte d’illusion de choix pour la plupart des gens qui n’exercent pas leur droit de refus. »

Changements futurs mis à part, il y a quelque chose de remarquable dans le fait qu’un tollé public réussisse à obtenir d’une entreprise qu’elle déclare officiellement qu’elle ne fera pas quelque chose d’effrayant. L’ensemble de ces informations sert d’avertissement à d’autres sur le fait que l’entraînement de systèmes d’IA sur des données clients sans leur consentement pourrait susciter la colère de bon nombre de ces clients.

Les conditions d’utilisation de Zoom mentionnent la politique de l’entreprise en matière d’intelligence artificielle depuis le mois de mars, mais cette politique n’a attiré l’attention du grand public que la semaine dernière. Ce décalage suggère que les gens ne lisent peut-être pas les données juridiques, de plus en plus longues et de plus en plus denses, dans lesquelles les entreprises expliquent en détail ce qu’elles font avec vos données.

Heureusement, Woo et Jon Keegan, journalistes d’investigation sur les données pour The Markup, ont récemment publié un guide pratique (en anglais) indiquant comment lire une politique de confidentialité et en  identifier rapidement les parties importantes, effrayantes ou révoltantes.

Bonne lecture !


Sur le même thème, on peut s’intéresser à :

 




Le Fediverse n’est pas Twitter, mais peut aller plus loin

Maintenant que Mastodon a suscité l’intérêt d’un certain nombre de migrants de Twitter, il nous semble important de montrer concrètement comment peuvent communiquer entre eux des comptes de Mastodon, PeerTube, Pixelfed et autres… c’est ce que propose Ross Schulman dans ce billet de l’EFF traduit pour vous par Framalang…

 

source : The Breadth of the Fediverse

Traduction Framalang : CLC, Goofy, Henri-Paul

 

L’étendue du Fediverse

par Ross Schulman

Le Washington Post a récemment publié une tribune de Megan McArdle intitulée : « Twitter pourrait être remplacé, mais pas par Mastodon ou d’autres imitateurs ». L’article explique que Mastodon tombe dans le piège habituel des projets open source : élaborer une alternative qui a l’air identique et améliore les choses dont l’utilisateur type n’a rien à faire, tout en manquant des éléments qui ont fait le succès de l’original. L’autrice suggère plutôt que dépasser Twitter demandera quelque chose d’entièrement nouveau, et d’offrir aux masses quelque chose qu’elles ne savaient même pas qu’elles le désiraient.

Nous pensons, contrairement à Megan, que Mastodon (qui fait partie intégrante du Fediverse) offre en réalité tout cela, car c’est un réseau social véritablement interopérable et portable. Considérer que Mastodon est un simple clone de Twitter revient à oublier que le Fediverse est capable d’être ou de devenir la plate-forme sociale dont vous rêvez. C’est toute la puissance des protocoles. Le Fediverse dans son ensemble est un site de micro-blogging, qui permet de partager des photos, des vidéos, des listes de livres, des lectures en cours, et bien plus encore.

Comme beaucoup de gens se font, comme Megan, une fausse idée sur le Fediverse, et comme une image vaut mieux qu’un long discours, voyons comment l’univers plus large d’ActivityPub fonctionne dans la pratique.

Parlons de PeerTube. Il s’agit d’un système d’hébergement de vidéos, grâce auquel les internautes peuvent en suivre d’autres, télécharger des vidéos, les commenter et les « liker ».
Voici par exemple la page de la chaîne principale du projet open source Blender et c’est là que vous pouvez vous abonner à la chaîne…

fenêtre dans la page de peertube.tv où l'on peut s'abonner au canal blender en utilisant son compte activityPub, ici un compte de mastodon

Dans cet exemple nous avons créé un compte Mastodon sur l’instance (le serveur) framapiaf.org. Une fois qu’on clique sur « S’abonner à distance », nous allons sur le compte Mastodon, à partir duquel il nous suffit de cliquer sur « Suivre » pour nous permettre de…suivre depuis Mastodon le compte du PeerTube de Blender.

fenêtre de mastodon dans laquelle on peut confirmer vouloir suivre un canal peertube (de Blender dans cet exemple) en cliquant sur "Suivre"

Maintenant, dès que Blender met en ligne une nouvelle vidéo avec PeerTube, la mise à jour s’effectue dans le fil de Mastodon, à partir duquel nous pouvons « liker » (avec une icône d’étoile « ajouter aux favoris ») la vidéo et publier un commentaire.

… de sorte que le « like » et la réponse apparaissent sans problème sur la page de la vidéo.

un commentaire-réponse posté sur mastodon apparaît sur le canal peertube

Pixelfed est un autre service basé sur ActivityPub prenant la forme d’un réseau social de partage de photographies. Voici la page d’accueil de Dan Supernault, le principal développeur.

On peut le suivre depuis notre compte, comme nous venons de le faire avec la page PeerTube de Blender ci-dessus, mais on peut aussi le retrouver directement depuis notre compte Mastodon si nous connaissons son nom d’utilisateur.

capture : après recherche du nom d’utilisateur « dansup », mastodon retrouve le compte pixelfed recherché

Tout comme avec PeerTube, une fois que nous suivons le compte de Dan, ses images apparaîtront dans Mastodon, et les « likes » et les commentaires apparaîtront aussi dans Pixelfed.

capture d'écran montrant une photo du chat de Dansup publiée sur pixelfed mais qui s'affiche ici sur le compte mastodon que l'on "suit".

Voilà seulement quelques exemples de la façon dont des protocoles communs, et ActivityPub en particulier, permettent d’innover en termes de médias sociaux, Dans le Fediverse existent aussi BookWyrm, une plateforme sociale pour partager les lectures, FunkWhale, un service de diffusion et partage de musique ainsi que WriteFreely, qui permet de tenir des blogs plus étendus, pour ne mentionner que ceux-là.

Ce que garantit le Fediverse, c’est que tous ces éléments interagissent de la façon dont quelqu’un veut les voir. Si j’aime Mastodon, je peux toujours y voir des images de Pixelfed même si elles sont mieux affichées dans Pixelfed. Mieux encore, mes commentaires s’afficheront dans Pixelfed sous la forme attendue.

Les personnes qui ont migré de Twitter ont tendance à penser que c’est un remplaçant de Twitter pour des raisons évidentes, et donc elles utilisent Mastodon (ou peut-être micro.blog), mais ce n’est qu’une partie de son potentiel. La question n’est pas celle du remplacement de Twitter, mais de savoir si ce protocole peut se substituer aux autres plateformes dans notre activité sur la toile. S’il continue sur sa lancée, le Fediverse pourrait devenir un nouveau nœud de relations sociales sur la toile, qui engloberait d’autres systèmes comme Tumblr ou Medium et autres retardataires.

 




Contra Chrome : une BD décapante maintenant en version française

Il y a loin de la promotion du navigateur Chrome à ses débuts, un outil cool au service des internautes, au constat de ce qu’il est devenu, une plateforme de prédation de Google, c’est ce que permet de mesurer la bande dessinée de Leah,

Contra Chrome est un véritable remix de la BD promotionnelle originale (lien vers le document sur google.com) que Leah Elliott s’est évertuée à détourner pour exposer la véritable nature de ce navigateur qui a conquis une hégémonie au point d’imposer ses règles au Web.

Nous avons trouvé malicieux et assez efficace son travail qui a consisté à conserver les images en leur donnant par de nouveaux textes un sens satirique et pédagogique pour démontrer la toxicité de Google Chrome.

La traduction qui est aujourd’hui disponible a été effectuée par les bénévoles de Framalang et par Calimero (qui a multiplié sans relâche les ultimes révisions). Voici en même temps que l’ouvrage, les réponses que Leah a aimablement accepté de faire à nos questions.

 

Bonjour, peux-tu te présenter brièvement pour nos lecteurs et lectrices…
Je m’appelle Leah et je suis autrice de bandes dessinées et artiste. J’ai une formation en art et en communication, et je n’ai jamais travaillé dans l’industrie technologique.

Est-ce que tu te considères comme une militante pour la préservation de la vie privée ?

Eh bien, le militantisme en matière de vie privée peut prendre de nombreuses formes. Parfois, c’est être lanceur d’alerte en fuitant des révélations, parfois c’est une bande dessinée, ou la simple installation d’une extension de navigateur comme Snowflake, avec laquelle vous pouvez donner aux dissidents des États totalitaires un accès anonyme à un internet non censuré.

Dans ce dernier sens, j’espère avoir été une militante avant de créer Contra Chrome, et j’espère l’être encore à l’avenir.

Comment t’es venue l’idée initiale de réaliser Contra Chrome ?

Ça s’est fait progressivement.

Lorsque la bande dessinée Chrome de Scott McCloud est sortie en 2008, je n’avais qu’une très vague idée du fonctionnement d’Internet et de la façon dont les entreprises récoltent et vendent mes données. Je me figurais essentiellement que je pouvais me cacher dans ce vaste chaos. Je pensais qu’ils récoltaient tellement de données aléatoires dans le monde entier qu’ils ne pouvaient pas espérer me trouver, moi petite aiguille dans cette botte de foin planétaire.

Et puis les révélations de Snowden ont éclaté, et il a dit : « Ne vous y trompez pas », en dévoilant tous les ignobles programmes de surveillance de masse. C’est alors que j’ai compris qu’ils ne se contenteraient pas de moissonner le foin, mais aussi des aiguilles.

Depuis, j’ai essayé de m’éduquer et d’adopter de meilleurs outils, découvrant au passage des logiciels libres et open source respectueux de la vie privée, dont certains des excellents services proposés par Framasoft.

Lorsque j’ai retrouvé la bande dessinée de McCloud quelque temps après les révélations de Snowden, j’ai soudain réalisé qu’il s’agissait d’un véritable trésor, il ne manquait que quelques pages…

Qu’est-ce qui t’a motivée, à partir de ce moment ?

L’indignation, principalement, et le besoin de faire quelque chose contre un statu quo scandaleux. Il y a un décalage tellement affreux entre la société que nous nous efforçons d’être, fondée sur des valeurs et les droits de l’homme, et les énormes structures d’entreprises barbares comme Google, qui récoltent agressivement des masses gigantesques de données personnelles sans jamais se soucier d’obtenir le consentement éclairé de l’utilisateur, sans aucune conscience de leurs responsabilités sur les retombées individuelles ou sociétales, et sans aucun égard pour les conséquences que cela a sur le processus démocratique lui-même.

En lisant Shoshana Zuboff, j’ai vu comment ce viol massif de données touche à la racine de la liberté personnelle de chacun de se forger sa propre opinion politique, et comment il renforce ainsi les régimes et les modes de pensée autoritaires.

Trop de gens n’ont aucune idée de ce qui est activé en continu 24 heures sur 24 au sein de leur propre maisons intelligente et sur les téléphones de leurs enfants, et je voulais contribuer à changer ça.

Certains aspects de la surveillance via le navigateur Chrome sont faciles à deviner, cependant ta BD va plus en profondeur et révèle la chronologie qui va des promesses rassurantes du lancement à la situation actuelle qui les trahit. Est-ce que tu as bénéficié d’aide de la part de la communauté des défenseurs de la vie privée sur certains aspects ou bien as-tu mené seule ton enquête ?

Comme on peut le voir dans les nombreuses annotations à la fin de la bande dessinée, il s’agit d’un énorme effort collectif. En fin de compte, je n’ai fait que rassembler et organiser les conclusions de tous ces militants, chercheurs et journalistes. J’ai également rencontré certains d’entre eux en personne, notamment des experts reconnus qui ont mené des recherches universitaires sur Google pendant de nombreuses années. Je leur suis très reconnaissante du temps qu’ils ont consacré à ma bande dessinée, qui n’aurait jamais existé sans cette communauté dynamique.

Pourquoi avoir choisi un « remix » ou plutôt un détournement de la BD promotionnelle, plutôt que de créer une bande dessinée personnelle avec les mêmes objectifs ?

En relisant la BD pro-Google de McCloud, j’ai constaté que, comme dans toute bonne bande dessinée, les images et le texte ne racontaient pas exactement la même histoire. Alors que le texte vantait les fonctionnalités du navigateur comme un bonimenteur sur le marché, certaines images me murmuraient à l’oreille qu’il existait un monde derrière la fenêtre du navigateur, où le contenu du cerveau des utilisateurs était transféré dans d’immenses nuages, leur comportement analysé par des rouages inquiétants tandis que des étrangers les observaient à travers un miroir sans tain.

Pour rendre ces murmures plus audibles, il me suffisait de réarranger certaines cases et bulles, un peu comme un puzzle à pièces mobiles. Lorsque les éléments se sont finalement mis en place un jour, ils se sont mis à parler d’une voix très claire et concise, et ont révélé beaucoup plus de choses sur Chrome que l’original.

Lawrence Lessig a expliqué un jour que, tout comme les essais critiques commentent les textes qu’ils citent, les œuvres de remixage commentent le matériel qu’elles utilisent. Dans mon cas, la BD originale de Chrome expliquait prétendument le fonctionnement de Chrome, et j’ai transformé ce matériel en une BD qui rend compte de son véritable fonctionnement.

Est-ce que tu as enregistré des réactions du côté de l’équipe de développement de Chrome ? Ou du côté de Scott Mc Cloud, l’auteur de la BD originale ?

Non, c’est le silence radio. Du côté de l’entreprise, il semble qu’il y ait eu quelques opérations de nettoyage à la Voldemort : Des employés de Google sur Reddit et Twitter, se sont conseillé mutuellement de ne pas créer de liens vers le site, de ne pas y réagir dans les fils de discussion publics, exigeant même parfois que les tweets contenant des images soient retirés.

Quant à Scott, rien non plus jusqu’à présent, et j’ai la même curiosité que vous.

Ton travail a suscité beaucoup d’intérêt dans diverses communautés, de sorte que les traductions plusieurs langues sont maintenant disponibles (anglais, allemand, français et d’autres à venir…). Tu t’attendais à un tel succès ?

Absolument pas. Le jour où je l’ai mis en ligne, il n’y a eu aucune réaction de qui que ce soit, et je me souviens avoir pensé : « bah, tu t’attendais à quoi d’autre, de toutes façons ? ». Je n’aurais jamais imaginé le raz-de-marée qui a suivi. Tant de personnes proposant des traductions, qui s’organisaient, tissaient des liens. Et tous ces messages de remerciement et de soutien, certaines personnes discutent de ma BD dans les écoles et les universités, d’autres l’impriment et la placent dans des espaces publics. Ça fait vraiment plaisir de voir tout ça.

Il y a une sorte de réconfort étrange dans le fait que tant d’êtres humains différents, de tous horizons et de tous les coins de la planète, partagent ma tristesse et mon horreur face au système du capitalisme de surveillance. Cette tristesse collective ne devrait pas me rendre heureuse, et pourtant elle me donne le courage de penser à un avenir très différent.

Quel navigateur utilises-tu au lieu de Chrome ? Lequel recommanderais-tu aux webnautes soucieux de préserver leur vie privée ?

Je suis peut-être allée un peu loin désormais, mais je pratique ce que je prêche dans la BD : pour 95 % de ma navigation, j’utilise simplement le navigateur Tor. Et lorsque Tor est bloqué ou lorsqu’une page ne fonctionne pas correctement, j’utilise Firefox avec quelques modifications et extensions pour améliorer la confidentialité.

Donc généralement, que je cherche des recettes de muffins, que je vérifie la météo ou que je lise les nouvelles, c’est toujours avec Tor. Parce que j’ai l’impression que le navigateur Tor ne peut prendre toute sa valeur que si suffisamment de personnes l’utilisent en même temps, pour qu’un brouillard suffisamment grand de non-sens triviaux entoure et protège les personnes vulnérables dont la sécurité dépend actuellement de son utilisation.

Pour moi, c’est donc une sorte de devoir civique en tant que citoyenne de la Terre. De plus, je peux parcourir mes recettes de muffins en ayant la certitude qu’il ne s’agit que d’un navigateur et non d’un miroir sans tain.

Merci Leah et à bientôt peut-être !


Cliquez sur l’image ci-dessous pour accéder à la version française de Contra chrome

 




Les conseils de Ray Bradbury à qui veut écrire – Open Culture (4)

Dans le 4e épisode de notre mini-série de l’été, nous recueillons les conseils d’écriture de Ray Bradbury (oui, celui des Chroniques martiennes et Fahrenheit 451, entre autres) qu’il expose au fil d’une conférence résumée pour vous dans cet article d’openculture.com, un portail très riche en ressources culturelles.
Ah, au fait, profitons-en pour vous rappeler que le Ray’s Day c’est lundi 22 août : en hommage au grand Ray, c’est l’occasion de lire des tas de textes en tous genres et de faire connaître les vôtres et même de les mettre en ligne. Rendez-vous sur le nouveau site du Ray’s Day qui sert de socle à cette initiative.

 

Article original : Ray Bradbury Gives 12 Pieces of Writing Advice to Young Authors (2001)

Traduction : goofy

Ray Bradbury donne 12 conseils d’écriture aux jeunes auteur⋅e⋅s

par Colin Marshall

À l’instar de l’icône du genre Stephen King, Ray Bradbury est parvenu à toucher un public bien plus large que celui auquel il était destiné en offrant des conseils d’écriture à tous ceux qui prennent la plume. Dans ce discours prononcé en 2001 lors du symposium des écrivains organisé par l’université Point Loma Nazarene à By the Sea, Ray Bradbury raconte des anecdotes tirées de sa vie d’écrivain, qui offrent toutes des leçons pour se perfectionner dans l’art d’écrire.

La plupart d’entre elles ont trait aux pratiques quotidiennes qui constituent ce qu’il appelle « l’hygiène de l’écriture ».



 

En regardant cette conférence divertissante et pleine de digressions, vous pourriez en tirer un ensemble de points totalement différents, mais voici, sous forme de liste, comment j’interprète le programme de Bradbury :

  • Ne commencez pas par vouloir écrire des romans. Ils prennent trop de temps. Commencez plutôt votre vie d’écrivain en rédigeant « un sacré paquet de nouvelles », jusqu’à une par semaine. Prenez un an pour le faire ; il affirme qu’il est tout simplement impossible d’écrire 52 mauvaises nouvelles d’affilée. Il a attendu l’âge de 30 ans pour écrire son premier roman, Fahrenheit 451. « Ça valait le coup d’attendre, hein ? »
  • On peut les aimer, mais on ne peut pas les égaler. Gardez cela à l’esprit lorsque vous tenterez inévitablement, consciemment ou inconsciemment, d’imiter vos écrivains préférés, tout comme il a imité H.G. Wells, Jules Verne, Arthur Conan Doyle et L. Frank Baum.
  • Examinez des nouvelles « de qualité ». Il suggère Roald Dahl, Guy de Maupassant, et les moins connus Nigel Kneale et John Collier. Tout ce qui se trouve dans le New-Yorker d’aujourd’hui ne fait pas partie de ses critères, car il trouve que leurs histoires sont « dépourvues de métaphores ».
  • Bourrez-vous le crâne. Pour accumuler les blocs de construction intellectuelle de ces métaphores, il suggère un cours de lecture à l’heure du coucher : une nouvelle, un poème (mais Pope, Shakespeare et Frost, pas les « conneries » modernes) et un essai. Ces essais devraient provenir de divers domaines, dont l’archéologie, la zoologie, la biologie, la philosophie, la politique et la littérature. « Au bout de mille nuits », résume-t-il, « bon Dieu, vous saurez plein de trucs ! ».
  • Débarrassez-vous des amis qui ne croient pas en vous. Se moquent-ils de vos ambitions d’écrivain ? Il suggère de les appeler pour les « virer » sans tarder.
  • Vivez dans la bibliothèque. Ne vivez pas dans vos « maudits ordinateurs ». Il n’est peut-être pas allé à l’université, mais ses habitudes de lecture insatiables lui ont permis d’être « diplômé de la bibliothèque » à 28 ans.
  • Tombez amoureux des films. De préférence des vieux films.
  • Écrivez avec joie. Dans son esprit, « l’écriture n’est pas une affaire sérieuse ». Si une histoire commence à ressembler à du travail, mettez-la au rebut et commencez-en une qui ne l’est pas. « Je veux que vous soyez jaloux de ma joie », dit Bradbury à son public.
  • Ne prévoyez pas de gagner de l’argent. Avec son épouse, qui « a fait vœu de pauvreté pour l’épouser », Ray a atteint l’âge de 37 ans avant de pouvoir s’offrir une voiture (et il n’a toujours pas réussi à passer son permis).
  • Faites une liste de dix choses que vous aimez et de dix choses que vous détestez. Puis écrivez sur les premières, et « tuez » les secondes – également en écrivant à leur sujet. Faites de même avec vos peurs. Tapez tout ce qui vous passe par la tête. Il recommande l' »association de mots » pour lever tout blocage créatif, car « vous ne savez pas ce que vous avez en vous avant de le tester ».
  • N’oubliez pas qu’avec l’écriture, ce que vous recherchez, c’est une seule personne qui vienne vous dire : « Je vous aime pour ce que vous faites. » Ou, à défaut, vous cherchez quelqu’un qui vienne vous dire : « Vous n’êtes pas aussi fou que tout le monde le dit ».

Autres ressources

Ray Bradbury: Literature is the Safety Valve of Civilization

The Shape of A Story: Writing Tips from Kurt Vonnegut

John Steinbeck’s Six Tips for the Aspiring Writer and His Nobel Prize Speech

L’auteur de l’article

Colin Marshall produit Notebook on Cities and Culture. Pour le suivre sur Twitter : @colinmarshall.


Si cet article vous a plu et que vous découvrez l’intérêt du site openculture.com, vous pouvez contribuer par une petite donation sur cette page https://www.openculture.com/help-fund-open-culture (via Paypal, Patreon et même cryptomonnaie…)

 





Des bières avec Bukowski – Open Culture (3)

Aujourd’hui notre mini-série de l’été consacrée à la culture ouverte vous emmène sur le chemin zigzaguant et génial des poèmes de Charles Bukowski : voici de sa propre voix une célébration animée de sa boisson favorite grâce à un article traduit du site openculture.com


Avertissement : l’alcoolisme, la misanthropie et la misogynie de Bukowski étant notoires, le poème et la vidéo peuvent heurter votre sensibilité. Auquel cas il vous appartient de ne pas aller plus loin sur cette page.

Article original : Watch “Beer,” a Mind-Warping Animation of Charles Bukowski’s 1971 Poem Honoring His Favorite Drink

Traduction : Goofy

Une animation hallucinante pour illustrer un poème de Charles Bukowski en hommage à sa boisson préférée…

par

 

Je ne sais pas combien de bouteilles de bière
j’ai consommées en attendant que ça se remette au beau.
je ne sais pas non plus combien de vin
et de whisky
et de bière
plutôt de la bière d’ailleurs
j’ai consommé après toutes ces ruptures
en guettant la sonnerie du téléphone,
le bruit de leurs pas,
mais c’était toujours trop tard
que le téléphone sonnait
et c’était toujours aussi trop tard
qu’elles revenaient.
Alors que j’étais sur le point
de rendre mon âme
elles arrivaient, fraîches comme des primevères :
« Mais, Grands Dieux, t’avais besoin de te
mettre dans ces états ?
maintenant il va falloir que j’attende
3 jours avant que tu me baises! »

La femme s’use moins vite
elle vit sept ans et demi de plus
que l’homme, et elle boit très peu de bière
car elle sait le mal que ça fait à sa ligne.

Tandis que nous partons de la tronche
elles sont dehors
dansant et riant
avec des cow-boys en chaleur.

En résumé, il y a la bière
des sacs et des sacs de bouteilles vides
et quand tu essaies d’en soulever un
le fond qui est mouillé et
qui est en papier
ne résiste pas et les bouteilles passent à travers
elles roulent sur le sol
et ça résonne partout
et en se renversant le peu de bière qui restait
se mélange à la cendre de cigarettes ;
quoi qu’il en soit, à 4 heures du matin
un sac qui crève
te procure l’unique sensation de la journée.

De la bière
des fleuves et des mers de bière
de la bière de la bière de la bière
la radio passe des chansons d’amour
et comme le téléphone reste muet
et que les murs de ta chambre
ne bougent pas
qu’y a-t-il d’autre que la bière ?

(Traduction © Gérard Guégan)

Charles Bukowski savait vraiment écrire. Et Charles Bukowski savait vraiment boire. Ces deux faits, sûrement les plus connus sur le « diplômé du caniveau », le poète et auteur de romans tels que Postier et Souvenirs d’un pas grand-chose (ainsi que de ce qu’on pourrait appeler la chronique de sa vie quotidienne, Journal d’un vieux dégueulasse), vont de pair. La boisson a fourni suffisamment de matière à sa prose et à ses vers – et, dans la vie, suffisamment de carburant pour l’existence qu’il a posée sur la page avec un art de l’évocation si brutal – que nous pouvons difficilement imaginer l’écriture de Bukowski sans sa boisson, ou sa boisson sans son écriture.

On s’attend donc naturellement à ce qu’il ait écrit une ode à la bière, l’une de ses boissons de prédilection. « La bière », qui figure dans le recueil de poésie de Bukowski de 1971, L’amour est un chien de l’enfer, rend hommage aux innombrables bouteilles que l’homme a bues « en attendant que les choses s’améliorent », « après des ruptures avec les femmes », « en attendant que le téléphone sonne », « en attendant le bruit des pas ».

La femme, écrit-il, sait qu’il ne faut pas consommer de la bière à l’excès à la manière des hommes, car « elle sait que c’est mauvais pour la silhouette ». Mais Bukowski, au mépris de sa silhouette, trouve dans cette boisson, la plus prolétaire de toutes, une sorte de réconfort.

La bière prend vie dans l’animation ci-dessus réalisée par NERDO. Quelques extraits des notes d’accompagnement :

« La composition est un manifeste du mode de vie de l’auteur, c’est pourquoi nous avons décidé de pénétrer dans l’esprit de l’auteur, et ce n’est pas un voyage sans danger […]

Un solo de cerveau sans filtre, un récit de folie ordinaire, montrant à quel point la solitude et la décadence peuvent se cacher à l’intérieur d’un esprit de génie.

Ce périple sauvage passe par ce que nous reconnaissons aujourd’hui comme de nombreux signifiants visuels de l’expérience bukowskienne : enseignes au néon, cigarettes, pâtés de maisons en décomposition, polaroïds clinquants – et, bien sûr, la bière, littéralement « des rivières et des mers de bière », que nul autre qu’Homer Simpson, autre amateur animé de la boisson, n’a un jour, tout aussi éloquemment, dépeinte comme « la cause et la solution à tous les problèmes de la vie »

Bière fait partie de notre collection de 1000 livres audio à télécharger gratuitement.

D’autres ressources (en anglais) à parcourir :

Quatre poèmes de Charles Bukowski animés

D’autres poèmes de Bukowski lus par lui-même,Tom Waits et Bono

Tom Waits lit deux poèmes de Charles Bukowski, « The Laughing Heart » et “Nirvana”.

Écoutez 130 minutes des toutes premières lectures enregistrées de Charles Bukowski (1968)

Charles Bukowski s’insurge contre les emplois de type « 9 à 5 » dans une lettre d’une brutale honnêteté (1986)

« Journal d’un vieux dégueulasse : Les caricatures perdues de Charles Bukowski dans les années 60 et 70.

L’auteur de l’article

Basé à Séoul, Colin Marshall écrit et diffuse des articles sur les villes, la langue et le style. Il travaille actuellement à la rédaction d’un livre sur Los Angeles, A Los Angeles Primer, à la série de vidéos The City in Cinema, au projet de journalisme financé par le crowdfunding Where Is the City of the Future ? et au Korea Blog de la Los Angeles Review of Books. On peut le suivre sur Twitter à @colinmarshall.

 


Si cet article vous a plu et que vous découvrez l’intérêt du site openculture.com, vous pouvez contribuer par une petite donation sur cette page https://www.openculture.com/help-fund-open-culture (via Paypal, Patreon et même cryptomonnaie…)





Dark Side of the Rainbow, un mashup – Open Culture (1)

Petite série de l’été : au gré de mes découvertes, je partagerai ici quelques-unes des nombreuses ressources disponibles sur le très riche site https://www.openculture.com/ que je vous invite à découvrir et partager à votre tour sans modération.

Aujourd’hui, premier épisode avec un mashup (disons un « collage » artistique) audiovisuel entre deux œuvres iconiques archi-célèbres : un album-culte de Pink Floyd et une comédie musicale tout aussi culte, le magicien d’Oz.

Le mashup ou collage, est un genre musical hybride. Le mashup est à l’origine une chanson créée à partir d’une ou deux autres chansons pré-enregistrées, habituellement en superposant la partie vocale d’une chanson sur la partie instrumentale d’une autre, (Source Wikipédia. Pour en savoir plus…) mais on peut lui donner une acception plus large car plusieurs domaines artistiques, et pas seulement musicaux, peuvent être combinés dans un mashup.

Ah au fait : pour vous éviter un lien vers YouTube, j’ai utilisé une instance d’invidious qui agit comme un proxy (en gros, un intermédiaire qui soustrait la pollution visuelle et prédatrice de YouTube). Si celle que j’ai choisie ne fonctionne pas, essayez une autre instance fonctionnelle en piochant dans cette liste mise à jour régulièrement.

 

article original : Dark Side of the Rainbow: Pink Floyd Meets The Wizard of Oz in One of the Earliest Mash-Ups

Traduction : Goofy

 

Dark Side of the Rainbow : Pink Floyd rencontre le Magicien d’Oz dans l’un des plus anciens mashups.

par Colin Marshall


Mec, je suis sérieux… tu mets le Magicien d’Oz, tu mets Dark Side of the Moon, et tu les démarres en même temps. Ça marche à fond. C’est trooop synchroooone ! Ça te retourne la tête, mec.

On peut se moquer gentiment de ceux qui considèrent que c’est un moyen génial d’entrer dans leur trip préféré, si l’on peut dire, et chercher des résonances entre une comédie musicale de la MGM de 1939 et le huitième album de Pink Floyd, mais on ne peut nier que le mashup Dark Side of the Rainbow, comme ils l’appellent (quand ils ne l’appellent pas Dark Side of Oz ou The Wizard of Floyd), est devenu un phénomène culturel certes modeste, mais sérieux. En réalité, comme l’enthousiasme pour lancer Dark Side of the Moon en regardant Le Magicien d’Oz remonte au moins aussi loin que les discussions sur Usenet (lien) au milieu des années 90, il se pourrait bien que ce soit le premier mash-up sur Internet. Depuis, la rumeur selon laquelle l’expérience de visionnage était étrange s’est répandue bien au-delà des profondeurs de l’underground ; même une institution aussi ostensiblement stricte que la chaîne câblée Turner Classic Movies a déjà diffusé Le Magicien d’Oz avec Dark Side of the Moon comme bande-son.Il est clair que les gens trouvent leur compte dans ce « collage » audiovisuel, quel que soit leur état d’esprit. Au minimum, ils s’amusent des coïncidences entre les sons et thèmes lyriques de l’album et les séquences du film. Dark-side-of-the-rainbow.com proposait (NdT sur un site aujourd’hui disparu) une liste très complète de ces intersections, dès le battement de cœur en fondu enchaîné qui ouvre l’album jusqu’à l’apparition du titre du film :

Dans ce concept album nous avons [symboliquement] le début de la vie humaine. De nombreux parents commencent à donner un nom à leur enfant dès qu’ils en connaissent l’existence, souvent avant même de connaître le sexe de l’enfant. Ici, nous avons le nom d’un film, qui se trouve être le nom d’un des personnages du film, juste au moment où nous prenons conscience de cette nouvelle vie.

Pour les paroles qui accompagnent l’entrée de Dorothy à Munchkinland :

« Trouve un travail mieux payé et tout ira bien » : Dorothy ne le sait pas encore, mais elle est sur le point de passer du statut de fermière à celui de tueuse de méchantes sorcières.

Pour le battement de cœur qui clôt l’album, alors que l’homme en fer blanc reçoit un cœur à lui :

Dans le concept album, ce battement de cœur qui s’éteint représente la mort. Le nouveau cœur de l’homme de fer blanc, que l’on peut entendre battre, symbolise la renaissance. Une fois de plus, ce contraste entre ce que nous voyons dans le film et ce que nous entendons dans l’album vise à créer un équilibre. Et comme c’est ainsi que se termine l’histoire, cet équilibre montre comment, à la fin, le conte de fées a effectivement surmonté la tragédie.

Les Pink Floyd eux-mêmes ont désavoué toute intention de composition délibérément synchrone (Alan Parsons, qui a réalisé l’enregistrement, qualifie même l’idée de « foutage de gueule »), et même les plus fervents amateurs de Dark Side of the Rainbow ont peu de doutes à ce sujet. Certains diront que le groupe, déjà adepte de la composition de musiques de films, a fait tout cela inconsciemment, mais pour moi, la popularité durable de ce premier mashup est la preuve de quelque chose de bien plus intéressant : la tendance ininterrompue de l’humanité – voire sa compulsion – à trouver des modèles là où il n’y en a peut-être pas.

« Lorsque les coïncidences s’accumulent de la sorte, on ne peut s’empêcher d’être impressionné par elles, car plus le nombre d’éléments d’une telle série est élevé, ou plus son caractère est inhabituel, plus cela devient invraisemblable. »

Voilà ce que Carl Jung a écrit à propos du concept psychologique de synchronicité.

Dommage qu’il n’ait pas assez vécu pour voir ça.

Autres ressources sur le même sujet

Colin Marshall anime et produit Notebook on Cities and Culture et écrit des essais sur la littérature, le cinéma, les villes, l’Asie et l’esthétique. Sur Twitter, c’est @colinmarshall.


Si cet article vous a plu et que vous découvrez l’intérêt du site openculture.com, vous pouvez contribuer par une petite donation sur cette page https://www.openculture.com/help-fund-open-culture (via Paypal, Patreon et même cryptomonnaie…)