(Encore) un nouveau Fairphone ?

Le Fairphone 5 est sorti le 30 août dernier. La marque de téléphone dit « équitable » semble avoir réussi à se faire une place dans le paysage. Mais la sortie de ce nouveau modèle est-elle pour autant une bonne nouvelle ?

Note : cette BD reprend partiellement la chronique que Gee a donnée mardi dernier dans l’émission de radio de l’April, Libre à vous ! (dont le podcast sera disponible prochainement). La chronique et la BD sont complémentaires, et il n’est pas impossible qu’il réitère l’expérience d’un double-traitement à l’avenir 🙂

(Encore) un nouveau Fairphone ?

Si vous me suivez un peu, vous savez sans doute que j’ai été l’heureux propriétaire d’un Fairphone 2 pendant plusieurs années.

Gee, représenté avec la main bandée et une pile de batteries dans l'autre main : « Heureux, heureux… Si on met de côté le téléphone qui se transforme en charbon ardent et la batterie qui font comme neige en soleil. J'ai lâché l'affaire après en avoir racheté une quatrième en 6 ans.

Bon, même si mon Fairphone 2 a plutôt mal fini, OUI, je suis plutôt pro-Fairphone.

L’entreprise Fairphone semble bien fonctionner, car elle vient d’annoncer le Fairphone 5, dernier né des téléphones dits « équitables ».

Face à un personnage avec une casquette Fairphone, un businessman en costume s'écrie paniqué : « Quoi ? Vous voulez dire que vous ne faites pas construire vos téléphones par des enfants dans des usines-dortoirs avec bouteilles à pisse et filets anti-suicide ?! Mais vous pourriez respecter nos traditions de constructeurs de téléphones ! »

Le site officiel nous indique qu’il est conçu avec plus de 70 % de matériaux équitables ou recyclés, garanti 5 ans et facile à réparer.

Gee : « Bon, on peut voir le verre à moitié vide… enfin, à 30 % vide, et se dire qu'il reste du boulot pour avoir un truc 100 % propre. » La Geekette, en train de démonter un Fairphone : « Ouais, mais déjà, un téléphone que tu peux démonter/réparer/remonter avec un tournevis, QUEL BONHEUR ! »

Seulement, pour ne rien vous cacher, moi il reste un truc qui me chiffonne…

C’est que ce Fairphone est le cinquième en 10 ans : faites le calcul, on reste sur le bon vieux modèle du « un nouveau téléphone tous les deux ans ».

Un iPhone se moque : « Pfff, les amateurs ! Nous on en fait un nouveau par an, toujours à la pointe. » La Geekette : « Alors oui, c'est pas au niveau de l'iPhone, mais l'objet très énergivore et consommateur de ressources qu'on remplace tous les 2 ans… Ça va juste plus être possible d'un point de vue environnemental. » Le smiley : « Et allez, les Khmers verts, j'en étais sûr ! Steve Jobs, reviens ! Ils sont devenus fous ! »

Et malheureusement, le support logiciel des anciennes versions est bien sûr abandonné petit à petit. Tous ces efforts pour créer de nouvelles versions ne seraient-ils pas mieux employés à créer un téléphone vraiment durable et réparable très longtemps ?

Gee : « La production de terminaux, c'est 70 % de l'empreinte carbone du numérique en France*. Si on veut réduire cette empreinte, à un moment donné, il va falloir arrêter de fabriquer des nouveaux trucs dans tous les sens. » Un graphique montre l'empreinte carbone du numérique, avec 70 % pour les terminaux, suivi des datacenters à 20 % puis des réseaux à 10 %.

Voir le dossier de l’Arcep sur le sujet.

Au passage, vous constaterez que « trier ses mails pour la planète », c’est pas vraiment la priorité…

La Geekette : « Ça, c'est surtout du greenwashing pour continuer à nous faire consommer des trucs VRAIMENT merdiques pour le climat. » On voit une publicité pour une télé 4K, et une autre qui conseille de remplacer son vieux smartphone qui a déjà 18 mois. En bas, un petit message dit « Mais triez vos mails, bande d'irresponsables ! »

Bref, le Fairphone c’est un chouette projet, mais dont la gestion est assez symptomatique de « l’écologie pour les riches ».

Oui parce que le bouzin coûte quand même 700 boules, faut déjà pouvoir les sortir.

Un mec au volant de sa Tesla : « Ouais, nan mais suffit de payer les choses au juste prix du coût écologique, et tout va rouler, on va pouvoir continuer à consommer comme avant. » Le smiley : « Position confortable quand t'as assez de thunes pour absorber le choc. »

L’autre versant, « l’écologie pour les pauvres » en quelque sorte, il consiste à faire durer les objets, à ne pas gaspiller, à acheter du reconditionné…

Un businessman paniqué : « Quoi ?! Mais et la croissance alors ? Vous y avez pensé ? » Gee : « Oui, suffisamment pour piger que c'était la source du problème. » Le smiley : « Après, le reconditionné a ses limites aussi : c'est toujours dépendant de gens qui avaient acheté du neuf, et qui reconditionnent souvent pour racheter du neuf… »

Mais quoi qu’il en soit, comme d’habitude, les gestes isolés ne suffiront pas…

Le vrai impact écologique et social ne pourrait venir que d’une transformation du fonctionnement de l’économie, où l’on minimiserait collectivement la production dans l’optique de tout faire durer beaucoup plus longtemps.

La Geekette, pensive : « Tu veux dire… un fonctionnement qui serait conditionné aux capacités écologiques et humaines ? Et non plus dicté par le besoin croissance infinie ? » Gee : « Ouais, c'est ça ! Un fonctionnement qui ne serait plus… euh… Attendez, y'a un mot pour ça. » Il cherche le terme correct.

En clair : un fonctionnement qui ne serait plus capitaliste.

Le smiley, moqueur : « Gee a tenu toute une BD avant de sortir le mot magique, admirez l'effort. »

Souhaitons tout de même du succès au Fairphone, car les bonnes initiatives restent bonnes à prendre vu la merde dans laquelle on est…

Gee : « Mais n'oubliez pas : si vous avez le choix, faites durer vos appareils, réparez-les, achetez du reconditionné… » La Geekette : « Ouais voilà. Et surtout : saisissez les moyens de production. En gros. » Note : BD sous licence CC BY SA (grisebouille.net), dessinée le 21 septembre 2023 par Gee.

Crédit : Gee (Creative Commons By-Sa)




Bifurquer avec le
Collège européen de Cluny

Changer de voie professionnelle pour être plus en phase avec ses valeurs, ça se prépare : le Master of Advanced Studies « Innovation territoriale », organisé conjointement par le Collège européen de Cluny et la prestigieuse Université de Bologne, recrute sa promo 2023-2024 jusqu’au 29 septembre.

Framasoft y anime le module « Se connecter sans exclure » ­dans le cadre de l’UPLOAD1

On y parle culture libre et re-décentralisation d’Internet, bien sûr, mais aussi impact social et environnemental du numérique.

Nous profitons de cette rentrée pour donner un coup de projecteur sur ce post-master riche en promesses qui s’inscrit dans la perspective de bifurcation sociale et environnementale que Framasoft s’efforce d’accompagner.
Il vous reste 3 semaines pour embarquer dans ce chouette train.

logo de établissement : un C jaune comme Cluny au centre de la représentation stylisée de l'abbaye. Texte : Collège européen de Cluny, démocraties locales & innovation

Bonjour Jean-Luc, pourrais-tu d’abord te présenter et nous dire par quelle trajectoire tu en es venu à proposer une formation aussi originale.

photo de Jean-Luc Puech, bras croisés, souriantProfessionnellement, ma formation d’ingénieur m’a conduit vers les domaines de l’énergie et de l’environnement, puis de l’enseignement supérieur. En parallèle, je me suis engagé en citoyen dans l’action publique locale, avec un mandat de maire et trois mandats de président de communauté de communes en milieu rural à Cluny, dans le sud de la Bourgogne.
De cette double expérience, j’ai acquis la conviction que les modes de vie ne changeront que si l’action publique locale invente de nouvelles solidarités, de nouveaux services aux habitants. Et pour cela, la formation des acteurs est indispensable et urgente. Il faut sortir de l’hyper-spécialisation et du prêt-à-penser.

Ah oui en somme, tu as toi-même parcouru plusieurs voies… et c’est ainsi que le Collège européen de Cluny a ouvert sous ta direction un post-master que tu définis comme une formation « pour les bifurqueuses et bifurqueurs ».

Oui, cette formation qui est portée par un établissement à statut associatif, ce qui lui donne une large liberté d’inventer, est ouverte à toutes les personnes titulaires d’un diplôme de niveau master (ou disposant d’une expérience professionnelle équivalente), qui veulent donner un autre sens à leur parcours professionnel : sortir du carcan du monde d’avant, regarder en face les défis du changement climatique, de l’effondrement de la biodiversité, du creusement des inégalités territoriales et sociales, pour contribuer à tracer des chemins d’avenir par l’intelligence collective.

Voilà des perspectives et de nobles objectifs mais qui pourraient sembler un peu idéalistes… Pour donner des exemples concrets, peux-tu parler de personnes qui ont bénéficié de la formation l’année dernière, et dire dans quoi elles se sont engagées ensuite ?

Dans la première promotion, nous avons eu à la fois des profils de personnes qui venaient d’obtenir leur master et souhaitaient ouvrir leurs horizons, et d’autres qui après quelques années d’activité professionnelle décevante, souhaitaient se réorienter vers l’action publique à l’échelle des territoires.
Ainsi par exemple, Arnaud n’en pouvait plus de servir une société de services informatiques, le Master of advanced studies lui a permis de devenir développeur de projets d’énergie renouvelable en collectivité locale, Mathilde, juriste de l’environnement se consacre désormais à un pôle territorial d’économie circulaire. Clément, kiné, préfère travailler à l’issue de sa nouvelle formation sur la mobilité douce en milieu rural plutôt que de réparer les dégâts de modes de vie déséquilibrés.

Ça pourrait bien donner des idées aux lectrices et lecteurs du Framablog… Mais pour le contenu de la formation, quels sont les cours et ateliers qui sont proposés ?
La formation est structurée en deux types de modules, organisés chacun sur deux jours et demi par semaine :

  • Des modules qui portent sur des enjeux sectoriels :
    • se nourrir local,
    • se déplacer bas-carbone,
    • gérer l’énergie et le climat,
    • habiter l’existant, vivre avec le vivant,
    • se connecter sans exclure, etc.
  • Des modules méthodologiques :
    • mobiliser l’intelligence collective,
    • mobiliser le design pour l’innovation publique,
    • agir en citoyen local, régional, national, européen et global face à l’anthropocène, etc.

Dans ces modules, on alterne analyse théorique, expérimentation sur le terrain et rencontre avec des acteurs locaux.

groupe d'étudiants et étudiantes autour d'une table blanche ovale, photo prise au Collège européen de Cluny

Ah donc les participants et participantes font aussi l’expérience du terrain avec des projets ou stages ?

Oui, la formation comporte une période de conduite de projet territorial innovant, en collectivité, en association ou en entreprise, comme travailler avec les ados d’un territoire à l’évolution de leurs pratiques de mobilité, animer un collectif d’artisans et d’artistes dans la revitalisation d’une friche hospitalière pour en faire un lieu de partage de compétences, accompagner une intercommunalité dans la valorisation de ses ressources en bois local, etc.

Par ailleurs, la formation est en partenariat avec l’Université de Bologne, qu’est-ce que ça signifie au juste ?

Eh bien, le diplôme obtenu est un diplôme de l’université de Bologne et du Collège européen de Cluny. Le premier mois de formation (en novembre) a lieu à l’université de Bologne, sur son campus situé à Ravenne‎. Les cours y sont donnés en anglais par des professeurs de l’Université de Bologne. La suite de la formation, de décembre à mars a lieu à Cluny, sur le campus Arts et Métiers, au sein de l’ancienne abbaye, par des enseignants-chercheurs et des acteurs des territoires français. Le projet d’innovation en immersion professionnelle se déroule de mars à juillet.
logo de l'université de Bologne. dans un cachet rond : alma mater studiorum, A.D. 1088 avec au centre une gravure médiévale. reprise du texte latéralement + "Università di Bologna"

Les frais de scolarité sont assez importants, mais vous vous démenez pour proposer des solutions à celles et ceux qui ont peu de moyens, dans une démarche d’ouverture et d’inclusion.

Les droits de scolarité sont de 5000 € pour le diplôme conjoint avec l’Université de Bologne. Mais d’une part nous avons organisé une souscription populaire : des dons de citoyens permettent de donner un coup de pouce aux personnes qui auraient du mal à boucler le budget, d’autre part l’organisation du cursus à raison de 2,5 jours par semaine sur 6 mois est compatible avec une activité à temps partiel. Et le Collège européen est en contact avec les employeurs locaux, qui recherchent des équipiers : secteur sanitaire et social, artisanat, hospitalité, mobilité. Ces activités peuvent être elles-mêmes une riche expérience contribuant à la réflexion sur la nécessité de changer les modes de vie et les services.

Pour finir, quelle formule magique tu proposerais pour convaincre quelqu’un de s’inscrire dès cette promo ? « Il y a urgence » ? « Engagez-vous »?

mmmh, disons :

N’attends pas le monde d’après, donne-toi les moyens de participer à son invention !

 

personnage à droite un peu prétentieux : "j'ai bifurqué, j'étais chez Total, mais l'énergie c'est mort. Je me suis inscrit en master "IA et finance internationale", c'est pas évident hein, mais faut bien sauver sa gueule." deuxième personnage, une femme souriante : " ah moi aussi j'ai bifurqué, je suis le post-master de Cluny, on se forme à innover autrement : intégrer les enjeux sociaux et environnementaux à l'échelle du territoire… faut bien essayer de sauver le monde !

~~~~~~

  • En savoir plus ? Tous les détails nécessaires figurent dans la plaquette de l’établissement
  • … et Framasoft dans tout ça ?
Se connecter sans exclure, un module animé par Framasoft.
Le développement rapide du numérique (médias sociaux, services en ligne, intelligence artificielle…) ouvre des opportunités, mais il génère également des situations douloureuses (exclusion, dépendance, prolétarisation…). Il pose également des questions environnementales complexes, loin de la promesse originelle de la dématérialisation.
Le cours permet de questionner les principales conséquences économiques, sociales et environnementales de l’usage du numérique, à partir de constats actuels et de projections à court et moyen terme. On se penche sur des questions éthiques (accès à l’administration, illettrisme numérique, vie privée, croissance exponentielle…) en partageant des exemples (politiques publiques, initiatives citoyennes, recherches et formations…) pour anticiper et surmonter les risques qui accompagnent la révolution numérique.–> Le détail du module



Zoom et les politiques de confidentialité

Cet article a été publié à l’origine par THE MARKUP, il est traduit et republié avec l’accord de l’auteur selon les termes de la licence CC BY-NC-ND 4.0

 

Publication originale sur le site themarkup.org

 

Traduction Framalang : goofy, MO, Henri-Paul, Wisi_eu

 

Voilà ce qui arrive quand on se met à lire vraiment les politiques de confidentialité

Une récente polémique sur la capacité de Zoom à entraîner des intelligences artificielles avec les conversations des utilisateurs montre l’importance de lire les petits caractères

par Aaron Sankin

 

Photo de l'extérieur du siège de Zoom le 07 février 2023 à San José, Californie. Les côtés droit et gauche de la photo sont masqués par deux zones sombres qui ne sont pas mises au point.
Justin Sullivan/Getty Images

 

photo de l'auteurBonjour, je m’appelle Aaron Sankin, je suis journaliste d’investigation à The Markup. J’écris ici pour vous expliquer que si vous faites quelque chose de très pénible (lire les documents dans lesquels les entreprises expliquent ce qu’elles peuvent faire avec vos données), vous pourrez ensuite faire quelque chose d’un peu drôle (piquer votre crise en ligne).

Au cours du dernier quart de siècle, les politiques de protection de la vie privée – ce langage juridique long et dense que l’on parcourt rapidement avant de cliquer sans réfléchir sur « J’accepte » – sont devenues à la fois plus longues et plus touffues. Une étude publiée l’année dernière a montré que non seulement la longueur moyenne des politiques de confidentialité a quadruplé entre 1996 et 2021, mais qu’elles sont également devenues beaucoup plus difficiles à comprendre.

Voici ce qu’a écrit Isabel Wagner, professeur associé à l’université De Montfort, qui a utilisé l’apprentissage automatique afin d’analyser environ 50 000 politiques de confidentialité de sites web pour mener son étude :

« En analysant le contenu des politiques de confidentialité, nous identifions plusieurs tendances préoccupantes, notamment l’utilisation croissante de données de localisation, l’exploitation croissante de données collectées implicitement, l’absence de choix véritablement éclairé, l’absence de notification efficace des modifications de la politique de confidentialité, l’augmentation du partage des données avec des parties tierces opaques et le manque d’informations spécifiques sur les mesures de sécurité et de confidentialité »

Si l’apprentissage automatique peut être un outil efficace pour comprendre l’univers des politiques de confidentialité, sa présence à l’intérieur d’une politique de confidentialité peut déclencher un ouragan. Un cas concret : Zoom.

En début de semaine dernière, Zoom, le service populaire de visioconférence devenu omniprésent lorsque les confinements ont transformé de nombreuses réunions en présentiel en réunions dans de mini-fenêtres sur des mini-écrans d’ordinateurs portables, a récemment fait l’objet de vives critiques de la part des utilisateurs et des défenseurs de la vie privée, lorsqu’un article du site d’actualités technologiques Stack Diary a mis en évidence une section des conditions de service de l’entreprise indiquant qu’elle pouvait utiliser les données collectées auprès de ses utilisateurs pour entraîner l’intelligence artificielle.

version anglaise début août, capturée par la Wayback Machine d’Internet Archive

le texte précise bien l'usage consenti par l'utilisateur de ses données pour l'apprentissage automatique et l'intelligence artificielle
version française fin juillet, capturée par la Wayback Machine d’Internet Archive

 

Le contrat d’utilisation stipulait que les utilisateurs de Zoom donnaient à l’entreprise « une licence perpétuelle, non exclusive, libre de redevances, susceptible d’être cédée en sous-licence et transférable » pour utiliser le « Contenu client » à des fins diverses, notamment « de marketing, d’analyse des données, d’assurance qualité, d’apprentissage automatique, d’intelligence artificielle, etc.». Cette section ne précisait pas que les utilisateurs devaient d’abord donner leur consentement explicite pour que l’entreprise puisse le faire.

Une entreprise qui utilise secrètement les données d’une personne pour entraîner un modèle d’intelligence artificielle est particulièrement controversée par les temps qui courent. L’utilisation de l’IA pour remplacer les acteurs et les scénaristes en chair et en os est l’un des principaux points d’achoppement des grèves en cours qui ont paralysé Hollywood. OpenAI, la société à l’origine de ChatGPT, a fait l’objet d’une vague de poursuites judiciaires l’accusant d’avoir entraîné ses systèmes sur le travail d’écrivains sans leur consentement. Des entreprises comme Stack Overflow, Reddit et X (le nom qu’Elon Musk a décidé de donner à Twitter) ont également pris des mesures énergiques pour empêcher les entreprises d’IA d’utiliser leurs contenus pour entraîner des modèles sans obtenir elles-mêmes une part de l’activité.

La réaction en ligne contre Zoom a été féroce et immédiate, certaines organisations, comme le média Bellingcat, proclamant leur intention de ne plus utiliser Zoom pour les vidéoconférences. Meredith Whittaker, présidente de l’application de messagerie Signal spécialisée dans la protection de la vie privée, a profité de l’occasion pour faire de la publicité :

« HUM : Les appels vidéo de @signalapp fonctionnent très bien, même avec une faible bande passante, et ne collectent AUCUNE DONNÉE SUR VOUS NI SUR LA PERSONNE À QUI VOUS PARLEZ ! Une autre façon tangible et importante pour Signal de s’engager réellement en faveur de la vie privée est d’interrompre le pipeline vorace de surveillance des IA. »

Zoom, sans surprise, a éprouvé le besoin de réagir.

Dans les heures qui ont suivi la diffusion de l’histoire, le lundi même, Smita Hashim, responsable des produits chez Zoom, a publié un billet de blog visant à apaiser des personnes qui craignent de voir  leurs propos et comportements être intégrés dans des modèles d’entraînement d’IA, alors qu’elles souhaitent virtuellement un joyeux anniversaire à leur grand-mère, à des milliers de kilomètres de distance.

« Dans le cadre de notre engagement en faveur de la transparence et du contrôle par l’utilisateur, nous clarifions notre approche de deux aspects essentiels de nos services : les fonctions d’intelligence artificielle de Zoom et le partage de contenu avec les clients à des fins d’amélioration du produit », a écrit Mme Hashim. « Notre objectif est de permettre aux propriétaires de comptes Zoom et aux administrateurs de contrôler ces fonctions et leurs décisions, et nous sommes là pour faire la lumière sur la façon dont nous le faisons et comment cela affecte certains groupes de clients ».

Mme Hashim écrit que Zoom a mis à jour ses conditions d’utilisation pour donner plus de contexte sur les politiques d’utilisation des données par l’entreprise. Alors que le paragraphe sur Zoom ayant « une licence perpétuelle, non exclusive, libre de redevances, pouvant faire l’objet d’une sous-licence et transférable » pour utiliser les données des clients pour « l’apprentissage automatique, l’intelligence artificielle, la formation, les tests » est resté intact [N de T. cependant cette mention semble avoir disparu dans la version du 11 août 2023], une nouvelle phrase a été ajoutée juste en dessous :

« Zoom n’utilise aucun Contenu client audio, vidéo, chat, partage d’écran, pièces jointes ou autres communications comme le Contenu client (tels que les résultats des sondages, les tableaux blancs et les réactions) pour entraîner les modèles d’intelligence artificielle de Zoom ou de tiers. »

Comment utilisons-nous vos données à caractère personnel ?Les employés de Zoom n’accèdent pas au Contenu client des réunions, des webinaires, des messageries ou des e-mails (en particulier, l’audio, la vidéo, les fichiers, les tableaux blancs en réunion et les contenus des messageries ou des e-mails), ni au contenu généré ou partagé dans le cadre d’autres fonctions de collaboration (comme les tableaux blancs hors réunion), et ne les utilisent pas, à moins que le titulaire du compte hébergeant le produit ou Service Zoom où le Contenu client a été généré ne le demande ou que cela ne soit nécessaire pour des raisons juridiques, de sûreté ou de sécurité. Zoom n’utilise aucun Contenu client audio, vidéo, chat, partage d’écran, pièces jointes ou autres communications comme le Contenu client (tels que les résultats des sondages, les tableaux blancs et les réactions) pour entraîner les modèles d’intelligence artificielle de Zoom ou de tiers.
copie d’écran du 16/08/2023, page https://explore.zoom.us/fr/privacy/

 

Dans son billet de blog, Mme Hashim insiste sur le fait que Zoom n’utilise le contenu des utilisateurs que pour former l’IA à des produits spécifiques, comme un outil qui génère automatiquement des résumés de réunions, et seulement après que les utilisateurs auront explicitement choisi d’utiliser ces produits. « Un exemple de service d’apprentissage automatique pour lequel nous avons besoin d’une licence et de droits d’utilisation est notre analyse automatisée des invitations et des rappels de webinaires pour s’assurer que nous ne sommes pas utilisés involontairement pour spammer ou frauder les participants », écrit-elle. « Le client est propriétaire de l’invitation au webinaire et nous sommes autorisés à fournir le service à partir de ce contenu. En ce qui concerne l’IA, nous n’utilisons pas de contenus audios, de vidéos ou de chats pour entraîner nos modèles sans le consentement du client. »

La politique de confidentialité de Zoom – document distinct de ses conditions de service – ne mentionne l’intelligence artificielle ou l’apprentissage automatique que dans le contexte de la fourniture de « fonctions et produits intelligents (sic), tels que Zoom IQ ou d’autres outils pour recommander le chat, le courrier électronique ou d’autres contenus ».

Pour avoir une idée de ce que tout cela signifie, j’ai échangé avec Jesse Woo, un ingénieur spécialisé en données de The Markup qui, en tant qu’avocat spécialisé dans la protection de la vie privée, a participé à la rédaction de politiques institutionnelles d’utilisation des données.

M. Woo explique que, bien qu’il comprenne pourquoi la formulation des conditions d’utilisation de Zoom touche un point sensible, la mention suivant laquelle les utilisateurs autorisent l’entreprise à copier et à utiliser leur contenu est en fait assez standard dans ce type d’accord d’utilisation. Le problème est que la politique de Zoom a été rédigée de manière à ce que chacun des droits cédés à l’entreprise soit spécifiquement énuméré, ce qui peut sembler beaucoup. Mais c’est aussi ce qui se passe lorsque vous utilisez des produits ou des services en 2023, désolé, bienvenue dans le futur !

Pour illustrer la différence, M. Woo prend l’exemple de la politique de confidentialité du service de vidéoconférence concurrent Webex, qui stipule ce qui suit : « Nous ne surveillerons pas le contenu, sauf : (i) si cela est nécessaire pour fournir, soutenir ou améliorer la fourniture des services, (ii) pour enquêter sur des fraudes potentielles ou présumées, (iii) si vous nous l’avez demandé ou autorisé, ou (iv) si la loi l’exige ou pour exercer ou protéger nos droits légaux ».

Cette formulation semble beaucoup moins effrayante, même si, comme l’a noté M. Woo, l’entraînement de modèles d’IA pourrait probablement être mentionné par une entreprise sous couvert de mesures pour « soutenir ou améliorer la fourniture de services ».

L’idée que les gens puissent paniquer si les données qu’ils fournissent à une entreprise dans un but évident et simple (comme opérer un appel de vidéoconférence) sont ensuite utilisées à d’autres fins (comme entraîner un algorithme) n’est pas nouvelle. Un rapport publié par le Forum sur le futur de la vie privée (Future of Privacy Forum), en 2018, avertissait que « le besoin de grandes quantités de données pendant le développement en tant que « données d’entraînement » crée des problèmes de consentement pour les personnes qui pourraient avoir accepté de fournir des données personnelles dans un contexte commercial ou de recherche particulier, sans comprendre ou s’attendre à ce qu’elles soient ensuite utilisées pour la conception et le développement de nouveaux algorithmes. »

Pour Woo, l’essentiel est que, selon les termes des conditions de service initiales, Zoom aurait pu utiliser toutes les données des utilisateurs qu’elle souhaitait pour entraîner l’IA sans demander leur consentement et sans courir de risque juridique dans ce processus.

Ils sont actuellement liés par les restrictions qu’ils viennent d’inclure dans leurs conditions d’utilisation, mais rien ne les empêche de les modifier ultérieurement.
Jesse Woo, ingénieur en données chez The Markup

« Tout le risque qu’ils ont pris dans ce fiasco est en termes de réputation, et le seul recours des utilisateurs est de choisir un autre service de vidéoconférence », explique M. Woo. « S’ils avaient été intelligents, ils auraient utilisé un langage plus circonspect, mais toujours précis, tout en proposant l’option du refus, ce qui est une sorte d’illusion de choix pour la plupart des gens qui n’exercent pas leur droit de refus. »

Changements futurs mis à part, il y a quelque chose de remarquable dans le fait qu’un tollé public réussisse à obtenir d’une entreprise qu’elle déclare officiellement qu’elle ne fera pas quelque chose d’effrayant. L’ensemble de ces informations sert d’avertissement à d’autres sur le fait que l’entraînement de systèmes d’IA sur des données clients sans leur consentement pourrait susciter la colère de bon nombre de ces clients.

Les conditions d’utilisation de Zoom mentionnent la politique de l’entreprise en matière d’intelligence artificielle depuis le mois de mars, mais cette politique n’a attiré l’attention du grand public que la semaine dernière. Ce décalage suggère que les gens ne lisent peut-être pas les données juridiques, de plus en plus longues et de plus en plus denses, dans lesquelles les entreprises expliquent en détail ce qu’elles font avec vos données.

Heureusement, Woo et Jon Keegan, journalistes d’investigation sur les données pour The Markup, ont récemment publié un guide pratique (en anglais) indiquant comment lire une politique de confidentialité et en  identifier rapidement les parties importantes, effrayantes ou révoltantes.

Bonne lecture !


Sur le même thème, on peut s’intéresser à :

 




Rapport d’activités 2022 de l’association Framasoft

Oui : c’est à la mi-août 2023 que nous publions notre rapport d’activités 2022. Il faut dire qu’avec près d’une centaine de pages, c’est un sacré pavé !

À la mi-août, c’est tellement plus romantique…

Notre association mène, contribue ou échange avec tellement de projets et de collectifs qu’il est difficile de tout suivre, de tout documenter. Or c’est important : nous faisons de notre mieux pour rendre compte de tout ce que nous faisons, principalement grâce à vos dons.

Et puis il faut avouer qu’on aime bien aussi vérifier et double vérifier (on oublie toujours des choses), faire la chasse aux coquilles (il en reste toujours), et proposer une mise en page agréable qui facilite la lecture.

Voilà pourquoi, comme chaque année, nous préférons prendre le temps de réaliser ce rapport et pourquoi, comme chaque année, il parait au troisième trimestre de l’an suivant.

Si vous manquez de lecture dans votre vie, vous pouvez le consulter directement en cliquant sur l’image ci dessous :

couverture du rapport d'activités 2022 de Framasoft
cliquez sur l’image pour lire et/ou télécharger le rapport 2022

 

Un travail réalisé grâce à votre soutien

Vous pouvez retrouver l’ensemble de nos rapports annuels sur la page « association » de Framasoft.org (notez que le rapport financier 2022 n’est pas encore publié, puisqu’il est en cours de vérification par l’organisme de Commissaire aux Comptes qui certifie la comptabilité de l’exercice précédent.)

Nous ne le répéterons jamais assez : l’indépendance de Framasoft, notamment son indépendance financière, c’est celles et ceux d’entre vous qui nous soutiennent par leurs dons qui l’offrez à notre association, et in fine à l’ensemble de 1,4 millions de personnes qui bénéficient de nos actions chaque mois.

Merci, merci mille fois de cette confiance dont nous espérons nous montrer à la hauteur, une année de plus.

 

 




Comment s’organiser contre la domination assistée par ordinateur ? [forum ouvert]

Dans le cadre de l’Université d’Été des Mouvements Sociaux et de la Solidarité (UEMSS) qui se déroulera du 23 au 27 août à Bobigny, et avec les copaines de Attac, Ritimo, Globenet, Convergence Services Publics, Transiscope, l’April, L’Établi numérique, La Dérivation… Nous avons voulu proposer ensemble un forum ouvert pour permettre la rencontre de celles et ceux impliquées dans des luttes et confronter nos expériences et nos réflexions.

Cette journée d’échanges se déroulera le samedi 26 août. Elle nécessite de s’inscrire à l’UEMSS (prix libre).

Forum ouvert : Comment s’organiser contre la domination assistée par ordinateur ?

Amazon utilisant des algorithmes sophistiqués pour imposer des cadences inhumaines aux chauffeurs et aux employé⋅es des centres logistiques. Facebook et al. collectant les opinions politiques des collectifs qui s’organisent dessus et favorisent structurellement la réaction. L’industrie de la tech poussant à acheter toujours plus d’appareils électroniques, générant ainsi toujours plus d’extraction de ressources et de déchets qui finissent par s’entasser dans énormes décharges dans les pays du Sud. La police demandant l’accès à nos communications, la possibilité de nous surveiller en temps réel par la reconnaissance faciale ou la biométrie aux frontières. ParcoursSup organisant la sélection sociale dans un service public de l’enseignement en crise.

Les différentes dominations auxquelles nous faisons face mobilisent maintenant toutes l’infrastructure informatique pour se renforcer, s’amplifier et élargir leurs champs d’actions. Il est devenu difficile de trouver un exemple de lutte où le numérique n’apparaît pas à un moment comme un outil utilisé par celleux d’en face. La domination est maintenant assistée par ordinateur.

Si on ne s’intéresse pas au numérique, le numérique, lui, s’intéresse à nous. Il est donc indispensable de réfléchir ensemble, de nous organiser collectivement pour faire face à cette domination. Les questions sont multiples : pouvons-nous retourner les outils numériques contre le capitalisme ? Comment mieux nous protéger face à la surveillance généralisée permise par la technologie ? À quoi ressemblerait un monde numérique désirable et vivable ?

Le numérique est devenu une réalité politique à part entière, et son évolution ne peut pas être laissée à des prétendu·es expertes et au capitalisme.

Vous avez des pistes d’actions concrètes, des idées, des envies ? Venez avec votre enthousiasme pour les partager !

Rȯse, la mascotte de Mobilizon en avant pour le forum ouvert
illustration : David Revoy (CC-By)

Forum ouvert ?

Un forum ouvert se construit à partir des sujets que les personnes y participant souhaitent aborder. Le programme est élaboré ensemble au début de la journée. Le reste se déroule ensuite au rythme des différents groupes qui travaillent en parallèle et des nombreuses discussions informelles qui habitent les couloirs.

4 principes gouvernent un forum ouvert :

  • les personnes qui se présentent sont les bonnes personnes ;
  • il arrive ce qui pouvait arriver de mieux ;
  • ça commence quand ça commence ;
  • ça finit quand c’est fini.

La loi de la mobilité permet à une personne qui n’est ni en train d’apprendre, ni de contribuer, de changer de groupe.

Pistes de réflexion

Nous proposons quatre textes ou discussions pour alimenter nos réflexions avant l’événement :

Pour vous inscrire, c’est par ici !




Que veut dire « libre » (ou « open source ») pour un grand modèle de langage ?

Le flou entretenu entre open source et libre, déjà ancien et persistant dans l’industrie des technologies de l’information, revêt une nouvelle importance maintenant que les entreprises se lancent dans la course aux IA…
Explications, décantation et clarification par Stéphane Bortzmeyer, auquel nous ouvrons bien volontiers nos colonnes.


Vous le savez, les grands modèles de langage (ou LLM, pour « Large Language Model ») sont à la mode. Ces mécanismes, que le marketing met sous l’étiquette vague et sensationnaliste d’IA (Intelligence Artificielle), ont connu des progrès spectaculaires ces dernières années.
Une de leurs applications les plus connues est la génération de textes ou d’images. L’ouverture au public de ChatGPT, en novembre 2022, a popularisé cette application. Chaque grande entreprise de l’informatique sort désormais son propre modèle, son propre LLM.
Il faut donc se distinguer du concurrent et, pour cela, certains utilisent des arguments qui devraient plaire aux lecteurs et lectrices du Framablog, en affirmant que leur modèle est (en anglais dans le texte) « open source ». Est-ce vrai ou bien est-ce du « libre-washing » ?
Et qu’est-ce que cela veut dire pour cet objet un peu particulier qu’est un modèle de langage ?

Copie d'écran d'un tweet de Viva technology citant le président Macron au salon Vivatech où il insiste sur les LLM souverains. le texte le cite "on doit accélérer l'open source et tous les grands modèles et avoir des LMM européens qui permettront de réguler. i faut ensuite qu'on arrive à régler des cas critiques, savoir si c'est de l'IA ou pas".
Tout le monde parle des LLM (ici, avec une faute de frappe).

Source ouverte ?

Traitons d’abord un cas pénible mais fréquent : que veut dire « open source » ? Le terme désigne normalement l’information qui est librement disponible. C’est en ce sens que les diplomates, les chercheurs, les journalistes et les espions parlent de ROSO (Renseignement d’Origine en Sources Ouvertes) ou d’OSINT (Open Source Intelligence). Mais, dans le contexte du logiciel, le terme a acquis un autre sens quand un groupe de personnes, en 1998, a décidé d’essayer de remplacer le terme de « logiciel libre », qui faisait peur aux décideurs, par celui d’« open source ». Ils ont produit une définition du terme qu’on peut considérer comme la définition officielle d’« open source ». Il est intéressant de noter qu’en pratique, cette définition est quasiment équivalente aux définitions classiques du logiciel libre et que des phrases comme « le logiciel X n’est pas libre mais est open source » n’ont donc pas de sens. Ceci dit, la plupart des gens qui utilisent le terme « open source » ne connaissent ni l’histoire, ni la politique, ni la définition « officielle » et ce terme, en réalité, est utilisé pour tout et n’importe quoi. On peut donc se dire « open source » sans risque d’être contredit. Je vais donc plutôt me pencher sur la question « ces modèles sont-ils libres ? ».

Grand modèle de langage ?

Le cas du logiciel est désormais bien connu et, sauf grande malhonnêteté intellectuelle, il est facile de dire si un logiciel est libre ou pas. Mais un modèle de langage ? C’est plus compliqué, Revenons un peu sur le fonctionnement d’un LLM (grand modèle de langage). On part d’une certaine quantité de données, par exemple des textes, le « dataset ». On applique divers traitements à ces données pour produire un premier modèle. Un modèle n’est ni un programme, ni un pur ensemble de données. C’est un objet intermédiaire, qui tient des deux. Après d’éventuels raffinements et ajouts, le modèle va être utilisé par un programme (le moteur) qui va le faire tourner et, par exemple, générer du texte. Le moteur en question peut être libre ou pas. Ainsi, la bibliothèque transformers est clairement libre (licence Apache), ainsi que les bibliothèques dont elle dépend (comme PyTorch). Mais c’est le modèle qu’elle va exécuter qui détermine la qualité du résultat. Et la question du caractère libre ou pas du modèle est bien plus délicate.

Notons au passage que, vu l’importante consommation de ressources matérielles qu’utilisent ces LLM, ils sont souvent exécutés sur une grosse machine distante (le mythique « cloud »). Lorsque vous jouez avec ChatGPT, le modèle (GPT 3 au début, GPT 4 désormais) n’est pas téléchargé chez vous. Vous avez donc le service ChatGPT, qui utilise le modèle GPT.

Mais qui produit ces modèles (on verra plus loin que c’est une tâche non triviale) ? Toutes les grandes entreprises du numérique ont le leur (OpenAI a le GPT qui propulse ChatGPT, Meta a Llama), mais il en existe bien d’autres (Bloom, Falcon, etc), sans compter ceux qui sont dérivés d’un modèle existant. Beaucoup de ces modèles sont disponibles sur Hugging Face (« le GitHub de l’IA », si vous cherchez une « catch phrase ») et vous verrez donc bien des références à Hugging Face dans la suite de cet article.  Prenons par exemple le modèle Falcon. Sa fiche sur Hugging Face nous donne ses caractéristiques techniques, le jeu de données sur lequel il a été entrainé (on verra que tous les modèles sont loin d’être aussi transparents sur leur création) et la licence utilisée (licence Apache, une licence libre). Hugging Face distribue également des jeux de données d’entrainement.

Dans cet exemple ci-dessous (trouvé dans la documentation de Hugging Face), on fait tourner le moteur transformers (plus exactement, transformers, plus diverses bibliothèques logicielles) sur le modèle xlnet-base-cased en lui posant la question « Es-tu du logiciel libre ? » :

% python run_generation.py --model_type=xlnet --model_name_or_path=xlnet-base-cased
...
Model prompt >>> Are you free software?
This is a friendly reminder - the current text generation call will exceed the model's predefined maximum length (-1). Depending on the model, you may observe exceptions, performance degradation, or nothing at all.
=== GENERATED SEQUENCE 1 ===
Are you free software? Are you a professional? Are you a Master of Technical Knowledge? Are you a Professional?

Ce modèle, comme vous le voyez, est bien moins performant que celui qui est derrière le service ChatGPT ; je l’ai choisi parce qu’il peut tourner sur un ordinateur ordinaire.

Vous voulez voir du code source en langage Python ? Voici un exemple d’un programme qui fait à peu près la même chose :

from transformers import pipeline

generator = pipeline("text-generation", model="DunnBC22/xlnet-base-cased-finetuned-WikiNeural-PoS") 
print(generator("Are you free software?"))

Le modèle utilisé est un raffinement du précédent, DunnBC22/xlnet-base-cased-finetuned-WikiNeural-PoS. Il produit lui aussi du contenu de qualité contestable([{‘generated_text’: « Are you free software? What ever you may have played online over your days? Are you playing these games? Any these these hours where you aren’t wearing any heavy clothing?) mais, bon, c’est un simple exemple, pas un usage intelligent de ces modèles.

 

Un chat gris pensif dans une librairie, assis sur un bac empli de livres

Les LLM n’ont pas de corps (comme Scarlett Johansson dans le film « Her ») et ne sont donc pas faciles à illustrer. Plutôt qu’une de ces stupides illustrations de robot (les LLM n’ont pas de corps, bon sang !), je mets une image d’un chat certainement intelligent. Drew Coffman, CC BY 2.0, via Wikimedia Commons

 

Que veut dire « libre » pour un LLM ?

Les définitions classiques du logiciel libre ne s’appliquent pas telles quelles. Des entreprises (et les journalistes paresseux qui relaient leurs communiqués de presse sans vérifier) peuvent dire que leur modèle est « open source » simplement parce qu’on peut le télécharger et l’utiliser. C’est très loin de la liberté. En effet, cette simple autorisation ne permet pas les libertés suivantes :

  • Connaître le jeu de données utilisé pour l’entrainement, ce qui permettrait de connaitre les choix effectués par les auteurs du modèle (quels textes ils ont retenu, quels textes ils ont écarté) et savoir qui a écrit les textes en question (et n’était pas forcément d’accord pour cette utilisation).
  • Connaître les innombrables choix techniques qui ont été faits pour transformer ces textes en un modèle. (Rappelez-vous  : un algorithme, ce sont les décisions de quelqu’un d’autre.)

Sans ces informations, on ne peut pas refaire le modèle différemment (alors que la possibilité de modifier le programme est une des libertés essentielles pour qu’un logiciel soit qualifié de libre). Certes, on peut affiner le modèle (« fine-tuning a pre-trained model », diront les documentations) mais cela ne modifie pas le modèle lui-même, certains choix sont irréversibles (par exemple des choix de censure). Vous pouvez créer un nouveau modèle à partir du modèle initial (si la licence prétendument « open source » le permet) mais c’est tout.

Un exemple de libre-washing

Le 18 juillet 2023, l’entreprise Meta a annoncé la disponibilité de la version 2 de son modèle Llama, et le fait qu’il soit « open source ». Meta avait même convaincu un certain nombre de personnalités de signer un appel de soutien, une initiative rare dans le capitalisme. Imagine-t-on Microsoft faire signer un appel de soutien et de félicitations pour une nouvelle version de Windows ? En réalité, la licence est très restrictive, même le simple usage du modèle est limité. Par exemple, on ne peut pas utiliser Llama pour améliorer un autre modèle (concurrent). La démonstration la plus simple de la non-liberté est que, pour utiliser le modèle Llama sur Hugging Face, vous devez soumettre une candidature, que Meta accepte ou pas (« Cannot access gated repo for url https://huggingface.co/meta-llama/Llama-2-7b/resolve/main/config.json. Access to model meta-llama/Llama-2-7b is restricted and you are not in the authorized list. Visit https://huggingface.co/meta-llama/Llama-2-7b to ask for access. »)

Mais la communication dans l’industrie du numérique est telle que très peu de gens ont vérifié. Beaucoup de commentateurs et de gourous ont simplement relayé la propagande de Meta. Les auteurs de la définition originale d’« open source » ont expliqué clairement que Llama n’avait rien d’« open source », même en étant très laxiste sur l’utilisation du terme. Ceci dit, il y a une certaine ironie derrière le fait que les mêmes personnes, celles de cette Open Source Initiative, critiquent Meta alors même qu’elles avaient inventé le terme « open source » pour brouiller les pistes et relativiser l’importance de la liberté.

Au contraire, un modèle comme Falcon coche toutes les cases et peut très probablement être qualifié de libre.

La taille compte

Si une organisation qui crée un LLM publie le jeu de données utilisé, tous les réglages utilisés pendant l’entrainement, et permet ensuite son utilisation, sa modification et sa redistribution, est-ce que le modèle peut être qualifié de libre ? Oui, certainement, mais on peut ajouter une restriction, le problème pratique. En effet, un modèle significatif (disons, permettant des résultats qui ne sont pas ridicules par rapport à ceux de ChatGPT) nécessite une quantité colossale de données et des machines énormes pour l’entrainement. L’exécution du modèle par le moteur peut être plus économe. Encore qu’elle soit hors de portée, par exemple, de l’ordiphone classique. Si une application « utilisant l’IA » tourne soi-disant sur votre ordiphone, c’est simplement parce que le gros du travail est fait par un ordinateur distant, à qui l’application envoie vos données (ce qui pose divers problèmes liés à la vie privée, mais c’est une autre histoire). Même si l’ordiphone avait les capacités nécessaires, faire tourner un modèle non trivial épuiserait vite sa batterie. Certains fabricants promettent des LLM tournant sur l’ordiphone lui-même (« on-device ») mais c’est loin d’être réalisé.

Mais l’entraînement d’un modèle non trivial est bien pire. Non seulement il faut télécharger des téra-octets sur son disque dur, et les stocker, mais il faut des dizaines d’ordinateurs rapides équipés de GPU (puces graphiques) pour créer le modèle. Le modèle Llama aurait nécessité des milliers de machines et Bloom une bonne partie d’un super-calculateur. Cette histoire de taille ne remet pas en question le caractère libre du modèle, mais cela limite quand même cette liberté en pratique. Un peu comme si on vous disait « vous êtes libre de passer votre week-end sur la Lune, d’ailleurs voici les plans de la fusée ». Le monde du logiciel libre n’a pas encore beaucoup réfléchi à ce genre de problèmes. (Qui ne touche pas que l’IA : ainsi, un logiciel très complexe, comme un navigateur Web, peut être libre, sans que pour autant les modifications soit une entreprise raisonnable.) En pratique, pour l’instant, il y a donc peu de gens qui ré-entrainent le modèle, faisant au contraire une confiance aveugle à ce qu’ils ont téléchargé (voire utilisé à distance).

Conclusion

Pour l’instant, la question de savoir ce que signifie la liberté pour un modèle de langage reste donc ouverte. L’Open Source Initiative a lancé un projet pour arriver à une définition. Je ne connais pas d’effort analogue du côté de la FSF mais plus tard, peut-être ?




Le X de Musk n’est pas une inconnue…

L’actualité récente nous invite à republier avec son accord l’article de Kazhnuz sur son blog (il est sous licence CC BY-SA 4.0) qui souligne un point assez peu observé de la stratégie d’Elon Musk : elle n’est guère innovante et ne vise qu’à ajouter un X aux GAFAM pour capter une base utilisateur à des fins mercantiles…


Twitter vers X, la marketplacisation2 d’Internet

Photo Blue bird seen at Lake Merritt Oakland par Michael Slaten.

par Kazhnuz

L’annonce a été faite le 23 juillet, Twitter va être remplacé par X, le « rêve » de Musk de créer l’app-à-tout-faire à la WeChat en Chine. Le logo va être changé, et la marque Twitter va être abandonnée au profit de celle de X, et le domaine x.com redirige déjà vers Twitter. Le nom a déjà été utilisé jadis par Musk pour sa banque en ligne (qui après moult péripéties deviendra Paypal, justement parce que le nom est nul et pose des tonnes de soucis – ressembler à un nom de site X justement), et cette fois comme y’a personne pour lui dire « stop mec ton idée pue », il le fait.

Cependant, je pense qu’il y a quelques trucs intéressants à dire sur la situation, parce qu’au final, plus qu’une « lubie de Musk », il y a dedans quelque chose qui informe de la transformation faite de twitter, et de la façon dont Musk fait juste partie d’un mouvement fortement présent dans la Silicon Valley.

Encore un

Je pense qu’il ne faut pas voir ce changement de nom comme quelque chose de si surprenant, imprévisible, parce que c’est jouer le jeu de Musk de croire qu’il est l’électron libre qu’il prétend être. Parce que même s’il va plus loin en changeant carrément la marque du produit, Musk ne fait (encore une fois) que copier-coller un comportement déjà présent dans le milieu de la tech.

Parce qu’au final, Twitter appartenant et devenant X Corp, c’est comme Facebook qui devient Meta Plateform, ou Google qui devient Alphabet Inc. Un changement en grande partie pour tenter de forger la « hype », l’idée que le site fait partie de quelque chose de plus grand, du futur, de ce qui va former l’Internet – non la vie – de demain. Bon je pense que ça se voit que je suis un peu sarcastique de tout ça, mais y’a cette idée derrière les grandes entreprises de la tech. Elles ne sont plus dans l’idée de tourner autour de quelques produits, elles se présentent comme le « futur ». X Corp n’est qu’une tentative de créer un autre GAFAM, et fait partie des mêmes mouvements, des mêmes visions, du même aspect « techbro ».

C’est pour ça que le nom « rigolo » est moins mis en avant par rapport au nom plus « générique-mais-cool-regardez ». Meta, pour ceux qui vont au-delà et le métavers. X pour la variable inconnue. Alphabet pour aller de A à Z. Tout cela est de l’esbroufe, parce que plus que vendre un produit, ils vendent de la hype aux investisseurs.

Et le fait que Musk a voulu réutiliser ce nom dans le passé ne change pas grand-chose à tout ça. Le but, l’ego est le même. Donner l’impression qu’on est face à une grosse mégacorporation du futur. Et ce manque d’originalité n’est pas que dans le changement de nom, mais aussi au final dans son plan derrière tout ça : transformer Twitter en une marketplace.

X, une autre marketplace

Le passage de Twitter à X.com, montre le même cœur que les metaverse et crypto… et au final une grande partie des transformations qui se sont produites : tout transformer en marketplace, enrobé dans une esthétique de technofuturisme. Cela se voit encore plus dans le message de Linda Yaccarino, la CEO de Twitter :

X est l’état futur de l’interactivité illimitée – centrée sur l’audio, la vidéo, la messagerie, les paiements/les banques – créant une place de marché globale pour les idées, les biens, les services et les opportunités. Propulsé par l’IA, X va nous connecter d’une manière que nous commençons juste à imaginer.

— Linda Yaccarino, twitter

On peut remarquer deux choses dans ce message :

Le premier est qu’il n’y a rien d’original dedans. Nous y retrouvons exactement la même chose que l’on retrouvait à l’époque des crypto et des NFT : le truc qui fait tout mais surtout des trucs qui existent déjà, et basé sur la technologie du turfu. Y’a déjà 500 plateformes pour faire payer pour des services, que ce soit en crowdfunding, au format « patreon », via des commissions, etc. Des ventes de biens sur internet, y’a aussi des tonnes de moyens, etc. Tout ce qui est rajouté c’est « on va faire tous ces trucs qui existent déjà, et on a dit « IA » dedans donc c’est le futur ça va tout révolutionner tavu ». C’est le modus operandi classique, et il n’y a rien d’original dans ce que propose Twitter. D’ailleurs, le rôle que peut avoir l’IA dedans est très vague : est-ce que c’est pour modifier les algorithmes ? (cela ne sert pas à grand-chose, on les hait tous déjà). Est-ce que c’est pour pouvoir générer des produits par IA pour les vendre ? Le produit que veut proposer X Corp n’a pas besoin d’IA pour fonctionner, elle est là juste pour dire « c’est le futur », et hyper les investisseurs.

Le second est que cela transforme l’idée de base de Twitter (l’endroit où les gens parlent) en avant tout une « place de marché », comme indiqué plus haut. Twitter était le lieu de la discussion, du partage de l’idée à la con qu’on a eue sous la douche. D’où le format du microblogging. Là aussi, même cet aspect devient quelque chose de commercialisable, ce qui rappelle encore une fois le mouvement qu’il y avait eu autour de la crypto et des NFT : tout doit pouvoir devenir commercialisable, tout doit pouvoir devenir un produit. C’est aussi ce mouvement qui fait qu’on a de plus en plus de « jeux-services », qui servent avant tout à vendre des produits dématérialisés n’ayant de valeur qu’à l’intérieur du jeu (et encore). Beaucoup de jeux ne peuvent plus juste « être un jeu », ils doivent être une « marketplace ».

Conclusion

La transformation de twitter en X n’est donc pas une surprise – en plus du fait que c’était annoncé depuis longtemps. Il ne s’agit que d’un phénomène qui arrive tout le temps sur Internet. Une volonté de transformer un site populaire en une « place de marché du futur » pour hyper des investisseurs. Encore une fois.

Et au final, on sait bien ce qu’a acheté Musk quand il a acheté Twitter. Il n’a pas acheté un produit. Il a acheté une userbase (une base d’utilisateurs et utilisatrices) pour l’injecter directement dans le nouveau produit qu’il voulait faire. C’est assez ironique de voir que Twitter a fini de la même manière que certains comptes populaires : revendu pour être renommé et envoyer sa pub à des tonnes d’utilisateurs.

l'oiseau bleu de twitter sur le dos et à terre, mort avec un X qui lui ferme l'œil.




David Revoy, un artiste face aux IA génératives

Depuis plusieurs années, Framasoft est honoré et enchanté des illustrations que lui fournit David Revoy, comme sont ravi⋅es les lectrices et lecteurs qui apprécient les aventures de Pepper et Carrot et les graphistes qui bénéficient de ses tutoriels. Ses créations graphiques sont sous licence libre (CC-BY), ce qui est un choix courageux compte tenu des « éditeurs » dépourvus de scrupules comme on peut le lire dans cet article.

Cet artiste talentueux autant que généreux explique aujourd’hui son embarras face aux IA génératives et pourquoi son éthique ainsi que son processus créatif personnel l’empêchent de les utiliser comme le font les « IArtistes »…

Article original en anglais sur le blog de David Revoy

Traduction : Goofy, révisée par l’auteur.

Intelligence artificielle : voici pourquoi je n’utiliserai pas pour mes créations artistiques de hashtag #HumanArt, #HumanMade ou #NoAI

par David REVOY

 

Pepper sur une chaise entourée de flammes, reprise d'un célèbre mème "this is fine"
Image d’illustration : « This is not fine », licence CC-BY 4.0, source en haute résolution disponible

« C’est cool, vous avez utilisé quel IA pour faire ça ? »

« Son travail est sans aucun doute de l’IA »

« C’est de l’art fait avec de l’IA et je trouve ça déprimant… »

… voilà un échantillon des commentaires que je reçois de plus en plus sur mon travail artistique.

Et ce n’est pas agréable.

Dans un monde où des légions d’IArtistes envahissent les plateformes comme celles des médias sociaux, de DeviantArt ou ArtStation, je remarque que dans l’esprit du plus grand nombre on commence à mettre l’Art-par-IA et l’art numérique dans le même panier. En tant qu’artiste numérique qui crée son œuvre comme une vraie peinture, je trouve cette situation très injuste. J’utilise une tablette graphique, des layers (couches d’images), des peintures numériques et des pinceaux numériques. J’y travaille dur des heures et des heures. Je ne me contente pas de saisir au clavier une invite et d’appuyer sur Entrée pour avoir mes images.
C’est pourquoi j’ai commencé à ajouter les hashtags #HumanArt puis #HumanMade à mes œuvres sur les réseaux sociaux pour indiquer clairement que mon art est « fait à la main » et qu’il n’utilise pas Stable Diffusion, Dall-E, Midjourney ou n’importe quel outil de génération automatique d’images disponible aujourd’hui. Je voulais clarifier cela pour ne plus recevoir le genre de commentaires que j’ai cités au début de mon intro. Mais quel est le meilleur hashtag pour cela ?

Je ne savais pas trop, alors j’ai lancé un sondage sur mon fil Mastodon

sondage sur le fil mastodon de David : Quel hashtag recommanderiez-vous à un artiste qui veut montrer que son art n'est paz créé par IA ? réponses : 55% #HumanMade 30% #Human Art 15% Autre (commentez)
Source: https://framapiaf.org/@davidrevoy/110618065523294522

Résultats

Sur 954 personnes qui ont voté (je les remercie), #HumanMade l’emporte par 55 % contre 30 % pour #HumanArt. Mais ce qui m’a fait changer d’idée c’est la diversité et la richesse des points de vue que j’ai reçus en commentaires. Bon nombre d’entre eux étaient privés et donc vous ne pouvez pas les parcourir. Mais ils m’ont vraiment fait changer d’avis sur la question. C’est pourquoi j’ai décidé de rédiger cet article pour en parler un peu.

Critiques des hashtags #HumanMade et #HumanArt

Tout d’abord, #HumanArt sonne comme une opposition au célèbre tag #FurryArt de la communauté Furry. Bien vu, ce n’est pas ce que je veux.

Et puis #HumanMade est un choix qui a été critiqué parce que l’IA aussi était une création humaine, ce qui lui faisait perdre sa pertinence. Mais la plupart des personnes pouvaient facilement comprendre ce que #HumanMade signifierait sous une création artistique. Donc 55 % des votes était un score cohérent.

J’ai aussi reçu pas mal de propositions d’alternatives comme #HandCrafted, #HandMade, #Art et autres suggestions.

Le succès de #NoAI

J’ai également reçu beaucoup de suggestions en faveur du hashtag #NoAI, ainsi que des variantes plus drôles et surtout plus crues. C’était tout à fait marrant, mais je n’ai pas l’intention de m’attaquer à toute l’intelligence artificielle. Certains de ses usages qui reposent sur des jeux de données éthiques pourraient à l’avenir s’avérer de bons outils. J’y reviendrai plus loin dans cet article.
De toutes façons, j’ai toujours essayé d’avoir un état d’esprit « favorable à » plutôt que « opposé à » quelque chose.

C’est aux artistes qui utilisent l’IA de taguer leur message

Ceci est revenu aussi très fréquemment dans les commentaires. Malheureusement, les IArtistes taguent rarement leur travail, comme on peut le voir sur les réseaux sociaux, DeviantArt ou ArtStation. Et je les comprends, vu le nombre d’avantages qu’ils ont à ne pas le faire.

Pour commencer, ils peuvent se faire passer pour des artistes sans grand effort. Ensuite, ils peuvent conférer à leur art davantage de légitimité à leurs yeux et aux yeux de leur public. Enfin, ils peuvent probablement éviter les commentaires hostiles et les signalements des artistes anti-IA des diverses plateformes.
Je n’ai donc pas l’espoir qu’ils le feront un jour. Je déteste cette situation parce qu’elle est injuste.
Mais récemment j’ai commencé à apprécier ce comportement sous un autre angle, dans la mesure où ces impostures pourraient ruiner tous les jeux de données et les modèles d’apprentissage : les IA se dévorent elles-mêmes.

Quand David propose de saboter les jeux de données… 😛 

Pas de hashtag du tout

La dernière suggestion que j’ai fréquemment reçue était de ne pas utiliser de hashtag du tout.
En effet, écrire #HumanArt, #HumanMade ou #NoAI signalerait immédiatement le message et l’œuvre comme une cible de qualité pour l’apprentissage sur les jeux de données à venir. Comme je l’ai écrit plus haut, obtenir des jeux de données réalisées par des humains est le futur défi des IA. Je ne veux surtout pas leur faciliter la tâche.
Il m’est toujours possible d’indiquer mon éthique personnelle en écrivant « Œuvre réalisée sans utilisation de générateur d’image par IA qui repose sur des jeux de données non éthiques » dans la section d’informations de mon profil de média social, ou bien d’ajouter simplement un lien vers l’article que j’écris en ce moment même.

Conclusion et considérations sur les IA

J’ai donc pris ma décision : je n’utiliserai pour ma création artistique aucun hashtag, ni #HumanArt, ni #HumanMade, ni #NoAI.
Je continuerai à publier en ligne mes œuvres numériques, comme je le fais depuis le début des années 2000.
Je continuerai à tout publier sous une licence permissive Creative Commons et avec les fichiers sources, parce que c’est ainsi que j’aime qualifier mon art : libre et gratuit.

Malheureusement, je ne serai jamais en mesure d’empêcher des entreprises dépourvues d’éthique de siphonner complètement mes collections d’œuvres. Le mal est en tout cas déjà fait : des centaines, voire des milliers de mes illustrations et cases de bandes dessinées ont été utilisées pour entraîner leurs IA. Il est facile d’en avoir la preuve (par exemple sur haveibeentrained.com  ou bien en parcourant le jeu de données d’apprentissage Laion5B).

Je ne suis pas du tout d’accord avec ça.

Quelles sont mes possibilités ? Pas grand-chose… Je ne peux pas supprimer mes créations une à une de leur jeu de données. Elles ont été copiées sur tellement de sites de fonds d’écran, de galeries, forums et autres projets. Je n’ai pas les ressources pour me lancer là-dedans. Je ne peux pas non plus exclure mes créations futures des prochaines moissons par scans. De plus, les méthodes de protection comme Glaze me paraissent une piètre solution au problème, je ne suis pas convaincu. Pas plus que par la perspective d’imposer des filigranes à mes images…

Ne vous y trompez pas : je n’ai rien contre la technologie des IA en elle-même.On la trouve partout en ce moment. Dans le smartphones pour améliorer les photos, dans les logiciels de 3D pour éliminer le « bruit » des processeurs graphiques, dans les outils de traduction [N. de T. la présente traduction a en effet été réalisée avec l’aide DeepL pour le premier jet], derrière les moteurs de recherche etc. Les techniques de réseaux neuronaux et d’apprentissage machine sur les jeux de données s’avèrent très efficaces pour certaines tâches.
Les projets FLOSS (Free Libre and Open Source Software) eux-mêmes comme GMIC développent leurs propres bibliothèques de réseaux neuronaux. Bien sûr elles reposeront sur des jeux de données éthiques. Comme d’habitude, mon problème n’est pas la technologie en elle-même. Mon problème, c’est le mode de gouvernance et l’éthique de ceux qui utilisent de telles technologies.

Pour ma part, je continuerai à ne pas utiliser d’IA génératives dans mon travail (Stable Diffusion, Dall-E, Midjourney et Cie). Je les ai expérimentées sur les médias sociaux par le passé, parfois sérieusement, parfois en étant impressionné, mais le plus souvent de façon sarcastique .

Je n’aime pas du tout le processus des IA…

Quand je crée une nouvelle œuvre, je n’exprime pas mes idées avec des mots.
Quand je crée une nouvelle œuvre, je n’envoie pas l’idée par texto à mon cerveau.

C’est un mixage complexe d’émotions, de formes, de couleurs et de textures. C’est comme saisir au vol une scène éphémère venue d’un rêve passager rendant visite à mon cerveau. Elle n’a nul besoin d’être traduite en une formulation verbale. Quand je fais cela, je partage une part intime de mon rêve intérieur. Cela va au-delà des mots pour atteindre certaines émotions, souvenirs et sensations.
Avec les IA, les IArtistes se contentent de saisir au clavier un certains nombre de mots-clés pour le thème. Ils l’agrémentent d’autres mots-clés, ciblent l’imitation d’un artiste ou d’un style. Puis ils laissent le hasard opérer pour avoir un résultat. Ensuite ils découvrent que ce résultat, bien sûr, inclut des émotions sous forme picturale, des formes, des couleurs et des textures. Mais ces émotions sont-elles les leurs ou bien un sous-produit de leur processus ? Quoi qu’il en soit, ils peuvent posséder ces émotions.

Les IArtistes sont juste des mineurs qui forent dans les œuvres d’art générées artificiellement, c’est le nouveau Readymade numérique de notre temps. Cette technologie recherche la productivité au moindre coût et au moindre effort. Je pense que c’est très cohérent avec notre époque. Cela fournit à beaucoup d’écrivains des illustrations médiocres pour les couvertures de leurs livres, aux rédacteurs pour leurs articles, aux musiciens pour leurs albums et aux IArtistes pour leurs portfolios…

Je comprends bien qu’on ne peut pas revenir en arrière, ce public se sent comme empuissanté par les IA. Il peut finalement avoir des illustrations vite et pas cher. Et il va traiter de luddites tous les artistes qui luttent contre ça…

Mais je vais persister ici à déclarer que personnellement je n’aime pas cette forme d’art, parce qu’elle ne dit rien de ses créateurs. Ce qu’ils pensent, quel est leur goût esthétique, ce qu’ils ont en eux-mêmes pour tracer une ligne ou donner tel coup de pinceau, quelle lumière brille en eux, comment ils masquent leurs imperfections, leurs délicieuses inexactitudes en les maquillant… Je veux voir tout cela et suivre la vie des personnes, œuvre après œuvre.

J’espère que vous continuerez à suivre et soutenir mon travail artistique, les épisodes de mes bandes dessinées, mes articles et tutoriels, pour les mêmes raisons.


Vous pouvez soutenir la travail de David Revoy en devenant un mécène ou en parcourant sa boutique.