Une « édition » minable de Pepper & Carrot sur Amazon

Depuis quelques années, Framasoft bénéficie des illustrations très appréciées de David Revoy, un artiste qui séduit autant par son talent et son imaginaire que par le choix de publier en licence libre (CC-BY), ce qui est plutôt exceptionnel dans le monde de la bande dessinée. La licence qu’il a choisie autorise à :

  • Adapter — remixer, transformer et créer à partir du matériel, y compris pour un usage commercial.

La seule condition impérative est l’Attribution

Attribution — Vous devez créditer l’Œuvre, intégrer un lien vers la licence et indiquer si des modifications ont été effectuées à l’œuvre. Vous devez indiquer ces informations par tous les moyens raisonnables, sans toutefois suggérer que l’Offrant vous soutient ou soutient la façon dont vous avez utilisé son Œuvre.

assortie d’une interdiction :

Pas de restrictions complémentaires — Vous n’êtes pas autorisé à appliquer des conditions légales ou des mesures techniques qui restreindraient légalement autrui à utiliser l’œuvre dans les conditions décrites par la licence.

Comme on peut le lire plus haut et comme le précise David lui-même dans sa F.A.Q, ce n’est pas parce que la licence est libre que l’on peut se servir sans scrupules des œuvres et du nom de l’auteur :

Ce n’est pas parce que vous pouvez réutiliser mes œuvres que je suis d’accord avec ce que vous faites, ou que je peux être considéré comme un auteur actif de votre projet, surtout si mon nom est écrit comme une signature de votre dérivation ou si vous réutilisez mon nom pour dire à votre public que je suis « d’accord » avec votre projet. Cela ne fonctionne pas comme ça. Restez simple : communiquez la vérité,

C’est justement ces précautions et ce respect élémentaires que n’ont pas pris les éditeurs (méritent-ils ce nom ?) d’une publication dérivée de Pepper & Carrot (déjà 37 épisodes traduits en 63 langues !) et qui est en vente sur Amazon, plateforme bien connue pour ses pratiques commerciales éthiques (non)…

Alors David, d’ordinaire si aimable, se fâche tout rouge et relève toutes les pratiques complètement hors-pistes de Fa Comics, dans l’article ci-dessous publié sur son blog et traduit pour vous par Framalang…


Article original de David Revoy sur son blog : Fa Bd Comics books on SCAMazon: don’t buy them

Traduction Framalang : GPSqueek, Sysy, Poca, goofy, macrico

N’achetez pas les BD des éditions Fa Bd sur SCAMazon

par David Revoy

On atteint un record : avec la communauté de Pepper & Carrot, nous avons trouvé Fa Bd, l’éditeur du pire dérivé de Pepper & Carrot à ce jour.

Malheureusement, les produits sont publiés sous mon nom et aussi sous le nom d’artistes qui ont réalisé des fan-arts de Pepper & Carrot… Voilà pourquoi j’écris cet article, histoire de décrire un peu cette arnaque et ce carnage de la publication assistée par ordinateur qui se perpétue actuellement sur Amazon, et aussi pour dissuader le public de Pepper & Carrot de les acheter.

Accrochez-vous, car nous entrons dans le territoire du zéro absolu de la qualité, des horreurs du graphisme, des cauchemars de la colorimétrie et de l’affreuse mise en page.

Les trois albums

Un grand merci à Craig Maloney qui a acheté les trois albums pour que nous puissions évaluer leur qualité. Il a également réalisé toutes les photos que vous trouverez ici et a écrit des commentaires sur Amazon sous les albums afin d’avertir d’autres clients potentiels de leur piètre qualité.

1. Héritage

Lien vers Amazon : https://www.amazon.com/Heritage-David-Revoy/dp/B0BS1ZHM9T/

Il s’agit d’une version imprimable datant de décembre 2022 de mon webcomic (épisode unique) L’héritage en couleur publié en mai 2012 sous la licence Creative Commons Attribution 4.0 International.

 

Mes observations :

(1) bien que la couverture soit correcte, l’impression gâche totalement l’histoire elle-même : le concept de cette bande dessinée est la représentation en couleurs des sentiments du personnage principal, pourtant l’éditeur a décidé d’imprimer l’histoire complète en noir et blanc. Cela rend le tout le récit illisible et dénué de sens. Essayez de lire l’original et demandez-vous ce que vaut la bande dessinée en noir et blanc. Apparemment, c’est assez bon pour être publié de cette façon par les éditions FA Bd Comics…

(2) L’attribution est là mais l’éditeur FA BD comics n’indique pas son rôle. Et attendez, une adresse courriel Caramail ? Je croyais qu’ils avaient disparu il y a 20 ans 1. Je n’aime pas la façon dont mon crédit et mon nom sur la couverture et la page produit donnent l’impression que j’ai approuvé cette publication et que j’y ai collaboré. Il ne s’agit pas d’une « violation d’approbation » explicite, mais j’ai honte de voir mon nom figurer sur ces pages.

(3) L’éditeur a oublié une page dans l’histoire : l’avant-dernière… ce qui fait que ça casse encore plus l’histoire. Et pour remplir la fin du livre, des parties aléatoires du making of ont été téléchargées et déversées comme ça sans aucun avertissement, juste après la fin de l’histoire.

Davantage de photos ici.

2. Les histoires de Pepper & Carrot

Lien vers Amazon : https://www.amazon.com/Pepper-Carrot-Novels-David-Revoy/dp/B09ZZVJLDT/

Description : Il s’agit d’une compilation imprimable datant de mai 2022 d’un mélange de Fan-art de Pepper&Carrot contenant des bulles de texte et de BD Fan-art de Pepper & Carrot.

Mes observations :

(1) Mon nom figure en haut de la couverture, alors qu’aucune illustration de moi ne figure sur cet album. C’est très problématique, car même si j’apprécie beaucoup le fan-art d’étude de Pepper envoyé par Coyau en 2015 parce que c’était parmi les premiers fan-arts que j’ai reçus sur Pepper & Carrot, je ne pense pas que Coyau s’attendait à ce qu’il soit utilisé comme œuvre d’art/visuel/illustration pour la couverture.

(2) Même si tous les fan-arts sont correctement attribués à leur auteur, l’éditeur a mal lu une information importante sur Pepper & Carrot : l’auteur du fan-art peut mettre son œuvre sous la licence qu’il souhaite. Et sauf mention explicite, ils sont tous protégés par le droit d’auteur. C’est écrit clairement dans la case « Licence » de chaque fan-art sur le site. « Cette image est un fan-art réalisé par <nom de l’auteur>. Elle est affichée sur la galerie de fan-arts de Pepper & Carrot avec sa permission. Ne réutilisez pas cette image pour votre projet sans l’autorisation de l’auteur ». L’éditeur, sur les crédits de son album, assume « basé sur le même personnage avec la même licence ». C’est faux et abusif. Notez également que l’email de l’éditeur change sur ces crédits, et que la ligne « œuvre de fiction » de Héritage est également présente… Boulot de copier-coller vite fait et négligent détecté !

(3) Les fan-arts sont imprimés en noir et blanc. Il n’y a pas d’indication permettant de savoir qui, parmi la liste des auteurs, a dessiné quelle page, et il n’y a pas de mise en page. Les dessins sont simplement collés sur la page avec de grands espaces vides, même lorsque la police est trop petite. Notez que le contraste est également faible. Ce n’est pas du tout respectueux des créations artistiques.

Davantage de photos ici.

3. Pepper & Carrot Mini

Lien vers Amazon: https://www.amazon.com/Pepper-Carrot-Mini-Nicolas-Artance/dp/B0BHMPMM14/

Il s’agit d’une publication papier d’octobre 2010 de la série Pepper & Carrot Mini par Nicolas Artance. Nicolas Artance est l’un des principaux contributeurs et modérateurs de la communauté Pepper & Carrot, et joue un rôle important dans la version française de la série principale. Il publie sa série sous Creative Commons Attribution 4.0 International et partage également les sources complètes.

Mes observations :

(1) La couverture ne provient pas de Pepper & Carrot Mini, elle n’a pas été réalisée par Nicolas Artance ni par moi-même, mais c’est un fan-art de Tessou. Il y a donc un problème de copyright puisque le dessin de Tessou n’est pas publié sous la licence de Pepper & Carrot. La couverture contient également trois noms et il est difficile de savoir qui fait quoi ou qui soutient quoi. Sur le produit Amazon, nous sommes co-auteur avec Nicolas… Quel bazar !

(2) Même mensonge que pour l’album précédent à propos de la licence du fan-art, et une grosse faute de frappe dans le nom de Nicolas (Nocolas). Apparemment, cet éditeur n’a aucun correcteur et s’en moque.

(3) La qualité, la mise en page… Tout est imprimé en noir et blanc et en faible contraste. Les planches en paysage sont « adaptées à la largeur » de la page. Certaines polices sont à peine lisibles.

Davantage de photos ici.

Et maintenant ?

Tout d’abord, vous pouvez aider : si vous avez un compte Amazon [NdT : il faut un compte sur Amazon.com, ça ne marchera pas depuis un compte Amazon.fr], vous pouvez simplement cliquer sur le bouton « Utile » sur les commentaires de Craig sur chaque livre 1, 2 et 3. Ce n’est pas grand-chose, mais cela aidera probablement les acheteurs potentiels à passer leur chemin en voyant l’avis 1 étoile.

Je n’ai clairement pas la charité de penser que cet éditeur souffre juste d’incompétence flagrante et qu’il essaie simplement d’aider l’impression d’œuvres culturelles libres. Ils ne m’ont jamais contacté, ils n’ont jamais contribué à l’écosystème Pepper&Carrot pour autant que je sache, et ils ont juste fait un produit de la plus basse qualité avec peu d’efforts sur une place de marché où il n’y a aucun contrôle sur la qualité.

C’est hors de prix et le fait de voir ce niveau d’irrespect pour mon art et pour l’industrie du livre est clairement ce qui affecte mon humeur. Je ne pense pas que ce produit dérivé soit d’un grand secours. S’il vous plaît, FA Bd Comic ou Amazon : si vous lisez ceci, retirez ces produits dès que possible.

De mon côté, je vais essayer de les contacter tous les deux pour qu’ils retirent les albums. Ils ont tous trop de problèmes pour être en ligne, y compris des problèmes de copyright. J’écrirai toute mise à jour ultérieure sous cette rubrique. En attendant, ne les achetez pas !

 

Mises à jour

A. 2023-03-28, 01:20am : J’ai pris le temps de faire un rapport officiel pour violation de copyright sur Amazon. Je vous informerai de l’issue de ce rapport.

B. 2023-03-28, 01:00pm : J’ai reçu ma réponse : « Nous n’avons pas été en mesure de vérifier que vous êtes le propriétaire des droits ou son agent ». (réponse automatique complète). Ok, j’abandonne…

 

Informations complémentaires sur la licence : le texte de cet article est publié sous Creative Commons Attribution 4.0. Cependant, les images de cet article sont protégées : ne les réutilisez pas : elles contiennent du fan-art, des copyrights et des marques déposées.




Échirolles libérée ! La dégooglisation (5)

Voici aujourd’hui le 5e et dernier article que Nicolas Vivant consacre à la dégooglisation de la ville d’Échirolles (si vous avez raté les épisodes précédents). Maintenant que les outils sont en place, il est temps d’envisager comment la mutualisation et la décentralisation conjuguées pourraient ouvrir de nouvelles perspectives aux citoyens et citoyennes de l’agglomération.


Le grand absent de ce récit est le travail important entamé sur la réduction de l’impact environnemental du numérique. C’est un fil conducteur permanent pour notre action. De nombreuses choses sont faites, mais d’autres décrivent beaucoup mieux que nous les enjeux, les outils et ce qu’il convient de faire pour avancer. Leur travail nous sert de guide. J’y reviendrai dans un article (modeste et) dédié.

Voir plus loin pour viser juste

Une vision pour l’avenir, ce n’est pas une prédiction, ni même une prévision. C’est simplement un axe, une direction. C’est ce qui permet, quand deux chemins existent, de faire un choix. Ce n’est évidemment pas une garantie que ce choix soit le bon mais si, à chaque carrefour, une direction existe qui aide à se déterminer, alors nous gagnons en cohérence, en rapidité de décision et, finalement, en efficacité.

Dans un monde où la dégooglisation serait une réalité, où les logiciels libres seraient dominants et où transparence et partage des données s’imposeraient comme une évidence, quel pourrait être l’étape suivante ? Et quelles pierres poser, dès aujourd’hui, qui tendraient vers cet objectif et pourraient orienter notre action ?

La décentralisation comme facteur de résilience

Historiquement, l’internet public est une architecture décentralisée. C’est même l’une des raisons de sa création : l’interconnexion de réseaux divers, dans un but de coopération. Même si le récit d’un internet construit comme un réseau permettant de résister à une attaque nucléaire est une légende urbaine, les événements récents ont permis de vérifier que la décentralisation était bien l’une des clés de la résilience des systèmes d’information.

En France, la plupart des accès résidentiels reposent sur Orange, Free, Bouygues et SFR. Quatre infrastructures qui, si elles étaient attaquées, affecteraient durablement nos communications. Une étude du RIPE a montré comment l’internet ukrainien résistait au black-out général malgré les nombreuses dégradations de l »infrastructure. Le secret ? Une structure distribuée, décentralisée, et des fournisseurs d’accès locaux partout dans le pays.

L’exemple le plus connu (et l’un des plus anciens) d’un système fédéré est la messagerie électronique. Les fournisseurs d’adresses e-mail sont innombrables mais, parce qu’ils ont choisi d’utiliser des protocoles standard, interopérables, chaque utilisateur peut échanger des messages avec tous les autres. Si l’un des prestataires techniques disparaît (c’est arrivé plusieurs fois), il ne met pas en danger l’intégralité du système. La domination d’un acteur, en revanche, parce qu’elle repose sur la centralisation des ressources (pensons à Gmail), peut fragiliser cette construction.

Mais l’angle de la résilience n’est pas le seul qu’il est intéressant d’interroger.

Décentralisation et mutualisation

Dans l’esprit de la plupart de nos décideurs, mutualisation et centralisation vont de pair, l’un des objectifs d’un effort de mise en commun des moyens étant de réaliser des économies d’échelle. Pour un certain nombre d’applications centrales, cette promesse est tenue. Cependant, quelques inconvénients sont associés à ce type de projet :

  • éloignement des organes de décision
  • perte d’autonomie dans les choix techniques ou politiques
  • moindre connaissance de l’environnement des utilisateurs
  • moindre réactivité dans la mise en œuvre des projets

Comment articuler coopération (pour une plus grande efficacité dans les projets transversaux) et autonomie (pour conserver une certaine liberté de choix et d’action) ?

En coopérant, des structures indépendantes peuvent créer des réseaux au service de projets d’envergure, tout en conservant leur autonomie de gestion, d’évolution et d’action. Des moyens techniques existent, et elles sont très largement implantées dans les solutions libres. ActivityPub a été officiellement publié comme recommandation du W3C le 23 janvier 2018.

Ce standard, qui permet d’interfacer des solutions diverses, est présent dans plusieurs des logiciels utilisés par la ville d’Échirolles : Nextcloud (plateforme collaborative), Peertube (hébergement de vidéos), Mastodon (réseau social) et WordPress (création de sites web). Ces quatre outils sont de plus en plus utilisés par les collectivités territoriales, les ministères et les partenaires de la ville, mais les fonctionnalités de fédération sont rarement mises en œuvre, en interne comme en externe. Pourtant, les applications pourraient être nombreuses : partage d’annuaires/de dossiers entre collectivités (Nextcloud), meilleure visibilité de la communication des structures associées (Peertube), création de sites dans le cadre de projets intercommunaux (WordPress), mise en avant des actions d’un territoire (Mastodon), etc.

La fédération comme horizon

Au sein d’Alpes Numérique Libre, le collectif de DSI de la région grenobloise autour des logiciels libres, le sujet est en train de naître, sans concrétisation pour le moment. La mise en place d’une fédération des acteurs au sein d’un même territoire géographique pourrait être une première pierre posée, une expérience intéressante du point de vue de l’action publique dont nous pourrions, peut-être, tirer des enseignements plus larges.

Les EPCI (établissements publics de coopération intercommunale), comme le SITPI ou Grenoble Alpes Métropole dans notre région, pourraient jouer un rôle moteur dans ce type d’initiative : idéalement positionnés au centre des réseaux communaux, ils disposent d’une architecture parfaitement adaptée.

L’instance Mastodon colter.social, créée, hébergée et maintenue par le SITPI est, à ce titre, un précurseur intéressant de ce que pourraient être ces fonctionnements fédératifs. Mise à disposition de l’ensemble des collectivités territoriales, sa modération est assurée par les agents de collectivités qui ne sont pas forcément adhérentes du syndicat, mais qui ont choisi de coopérer. Des outils comme Zammad ou Signal (pour des instances plus importantes, pourquoi pas un serveur Matrix ?) permettent d’organiser efficacement ce travail.

Plusieurs autres systèmes de mutualisation innovants pourraient être imaginés, alliant la mise à disposition de ressources pour les petites collectivités (un serveur PeerTube partagé, par exemple) et une fédération avec les structures de taille plus importante, chacune maintenant sa propre solution.

Nous n’en sommes pas là pour le moment, et nombreuses sont les collectivités qui reposent sur des solutions hébergées (en mode SaaS), souvent chez des grands acteurs américains (Google, Microsoft, Amazon…), parce qu’elles n’ont pas les compétences ou les ressources financières permettant un autre fonctionnement.

Pas toujours très bien structurées, focalisées sur leur transformation numérique, choisie ou subie, ce type de projet peut paraître bien éloigné de leurs préoccupations quotidiennes. Mais il me semblait intéressant de faire ce travail de prospective, comme un horizon vers lequel nous pourrions, individuellement et collectivement, choisir de tendre.

L’épisode 1 (structuration)
L’épisode 2 (transformation)
L’épisode 3 (solutions)
L’épisode 4 (inclusion)
L’épisode 5 (vous êtes ici)

***

Retrouvez-moi sur Mastodon : https://colter.social/@nicolasvivant




Échirolles libérée ! La dégooglisation (4)

Dans ce quatrième volet du processus de dégooglisation de la ville d’Échirolles (si vous avez manqué le début) Nicolas Vivant aborde le complexe problème de la fracture numérique, qui demande d’aller au-delà de la médiation pour trouver des structures et des moyens adaptées aux pratiques diverses des citoyens : la stratégie numérique doit aller de pair avec l’action sociale.


Dégooglisation d’Échirolles, partie 4 : l’inclusion numérique

La fracture numérique : un symptôme parmi d’autres

Avec 36% de logements sociaux et 3 quartiers « politique de la ville » Échirolles est, sans nul doute, une ville populaire. Plusieurs études sur les difficultés liées au numérique ont été réalisées sur notre territoire : l’une par notre CCAS (2019), l’autre par un cabinet indépendant (2020-2021). Si elles n’ont pas montré de situation spécifique à notre commune, elles ont permis de mesurer l’étendue des problématiques qu’il est indispensable de travailler.

Quelles sont les populations qui rencontrent des difficultés avec le numérique ?

  • Les personnes âgées ;
  • les personnes en situation de précarité sociale ou financière ;
  • les personnes ne maîtrisant pas bien la langue française ;
  • les jeunes qui possèdent les outils, mais ne maîtrisent pas les usages ;
  • les personnes en situation de handicap ou qui souffrent de pathologies.

Notre CCAS adresse avec sérieux l’ensemble de ces enjeux. Nos maisons des habitants (anciennement « centres sociaux ») jouent un rôle majeur dans leur prise en charge, partout sur le territoire communal. Des équipes existent, avec qui il n’est pas envisageable de ne pas travailler. Pour autant, dans un effort de cohérence avec le schéma directeur « Échirolles numérique libre », nos élus et notre direction générale ont choisi de rattacher l’inclusion numérique à la DSCN (Direction de la Stratégie et de la Culture Numériques).

Conclusion : la fracture numérique n’est pas un problème en tant que tel. C’est un symptôme d’enjeux sociaux qui doivent rester prioritaires dans l’aide apportée à nos habitants. Traiter la fracture numérique sans prendre en compte les problématiques sous-jacentes serait un pansement sur une jambe de bois. Un travail en transversalité est indispensable.

La médiation comme unique solution ?

Les études réalisées ont également montré que les difficultés rencontrées par notre population ne se limitaient pas aux usages. Un véritable effort d’inclusion numérique nécessite d’adresser 6 grands domaines :

1. L’accès au matériel (PC, smartphones, systèmes d’impression) ;
2. l’accès à une connexion internet de qualité ;
3. la formation technique ;
4. l’information, l’éducation populaire aux grands enjeux du numérique ;
5. l’assistance aux usages, l’accès au droit ;
6. le support matériel.

Les efforts de l’État et des collectivités sur l’inclusion numérique reposent principalement sur la médiation numérique (les points 3, 4 et 5, donc). Dans le cadre du plan « France Relance », par exemple, l’ANCT (Agence Nationale de Cohésion des Territoires) finance depuis 2021 le recrutement de « Conseillers Numériques France Services » dans les associations ou les collectivités territoriales. Des « Maisons France Services » et des « Bus France Services » émaillent également nos régions.

Pour les autres points (1, 2 et 6), seul le secteur privé se positionne. On connaît, par exemple, le travail d’associations comme Emmaüs Connect pour la mise à disposition de smartphones et de cartes SIM prépayées, mais seuls les publics en grande précarité sont adressés.

La mise à disposition, dans les communes, d’accès publics, permet de répondre, en partie, aux problématiques du manque de matériel et d’accès à internet. L’accès aux téléservices mis à disposition (et souvent rendus obligatoires) par l’état et les grandes structures compétentes dans le domaine social, est possible depuis ce type de lieu. Mais la dimension intime de l’accès au numérique n’est pas prise en compte : on ne contacte pas sa grand-mère (ou sa compagne) en visioconférence depuis un lieu public. On ne regarde pas une série ou un match de foot depuis une maison des habitants.

Sans faire l’effort de mettre à la disposition des publics fragiles du matériel et une connexion à internet de qualité à domicile, on ne pratique pas une véritable inclusion : ceux qui ont les moyens disposent d’accès dans des conditions confortables et dans l’intimité, les autres doivent sortir, par tous les temps, pour bénéficier d’un accès au numérique limité, à des horaires qu’ils ne peuvent pas choisir et sous le regard de leurs concitoyens.

La médiation numérique ne peut constituer, à elle seule, un dispositif d’inclusion numérique efficace et complet. Un travail plus ambitieux est indispensable. Nous essayons de nous y atteler (et ce n’est pas simple).

L’inclusion à l’échirolloise

L’accès au matériel

Pour la mise à disposition de matériel pour ceux qui en ont le plus besoin, la ville a choisi de s’appuyer sur une association échirolloise récente : PC solidaire (site en cours de développement au moment où cet article est rédigé). Le processus est en cours de création : notre DSI remettra son matériel usagé à cette association, qui se chargera de le reconditionner et de le remettre gratuitement, via les maisons des habitants, aux bénéficiaires.

L’association a eu l’excellente idée de se pencher sur le schéma directeur de la ville et a choisi, librement, de s’en inspirer. Le système d’exploitation par défaut devrait donc être le même que celui est en cours de déploiement : Zorin OS.

L’accès à internet

C’est le point le plus difficile à travailler, et de loin. L’offre étant exclusivement privée, nous essayons de négocier avec les FAI (fournisseurs d’accès à internet) la mise en place d’une solution très abordable à destination des bénéficiaires de logement sociaux. Des discussions sont en cours, mais aujourd’hui aucune offre véritablement satisfaisante n’est en place. Seule proposition (pas suffisamment) connue, à destination des populations bénéficiant des minima sociaux, celle d’Orange, « Coup de pouce Internet », à 15,99€/mois.

La formation, l’information et l’assistance

Grâce à un financement de l’ANCT, la Ville et son CCAS ont pu, en 2021, recruter 4 conseillers numériques. Ils interviennent dans les maisons des habitants, les bibliothèques et la maison des associations. Spécialisés dans la médiation numérique et formés dans le cadre du dispositif de l’État ils réalisent, depuis juillet 2021, des accompagnements individuels, des ateliers et des sessions de formation. Malheureusement, l’État annonce une baisse des financements et ces emplois sont menacés. Nous travaillons donc à la mise en place d’un nouveau dispositif, pérenne cette fois-ci, et qui ne dépendra pas de financements extérieurs.


Quelques-uns de nos conseillers, au travail dans une MDH

D’autres initiatives existent à Échirolles depuis des années : « Les écrans, parlons-en ! », par exemple. Conçu par le service « éducation » de la ville en lien étroit avec le CCAS, ce dispositif part du principe qu’une bonne hygiène numérique passe aussi par l’éloignement raisonné des écrans.

Mais encore ?

La ville a choisi de ne pas limiter son aide aux seuls habitants, mais aussi aux nombreuses associations qui animent le territoire (→ https://asso-echirolles.fr). Notre tissu associatif est riche de ses bénévoles, dynamique et innovant dans ses actions. Sa contribution au « vivre ensemble » est majeure. L’étude « Échirolles numérique » de 2021 a montré que l’accès aux ressources numériques était très variable en fonction des associations. Nous avons donc décidé de leur apporter une aide sur deux volets : la création de sites web et (dans un second temps) la mise à disposition d’outils numériques de gestion associative.

Le principe est simple : la DSI de la ville prend en charge l’hébergement, crée un sous-domaine dédié à l’association, installe un CMS (système de gestion de contenu) libre et gère les mises à jour (CMS, thèmes, extensions…) et les sauvegardes. 6 ateliers de formation sont organisés pour apprendre à créer son contenu et à faire vivre le site. À l’issue de ces ateliers, l’association administre son site en autonomie. En cas de problème, un forum permet d’échanger avec le formateur et les autres associations qui bénéficient du dispositif. Le point fort : si les personnes en charge du site ne sont plus en mesure de s’en occuper, un retour en atelier est toujours possible pour qu’une nouvelle équipe s’en saisisse.

Inclusion vs dégooglisation

L’efficacité du dispositif d’inclusion numérique de la ville repose sur deux piliers principaux : le schéma directeur, boussole technique et politique de nos choix, et le travail en transversalité, qui garantit une présence partout sur le territoire et la prise en compte de la problématique dans sa globalité. Rattaché à la direction du numérique, il permet une action cohérente à l’échelle de la ville.

Ce lien entre action sociale et stratégie numérique est l’une des forces d’Échirolles. Il est l’un des éléments qui permettent de faire rayonner le schéma directeur à l’échelle de la commune, et pas seulement en interne. Mais une autre façon d’agir (et surtout d’interagir) au delà sur périmètre de la ville existe. Elle fera l’objet du cinquième et dernier article de cette série.

L’épisode 1 (structuration)
L’épisode 2 (transformation)
L’épisode 3 (solutions)
L’épisode 4 (vous êtes ici)
L’épisode 5 (fédération)

***

Retrouvez-moi sur Mastodon : https://colter.social/@nicolasvivant




Échirolles libérée ! La dégooglisation (3)

Voici déjà le troisième volet du processus de dégooglisation de la ville d’Échirolles (si vous avez manqué le début) tel que Nicolas Vivant nous en rend compte. Nous le re-publions volontiers, en souhaitant bien sûr que cet exemple suscite d’autres migrations vers des solutions libres et plus respectueuses des citoyens.


Dégooglisation d’Échirolles, partie 3 : les solutions

par Nicolas Vivant

L’organisation est structurée, les enjeux sont posés, place à la mise en œuvre opérationnelle.

L’âge de la maturité

Les informaticiens utilisent des logiciels libres, pour le fonctionnement de leur système d’information, depuis toujours. Pas par militantisme, dans la plupart des cas, mais simplement parce que ce sont les plus stables, les plus sûrs et souvent les meilleurs. L’immense majorité des serveurs web, par exemple, fonctionne avec Apache ou, de plus en plus, NGINX, et tournent sur des systèmes d’exploitation libres (GNU/Linux, souvent).

La nouveauté concerne le poste client, la communication et les applications métier. Dans ces trois domaines, les logiciels libres ont atteint un niveau de maturité inédit jusqu’alors. L’absence de publicité et de marketing ne favorise pas la découverte des solutions disponibles, mais certains logiciels ont fait leur chemin dans les organisations. Comment ? Par le bouche à oreille, les échanges sur les réseaux sociaux, la communication (et le travail) de différentes associations et structures étatiques (Adullact, April, Framasoft, Etalab, etc.) ou la contagion entre collectivités : une collectivité utilise un logiciel, j’en entends parler (ou je l’utilise dans mes échanges avec elle), je me renseigne et je finis par l’adopter.

Souvent, plusieurs solutions libres existent pour un même usage. L’exemple de la messagerie électronique est parlant. Microsoft (avec Outlook/Exchange) et Google (Gmail) sont dominants sur le marché. Pourtant, il existe au moins 6 alternatives « open source » : Zimbra, BlueMind, OpenXchange, SOGo, Kolab et eGroupWare qui ont peu ou prou les mêmes fonctionnalités ? Comment faire un choix ?

Savoir faire un choix

À Échirolles, après que les aspects fonctionnels sont validés, nous nous appuyons sur 4 piliers :

Le schéma directeur évoque des solutions gérées et maintenues en interne et met en avant les concepts de souveraineté numérique et d’autonomie vis-à-vis des éditeurs. C’est une première base de jugement : lesquelles de ces solutions correspondent le mieux aux enjeux identifiés par nos élus ?
L’analyse technique permet de vérifier les qualités intrinsèques de la solution, son interopérabilité correcte avec les outils existants, notre capacité à la gérer en autonomie, sa cohérence avec notre préoccupation de l’impact environnemental
La coopération intercommunale nous permet d’avoir une idée des problèmes rencontrés, de la réactivité des éventuels prestataires et, globalement, du niveau de satisfaction des collègues.
Le coût est évalué sur devis (le code de la commande publique nous contraignant, à raison, à la consultation de plusieurs acteurs et à la justification de nos choix) et par la vérification des références existantes même si pour nous, bien souvent, libre veut dire gratuit.

Les échanges entre services, et en interne au sein de la direction de la stratégie numérique, éclairent également nos décisions.

Go go go !

Sur la base de ces critères, Échirolles a fait le choix de SOGo, une solution fonctionnelle, éprouvée (par Gandi, notamment, en France), solide et qui semble le mieux correspondre à ce que sont nos orientations. D’autres communes font d’autres choix, privilégiant d’autres critères (le nombre et la qualité des prestataires susceptibles d’apporter une assistance sur la solution, par exemple).

Le choix d’une solution de Cloud et d’édition collaborative (alternative à Microsoft Teams ou Google Workspace) s’est fait selon les mêmes critères. Pour la partie Cloud/gestion de fichiers, la coopération intercommunale nous a conduit à éliminer Alfresco Share, peu adapté à nos usages. Pour l’édition collaborative, nous avons préféré Collabora à OnlyOffice, sur les conseils de différentes associations et partenaires et parce que le projet nous semblait mieux correspondre à nos valeurs.

Enfin, le passage à un système d’exploitation libre pour les postes clients est entamé à Échirolles. La ville a fait le choix de Zorin OS, pour de nombreuses raisons qui ont été expliquées dans des articles plus complets :

La stratégie gagnante d’une migration du poste de travail sous Linux (LeMagIT)
Le poste de travail Linux (étude d’ATOS réalisée par Arawa pour le Ministère des Finances)

Pour le reste, nous utilisons trop de logiciels libres pour les lister tous (les systèmes de gestion de bases de données, par exemple). Certains sont en place depuis très longtemps (Firefox, Thunderbird, 7zip…), d’autres ont été installés récemment (Peertube, Nextcloud, Joplin, Psono…), d’autres sont en cours de déploiement (Proxmox, Maarch courrier, Keycloak…). Quelques-uns, méconnus ou parce qu’ils ont fait l’objet d’une mise en œuvre particulière, ont fait l’objet d’articles dédiés sur mon blog : Mastodon, OBS Studio, Porteus Kiosk, BigBlueButton, etc.

Liste non exhaustive de logiciels libres utilisés à Échirolles

Postes clients :

Applications collectivité :

Applications DSI :

Communication :

Dématérialisation :

À noter l’excellente initiative de l’Adullact à destination des collectivités et des prestataires, qui permet d’identifier les acteurs pour chaque logiciel référencé : Comptoir du Libre. Échirolles y maintient les informations concernant les choix de logiciels de la commune.

Cet article ne serait pas complet sans dire un mot sur l’équipement des écoles maternelles et élémentaires, dont l’équipement en informatique incombe aux communes. Si les postes clients disposent des mêmes logiciels que ceux que nous déployons au sein des services municipaux, le passage à Linux attendra encore un peu, pour des raisons que j’ai détaillées dans un article dédié.

Structuration, transformation, mise en œuvre opérationnelle, tout cela est bel et bon. Mais comment être sûr de ne laisser personne au bord de la route ? C’est tout l’enjeu de l’inclusion numérique, sujet de l’article suivant.

L’épisode 1 (structuration)
L’épisode 2 (transformation)

***

    • Source image :

https://commons.wikimedia.org/wiki/File:Eug%C3%A8ne_Delacroix_-_Le_28_Juillet._La_Libert%C3%A9_guidant_le_peuple.jpg

  • Auteur : Erich Lessing Culture and Fine Arts Archives via artsy.net
  • Description : Tableau d’Eugène Delacroix « La Liberté Guidant le Peuple », commémorant la révolution des Trois Glorieuses (27-28-29 juillet 1830) en France.
  • Licence : Domaine public

Retrouvez-moi sur Mastodon : https://colter.social/@nicolasvivant




ChatGPT, Bard et cie : nouvelle course à l’IA, et pourquoi faire déjà ?

Google va ajouter de l’IA générative dans Gmail et Docs. Énième actualité d’un feuilleton permanent depuis « l’irruption » de ChatGPT. Et chez moi, un sentiment de malaise, d’incompréhension, et même de colère.

Qu’est-ce que ChatGPT ? Qu’est-ce que l’IA2 ? Ce sont d’abord d’immenses infrastructures : les câbles sous-marins, les serveurs des datacenters, mais aussi nos ordinateurs et nos smartphones. Donc ce sont des terres rares et des minerais, dégueulasses à excaver et à purifier (heureusement un jour il n’y en aura plus3). Ensuite, c’est du traitement MASSIF de données. Du vrai gavage de programmes d’apprentissages par des quantités phénoménales de données. C’est donc des infrastructures (encore) et de l’énergie. Une quantité phénoménale d’énergie, très largement carbonée. Enfin, c’est beaucoup de main-d’œuvre sous-payée pour entraîner, tester, et entretenir les systèmes d’IA. ChatGPT, il ne faut pas l’oublier, ce n’est que la face émergée d’un très très gros iceberg. Très gros et très sale.

vue d'une vallée étroite et du cheminement de mineurs vers une mine de cobalt

Ce n’est pas un film. ÇA, c’est l’ambiance dans une mine de cobalt.

Image issue du documentaire d’Arte : Cobalt, l’envers du rêve électrique

Bref, développer une IA a un coût environnemental et humain énorme (et largement opaque), ce n’est pas que du code informatique tout propre. À la rigueur, si le rapport coût/bénéfice était largement positif… Par exemple, si l’IA développée permettait des économies d’énergie de 30 % dans le monde, ou qu’elle permettait de mieux gérer les flux alimentaires et donc d’endiguer la faim, alors on pourrait sérieusement discuter de moralité (est-ce acceptable de détruire la planète et d’exploiter des humains pour sauver la planète et d’autres humains ?).

Mais à quoi servent ces IA génératives ? Pour le moment, à faire joujou, principalement. À chanter les louanges de l’innovation, évidemment. À se faire peur sur l’éternelle question du dépassement de l’humain par la machine, bien sûr. Et ensuite ? Supprimer des postes dans des domaines plutôt créatifs et valorisés ? Défoncer les droits d’auteur en pillant leur travail via des données amassées sans régulation ? Gagner un peu de temps en rédigeant ses mails et ses documents ? Transformer encore un peu plus les moteurs de recherche en moteurs de réponses (avec tous les risques que ça comporte) ? Est-ce bien sérieux ? Est-ce bien acceptable ?

copie d'écran d'un site "cadremploi", avec ce texte "comment s'aider de chatgpt pour rédiger sa lettre de motivation - ChatGPT est une intelligence artificielle capable de rédiger des contenus à votre place.
C’est ça, le principal défi du siècle que les technologies doivent nous aider à relever ???

Tout ça me laisse interrogateur, et même, en pleine urgence environnementale et sociale, ça me révolte. À un moment, on ne peut pas continuer d’alerter sur l’impact environnemental réel et croissant du numérique, et s’enthousiasmer pour des produits comme ChatGPT et consorts. Or souvent, ce sont les mêmes qui le font ! Ce qui me révolte, c’est que toute cette exploitation humaine et naturelle4, inhérente à la construction des Intelligences Artificielles, est tellement loin de ChatGPT que nous ne la voyons pas, ou plus, et nous ne voulons pas la voir. Cela se traduit par tous les messages, enthousiastes et même volubiles, postés quotidiennement, sans mauvaise intention de la plupart de leurs auteur⋅ice⋅s.

Symboliquement, je propose de boycotter ces technologies d’IA génératives. Je ne suis heureusement pas utilisateur de Google et Microsoft, qui veulent en mettre à toutes les sauces (pour quoi faire ?). J’espère que mes éditeurs de services numériques (a priori plus éthiques) ne céderont pas un pouce de leurs valeurs à cette hype mortifère…

schéma mettant en relation par des flèches bi-directionnelles : Le numérique acceptable :Emancipateur et non aliénant /Choisi et non subi / Soutenable humainement et environnementalement
Au vu de ce qu’elles apportent, les IA génératives sont-elles vraiment soutenables humainement et environnementalement ? Je ne le crois pas.

Pour poursuivre sa lecture et ses réflexions




Échirolles libérée ! La dégooglisation (2)

Voici le deuxième volet du processus de dégooglisation de la ville d’Échirolles (si vous avez manqué le début) tel que Nicolas Vivant nous en rend compte. Nous le re-publions volontiers, en souhaitant bien sûr que cet exemple suscite d’autres migrations vers des solutions libres et plus respectueuses des citoyens.


Dégooglisation d’Échirolles, partie 2 : la transformation numérique

par Nicolas Vivant

Le numérique est en train de vivre une révolution. Disposer d’une stratégie, même étayée par des enjeux politiques forts, ne permet pas d’y échapper. Le monde change et il faut s’adapter, sous peine de passer à côté des nombreuses possibilités offertes par les dernières technologies… et de se noyer dans la masse de données que nous générons chaque jour. Les mots-clés du changement : collaboratif, transparence, ouverture. Mais qu’est ce que cela veut dire, concrètement ?

L’inévitable transformation numérique

L’informatique s’est construite, depuis les années 90, autour d’un modèle que nous connaissons toutes et tous, et qui est en train de disparaître. Le poste client repose généralement sur :

  • Un système d’exploitation (généralement Windows, parfois Mac, rarement Linux)
  • Une suite bureautique (souvent Microsoft, parfois LibreOffice)
  • Un serveur de fichiers (avec un classement par arborescence et une gestion des droits centralisée)
  • Une messagerie (avec un client lourd de type Outlook, ou via une interface web) souvent couplée à un agenda

L’évolution que l’on constate partout :

  • Un système d’exploitation qui devient une simple interface de connexion
  • De plus en plus de terminaux mobiles (smartphone, PC portables, tablettes)
  • Des applications qui sont le plus souvent accessibles via un navigateur web
  • Un logiciel intégrant les fonctions de suite bureautique, de messagerie, d’agenda, d’édition collaborative et d’échanges textuels, audio ou vidéo (souvent basé sur un « cloud »)

Le changement culturel à opérer est majeur. Les utilisateurs, aux compétences souvent durement acquises, vont devoir s’adapter et notre responsabilité est de nous assurer que cette transition ne se fera pas dans la douleur.

Des fonctionnements durablement inscrits dans notre rapport à l’informatique sont repensés, sans que la question de l’adoption par les utilisateurs se pose. Exemple : l’organisation et la recherche de l’information. Aujourd’hui, la plupart des serveurs de fichiers et des systèmes de stockage de données sont organisés sous la forme d’une arborescence. Pendant très longtemps, ce classement a été le moyen le plus efficace de retrouver de l’information. Mais la masse de données numériques a grandi, la taille (et le nombre) des répertoires est devenue énorme, et les moteurs de recherche sont souvent inefficaces/lents (cf. la fonction « recherche » de l’explorateur de Windows quand il s’agit de chercher sur un serveur).

En ligne, cette question a été tranchée depuis longtemps. Aux début de l’internet, deux moteurs de recherche dominaient le marché : Yahoo, alors basé sur un classement des sites web en arborescence, par grands domaines, et Altavista (de la société, aujourd’hui disparue, Digital), qui fonctionnait sur le même principe que Google avec un unique champ de recherche. La masse d’information à gérer ayant explosé, c’est ce dernier principe qui a prévalu.

On a parfois cru que la GED (Gestion Électronique de Documents), pouvait être une réponse. Mais l’effort à consentir pour ajouter, souvent manuellement, les métadonnées lui permettant d’être efficace était important. Ce qu’on appelle le « big data » a tout changé. Aujourd’hui, la grande majorité des métadonnées peuvent être générées automatiquement par une analyse du contenu des documents, et des moteurs de recherche puissants sont disponibles. Dans ce domaine, le logiciel libre est roi (pensez à Elastic Search) et des solutions, associées à un cloud, permettent de retrouver rapidement une information, indépendamment de la façon dont elle est générée, classée ou commentée. C’est un changement majeur à conceptualiser dans le cadre de la transformation numérique, et les enjeux de formation et d’information des utilisatrices et utilisateurs ne peuvent pas être ignorés.

S’organiser pour évoluer

Si la feuille de route des élus échirollois ne nous dit pas ce qui doit être fait, elle met l’accent sur un certain nombre de thèmes qu’il va falloir prendre en compte : limitation de l’impact environnemental, réduction de toutes les fractures numériques, gestion responsable des données, autonomie et logiciels libres. À nous de nous adapter, en prenant garde, comme toujours, à la cohérence, la sécurité et la stabilité du système d’information… et en ne négligeant ni l’effort de formation, ni la nécessaire communication autour de ces changements.

Dans ma commune, c’est le rôle de la direction de la stratégie et de la culture numériques (souvent appelée, ailleurs, « direction de la transformation — ou de la transition — numérique ») en lien étroit avec la DSI, qui dispose des compétences opérationnelles.

Conjuguer autonomie et déploiement de logiciels libres a un coût : celui de l’expertise technique. Sans compétences techniques fortes, le nombre de prestations explose nécessairement et vient contredire l’objectif d’un système d’information maîtrisé, aussi bien en termes de responsabilités qu’au niveau financier. Hébergement, installation, paramétrage, sécurisation, maintenance et formation doivent pouvoir, autant que possible, être assurés en interne. Le DSI lui-même doit pouvoir faire des choix sur la base de critères qui ne sont pas seulement fonctionnels mais également techniques. La réorganisation du service est donc inévitable et l’implication de la direction des ressources humaines indispensable. Vouloir mettre en œuvre une politique autour du libre sans compétences ni appétences pour le sujet serait voué à l’échec.

À Échirolles, la grande proximité entre DSCN et DSI a permis de décliner la stratégie numérique en méthodologies opérationnelles qui, mises bout à bout, permettent de s’assurer que nous ne perdons pas de vue l’objectif stratégique. Pour chaque demande d’un nouveau logiciel exprimée par un service, par exemple, nous procédons comme suit :

  • Existe-t-il un logiciel en interne permettant de répondre au besoin ? Si oui, formons les utilisateurs et utilisons-le.
  • Si non, existe-t-il un logiciel libre permettant de répondre au besoin ? Installons-le.
  • Si non, existe-t-il un logiciel propriétaire ? Achetons-le.
  • Si non, en dernier recours, créons-le.

On mesure immédiatement ce que ce fonctionnement implique au niveau du recrutement et de l’organisation : il nous faut une équipe capable de gérer cette procédure de bout en bout et donc, forcément, une compétence en développement. Nous avons donc créé un « pôle applicatif » en charge de ce travail, et recruté un développeur. Et puisque la question de la contribution se pose également, nous avons décidé que 20% du temps de travail de ce poste serait consacré à des contributions au code de logiciels libres utilisés par la ville.

À chaque mise en place d’une solution technique, la question de l’interopérabilité se pose. Partant du principe que le « cloud » deviendra central dans l’architecture future du système d’information, nous nous sommes penchés sur les logiciels libres qui permettraient de remplir cette fonction et nous avons fait le choix, très tôt et comme beaucoup, de Nextcloud, associé à Collabora pour l’édition collaborative des documents. Nous nous assurons donc, depuis, que tout nouveau logiciel installé dans la collectivité sera correctement interopérable avec ce logiciel quand, dans quelques années, la transition sera achevée.

Mais nous parlerons de logiciels dans la troisième partie de ce récit.

Retour vers l’épisode 1 : la structuration.

***

Retrouvez-moi sur Mastodon : https://colter.social/@nicolasvivant




Échirolles libérée ! La dégooglisation (1)

Dans notre série de témoignages sur les processus de dégooglisation, voici la republication du premier article de Nicolas Vivant qui évoque aujourd’hui la nécessaire étape initiale, le consensus à réunir aux plans institutionnel et citoyen quand on envisage et planifie la « transformation numérique » à l’échelle d’une municipalité entière…


Dégooglisation d’Échirolles, partie 1 : la structuration

par Nicolas Vivant

La transformation numérique d’Échirolles est en route, et il n’est peut-être pas inutile que nous partagions notre approche. Située dans le département de l’Isère, cette commune de 37 000 habitants jouxte Grenoble. Son maire, Renzo Sulli est également vice-président de la Métropole. Active et populaire, Échirolles a vu naître quelques célébrités, de Calogero à Vincent Clerc, en passant par Philippe Vandel.

L’histoire commence par une équipe municipale qui prend conscience que des enjeux politiques forts existent autour du numérique, et qu’il convient de s’en saisir pour les inscrire dans une cohérence avec l’action municipale.

En 2014, elle signe le Pacte du Logiciel Libre de l’April, et les premières solutions sont mises en œuvre : elles concernent notamment la messagerie, qui passe de Microsoft à BlueMind, puis la téléphonie, d’Alcatel à Xivo.

Après l’élection municipale de 2020, le choix est fait de mieux structurer l’approche, pour gagner en efficacité et en visibilité, en interne comme en externe. Une délégation est créée qui annonce la couleur et Aurélien Farge devient « Conseiller municipal délégué au développement du numérique, à l’informatique et aux logiciels libres ». Son collègue Saïd Qezbour devient conseiller municipal délégué à l’inclusion numérique, le travail peut commencer.

Le conseil municipal échirollois

Sous la houlette d’Amandine Demore, première adjointe, d’Aurélien Farge et de Saïd Qezbour, un « groupe de travail numérique » transversal est crée. Il réunit les élu·e·s pour qui le numérique est un enjeu : ressources humaines, finances, solidarités, éducation, culture… En janvier 2021, une feuille de route du numérique est finalisée. Elle identifie les grands enjeux et les thèmes que l’équipe municipale souhaite aborder dans le cadre du mandat : impact environnemental, inclusion, animation des acteurs et logiciels libres, notamment.

Parallèlement, une étude sur le numérique dans la ville est commandée. Une vaste consultation est lancée, des micro-trottoirs sont réalisés, des entretiens ont lieu avec les chefs de service, les associations, les partenaires économiques, etc. Le cabinet en charge rend son rapport en février 2021. Au-delà des chiffres, intéressants et qui permettent d’avoir une vision globale de la problématique à l’échelle de la commune, les élu·e·s peuvent vérifier que la route choisie est bien en lien avec les attentes du territoire.

Au même moment, une fonction de « directeur·trice de la stratégie et de la culture numériques » est créée. Rattachée au directeur général des services, le/la DSCN chapeautera la DSI et l’équipe en charge de l’inclusion numérique. Rattachée à la direction générale, cette nouvelle direction est chargée de l’articulation entre vision politique et mise en œuvre opérationnelle.

Nicolas Vivant en hérite avec, comme première mission, la rédaction d’un schéma directeur pour le mandat : « Échirolles numérique libre ». Basé sur la feuille de route et sur le rapport sur le numérique dans la ville, il est une déclinaison stratégique de la volonté politique de la collectivité.

Voté le 8 novembre 2021 à l’unanimité des conseillères et conseillers municipaux, il sert de fil conducteur pour le plan d’action de la DSI, et permet d’inscrire les projets du service dans une cohérence globale.

Le vote du schéma directeur (8 novembre 2021)

Un bilan de la mise en œuvre du schéma directeur est porté par Aurélien Farge et Saïd Qezbour, chaque année, en conseil municipal.

Le bilan 2022 en vidéo

 

Voilà posés les fondements de ce qui nous permettra d’aller vers une nécessaire… transformation numérique.

[À SUIVRE…]

***

Retrouvez Nicolas Vivant sur Mastodon : https://colter.social/@nicolasvivant

 

D’autres témoignages de Dégooglisation ont été publiés sur ce blog, n’hésitez pas à prendre connaissance. Et si vous aussi, vous faites partie d’une organisation qui s’est lancée dans une démarche similaire et que vous souhaitez partager votre expérience, n’hésitez pas à nous envoyer un message pour nous le faire savoir. On sera ravi d’en parler ici !




Google et son robot pipoteur(*), selon Doctorow

Source de commentaires alarmants ou sarcastiques, les robots conversationnels qui reposent sur l’apprentissage automatique ne provoquent pas seulement l’intérêt du grand public, mais font l’objet d’une course de vitesse chez les GAFAM.

Tout récemment, peut-être pour ne pas être à la traîne derrière Microsoft qui veut adjoindre un chatbot à son moteur de recherche Bing, voilà que Google annonce sa ferme résolution d’en faire autant. Dans l’article traduit pour vous par framalang, Cory Doctorow met en perspective cette décision qui lui semble absurde en rappelant les échecs de Google qui a rarement réussi à créer quoi que ce soit…

(*) Merci à Clochix dont nous adoptons dans notre titre la suggestion.

Article original : Google’s chatbot panic

Traduction Framalang : Fabrice, goofy, jums, Henri-Paul, Sysy, wisi_eu,

L’assistant conversationnel de Google en panique

par Cory Doctorow

 

Photo Jonathan Worth CC-BY-SA

 

 

Il n’y a rien d’étonnant à ce que Microsoft décide que l’avenir de la recherche en ligne ne soit plus fondé sur les liens dans une page web, mais de là à la remplacer par des longs paragraphes fleuris écrits dans un chatbot qui se trouve être souvent mensonger… — et en plus Google est d’accord avec ce concept.

Microsoft n’a rien à perdre. Il a dépensé des milliards pour Bing, un moteur de recherche que personne n’utilise volontairement. Alors, sait-on jamais, essayer quelque chose d’aussi stupide pourrait marcher. Mais pourquoi Google, qui monopolise plus de 90 % des parts des moteurs de recherche dans le monde, saute-t-il dans le même bateau que Microsoft ?

le long d'un mur de brique rouge sur lequel est suspendu un personnage ovoïde au visage très inquiet (Humpty-Dumpty le gros œuf), deux silhouettes jumelles (Tweedle-dee et Tweedle-dum les personnages de De l'autre côté du_miroir de Lewis Carroll) représentent avec leur logo sur le ventre Bing et google, chacun d'eaux a une tête qui évoque le robot Hal de 2001, à savoir une lueur rouge sur fond noir qui fait penser à un œil.

Il y a un délicieux fil à dérouler sur Mastodon, écrit par Dan Hon, qui compare les interfaces de recherche merdiques de Bing et Google à Tweedledee et Tweedledum :

https://mamot.fr/@danhon@dan.mastohon.com/109832788458972865

Devant la maison, Alice tomba sur deux étranges personnages, tous deux étaient des moteurs de recherche.
— moi, c’est Google-E, se présenta celui qui était entièrement recouvert de publicités
— et moi, c’est Bingle-Dum, fit l’autre, le plus petit des deux, et il fit la grimace comme s’il avait moins de visiteurs et moins d’occasions de mener des conversations que l’autre.
— je vous connais, répondit Alice, vous allez me soumettre une énigme ? Peut-être que l’un de vous dit la vérité et que l’autre ment ?
— Oh non, fit Bingle-Dum
— Nous mentons tous les deux, ajouta Google-E

Mais voilà le meilleur :

— Cette situation est vraiment intolérable, si vous mentez tous les deux.

— mais nous mentons de façon très convaincante, précisa Bingle-Dum

— D’accord, merci bien. Dans ce cas, comment puis-je vous faire jamais confiance ni / confiance à l’un ni/ou à l’autre ? Dans ce cas, comment puis-je faire confiance à l’un d’entre vous ?

Google-E et Bingle-Dum se tournèrent l’un vers l’autre et haussèrent les épaules.

La recherche par chatbot est une très mauvaise idée, surtout à un moment où le Web est prompt à se remplir de vastes montagnes de conneries générées via l’intelligence artificielle, comme des jacassements statiques de perroquets aléatoires :

La stratégie du chatbot de Google ne devrait pas consister à ajouter plus de délires à Internet, mais plutôt à essayer de trouver comment exclure (ou, au moins, vérifier) les absurdités des spammeurs et des escrocs du référencement.

Et pourtant, Google est à fond dans les chatbots, son PDG a ordonné à tout le monde de déployer des assistants conversationnels dans chaque recoin de l’univers Google. Pourquoi diable est-ce que l’entreprise court après Microsoft pour savoir qui sera le premier à décevoir des espérances démesurées ?

J’ai publié une théorie dans The Atlantic, sous le titre « Comment Google a épuisé toutes ses idées », dans lequel j’étudie la théorie de la compétition pour expliquer l’insécurité croissante de Google, un complexe d’anxiété qui touche l’entreprise quasiment depuis sa création:

L’idée de base : il y a 25 ans, les fondateurs de Google ont eu une idée extraordinaire — un meilleur moyen de faire des recherches. Les marchés financiers ont inondé l’entreprise en liquidités, et elle a engagé les meilleurs, les personnes les plus brillantes et les plus créatives qu’elle pouvait trouver, mais cela a créé une culture d’entreprise qui était incapable de capitaliser sur leurs idées.

Tous les produits que Google a créés en interne, à part son clone de Hotmail, sont morts. Certains de ces produits étaient bons, certains horribles, mais cela n’avait aucune importance. Google, une entreprise qui promouvait la culture du baby-foot et la fantaisie de l’usine Willy Wonka [NdT: dans Charlie et la chocolaterie, de Roald Dahl], était totalement incapable d’innover.

Toutes les réussites de Google, hormis son moteur de recherche et gmail, viennent d’une acquisition : mobile, technologie publicitaire, vidéos, infogérance de serveurs, docs, agenda, cartes, tout ce que vous voulez. L’entreprise souhaite plus que tout être une société qui « fabrique des choses », mais en réalité elle « achète des choses ». Bien sûr, ils sont très bons pour rendre ces produits opérationnels et à les faire « passer à l’échelle », mais ce sont les enjeux de n’importe quel monopole :

La dissonance cognitive d’un « génie créatif » autoproclamé, dont le véritable génie est de dépenser l’argent des autres pour acheter les produits des autres, et de s’en attribuer le mérite, pousse les gens à faire des choses vraiment stupides (comme tout utilisateur de Twitter peut en témoigner).
Google a longtemps montré cette pathologie. Au milieu des années 2000 – après que Google a chassé Yahoo en Chine et qu’il a commencé à censurer ses résultats de recherche, puis collaboré à la surveillance d’État — nous avions l’habitude de dire que le moyen d’amener Google à faire quelque chose de stupide et d’autodestructeur était d’amener Yahoo à le faire en premier lieu.

C’était toute une époque. Yahoo était désespéré et échouait, devenant un cimetière d’acquisitions prometteuses qui étaient dépecées et qu’on laissait se vider de leur sang, laissées à l’abandon sur l’Internet public, alors que les princes duellistes de la haute direction de Yahoo se donnaient des coups de poignard dans le dos comme dans un jeu de rôle genre les Médicis, pour savoir lequel saboterait le mieux l’autre. Aller en Chine fut un acte de désespoir après l’humiliation pour l’entreprise que fut le moteur de recherche largement supérieur de Google. Regarder Google copier les manœuvres idiotes de Yahoo était stupéfiant.

C’était déconcertant, à l’époque. Mais à mesure que le temps passait, Google copiait servilement d’autres rivaux et révélait ainsi une certaine pathologie d’insécurité. L’entreprise échouait de manière récurrente à créer son réseau « social », et comme Facebook prenait toujours plus de parts de marché dans la publicité, Google faisait tout pour le concurrencer. L’entreprise fit de l’intégration de Google Plus un « indictateur5 de performance » dans chaque division, et le résultat était une agrégation étrange de fonctionnalités « sociales » défaillantes dans chaque produit Google — produits sur lesquels des milliards d’utilisateurs se reposaient pour des opérations sensibles, qui devenaient tout à coup polluées avec des boutons sociaux qui n’avaient aucun sens.

La débâcle de G+ fut à peine croyable : certaines fonctionnalités et leur intégration étaient excellentes, et donc logiquement utilisées, mais elles subissaient l’ombrage des incohérences insistantes de la hiérarchie de Google pour en faire une entreprise orientée réseaux sociaux. Quand G+ est mort, il a totalement implosé, et les parties utiles de G+ sur lesquelles les gens se reposaient ont disparu avec les parties aberrantes.

Pour toutes celles et ceux qui ont vécu la tragi-comédie de G+, le virage de Google vers Bard, l’interface chatbot pour les résultats du moteur de recherche, semble tristement familier. C’est vraiment le moment « Mourir en héros ou vivre assez longtemps pour devenir un méchant ». Microsoft, le monopole qui n’a pas pu tuer la jeune pousse Google à cause de son expérience traumatisante des lois antitrust, est passé d’une entreprise qui créait et développait des produits à une entreprise d’acquisitions et d’opérations, et Google est juste derrière elle.

Pour la seule année dernière, Google a viré 12 000 personnes pour satisfaire un « investisseur activiste » privé. La même année, l’entreprise a racheté 70 milliards de dollars en actions, ce qui lui permet de dégager suffisamment de capitaux pour payer les salaires de ses 12 000 « Googleurs » pendant les 27 prochaines années. Google est une société financière avec une activité secondaire dans la publicité en ligne. C’est une nécessité : lorsque votre seul moyen de croissance passe par l’accès aux marchés financiers pour financer des acquisitions anticoncurrentielles, vous ne pouvez pas vous permettre d’énerver les dieux de l’argent, même si vous avez une structure à « double pouvoir » qui permet aux fondateurs de l’emporter au vote contre tous les autres actionnaires :

https://abc.xyz/investor/founders-letters/2004-ipo-letter/

ChatGPT et ses clones cochent toutes les cases d’une mode technologique, et sont les dignes héritiers de la dernière saison du Web3 et des pics des cryptomonnaies. Une des critiques les plus claires et les plus inspirantes des chatbots vient de l’écrivain de science-fiction Ted Chiang, dont la critique déjà culte est intitulée « ChatGPT est un une image JPEG floue du Web » :

https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web

Chiang souligne une différence essentielle entre les résultats de ChatGPT et ceux des humains : le premier jet d’un auteur humain est souvent une idée originale, mal exprimée, alors que le mieux que ChatGPT puisse espérer est une idée non originale, exprimée avec compétence. ChatGPT est parfaitement positionné pour améliorer la soupe de référencement que des légions de travailleurs mal payés produisent dans le but de grimper dans les résultats de recherche de Google.

En mentionnant l’article de Chiang dans l’épisode du podcast « This Machine Kills », Jathan Sadowski perce de manière experte la bulle de la hype ChatGPT4, qui soutient que la prochaine version du chatbot sera si étonnante que toute critique de la technologie actuelle en deviendra obsolète.

Sadowski note que les ingénieurs d’OpenAI font tout leur possible pour s’assurer que la prochaine version ne sera pas entraînée sur les résultats de ChatGPT3. Cela en dit long : si un grand modèle de langage peut produire du matériel aussi bon qu’un texte produit par un humain, alors pourquoi les résultats issus de ChatGPT3 ne peuvent-ils pas être utilisés pour créer ChatGPT4 ?

Sadowski utilise une expression géniale pour décrire le problème :  « une IA des Habsbourg ». De même que la consanguinité royale a produit une génération de prétendus surhommes incapables de se reproduire, l’alimentation d’un nouveau modèle par le flux de sortie du modèle précédent produira une spirale infernale toujours pire d’absurdités qui finira par disparaître dans son propre trou du cul.

 

Crédit image (modifiée) : Cryteria, CC BY 3.0