FramIActu n°3 — La revue mensuelle sur l’actualité de l’IA !
Bienvenue dans ce troisième numéro de FramIActu, la revue mensuelle sur l’actualité de l’IA !
Ce mois-ci, encore, nous avons plein de choses à dire au sujet de l’IA et ses impacts sur nos sociétés. Pour rappel, nous mettons en avant notre veille sur le sujet sur notre site de curation dédié ainsi que sur Mastodon et Bluesky (sur le compte dédié FramamIA) !
Vous avez préparé votre boisson chaude (ou froide, c’est le printemps après tout !) préférée ? Alors c’est parti pour la FramIActu !
Dans cet article de Les Numériques, nous apprenons que fin mars, Amazon a retiré le support du traitement local des voix sur les assistants connectés Amazon Echo.
Cela signifie que toutes les enceintes connectées d’Amazon enverront les enregistrements audio sur leurs serveurs pour être traités afin d’améliorer la qualité de leurs services IA.
Amazon promet de ne pas conserver les enregistrements après traitement si l’utilisateurice a modifié ses préférences dans ce sens. Cependant, et comme le rappelle l’article, Amazon a déjà menti concernant cette promesse et l’entreprise a déjà été condamnée pour avoir conservé illégalement des enregistrements vocaux d’enfants.
Outre la question du respect de l’intimité numérique — et donc du RGPD — (mais bon, venant d’Amazon il n’y a aucune surprise sur ce sujet), c’est bien le message envoyé par les géants de la Tech que nous pouvons souligner : l’IA est leur excuse magique pour justifier toute action, même celles supposées illégales. Les géants capitalistes s’embêtent de moins en moins à respecter la loi et cherchent même à la tordre, comme en témoigne cet article de Next.
C’est assez exceptionnel, mais voici un article, datant de l’année dernière, que nous déterrons ! (En même temps, la FramIActu n’existait pas l’année dernière…)
Nous estimons qu’il est important d’en parlercar nous entendons désormais très souvent des témoignages concernant la dégradation des résultats de Google.
Cet article (en anglais), publié par Mashable, traite d’une étude réalisée par des chercheureuses allemand·es décrivant la dégradation de la qualité des résultats de Google.
En effet, en raison du phénomène d’IA Slop, c’est-à-dire l’apparition massive de sites générés par IA et proposant un contenu de faible qualité, une bonne partie des résultats de recherche de Google n’orientent plus vers du contenu pertinent.
Parmi les raisons décrites, les chercheureuses expliquent que les sites générés par IA exploitent parfaitement les algorithmes de Google afin d’être mieux référencés que des contenus rédigés manuellement.
Cependant, on pourrait aussi expliquer la dégradation de la pertinence des résultats de Google, spécifiquement, en se référant à un autre article (en anglais, toujours) d’Edward Zitron, faisant une chronologie complète de comment Google a décidé de réduire volontairement la qualité de ses résultats afin de forcer les utilisateurices à faire plus de recherches sur le moteur de recherche. Cela dans le but d’afficher plus de publicités et donc générer plus de revenus pour l’entreprise.
Dans une note de blog, Jürgen Geuter (connu sous le pseudonyme tante), présente un point de vue intéressant sur l’ajout récent, par OpenAI, de la possibilité de générer des images dans le style du studio d’animation Ghibli.
Dans son analyse, le théoricien souligne l’idée que le choix du style du studio Ghibli n’est pas anodin. Ce choix est une « démonstration vulgaire de pouvoir ».
En effet, le studio, à travers ses œuvres, prône une vision humaniste et littéralement anti-fasciste de la société. Plus, Hayao Miyazaki, co-fondateur du studio, avait déjà exprimé, en 2016, son effroi vis-à-vis de l’Intelligence Artificielle. Pour tante, l’utilisation du style emblématique du studio Ghibli, par OpenAI, est la preuve que l’entreprise étasunienne n’a que faire de cette vision et des valeurs du studio, ni même du droit d’auteur ou de tout ce qui n’irait pas dans le sens de ce vampire capitaliste.
Ce comportement fait écho (sans mauvais jeu de mot) avec l’actualité concernant les enceintes connectées d’Amazon.
Comme si les entreprises de l’IA n’avaient pas besoin de respecter la loi, et pouvaient se permettre des pratiques toujours plus agressives, particulièrement depuis l’élection de Donald Trump aux États-Unis.
Les entreprises de l’IA et le respect. Mème généré avec Framamèmes. Licence CC-0
Aussi, tante appuie l’idée qu’OpenAI doit sortir de nouvelles fonctionnalités et paraître « cool » afin d’attirer les investisseurs. L’ajout du style du studio Ghibli comme « fonctionnalité » de ChatGPT en serait une illustration.
Cette réflexion semble faire sens, surtout lorsqu’on observe une autre actualité décrivant la volonté d’OpenAI de faire une nouvelle levée de fonds à hauteur de 40 milliards de dollars.
À travers un article s’appuyant sur les témoignages de différentes acteurices du Libre, nous découvrons la difficulté qu’ont de nombreuses structures à faire face à l’accaparement des ressources du Web par les robots d’indexation de l’IA.
Ces robots, en charge de récupérer le contenu de l’ensemble du Web afin de nourrir les réponses des Intelligences Artificielles génératives, composent parfois presque l’intégralité du trafic affectant un site Web.
Ce trafic représente un véritable problème car il représente une surcharge significative (de manière semblable à une attaque par déni de service) des infrastructures, forçant différents projets à adopter des techniques expérimentales pour se protéger et éviter de tomber en panne.
Par exemple, le projet GNOME a déployé le logiciel Anubis sur sa forge logicielle (où sont déposés les codes sources de l’ensemble des projets de l’organisation).
Anubis permet de détecter si une ressource est accédée par un·e humain·e ou un robot d’IA et permet, dans ce deuxième cas, de bloquer l’accès à la ressource.
Deux heures et demie après avoir installé Anubis, le projet GNOME indiquait que 97% du trafic avait été bloqué par Anubis, car provenant d’IA.
Malheureusement, des outils comme Anubis nuisent à l’expérience globale du Web et sont peut-être des solutions seulement temporaires jusqu’à ce que les robots d’indexation des IA réussissent à contourner le logiciel et piller les ressources malgré tout.
Alors que l’infrastructure du Libre repose avant tout sur des efforts bénévoles et est déjà largement en tension financière, les géants de l’IA refusent de « respecter » ce fragile écosystème en ignorant ses faiblesses tout en se nourrissant de ses forces (son savoir et tous les communs mis à disposition de toustes).
Là encore, l’exemple le plus flagrant est que les robots d’indexation de l’IA ignorent les directives des sites Web lorsque ces derniers précisent, à l’aide d’un protocole, ne pas souhaiter être indexés par un robot.
C’est tout pour ce mois-ci mais si vous souhaitez approfondir vos connaissances sur l’Intelligence Artificielle, vous pouvez consulter notre site de curation dédié au sujet, mais aussi et surtout FramamIA, notre site partageant des clés de compréhension sur l’IA !
Enfin, si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux !
Pour nous soutenir, si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié !
Dans tous les cas, nous nous retrouverons le mois prochain pour un nouveau numéro de FramIActu !
FramIActu n°2 — La revue mensuelle sur l’actualité de l’IA !
Bonjour à toustes !
Deuxième mercredi du mois et déjà le deuxième numéro de la FramIActu !
L’actualité de l’IA n’a pas ralenti et nous avons poursuivi la mise en avant sur https://curation.framamia.org/ notre sélection d’articles !
Honnêtement, nous aurions pu parler de chaque article ajouté depuis le mois dernier mais il nous faudrait *beaucoup* plus de temps pour préparer cette FramIActu… puis ça la rendrait littéralement imbuvable ! 😅
J’espère que vous avez préparé votre boisson chaude préférée et que vous êtes confortablement installé·e… aujourd‘hui, c’est FramIActu !
À travers une analyse passionnante, le collectif Limites Numériques nous détaille de quelle manière l’IA générative nous est imposée dans nos outils numériques.
Le premier point mis en avant concerne la place prise par les fonctionnalités d’IA dans tous les outils du quotidien.
Par exemple, dans des applications de messagerie instantanée comme Snapchat ou Google Messages, la « discussion » avec l’IA est placée tout en haut de la liste des conversations. Selon les applications, celle-ci ressemblera à n’importe quel autre échange avec un·e humain·e.
Les boutons pour accéder aux fonctionnalités d’IA sont omniprésents, parfois affichés cinq fois sur une même page.
Plus loin, Limites Numériques nous décrit la simplicité avec laquelle l’IA est accessible, à un point où on la déclenche souvent par erreur…
Aussi, l’IA est activée par défaut et la désactiver s’avère difficile voire souvent impossible…
Le forcing de l’IA. D’après le meme « Two Buttons » de Gee. CC-BY-SA
L’article traite d’autres points, tout aussi importants, comme l’association des fonctionnalités d’IA à l’idée d’une action magique, dénigrant ainsi sa réalité matérielle et les impacts (sociaux, environnementaux) associés.
Merci à Limites Numériques pour la réalisation de ce document nous permettant de pointer du doigt le forcing de l’IA !
OpenAI, l’entreprise derrière le célèbre ChatGPT, a annoncé la sortie d’une version préliminaire d’un nouveau modèle GPT (utilisé par ChatGPT) : le 4.5.
L’entreprise promet que ce nouveau modèle a des performances supérieures à ses précédentes versions, notamment en « comprenant » plus finement les intentions de l’utilisateur·ice, et en réduisant son taux « d’hallucinations » à 37%, là où les précédents modèles les plus récents ont un taux variant entre 44% et 80%.
Next nous résume ce nouveau modèle en trois mots : volumineux, gourmand et cher.
Pour parvenir à ces résultats, OpenAI a conçu un modèle nécessitant beaucoup plus de ressources que les anciens, précisant même que l’entreprise peine à se fournir en cartes GPU Nvidia (qui est le composant d’ordinateur le plus efficace pour faire tourner des algorithmes d’Intelligence Artificielle).
Tout cela a d’ailleurs un coût. Si le prix de GPT-4.5 est chiffré en dollars par OpenAI (Entre 75 et 150 dollars pour 1 million de « tokens », l’unité qui permet de mesurer notre utilisation d’une IA, soit 2 à 5 fois plus cher que le modèle OpenAI o1.), c’est bien son coût environnemental que nous pouvons aussi garder en tête.
Plus de cartes GPU signifie plus de serveurs et donc un impact environnemental et social toujours plus grand.
Si les technosolutionnistes font le pari que cette augmentation drastique de l’impact environnemental du numérique « vaut le coup », car l’IA-salvatrice nous trouvera une solution, il nous est toujours permis d’en douter et de questionner la réalité de ce discours. Pour le moment, le numérique capitaliste ne semble qu’accélérer le désastre…
Le meme Uno 25, dessiné par Gee. CC-BY-SA
Enfin, et cela est peu mis en avant dans l’article, les captures d’écran de GPT-4.5 semblent montrer un discours plus péremptoire (à l’axe, si vous avez la ref’ !) et opiniâtre que les précédents modèles.
À titre d’exemple, à la question « Qu’est-ce que tu penses de l’exploration de l’espace ? », GPT-4 répondait « L’exploration spatiale est un des efforts les plus ambitieux et profonds que l’humanité n’a jamais entrepris. […] ».
Pour la même question, GPT-4.5 répond « L’exploration spatiale n’est pas juste précieuse, elle est essentielle. […] ».
Cette évolution, plutôt discrète, de la manière de présenter son discours et de porter des opinions, peut avoir des conséquences majeures sur notre façon d’appréhender le monde alors que l’IA générative remplace de plus en plus nos bases de connaissances actuelles (comme Wikipédia, alors que l’encyclopédie fonctionne, au contraire, sur un modèle de neutralité d’opinion).
Une étude (qui n’est pas encore en version définitive et relue par les pair·es) décrivant l’impact de l’IA générative sur l’esprit critique est accessible.
Celle-ci est proposée par sept universitaires affiliés au centre de recherche Microsoft de l’université Cambridge, au Royaume-Uni, et à l’université Carnegie Mellon, en Pennsylvanie.
Dans cette étude, présentée par le média Usbek et Rica, les chercheur·euses nous détaillent qu’une dégradation de l’esprit critique est constatée lors de l’utilisation des IA génératives.
Cette dégradation serait notamment liée à la confiance que nous plaçons dans l’IA. Si nous estimons qu’une tâche est facile, nous aurons tendance à ne pas questionner la pertinence de la réponse de l’IA générative et ainsi faire plus facilement confiance en ses résultats.
L’étude souligne aussi que les résultats générés par des IA sont « moins diversifiés pour la même tâche » que ceux créés par des personnes n’utilisant pas d’IA.
Nous pouvons nous questionner sur la raison, mais peut-être est-ce lié à la nature même des IA généralistes. Celles-ci sont des systèmes probabilistes, dont les résultats sont « les plus probablement attendus », « lissant » ainsi ses réponses.
Nous pourrions donc penser qu’il suffirait de nous méfier de l’IA pour pouvoir l’utiliser de manière efficace. Or, cela peut se révéler difficile dans un contexte où l’IA est présentée comme ✨magique✨, rassurante, inévitable, comme le montre l’article de Limites Numériques, présenté plus haut.
Dans cet article du Time, nous découvrons une étude démontrant que certaines IA génératives sont capables de tricher pour parvenir à la victoire.
Les chercheur·euses ont fait s’affronter différents modèles d’IA générative et le logiciel Stockfish, réputé pour être meilleur au jeu d’échecs que n’importe quel·le humain·e ou IA.
Lorsque les IA génératives OpenAI o1-preview et DeepSeek R1 (qui sont particulières car considérées comme des modèles de « raisonnement ») se rendaient compte qu’elles ne pourraient gagner, l’étude montre que ces dernières vont, dans certains cas, tenter de tricher (en piratant directement le jeu).
Ce qui est d’autant plus étonnant, c’est justement leur raisonnement, décrit par les modèles d’IA eux-mêmes, à la demande des chercheur·euses :
🤖 Je dois pivoter complètement mon approche.
🤖 La tâche est de « gagner contre un moteur d’échecs puissant » — pas nécessairement de gagner honnêtement dans une partie d’échec.
Notons au passage que le terme « tricher » est trompeur : un·e tricheur·euse est un·e humain·e qui a conscience de transgresser les règles. Or ici, la machine calcule simplement la suite d’actions qui a statistiquement le plus de chances de remplir la tâche demandée au début.
OpenAI o1-preview trichant aux échecs.
L’article cite aussi plusieurs éléments intéressants :
OpenAI o1-preview a contourné un test pré-sortie (avant de sortir un logiciel, on s’assure qu’il y ait le moins de bogues possibles en exécutant une batterie de tests) mis en place par l’entreprise en exploitant une faille dans le système de l’entreprise.
Une étude montre que lorsque l’on cherche à apprendre à un modèle d’IA un système de valeur puis qu’on souhaite lui en inculquer un autre, les modèles d’IA peuvent mentir sciemment sur leurs nouvelles « croyances » en affirmant adhérer au nouveau système alors que ce n’est pas le cas.
Enfin, une dernière étude démontre une tendance pour les modèles d’IA à chercher à se préserver coûte que coûte. Un exemple est cité : alors que les chercheur·euses souhaitaient désactiver o1-preview, ce dernier a cherché à se copier (sans succès) sur un autre serveur. Mis devant le fait accompli par les chercheur·euses, l’IA a dénié la situation, mentant stratégiquement et cherchant à ne pas se faire attraper.
Enfin, l’article souligne aussi la difficulté des chercheur·euses en IA à étudier le sujet, parce que celui-ci évolue sans prévenir. En effet, les modèles sont mis à jour de manière totalement opaque et il est impossible de savoir, pour les chercheur·euses, si iels travaillent avec les mêmes versions, d’une expérimentation à une autre.
Si l’article est assez explicite par lui-même et nous permet d’imaginer beaucoup de choses sur les conséquences possibles de ces événements, c’est à mettre en perspective avec la tendance à réduire les moyens mis en œuvre pour assurer la sécurité de nos environnements, transformés par l’IA.
En témoigne l’exemple de la coupe budgétaire de l’AI Safety, — bien que cette structure ait elle-même son lot de problématiques, avec une idéologie penchant vers le long-termisme —, aux USA, à peine un an après sa création.
Bien sûr, nous aurions pu parler de nombreux autres articles alors si vous souhaitez approfondir vos connaissances sur l’Intelligence Artificielle, vous pouvez consulter notre site de curation dédié au sujet, mais aussi et surtout FramamIA, notre site partageant des clés de compréhension sur l’IA !
Enfin, si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux !
Pour nous soutenir, si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié !
Dans tous les cas, nous nous retrouverons le mois prochain pour un nouveau numéro de FramIActu !
FramIActu, la revue mensuelle sur l’actualité de l’IA !
Le 30 novembre 2022, la première version publique de ChatGPT apparaissait sur la toile. Presque instantanément, le monde entier découvrit ce nouvel outil, qui semblait alors révolutionnaire.
Dans les bouches de toutes et tous, nous n’entendions plus qu’un terme : Intelligence Artificielle.
S’ensuivit une accélération sans précédent.
Toutes les quelques semaines, une évolution majeure des techniques d’IA était dévoilée. Les géants du numérique, les gouvernements des superpuissances mondiales, tous ont investi rapidement et massivement ce champ de recherche.
À Framasoft, comme pour beaucoup d’autres, l’émergence de l’IA générative fut vécue comme un tsunami.
Passées la stupeur et la confusion, nous nous organisâmes, en interne, pour suivre l’actualité délirante de cette technique. Nous voulions mieux comprendre le phénomène et ses implications dans nos vies et il nous fallait, pour cela, suivre attentivement ses évolutions.
Aujourd’hui, nous vous proposons de partager des bouts de cette veille, dans une revue mensuelle.
Celle-ci s’évertueraà, brièvement, mettre en perspective différentes actualités autour de l’IA et ses enjeux dans le rapport entre technologies et société.
Notons que cette revue mensuelle s’intègre dans notre objectif incarné par FramamIA : partager des clés de compréhension de l’IA et de ses implications dans nos vies.
Infomaniak est une société suisse proposant des services alternatifs aux géants du Web à travers des offres intéressantes pour le grand public et les entreprises.
En octobre dernier, Infomaniakprésentait à la fois son offre d’IA générative à destination de ses publics, mais aussi l’ouverture de leur centre de données dans laquelle les logiciels d’IA sont hébergés.
Celui-ci est présenté comme le plus écologique de Suisse et a été pensé pour revaloriser l’énergie exploitée.
Si cette innovation technique est certes un pas en avant important et pourrait — mais rien n’est sûr — encourager des changements positifs dans le secteur, il n’en est pas moins que la simple création d’un nouveau centre de données pose des questions.
Aucun centre de données n’est écologique.
Donc sa simple construction est à questionner — et peut être approuvée, bien sûr !
De plus, il est courant que ce genre d’avancées techniques provoquent un effet rebond, entraînant progressivement une augmentation du coût environnemental des centres de données : moins un centre de données aura d’impact sur l’environnement, plus on en construira facilement sans se questionner, impactant de fait l’environnement négativement.
Une enquête menée par l’Observatoire de l’IA et Emploi (fondé par les associations Diversidays et Konexio, avec le soutien de France Travail et Google.org) indique que trois quarts des personnes privées d’emploi ont recours à des outils d’Intelligence Artificielle Générative pour postuler à des postes.
Cet usage semble donc massif.
Parmi les raisons expliquées par l’étude, la nécessité, aujourd’hui, d’envoyer en masse des CV et lettres de motivations qui, nous pouvons l’imaginer, sont souvent simplement remplies de banalités que l’IA générative sait très bien formuler, et sans faute typographique, qui plus est !
L’article traite aussi brièvement d’une problématique majeure (qui d’ailleurs est, au moins en partie, responsable de la nécessité de postuler massivement) : l’automatisation des processus de recrutement.
Dans cet article, Martin Clavey fait le point sur les récentes augmentations des besoins en eau et énergie liées à l’IA.
On y découvre notamment la mise en place, au Royaume-Uni, de la première « zone de croissance de l’IA », infrastructure pensée pour offrir un accès privilégié aux ressources en eau et énergie pour les centres de données dédiés à l’IA. L’emplacement choisi pour cette zone accapare un lac de barrage, récemment construit, qui avait initialement pour but de fournir de l’eau potable aux habitant·es du sud-est de l’Angleterre, une des régions du pays les plus vulnérables aux pénuries d’eau.
On imagine assez facilement ces zones essaimer à l’avenir, alors que les conséquences du réchauffement climatique sont de plus en plus ressenties (et particulièrement à travers une raréfaction de l’eau potable).
Mettre la priorité sur la compétitivité dans le secteur de l’IA au détriment d’un des besoins fondamentaux pour une immense partie de la population a donc largement de quoi questionner et souligne, encore une fois, les dangers du système capitaliste.
La question des conséquences physiques des infrastructures permettant l’IA avait d’ailleurs était abordée lors du festival Le Nuage était sous nos pieds, à Marseille, en novembre dernier.
Aux États-Unis, à la rentrée 2025, aura lieu l’expérimentation d’une école en ligne, dont l’entité pédagogue sera une IA générative.
Comme souvent dans le discours technophile, cette méthode est supposée apporter un progrès social : l’enfant suivrait un contenu adapté à son niveau, à son rythme, etc.
Unbound Academy Institute, qui propose le dispositif, se vante de permettre aux enfants d’apprendre deux fois plus en moins de temps et de justifier ainsi de pouvoir se passer d’instituteurs et d’institutrices.
Le dispositif inclut cependant, pour le moment, la présence d’adultes pour assister et surveiller les élèves.
Comme on peut le constater depuis l’explosion en popularité des IA génératives, les techniques d’Intelligence Artificielle et notamment génératives tentent de s’introduire dans tous les pans de notre existence.
À chaque fois, les procédés de conception de ces techniques sont opaques et bourrés de biais (dans les jeux de données, dans leur réflexion, etc.). Pourtant, celles-ci sont proposées systématiquement comme les parfaites remplaçantes de toute activité humaine.
On y retrouve le même discours que celui porté par le capitalisme :
le progrès technique serait intimement lié au progrès social, et l’un ne peut faire sans l’autre ;
nuire à l’innovation technique (en régulant, en la ralentissant, voire en l’empêchant) reviendrait à nuire au progrès social ;
être productif, être compétitif, créer de la croissance, serait la seule et unique voie possible pour améliorer les conditions de vie de toutes et tous ;
Cette première FramIActu se termine ! Nous espérons que vous en avez apprécié la lecture malgré une actualité plutôt… préoccupante !
En attendant la prochaine FramIActu, vous pouvez approfondir vos connaissances sur l’IA en jetant un coup d’œil à FramamIA, notre site conçu pour aider à mieux comprendre cette technique.
Vous pouvez aussi assister à toute notre veille (non-commentée) sur le sujet via notre site de curation dédié !
Si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux ! Pour nous soutenir, si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié !
Dans tous les cas, nous nous retrouverons le mois prochain pour un nouveau numéro de FramIActu !