Temps de lecture 12 min
L’émergence contemporaine de l’intelligence artificielle, et plus spécifiquement son glissement vers l’agent autonome, marque une rupture épistémologique que la pensée critique ne peut plus ignorer sous peine de sombrer dans l’anachronisme. Nous avons quitté l’ère du programme-outil pour celle de l’opérateur capable de naviguer, de manipuler et de s’autocorriger. Cette mutation n’est pas une simple avancée incrémentale, mais l’aboutissement d’une trajectoire historique dont il faut saisir la profondeur pour armer notre résistance. Ce billet est surtout prospectif, il ne relève pas d’une pensée aboutie et encore moins prescriptive.
Éviter l’anachronisme
Historiquement, la machine était conçue comme une extension de l’organe ou une prothèse de l’intellect. C’est le concept d’outil chez Simondon. Ce dernier montrait que l’évolution technique tend vers la concrétisation : la machine devient de plus en plus cohérente en elle-même, la fonction implique la transformation de la machine (l’idée du progrès au XVIIIe siècle). Avec l’IA contemporaine (oui, parce qu’on parle d’IA depuis bien, bien longtemps), on quitte le stade de la simple prothèse (qui exécute une commande) pour entrer dans celui de l’agent (qui interprète une intention et produit une stratégie). La machine n’est plus seulement au bout de l’esprit, elle commence à occuper l’espace de la décision intermédiaire.
L’agentivité autonome actuelle rompt avec la linéarité qu’on tend généralement à supposer lorsqu’on parle d’histoire des techniques (si on n’est pas historien des techniques, la plupart du temps, c’est ainsi qu’on voit les choses). Le système technique n’est plus un simple intermédiaire entre une intention et un résultat, mais un dispositif capable de définir ses propres sous-objectifs et de corriger ses trajectoires d’exécution en temps réel. Cette autonomie opérationnelle déplace le curseur de la décision, créant un système technique où l’opérateur humain intervient par la consigne de haut niveau plutôt que par le pilotage de précision. Et le paradoxe, c’est que ce faisant, nous créons un système hiérarchique radical dans lequel la plupart des opérateurs humains deviennent eux-mêmes des rouages, lorsque par exemple l’algorithme impose sa loi au livreur, au manutentionnaire, au vendeur. Toutes les professions, y compris les plus intellectuelles, sont désormais destinées à produire ce que Cory Doctorow nomme des centaures inversés.
La violence technologique que je mentionne ces derniers temps dans mes écrits m’inspirant de la pensée de Detlef Hartmann, se superpose à cette lecture. Dans le capitalisme industriel, les individus sont dépossédés de leur autonomie et rendus étrangers à leur propre activité. Dès les années 1970-1980, cette logique d’aliénation s’étend de la production industrielle à la production symbolique et intellectuelle par l’informatisation des tâches, toujours au service du contrôle et de la rationalisation capitalistes. La violence technologique prolonge ainsi la violence structurelle du capital en cherchant à formater les dimensions qualitatives de l’existence humaine (l’intuition, l’émotion, l’imaginaire) selon les exigences d’un ordre rationnel formel. Cette normalisation constitue une violence en ce qu’elle privilégie l’accumulation et le contrôle, réduit la richesse des facultés humaines à des catégories limitées et entrave les pratiques d’émancipation ainsi que la capacité collective à transformer consciemment le monde.
L’introduction des agents dans le système technique numérique modifie la structure de la preuve et de la responsabilité technique. Dans le paradigme du logiciel classique, la réponse est déterministe et traçable dans le code. Avec les modèles d’action autonomes, le système procède par inférences probabilistes et par itérations imprévisibles sur des interfaces tierces. Cette opacité du processus décisionnel, cette boîte noire, remet en cause l’imaginaire de la maîtrise technique, où l’utilisateur est censé comprendre et contrôler chaque étape de la transformation du réel par la machine (même si dans bien des cas, c’est vraiment imaginaire).
En s’extrayant de la simple génération de texte pour interagir directement avec les systèmes d’exploitation et les réseaux, les modèles d’IA aujourd’hui créent un nouveau milieu. Elles deviennent des acteurs dans l’infrastructure numérique. Elles imposent une cohabitation dans laquelle les processus automatisés s’autoalimentent, réduisant ainsi la latence entre la conception et l’application, mais augmentant radicalement la complexité du système technique global.
L’anachronisme consiste à s’obstiner à analyser l’IA comme un simple automate sophistiqué. La spécificité de l’agent autonome réside dans sa capacité de planification et d’adaptation face à l’imprévu. Ignorer cette dimension conduit à une méprise sur la nature même de la puissance de calcul contemporaine : elle n’est plus seulement quantitative (vitesse de traitement), mais qualitative (capacité de médiation et de substitution dans des tâches cognitives et décisionnelles complexes).

L’IA dans l’histoire de l’arraisonnement technique
Pour comprendre l’IA, il faut l’inscrire dans l’histoire de l’informatisation des organisations amorcée dans les années 1960-1970. Nous sommes alors passés d’un moment technique à un autre, entre « faire travailler les machines » à notre place, à la constitution de « systèmes d’information ». Cela a transformé l’ordinateur en un pivot du management, visant la quantification du réel, et en particulier la productivité de l’homme et son comportement (marketing). Déjà à cette époque, le discours sur la « neutralité technique » servait de paravent à une volonté de monitoring social et de rationalisation productiviste.
Je ne peux m’empêcher de penser (c’est peut-être justement un réflexe anachronique, donc : prudence) que l’IA générative contemporaine marque l’aboutissement technique de ce que Marx nommait le « sujet automate » : un stade dans lequel le système de machinerie ne se contente plus d’assister l’homme, mais s’autonomise pour devenir un processus de production de valeur dont l’humain n’est plus que l’accessoire. Dans cette configuration, l’IA n’est plus un outil inerte, mais un agent capable de gérer ses propres itérations. Dans un récent article Matt Shumer (oui, encore un entrepreneur de l’IA, mais on peut aussi le lire, ce n’est pas inutile), mentionne le modèle GPT-5.3 Codex : la machine contribue désormais à sa propre création en déboguant son code de formation et en optimisant elle-même son déploiement. En fermant cette boucle de rétroaction, l’IA instaure un métabolisme technique qui s’autoalimente : elle écrit le code des générations futures, créant une accélération où la puissance de calcul se valorise elle-même.
Cette mutation transforme notre rôle : nous passons du statut d’opérateur pilotant une machine, ou d’opérateur annexe à la machine (le livreur surveillé par l’algorithme qui lui dit où déposer le colis et en combien de temps) à celui de simple fournisseur de ressources. À moins de faire partie d’une élite des big tech, nous sommes en train de passer du statut déjà peu enviable de périphérique biologique d’un système algorithmique à celui d’un terreau d’où le système extrait les données nécessaires à sa propre maintenance. Il en résulte une « seconde nature » technologique, telle que décrite par Jacques Ellul et Langdon Winner : un environnement si totalisant et si profondément imbriqué dans nos formes de vie qu’il devient invisible à nos yeux. Nous basculons alors dans un somnambulisme technologique, acceptant comme inéluctable un cadre de vie où la technologie dicte ses propres normes de fonctionnement1.
Le braconnage culturel est-il une impasse ?
Ces deux dernières années, je me suis appuyé sur deux concepts qui permettent de se figurer des méthodes d’émancipation de ce cadre de vie ainsi imposé. Celui de mètis repris de James Scott, dans L’œil de l’État, et celui de braconnage culturel, repris de Michel de Certeau, dans L’invention du quotidien (voir la troisième section de cet article). Autant mener résistance contre un système totalitaire par la ruse laisse au moins un horizon ouvert de techniques à tester et à éprouver (on pense par exemple au Fediverse et ses protocoles), autant les tactiques de M. de Certeau me semblent désormais quelque peu obsolètes. Que nous dit M. de Certeau ? Il nous parle des tactiques du quotidien qui permettent, par des usages imprévus, de détourner l’ordre imposé. J’y voyais comme lui autant d’actes possibles de résistance, comme détourner des objets de leurs finalités ordonnées par leur marchandisation. Souvenez-vous par exemple de la Pirate Box qu’il était possible d’installer sur un routeur TP-Link. Mais aujourd’hui, nous devons affronter quelque chose de beaucoup plus brutal : l’IA générative semble immunisée contre ce braconnage car elle ne se contente plus de prescrire un usage… elle l’absorbe.
Le braconnier joue sur les failles d’un système rigide. L’agent IA, lui, est par définition malléable et adore les déviations. Chaque tentative de détournement devient une nouvelle donnée d’entraînement, une itération supplémentaire qui permet au système de corriger ses erreurs et d’intégrer la subversion dans sa propre logique formelle. Le système se fiche du sens de votre révolte tant qu’il peut en modéliser le comportement. Le braconnage numérique risque donc de n’être qu’une collaboration involontaire à l’emprise algorithmique « voulez-vous que je vous aide à créer votre Pirate Box ? »
Quelle mètis pour l’insoumission ?
Dès lors, il ne s’agit plus de ruser dans le système, mais de ruser contre son intelligibilité. Notre mètis doit devenir une intelligence de la désynchronisation :
- Le sabotage de la prédictibilité : puisque le capitalisme de surveillance tend à une augmentation des degrés de certitude, l’insoumission passe par l’injection de « bruit » et l’entretien de zones de haute tension identitaire. On peut penser aux pratiques de data obfuscation. Il faut refuser la standardisation des subjectivités en multipliant les appartenances contradictoires que l’algorithme ne peut réduire à un profil de consommation cohérent. Hélas, le principal biais de cette approche, c’est l’épuisement à transformer notre quotidien en lutte permanente, coûteuse et aux résultats incertains, contre des machines qui, elles, ne s’épuisent pas. Reste à s’appuyer sur le droit et les garde-fous de type RGPD et AI-Act… suffiront-ils ? j’ai des doutes.
- Désynchroniser nos pratiques de l’ordre imposé : face à l’agent qui navigue pour nous, la ruse consiste à restaurer notre propre encapacitation par le recours aux Communs numériques et aux low-tech. C’est une forme de « désapprentissage » de la dépendance. L’objectif est de reconstruire des espaces d’autonomie technique où l’on refuse la médiation de l’agent propriétaire. Là, le logiciel libre a toutes ses cartes à jouer, et c’est maintenant ! il est presque déjà trop tard. À trop dénigrer les LLM et les services qui emmerdifient le web, nous avons laissé passer le train de l’adoption des usages : la seule solution consiste selon moi à utiliser les modèles existant et les détourner. C’est une réminiscence du braconnage culturel que je mentionnais plus haut, sauf qu’ici, il s’agit d’un geste technique, qui implique des communautés, et non plus le quotidien personnel de chacun de nous. Nous devons braconner ensemble. De petits LLM à l’usage concret et frugal.
- L’action préfigurative : j’en parle dans ce billet. Il s’agit de créer des « archipels » de liberté numérique qui échappent physiquement et logiquement au contrôle centralisé. Cela revient à refuser le somnambulisme technologique en organisant des espaces dans lesquels la créativité, le partage et la solidarité redeviennent les mesures de l’intérêt du monde numérique.
En acceptant les modèles d’IA comme des auxiliaires « pratiques », nous signons un contrat dont les clauses d’aliénation ne nous seront révélées qu’une fois que le verrouillage socio-technique sera total. Nous devons donc politiser non pas seulement l’usage, mais les conditions de possibilité de ces techniques. Si un système technique exige pour fonctionner une structure de commandement hiérarchique ou une extraction illimitée de données, il doit être combattu en tant qu’artefact intrinsèquement autoritaire. Notre mètis ne doit plus être celle du braconnier qui se cache dans la forêt, mais celle du constructeur d’une autre forêt, impénétrable (ou le moins possible).
Un monde sans les IA d’aujourd’hui (à moins d’une catastrophe) n’est plus envisageable. Et jamais, nous n’avons été autant dépossédés de notre cadre de vie. La menace est trop grande pour que nous puissions nous payer le luxe d’ignorer ou faire semblant d’éviter cet avancement technologique brutal et foudroyant. La question ne se limite plus à se demander si chacun d’entre nous utilise ou pas ces technologies. Elles s’imposent partout, et s’imposeront encore. Je ne vois donc qu’une seule possibilité : ruser. Ruser en utilisant ces techniques, en y opposant d’autres savoirs (et c’est en cela que la mètis est le miroir inversé de la technè) et en leur volant de la valeur. La transformer en commun. D’abord par la connaissance et la réappropriation cognitive, ensuite en désynchronisant l’usage de l’autorité.
Idées en vrac et à réfléchir ensemble :
- des SLM (Small Language Models) à usage concret et frugal (avec une sorte de Huggingface vraiment communautaire, spécialisation fine de type LoRA),
- des espaces numériques où la créativité redevient le moteur de la valeur ajoutée (un web off-line first, flux RSS, pages statiques, Fediverse),
- reformer un web à part, un web « des gens », sans usages imposés, et lui aussi frugal.
- Autres idées ? c’est le moment :)
- Je reprends ici deux expressions de Langdon Winner, dans La baleine et le réacteur, dont je conseille vivement la lecture.↩︎
Image d’entête de l’article : Parallax Immersion, de Thomas Canto, par Alessandra Ioalè, 2014 (source).
Laisser un commentaire