IA : les machines du doute

 

Temps de lecture 5 min

|

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 21 mai 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Avatar de Hubert Guillaud
Hubert Guillaud

Il va nous falloir apprendre à travailler avec l’instabilité des machines.

Quand on fait réaliser un calcul par une machine, aussi complexe soit-il, la plupart du temps, ce qui est garanti, c’est l’assurance du résultat, sa stabilité, sa performance. C’est le principe d’une calculatrice ou d’un logiciel : on a au bout le résultat et les fonctions prévues. Dans un système de calcul comme les impôts, on prend des données et des règles de calcul – qui peuvent être perfectibles, certes – et on obtient des résultats sans ambiguïtés, pour autant que les données et les règles de calcul n’en comportent pas – ce qui n’est déjà pas si évident à réussir ! Dans un jeu vidéo, les personnages non joueurs suivent des scripts dont ils ne peuvent pas sortir, ce qui limite certes considérablement l’interaction, mais la borne et rend le jeu possible. Le monde de l’informatique est longtemps resté celui de la maîtrise de bout en bout des processus.

Les choses ont changé avec les systèmes d’IA. Avec certaines fonctionnalités, nous avons pris l’habitude d’un taux de performance. Pour la reconnaissance d’objets par exemple, le résultat n’est pas automatique comme avec les calculatrices. Le niveau de fiabilité n’est pas optimal, mais nous sommes capables de composer avec le fait que les machines soient capables de reconnaître tels types d’objets à 95 ou 98 %. Ce n’est pas une performance absolue, mais elle permet malgré tout d’optimiser un processus en connaissant par avance son taux d’erreur, de l’accepter ou le refuser. Et donc de décider en fonction. On peut créer une chaîne de tri d’objets en sachant que ce tri va fonctionner à 95 % et accepter ou pas la déperdition qui en résulte.

L’IA générative est plus instable encore. Les résultats qu’elle produit ne sont pas reproductibles. Un même prompt ne produira pas exactement le même résultat ou la performance pourra dépendre de la complexité que la machine doit adresser. Extraire des données d’un document, comme les noms des personnes ou leurs liens de filiation peut dépendre à la fois de la lisibilité des documents et de la complexité des relations entre ces personnes. Si le système peut être performant, reste à identifier les cas où il dysfonctionne et savoir si ces erreurs sont acceptables ou rédhibitoires et si l’on peut clairement séparer les cas où la performance est forte, de ceux où elle ne l’est pas. L’enjeu à évaluer l’incertitude des réponses apportées est une question centrale.

Cette perspective d’une fiabilité différentielle dessine un nouveau rapport aux machines. D’un coup, notre assurance dans leurs résultats doit être mise en doute. Ce qui explique qu’il soit difficile d’automatiser certaines tâches avec l’IA. Là où l’on pouvait se fier aux calculs, désormais, le doute est légitime. Alors qu’un robot était capable de remplacer une personne pour une tâche spécifique sur une chaîne d’assemblage, le chatbot conversationnel qui répond à un administré ou à un joueur va devoir être surveillé. Certaines de leurs performances sont excellentes bien sûr, mais parfois elles sont capables de sous-performances dramatiques. Comme le dit le sociologue Yann Ferguson, « Jusqu’à maintenant, l’introduction des machines a apporté de la sécurité et de la stabilité. Leur force résidait dans leur prévisibilité ». Ce n’est plus le cas. Désormais, les résultats doivent être accompagnés, surveillés, contrôlés et c’est là un nouveau défi pour ceux qui cherchent à intégrer l’IA générative à leurs procédures.

Mais, au-delà de l’IA générative, ce que dessine ce changement de paradigme, c’est un autre rapport aux machines : voilà qu’on ne peut plus leur faire entièrement confiance. Non seulement, il faut se défier des biais des données, des règles de calculs utilisées, mais désormais de leurs résultats mêmes. Et la grande difficulté consiste à savoir là où on peut leur faire confiance et là où on ne doit pas leur faire confiance.

Un imagier pour enfants avec des animaux. Certains animaux sont des fusions, d'autres sont mal nommés : Le cochon est appelé « Vache », ou ce qu'il semble être la fusion entre un chat et un chien un « cochon ».
Exemple d’un imagier pour enfant sur les animaux de la ferme conçu par chatGPT…
… qui n’est pas sans poser problèmes. Tweet de Tristan Mendès France.

Les technologies ont toujours eu pour ambition de nous faire gagner en productivité, avec pour enjeu de pouvoir remplacer des hommes par des procédures avec un niveau de confiance très élevé. On est en train de passer d’une technique qui produit une certaine forme de rationalité qu’on était capable d’évaluer simplement à une technique qui n’en produit plus ou pas nécessairement ou pas principalement et sans qu’on soit toujours capable d’évaluer sa fiabilité. C’est un changement de paradigme important qui nous oblige à ne plus être certain de la réponse produite par la machine, de ne plus pouvoir lui faire entièrement confiance. L’IA nous demande désormais de composer avec le doute, de remettre en question nos assurances. Nous avons un nouveau rapport aux machines à imaginer et il nous invite à douter d’elles.

C’est une très bonne nouvelle, vous ne trouvez pas ?

Suivre Framasoft:

Réseau d'éducation populaire au Libre. Nous souhaitons faire le trait d'union entre le monde du Libre (logiciel, culturel, matériel, etc.) et le grand public par le biais d'une galaxie de projets à découvrir sur framasoft.org

2 Réponses

  1. Laurent

    Le doute à toujours existé dans le monde scientifique.Enfin jusqu’à ces dernières années. Si L’IA apporte le doute à l’utilisateur lambda, c’est tout bénéfice. Mais je n’y crois pas trop. Nos média présentent l’IA comme l’alpha et l’omega de la nouvelle pensée (unique?).
    En fait, l’IA va être utilisée pour imposer la bien pensance à la population comme n’étant pas discutable car émise par une intelligence « supérieure ». Le plus grand danger de l’IA se trouve plus dans l’imposition d’une pensée non négociable que dans une prise de pouvoir à la Terminator.

  2. Jérémy

    D’autant plus que l’IA transforme petit-à-petit les mœurs de la génération qui est né avec : plus de feignantise, on fait ses devoirs avec GPT, on ne réfléchit plus par soi-même… Donc, effectivement, une pensée absolue pourra être transmise par l’IA sans problèmes si on s’enfonce de plus en plus dans ce type de pensée.

    La clé selon moi, c’est de savoir faire les choses de manière artisanale, mais d’utiliser l’IA intelligemment, comme assistant. Lui dédier tout notre savoir, notre travail, c’est qq part lui vendre notre âme.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Pour toutes demandes d’aide, questions ou idées d’améliorations sur les services de Framasoft, merci de nous contacter plutôt sur contact.framasoft.org.