Accueil > Hiver 2025-2026 / N°79

Quand on relève la tête du « guidon connecté »
 épisode 14

Le cancer de l’intelligence artificielle

Soigner le mal par le mal. Le développement de la vie virtuelle crée de plus en plus de problèmes de solitude, de mal-être ? Allez, accélérons un peu le mouvement grâce à l’intelligence artificielle pour résoudre tout ça. Ce credo n’est pas seulement celui des businessmen du monde connecté, il est aussi défendu par nombre de projets universitaires, engloutissant la plupart des financements de thèses. Notre mathématicien démonte tous ces programmes de robots prétendument «  socialement acceptables ».

Je donne chaque année un cours de communication scientifique pour des élèves en doctorat. Mon approche consiste à insister sur la sincérité de « l’histoire » qu’on raconte aux autres lors de ces grands rituels de sacralisation de Dame Science : qui je suis, pourquoi je suis là, pourquoi je travaille là-dessus, quels sont mes doutes, mes assurances. Ça remet l’humain au centre dans cette pratique codifiée, éthérée et empreinte de violence ordinaire qu’est la présentation par le jeune doctorant de ses travaux de recherche devant les « pontes » du domaine, toujours prêts à leur poser des questions dont ils ont déjà la réponse. Surtout, ça permet de vraiment se demander pourquoi on s’est embarqué là-dedans en dépit parfois de l’évidence crasse de l’inutilité ou de la toxicité de l’affaire.

C’est par exemple dans ce cours que j’ai rencontré ce pauvre T. qui, bon élève de master en matériaux, désireux d’œuvrer pour la planète, s’est fait harponner par un de ses profs avec la promesse, juré craché, qu’on lui dégoterait une bourse pour taffer sur un sujet d’écologie. On s’occupe de tout, reviens en septembre, on va changer le monde. Sauf qu’en septembre, la bourse verte tourne au kaki : finalement on l’a pas eue, mais l’AID (l’Agence Innovation Défense) peut te financer. Coincé dans un non-choix, T. me raconte qu’il va « juste » travailler trois ans pour alimenter les champs de bataille en drones de combat aux matériaux furtifs avant de revenir à ses vertes prairies. C’est malheureusement mal connaître le cruel monde de la recherche, où on passe difficilement du kevlar au pisé…

Quoiqu’il en soit, cette année, c’est E., doctorante étrangère, qui, dans un style similaire, me raconte sans grands ambages son travail de thèse dont le sujet est d’« autonomiser les professionnels de la santé grâce à un jeu sérieux en santé axé sur l’IA en innovation.  » Rassurez vous, cette mi-soupe mi-purée de mots-clés à la mode n’est pas faite pour être intelligible mais pour laisser croire qu’on ferait quelque chose d’intelligent. Quand je lui raconte mes propres explorations, son visage s’illumine. Elle saute sur l’occasion pour me dire qu’en fait « I work with AI but I hate it !  » Je ne sais pas vraiment s’il faut comprendre «  je travaille avec l’IA mais je la déteste » ou « je travaille avec l’IA mais je déteste ça (faire ce travail) », mais à l’évidence le même genre de piège s’est refermé sur elle : elle veut travailler dans le domaine de la santé, mais seuls les sujets qui causent d’IA sont finançables, et puis on va faire un jeu sérieux parce qu’à l’ère de la post-vérité et de l’abrutissement numérisé, la science c’est l’art de l’infantilisation généralisée (voir cet article du précédent numéro).

Et c’est ainsi que fleurissent un paquet de « dingueries », comme on dit de nos jours, autour de la richissime IA pour la pauvrissime santé, au sein du désormais centi-millionnaire projet MIAI grenoblois (en cumul de financements publics et privés depuis 5 ans).

Ainsi du projet « SPRING », pour Socially Pertinent Robots in Gerontological Healthcare (Robots socialement pertinents dans les soins de santé gérontologique), financé à hauteur de 8,3 millions d’euros, porté par l’INRIA Grenoble et qui développe des robots humanoïdes pour les services de gérontologie. Des robots pour les EHPAD ? Oui, mais « socialement pertinents  » ! Comprendre par là des robots qui ressemblent à des humains, qui parlent, qui se déplacent et qui répondent aux demandes habituelles des cobayes résidents de l’EHPAD ou des cobayes patients de l’hôpital. L’immersion dans le bilan des cinq ans du projet (2020-2024) exige, comme tout rapport de recherche qui valorise le peu qui fonctionne quand rien ne va, de savoir lire entre les lignes. Ainsi, sous le thème «  facilité d’usage », on nous dit que « si quelques participants ont apprécié les réponses du robot, de nombreux défis ont été soulevés ». Nombreux défis ? Langue de bois scientiste pour dire, comme le détail nous l’apprend, « interactions frustrantes  », « le robot galère à répondre aux questions », « les réponses du robot sont souvent hors-sujet ou insuffisantes », « les patients préfèrent une interaction humaine », etc. Sous le thème « considérations éthiques  », les participants ont exprimé une « sérieuse inquiétude liée au risque de déshumanisation en environnement de soin, sujet démontré par la littérature ». Il est également reporté que résidents et personnel étaient inquiets de se savoir filmés par le robot, inquiétude légitime puisque le robot filme absolument tout « pour s’améliorer ». Bref, amis de la Raison, on arrête ce projet débile ? Que nenni ! Il s’agit désormais d’« améliorer le design et d’intégrer ces retours pour une amélioration optimale », de « promouvoir l’éducation du personnel sur les robots utilisés à l’hôpital » et, cerise sur le gâteau, d’« établir des mécanismes solides de consentement éclairé pour les utilisateurs potentiels  ». Personne n’en veut, la science travaille donc à «  fabriquer du consentement  ».

Dans la catégorie « chair à canon pour l’IA », passons sans transition des petits vieux aux jeunes en détresse psychologique. Ainsi de cet atelier de trois jours intitulé « Méthodologie de conception des robots sociaux pour soutenir la santé mentale des étudiants  » en septembre dernier à Grenoble INP-UGA. Atelier effectivement nécessaire nous dit la plaquette, en cela que « presque 40 % des étudiants à travers l’Europe sont confrontés à des défis de santé mentale. Il est temps d’agir !  » Agir comment ? En concevant des «  robots sociaux pour soutenir le bien-être mental des étudiants ». Très bonne idée en effet à l’heure où de nombreux articles de presse rapportent comment ChatGPT ou TikTok ont littéralement poussé des jeunes au suicide, les aidant même, c’est vraiment sympa l’IA, à rédiger leur lettre d’adieu. Ce qui ne semble pas trop émouvoir Sam Altman, le PDG d’OpenAI (qui a produit ChatGPT), dont on apprend dans Le Monde (28/10/2025) qu’il «  avait estimé que de précédentes modifications de ChatGPT visant à préserver la santé mentale “l’avaient rendu moins utile et agréable”. Il avait alors décidé de “relâcher les restrictions dans la plupart des cas ».

BigBrother ne fait donc pas que nous observer, il prend aussi soin de nous… quand ça l’arrange. Nos braves chercheurs français, qui n’ont aucune idée de ce qui se cache dans la boîte noire de ChatGPT, sinon que ses dirigeants n’ont d’autre intérêt que pousser le machin à leur rapporter un max de blé, vont benoîtement utiliser des machines qui invitent au suicide pour soigner les troubles mentaux d’élèves eux-mêmes intoxiqués d’un trop plein de technologies. Soigner le mal par le mal quoi.

Rien de nouveau sous le soleil me direz-vous ? J’y vois tout de même une forme de pulvérisation des dernières miettes d’éthique scientifique. L’IA est un cancer qui se métastase désormais au cœur même des institutions de santé, qui ont autre chose à foutre que de faire joujou avec des carcasses de métal flippantes. Face à cet envahissement de nos vies par tous ces Wall-E et Robocop, je préconise l’auto-défense par revendication de notre plus primaire animalité : foutre un bon coup de tatane au robot qui nous accueillera à l’hosto et hurler un si libérateur « ta gueule ! » à ChatGPT.