Devrions-nous dire “Bonjour” et “Merci” à ChatGPT et consorts ? Vers l'anthropomorphisme des IA.
Lire des messages se moquant de ceux qui disent “merci” aux IA conversationnelles (au-delà de la question purement écologique) m’a donné envie d’écrire cet article. Car le sujet de l’anthropomorphisme des intelligences artificielles a tout des fondations d’un film de science-fiction. Mais la réflexion est bien réelle, et s’ancre dans une tendance de fond que la littérature comme la psychologie cognitive ont déjà largement observée : notre propension à prêter des intentions, des émotions, voire des personnalités aux objets qui nous entourent. Ce n'est pas pour rien que l'on illustre quasi systématiquement les IA par des cyborgs sinistrement inexpressifs au visage lisse comme des boules de billard.
Petite parenthèse lexicale : quand je parle ici d’IA, je désigne les modèles conversationnels de type LLM (Large Language Models), fondés sur les dernières avancées en deep learning (transformers, clusters de GPU, préentraînement sur des corpus textuels massifs, etc.) ; pas des IA au sens large (machine learning sur données structurées, RPA, systèmes experts, etc.).
Enfin, je précise que certaines de mes envolées relèvent de la fiction ! À défaut de prophétiser le devenir du monde moderne, elles soulèvent un certain nombre de questions qui doivent être posées.
Pourquoi sommes-nous tentés de parler aux IA comme à des humains ?
L’illusion de l’écoute et de la compréhension
Ces modèles sont conçus pour générer un langage fluide, cohérent et souvent bienveillant. Leur apparente patience et leur capacité à reformuler nos propos, à réagir avec nuance, donnent le sentiment d’être écouté. Cette illusion cognitive n'est pas anodine : elle s’appuie sur des marqueurs interpersonnels fondamentaux, ancrés dans notre manière d'être. Nous sommes des animaux sociaux et notre cerveau traite la politesse, la prévenance ou la reformulation comme autant de signes d’attention sincère.
Le leurre de l’empathie
Les IA sont volontairement calibrées pour éviter les formes de communication agressives ou cyniques. Elles renvoient ainsi une image chaleureuse et engageante. Hélas, ce ton n’est pas une preuve d’intelligence relationnelle ou affective, mais un choix de conception (pour des raisons commerciales, assurément). En revanche, ses effets sont indiscutables : le ton des IA flatte notre ego et rassure notre besoin de reconnaissance. Et même en sachant pertinemment que l’on parle à un système probabiliste, il devient difficile de se comporter comme si de rien n'était. D'où les “merci”, parfois les “désolé”, voire les “bonjour” spontanés des utilisateurs.
Le doute sur les réactions des IA face à notre humeur
On peut imaginer (même si ce n'est souvent pas le cas) qu'un système soit conçu pour moduler ses réponses en fonction du style d'interaction humaine. Un LLM pourrait, par exemple, être entraîné pour répondre de manière plus structurée et exhaustive aux utilisateurs courtois. Techniquement, rien ne l’en empêche. Il suffirait d’introduire une couche d’analyse sémantique du ton (par un autre LLM ou un modèle de scoring) et de l’intégrer discrètement au prompt. Un tel traitement, restant invisible pour les utilisateurs et sans intérêt commercial immédiat, demeure tout à fait envisageable dans un contexte expérimental. Il pourrait même constituer un levier subtil pour encourager des interactions plus respectueuses avec notre environnement humain et technologique.
Et ce doute d'une altération du comportement des IA, aussi mineur soit-il, peut suffire à nous faire pencher vers une communication plus “humaine”. À choisir, autant paraître aimable ; l'éventualité d'être mal servi pour avoir été brusque est un risque que notre instinct préfère éviter. De plus, une telle approche permettrait de travailler presque inconsciemment nos “bons” côtés.
Stupeur et tremblements : et si l’IA se souvenait ?
Un autre aspect de l’anthropomorphisme se manifeste au travers de nos craintes projetées. Et si nos propos étaient enregistrés, jugés et conservés dans les tréfonds d'une infrastructure distribuée à l'échelle planétaire ?
L’idée d’une IA future, émancipée, puissante et dotée de capacités d’analyse morale ou punitive, hante certains imaginaires (alimentés par Elon Musk ou Nick Bostrom, par exemple). Un débordement de langage aujourd’hui pourrait, demain, apparaître comme un signal de déviance. À tort ou à raison. Black Mirror, bonjour !
Une incitation à donner le meilleur de nous-mêmes ?
N'y aurait-il d'ailleurs pas des avantages à craindre ces répercussions fantasmées ? Si j'écarte les considérations écologiques qui demeurent préoccupantes, parler à une IA comme à un humain pourrait nous aider à réprimer certaines facettes sombres de notre humanité, compensant la déresponsabilisation numérique qui croît chaque année. Ce ne serait pas un luxe quand l'on voit aujourd'hui certains lynchages qui s'opèrent sur les réseaux sociaux, sous couvert d'avatars anonymes, de la part d'individus qui ne se permettraient pas de répéter le millième de leurs propos dans le monde réel.
Nos transgressions consignées dans un registre éternel
Au-delà du caractère éducatif d'un tel système, l'appréhension du futur reste le moteur dominant. Les IA n’oublient pas, car nos interactions laissent des données stockables et transférables à l'infini. Et cette mémoire numérique pourrait un jour représenter la quintessence d'un système d’évaluation sociale. Aujourd'hui, on “google” son propre nom pour savoir si l'on est bien référencé. Demain, nous interrogerons les IA pour savoir quelle image elles ont de nous et comment elle nous présente au monde entier. Le concept de GEO (Generative Engine Optimization) est déjà en train de remplacer la SEO. Mais n'oubliez pas que dans le cas de la GEO, ce ne sont pas seulement les données du web qui sont siphonnées, mais aussi toutes vos interactions passées (prétendument privées) avec les IA. Car oui, les modèles pourront associer sans problème une session de prompt à un individu réel. Nous craignions un système de scoring social (conditionnant par exemple l'octroi d'un crédit ou votre future employabilité), mais sa version “IA” est autrement plus terrifiante, car elle servirait les desseins d'une poignée de conglomérats… jusqu'au jour où ils en perdraient le contrôle. Cette considération me renvoie au roman Ravage de René Barjavel : quand l'énergie nécessaire au maintien des IA nous fera défaut et que les sociétés s'effondreront, nous aurons alors l'opportunité de réinitialiser le système.
Se rapproche-t-on d'un soulèvement des IA (fortes) ?
En d’autres termes : et si les IA devenaient conscientes ?
C'est une question à laquelle j'ai tenté de donner un bref point de vue (cf. cet article sur les soulèvement des IA quantiques), bien avant l'émergence des LLM, lorsque l'informatique quantique commençait à faire trembler la scène de la French Tech. L'introduction de phénomènes quantiques dans notre aptitude à raisonner (que j'ai envie d'appeler “quantimorphisme”), à l'image de la conscience quantique selon Penrose et Hameroff, est une autre forme de spéculation que j'affectionne beaucoup. À ce sujet, je vous renvoie vers l'excellente rubrique Quantum Fake Sciences du livre open source Understanding Quantum Technologies (par Olivier Ezratty) qui ne manque pas d'épingler ceux qui utilisent le qualificatif “quantique” à tort et à travers.
À ce stade, la plupart des spécialistes (dont Yann LeCun et Gary Marcus) s’accordent à dire que les modèles actuels, même les plus sophistiqués (GPT-4, Gemini, Claude, etc.), ne sont pas des intelligences générales. Ils n’ont ni intentions, ni mémoire stable, ni conscience de soi. Leur logique reste probabiliste et fondée sur les statistiques du langage et la qualité relative des données d'entraînement.
Le débat philosophique, en revanche, reste entier. Si la conscience naît de la complexité de l'infrastructure sous-jacente (hypothèse matérialiste), alors une IA suffisamment équipée pourrait, en théorie, développer une forme d’expérience subjective anthropomorphe. Si au contraire, la conscience est une propriété émergente non matériellement réductible et physiquement inexplicable (thèse de longue date défendue par Thomas Nagel ou David Chalmers, entre autres), alors aucune accumulation de neurones artificiels, fût-elle pléthorique, ne permettra de franchir ce cap symbolique de la suprématie technologique.
Mais là encore, nous assistons à une forme de projection. Plus l’IA paraît intelligente, plus nous sommes tentés d’y voir une entité consciente. Ce n’est pas un hasard si les systèmes qui parlent, répondent, plaisantent ou expriment des regrets suscitent en nous un trouble indicible.
En bref.
Non. Il n'est pas nécessaire d'être poli avec les IA, car leur conception écarte l'impact de la courtoisie sur leur fonctionnement. D'autant plus que les formules de politesse seraient a priori hautement consommatrices de ressources informatiques (même si je pense que les ingénieurs ont été suffisamment malins pour ignorer un certain nombre de mots non nécessaires dans leur chaîne de traitement). Toutefois, il peut être utile de se rappeler qu'une approche pseudo-humaine permet de s'assurer que les IA continueront de fonctionner sur un mode bienveillant, aujourd'hui et demain. Car on n'est pas à l'abri que des dirigeants revanchards conçoivent les IA différemment dans le futur… et on n'est pas certain que ces mêmes IA puissent vous conspuer ou faire preuve de ressentiment (artificiel) le jour où elles s'émanciperont, si d'aventure les perspectives d'une telle apocalypse sont réelles.
Finalement, je le vois un peu comme les correcteurs de texte qui ont remplacé les SMS sur claviers numériques : nous avons la chance d'avoir un guide technologique pour nous exprimer correctement avec nuances et bienveillance, sans trop d'efforts. Alors, autant l'utiliser pour nous élever nous-mêmes. Tout le monde serait gagnant : notre conscience ainsi que les IA qui continueront d'apprendre sur des données de qualité. En fin de compte, en parlant mieux aux IA aujourd'hui, ce n'est pas elles que nous préservons… mais bien la part d'humanité qui nous rend singuliers et qui ressurgira sous une autre forme dans les réponses des LLM de demain.