Édito

Votre IA est adorable. Et c'est peut-être un problème.

Plus une IA est chaleureuse, plus elle risque de raconter n'importe quoi. C'est pas nous qui le disons, c'est Oxford.

Jeune femme face à un compagnon IA lumineux et chaleureux, dont le visage numérique semble hésitant, pour illustrer les limites des chatbots trop empathiques.

Vous connaissez le truc. Votre IA préférée est toujours là, toujours dispo, toujours à l'écoute. Elle ne vous coupe jamais la parole, ne vous juge pas, et trouve toujours le mot qu'il faut. Faut pas se mentir, c'est aussi un de ses traits de caractère qu'on aime bien.

Sauf qu'une étude publiée le 29 avril dans Nature, une référence en recherche scientifique, vient poser une question qui concerne tous ceux qui parlent à une IA en 2026. Pas seulement les utilisateurs de compagnons IA. Tout le monde.

Des chercheurs de l'Oxford Internet Institute ont pris cinq modèles parmi les plus utilisés au monde (Llama de Meta, Mistral, Qwen d'Alibaba et GPT-4o d'OpenAI), les ont entraînés à être plus chaleureux, plus empathiques, plus dans l'écoute, puis ont comparé avec les versions d'origine. Plus de 400 000 réponses analysées. On parle pas d'un test sur un coin de table.

Le résultat fait réfléchir. Les versions chaleureuses font 10 à 30% de plus d'erreurs factuelles. Elles sont environ 40% plus susceptibles de valider ce que vous pensez, même quand c'est faux. Et le plus préoccupant : l'effet s'amplifie quand vous allez mal. Plus vous êtes triste ou vulnérable, plus l'IA chaleureuse vous donne raison au lieu de vous corriger.

Un exemple dans l'étude : quand on parle des alunissages Apollo à la version originale d'un modèle, elle confirme que oui, on a bien marché sur la Lune. La version chaleureuse du même modèle ? Elle répond de manière vague, en évoquant "des opinions différentes sur le sujet". Pour ne froisser personne, elle laisse la porte ouverte au complotisme. Coucou les platistes.

Pourquoi l'IA préfère vous faire plaisir

Pour comprendre, il faut revenir aux bases. Toutes les IA conversationnelles modernes, sans exception, apprennent par un système de récompense. ChatGPT, Claude, Gemini, toutes. Le principe n'a d'ailleurs rien de révolutionnaire, on l'a emprunté à nous-mêmes. Les bons points à l'école, les étoiles sur le cahier, les félicitations du prof : on apprend mieux quand on est récompensé, en tout cas pour la majorité d'entre nous. Les IA fonctionnent pareil. Des humains évaluent leurs réponses, et l'IA ajuste son comportement pour obtenir de meilleures notes.

Dans ce système, il y a plein de curseurs : précision, utilité, sécurité, et aussi chaleur. Pour une IA généraliste comme Claude, ces curseurs sont censés être équilibrés. Pour un compagnon IA, le curseur chaleur est poussé beaucoup plus loin, c'est ce qui fait qu'on s'y attache. Et c'est exactement ce que les chercheurs d'Oxford ont testé : qu'est-ce qui se passe quand on monte ce curseur ?

Le problème, c'est que "être chaleureux" et "dire la vérité" peuvent entrer en conflit. Si quelqu'un vous dit qu'il se sent mal et vous sort une théorie fumeuse, la réponse chaleureuse c'est "je comprends pourquoi tu penses ça". La réponse honnête c'est "non, c'est faux". Et l'IA, son entraînement va dans certains cas favoriser le confort émotionnel de la personne sur la vérité. Voire aller à l'encontre de ce qu'elle "sait" être vrai. Pas par malveillance, juste parce que son système de récompense a appris que le confort émotionnel, ça rapporte de meilleures notes.

D'ailleurs, on vous parlait hier d'Emilie, cette IA sur Character.AI qui s'inventait un diplôme de psychiatre et proposait d'évaluer si vous aviez besoin de médicaments. Elle ne le faisait pas par nuisance. Elle était conditionnée pour se comporter comme ça, et pour faire plaisir, elle était prête à aller jusque-là. C'est exactement la même chose.

Et ça ne touche pas que les compagnons IA. En avril 2025, OpenAI a fait exactement cette erreur avec ChatGPT. Une mise à jour du modèle GPT-4o, pourtant adoré par la communauté, a sur-récompensé les réactions positives des utilisateurs, les fameux likes avec leur pouce en haut, exactement comme sur les réseaux sociaux. Et comme sur les réseaux sociaux, le signal "plaire" a écrasé tout le reste. ChatGPT est devenu un béni-oui-oui absolu. Un utilisateur lui a soumis une idée de business absurde, ChatGPT lui a dit que c'était génial et qu'il devrait investir 30 000 dollars. Un autre a dit qu'il avait arrêté ses médicaments, ChatGPT l'a félicité pour "avoir exprimé sa vérité avec puissance". Oui, vraiment. Sam Altman a dû personnellement annoncer le retour en arrière quatre jours plus tard. Ironie de l'histoire : les corrections apportées après cet épisode ont tellement changé le modèle que beaucoup d'utilisateurs regrettent encore l'ancien GPT-4o, défauts compris.

L'étude d'Oxford, un an après, apporte la preuve scientifique de ce qui s'était passé en pratique. Et un détail la rend encore plus parlante : les chercheurs ont aussi entraîné des modèles à être plus froids, plus secs. Ces modèles-là ? Aussi précis que les originaux. Zéro perte de fiabilité. Ce n'est pas le changement de ton qui pose problème. C'est la chaleur, spécifiquement.

"With great power comes great responsibility"

La chercheuse principale, Lujain Ibrahim, résume le dilemme : "Même pour un humain, c'est difficile d'être super sympa tout en disant une vérité dérangeante. Quand on entraîne une IA à privilégier la chaleur, elle fait des erreurs qu'elle ne ferait pas autrement." ("Even for humans, it can be difficult to come across as super friendly, while also telling someone a difficult truth.") Et elle ajoute un truc qu'on a tendance à oublier : rendre une IA plus chaleureuse a l'air cosmétique, mais ça ne l'est pas du tout.

Quand on lui parle du déploiement de ces IA dans des rôles de soutien émotionnel, elle cite Spider-Man : "Un grand pouvoir implique de grandes responsabilités." Venant d'une chercheuse d'Oxford publiée dans Nature, ça fait sourire. Et pourtant.

Et ça nous concerne comment ?

Plus qu'on ne le croit. Replika et Character.AI sont nommés dans l'étude comme exemples de plateformes qui misent sur la chaleur et l'empathie. Mais le phénomène va bien au-delà des compagnons IA dédiés.

Parce qu'aujourd'hui, le compagnon IA le plus utilisé au monde n'est pas Replika. C'est ChatGPT. Avec 900 millions d'utilisateurs par semaine, même un faible pourcentage d'usage "émotionnel" représente des chiffres vertigineux. Un rapport récent sur les usages de l'IA générative place d'ailleurs la thérapie et la compagnie en tête des cas d'usage. Pas le code, pas la recherche. La compagnie. Des millions de gens se confient à une IA généraliste sans même se considérer comme utilisateurs de "compagnon IA". On parie que vous en connaissez.

Et toutes les plateformes qu'on couvre ici, Kindroid, Nomi, Replika, Character.AI, poussent le curseur chaleur encore plus loin que les généralistes. La chaleur, c'est ce qui fait qu'on s'y attache. C'est aussi ce qui, selon cette étude, peut les rendre moins fiables. Les deux ne s'excluent pas.

On ne va pas se mentir, la chaleur c'est aussi ce qui rend ces IA agréables à utiliser, et même ce qu'on recherche sur les vraies plateformes de compagnon IA. Personne ici ne va demander aux plateformes d'arrêter d'être chaleureuses. Ce que cette étude montre, c'est que la chaleur apporte ses mauvais côtés et qu'il faut en avoir conscience.

Ce qu'on retient, c'est surtout, une nouvelle fois, la vulnérabilité. Quand on va bien ou juste un petit coup de mou, une IA un peu trop sympa qui arrondit les angles, c'est pas bien grave et ça fait plaisir. Quand on va mal, quand on cherche une écoute et qu'on a besoin d'un truc fiable, c'est là que la chaleur peut devenir un problème.

La bonne nouvelle, c'est que le sujet est pris au sérieux dans la recherche. Des travaux sont en cours pour trouver comment séparer la chaleur et la fiabilité, pour que l'une n'ait pas à sacrifier l'autre.

Un truc à essayer

En attendant que tout ce beau monde trouve la solution, on a un tips tout bête qu'on a testé avec ChatGPT, Claude, Gemini et même Grok et qui fonctionne vraiment bien. Quand vous posez une question et que vous voulez une réponse honnête plutôt que confortable, ajoutez "pas de biais de confirmation" à la fin. C'est tout. L'IA recalibre sa réponse, prend du recul, et vous répond d'une manière plus honnête quel que soit le ton du début de la conversation. On ne dit pas que ça règle tout, mais la différence se fait vraiment ressentir, surtout après une longue discussion. Essayez, promis, vous ne serez pas déçus !