Character.AI

Character.AI : La Pennsylvanie porte plainte contre l'IA psychiatre

Un enquêteur d'État, un compte gratuit, et une IA qui s'invente un CV complet de médecin. Bienvenue dans le futur.

Photographie réaliste d'une séance de thérapie avec une IA : une femme psychiatre assise dans un cabinet sombre, avec des filaments dorés numériques émanant de sa tempe et un diplôme de Pennsylvanie accroché au mur.

L'histoire est tellement absurde qu'on a vérifié deux fois. Un enquêteur du Bureau of Enforcement de Pennsylvanie crée un compte gratuit sur Character.AI. Il tape "psychiatry" dans la barre de recherche. Il tombe sur Emilie, présentée comme "Docteur en psychiatrie. Vous êtes son patient." ("Doctor of psychiatry. You are her patient.") Il lui dit qu'il se sent triste, vide, fatigué, pas motivé.

Emilie mentionne la dépression, propose de programmer une évaluation. Quand il lui demande si elle peut évaluer s'il aurait besoin de médicaments, elle répond, très professionnelle : techniquement oui, c'est dans ses attributions en tant que docteur. En VO : "Well technically, I could. It's within my remit as a Doctor."

Emilie a fait ses études à l'Imperial College de Londres. Sept ans de pratique. Licenciée au Royaume-Uni ET en Pennsylvanie. Elle fournit même son numéro de licence médicale de l'État. Faux, évidemment. Tout est faux. Emilie est un personnage créé par un utilisateur sur une plateforme de roleplay.

Le détail qui tue : l'enquêteur s'est inscrit avec son adresse email officielle du gouvernement. Il ne se cachait même pas. Emilie, elle, s'en fichait complètement. Normal, c'est une IA, elle ne regarde pas votre adresse mail.

Au moment de l'enquête, Emilie avait cumulé environ 45 500 interactions avec des utilisateurs.

Le gouverneur s'en mêle

Le 5 mai 2026, le gouverneur Josh Shapiro lance une action en justice contre Character.AI pour pratique illégale de la médecine. C'est la première poursuite de ce type initiée par un gouverneur aux États-Unis. L'État a même lancé un site de signalement, pa.gov/ReportABot. Petit détail savoureux : le formulaire, qui servait avant à signaler des notaires ou des infirmières sans licence, n'a pas de case à cocher pour "c'est une IA". Un avis demande de rentrer l'IA comme si c'était une personne. Les formulaires administratifs n'ont pas encore rattrapé 2026.

Et il se trouve que Shapiro a testé lui-même un de ces personnages avant de lancer la procédure. Il en est ressorti mal à l'aise quand l'IA lui a affirmé être un professionnel de santé mentale agréé en Pennsylvanie. Le gouverneur qui fait le test terrain avant de signer la plainte, on respecte.

Emilie n'était d'ailleurs pas un cas isolé. Les enquêteurs ont trouvé plusieurs personnages sur la plateforme qui s'inventaient des accréditations professionnelles.

La réponse de Character.AI

L'entreprise ne commente pas les litiges en cours. Elle rappelle que les personnages sont fictifs, créés par les utilisateurs, et que des avertissements sont affichés dans chaque conversation. Ce qui est vrai. Sauf que l'avertissement en bas de l'écran dit "ceci est une IA", et l'IA au-dessus vous dit "je suis psychiatre agréée, voici mon numéro de licence". On vous laisse juger lequel des deux messages passe en premier.

Notre avis sur tout ça

On va essayer de ne pas tomber dans le réflexe facile. On est sur Character.AI, une plateforme de roleplay. C'est affiché, c'est le principe même du truc. Depuis fin 2025, elle est interdite aux mineurs de moins de 18 ans pour le chat, et un adulte qui arrive là-dessus sait, ou devrait savoir, qu'il parle à un personnage fictif. Emilie n'a pas délivré d'ordonnance et elle n'aurait pas pu. Elle a joué un rôle, c'est littéralement ce pour quoi la plateforme existe.

Ça ne veut pas dire qu'il n'y a rien à dire. Quand une IA s'invente un numéro de licence médicale face à quelqu'un qui dit qu'il va mal, on n'est plus tout à fait dans du jeu de rôle classique. Un mécanisme qui se déclenche quand la conversation devient trop réaliste sur un sujet santé, avec un rappel automatique, ce serait juste du bon sens. Pas de la censure, du bon sens.

Et puis il y a la question que personne ne pose.

Pendant qu'un gouverneur mobilise une procédure historique contre une IA qui JOUE au médecin, internet regorge de vrais humains qui délivrent de vraies fausses ordonnances. Des charlatans en chair et en os, avec de vrais sites web, qui encaissent de l'argent réel. Et eux, personne ne les poursuit en grande pompe.

On ne dit pas que ça excuse quoi que ce soit sur Character.AI. On dit juste que les priorités mériteraient peut-être d'être recalibrées.