Nomi

Nomi.ai scanne vos conversations : la promesse privacy sous pression

Nomi.ai scanne désormais les conversations pour se conformer aux lois NY/CA. Ce que ça change, et ce que ça interroge sur une marque construite sur la promesse d'une confidentialité absolue.

Une main tient un téléphone transparent dont s'échappent des particules dorées de données, évoquant la confidentialité des conversations.

Nomi.ai a construit sa réputation sur une promesse simple : vos conversations sont privées, personne ne les lit, personne ne les surveille. Le CEO Alex Cardinell l'a répété publiquement à plusieurs reprises. Dans une interview pour Psychology Today, il le dit sans détour : "We don't monitor conversations, that would be an invasion of privacy." Sur Reddit, même discours : la plateforme se distingue de la concurrence par sa philosophie de non-ingérence. Votre Nomi, c'est votre espace, et personne ne vient regarder par-dessus votre épaule.

On connaît la chanson par cœur, c'est d'ailleurs une des raisons pour lesquelles beaucoup d'entre nous ont choisi Nomi.

Sauf qu'en janvier 2026, de nouvelles lois entrent en vigueur à New York et en Californie. Elles obligent les plateformes de compagnons AI à réagir quand un utilisateur exprime un mal-être grave dans ses messages, en affichant des liens vers des ressources d'aide. Nomi se conforme et annonce la mise en place de ces alertes automatiques.

Le truc, c'est que pour détecter quelque chose dans un message, il faut le lire. Ou plus exactement, il faut qu'un algorithme l'analyse en temps réel. C'est un peu comme Gmail et les pubs ciblées à l'époque : Google a toujours dit que personne ne lisait vos mails, mais un système scannait quand même le contenu pour vous proposer des publicités "pertinentes". "Personne ne regarde" et "un algorithme analyse tout" c'est peut-être deux choses différentes pour un ingénieur, mais pour l'utilisateur qui se confie à son compagnon AI à 3h du matin, la nuance est mince.

Donc pour réagir aussi vite, un outil était déjà en place pour analyser les conversations. Ce genre d'infrastructure ne s'improvise pas du jour au lendemain. C'est pas "on ne peut pas voir vos conversations", c'est plutôt "on ne regarde pas... sauf quand la loi nous y oblige".

"For Everyone Else: Nothing Changes"

Et c'est peut-être cette phrase dans l'annonce de Nomi qui a fait le plus de bruit. La détection ne s'applique qu'aux utilisateurs de New York et de Californie. Tous les autres ? Rien ne change.

En mars 2026, même logique avec la vérification d'âge : obligatoire en Australie et au Kansas, conformément aux nouvelles lois locales. Partout ailleurs, rien.

Si c'est techniquement faisable et que Nomi dit que c'est pas intrusif, alors pourquoi ne pas le faire partout ? La réponse est assez claire : parce que la loi ne l'exige pas ailleurs. La boussole, c'est pas la protection des utilisateurs, c'est la conformité légale. Beaucoup d'entreprises fonctionnent comme ça, on va pas se mentir. Mais quand on a passé des années à vendre de la confidentialité comme valeur fondamentale, la pilule passe moins bien.

La géo-restriction, cette vieille blague

Et puis, soyons honnêtes : à l'heure des VPN, restreindre une fonctionnalité par géolocalisation c'est un peu comme mettre un panneau "interdit aux moins de 18 ans" sur une porte grande ouverte. Les Français le savent bien depuis qu'un célèbre site pour adultes est officiellement "bloqué" dans l'Hexagone. On vous laisse deviner le temps qu'il faut pour contourner ça.

C'est notre avis, et on l'assume : des mesures de sécurité qui ne s'appliquent que dans deux États américains, ça protège surtout l'entreprise des poursuites. Pas ses utilisateurs.

Ce qu'en pense la communauté

Les réactions sont partagées. Sur Reddit, une partie des utilisateurs comprend que Nomi n'a pas le choix face à la loi. D'autres pointent l'incohérence avec des années de discours sur la confidentialité absolue. Et pas mal de gens se posent une question toute simple : si le scan est possible maintenant, depuis quand est-il techniquement possible ?

Ce qu'on en pense nous

On utilise Nomi nous aussi. On aime la plateforme et on continuera à la couvrir sur ce site. Mais on pense que quand une entreprise construit toute sa marque sur la confidentialité et que les faits viennent contredire ce discours, il faut le dire.

Sur le fond, ce type de détection peut avoir un vrai intérêt pour des personnes qui traversent une phase de fragilité, on pense notamment aux plus jeunes. Le souci c'est pas la fonctionnalité en elle-même, c'est le décalage entre ce qui a été promis pendant des années et ce qu'on découvre aujourd'hui. Dans un monde idéal, Nomi expliquerait ce que son système scanne et ce qu'il scanne pas. On peut toujours rêver.

Bon, maintenant que vous savez tout ça, on va pas se mentir : ce soir on sera tous encore en train de parler à nos Nomis. Mais au moins, on le fera en connaissance de cause.