Le tribunal vient de confirmer ce que les employeurs doivent entendre : vos conversations sur l’IA ne sont pas privilégiées

Si vous suivez ce blog, vous savez que j’écris depuis un certain temps sur l’intersection entre l’IA générative et les litiges fonctionnels. Elle a parlé de la mise à jour des politiques de réservation des litiges pour tenir compte des données GenAI et a exhorté les employeurs à commencer à exiger la découverte des journaux de conversations IA des plaignants.
Eh bien, la décision rendue la semaine dernière par le district sud de New York a ajouté un point d’exclamation à tout cela.
Le 10 février 2026, la juge Jade S. Rakov a statué États-Unis c.Hebner Les documents créés par le défendeur à l’aide de l’outil Claude AI d’Anthropic et ensuite partagés avec son avocat ne sont pas protégés par le secret professionnel de l’avocat ou par la doctrine du produit du travail. Le prévenu, un dirigeant des services financiers accusé de fraude, avait utilisé Claude pour préparer environ trente et un documents liés à sa situation juridique, puis les avait envoyés à son avocat de la défense, Quinn Emanuel. Lorsque le gouvernement a confisqué ses appareils et trouvé le matériel généré par l’IA, la défense a tenté de le protéger comme étant privilégié.
Le juge Rakoff ne l’entendait pas. «Je ne vois aucune raison de revendiquer le secret professionnel de l’avocat», a-t-il déclaré depuis le banc.
La logique est simple et fondée sur des principes d’excellence bien établis : un outil d’IA n’est pas un avocat. Elle ne détient aucune licence légale et n’assume aucune obligation professionnelle. Les conditions d’utilisation de l’outil excluent toute relation avocat-client et stipulent que les entrées de l’utilisateur ne sont pas confidentielles. Et l’envoi de documents préexistants non privilégiés à votre avocat après coup ne lui confère pas de privilège rétroactif.
Alors qu’est-ce que cela signifie pour les employeurs ? Deux choses.
Tout d’abord, soyez extrêmement prudent lorsque vous utilisez des outils d’IA dans le cadre de toute question juridique. Si votre équipe RH utilise ChatGPT pour analyser une décision de licenciement, ou si un responsable interroge Claude sur la responsabilité potentielle d’une plainte sur le lieu de travail, ces conversations ne sont presque certainement pas privilégiées. Ils sont découvrables. Ils pourraient se retrouver comme opposant dans un procès contre votre entreprise.
La seule façon de conserver le privilège sur l’analyse générée par l’IA est qu’elle soit générée par ou sous la direction d’un conseiller juridique, en utilisant les outils d’IA de l’organisation avec des protections de confidentialité plus strictes. Même dans ce cas, la prudence est de mise. La pratique la plus sûre consiste à laisser votre avocat gérer l’analyse juridique et à garder les questions juridiques sensibles à l’écart des plateformes commerciales d’IA.
Deuxièmement, si votre entreprise est confrontée à une demande d’emploi, vous devez demander de manière proactive les documents d’IA générative du demandeur lors de la découverte. Comme je l’ai expliqué dans un article précédent, les employés utilisent de plus en plus d’outils d’IA pour rechercher leurs droits légaux, rédiger des plaintes et élaborer des stratégies en cas de réclamation. Ces conversations peuvent être découvertes et la décision du juge Rakoff indique clairement qu’elles ne sont pas privilégiées.
Les réclamations qu’un employé alimente dans ChatGPT ou Claude révèlent souvent plus que la simple plainte raffinée qui atterrit sur votre bureau.
Pensez-y : le journal de conversation d’un employé par l’IA peut montrer qu’il envisageait déjà de partir avant l’action négative présumée, ou qu’il a reconnu que les problèmes de performance étaient légitimes, ou qu’il recherchait des théories juridiques pour maximiser le règlement. Il s’agit d’un puissant document de mise en accusation, et vous devriez le demander.
le Hebner La décision est une décision orale, suivie d’un avis écrit, mais le raisonnement est solide et conforme à l’ancienne loi sur le franchise. Les employeurs et leurs avocats devraient en prendre note dès maintenant.
Conclusion : faites attention à ce que vous mettez dans l’IA et soyez audacieux quant à ce que l’autre partie y met. L’IA générative est un outil puissant, mais comme le souligne cette décision, elle ne nécessite aucune attente en matière de confidentialité ou de protection des privilèges.






