L’intelligence artificielle dans la salle d’audience : leçons pour les employeurs et leurs avocats de la conférence ABA ERR

L’intelligence artificielle dans la salle d’audience : leçons pour les employeurs et leurs avocats de la conférence ABA ERR

L’intelligence artificielle dans la salle d’audience : leçons pour les employeurs et leurs avocats de la conférence ABA ERR

Comme je l’ai mentionné lundi, j’ai eu l’occasion d’assister à la conférence ERR de la Section du droit du travail et de l’emploi de l’ABA à Nashville. Un programme qui s’est démarqué était une table ronde intitulée « L’IA au travail : découverte et action en droit du travail ».

Si vous lisez ce blog au fil des années, vous savez que j’écris depuis un certain temps sur l’IA dans le domaine du droit du travail – de la numérisation faciale utilisant l’IA lors du recrutement en 2019, aux trois domaines juridiques auxquels les employeurs doivent penser lors de l’utilisation de l’IA sur le lieu de travail, en passant par des articles plus récents sur la modernisation des litiges à l’ère de l’IA générative et la découvrabilité des données GenAI.

Mais ce panel a détourné l’attention de l’impact de l’IA sur le monde. Lieu de travail Comment l’intelligence artificielle peut transformer… Il pratique En ce qui concerne le droit du travail lui-même, il a soulevé certaines questions auxquelles les employeurs et leurs avocats doivent vraiment réfléchir.

La séance était animée par Sue Ann Van Dermyden de Van Dermyden Makus Law Corporation et comprenait un groupe impressionnant : l’honorable Anthony Porcelli du tribunal de district américain du Middle District de Floride, Kimberly Duplechin de Littler Mendelson et Lindsay Wagner de Wagner Legal. La discussion a couvert le cycle de vie complet d’un litige – depuis l’admission et l’enquête jusqu’à la pratique des requêtes et le procès – et la manière de déployer des outils d’IA à chaque étape.

Voici quelques points que les employeurs et leurs avocats devraient garder à l’esprit.

Vérifiez vos citations – le juge vérifie aussi

Le message du juge Porcelli à la salle était direct : quel que soit le résultat que vous obtenez d’un outil d’IA productif, vous êtes à vous Il devrait Vérifiez chaque référence à l’affaire avant de la soumettre au tribunal. C’est essentiel et non facultatif.

Le juge Porcelli a indiqué qu’il utilise un outil appelé « examen judiciaire rapide » pour vérifier l’exactitude des citations dans les mémoires soumis à son tribunal. Mais il a également partagé un récit édifiant sur un cas d’hallucinations provenant d’un important fournisseur de recherche juridique. L’IA peut être un excellent co-conseiller, mais c’est un co-conseiller qui a besoin d’être supervisé.

J’ajouterai ici une note personnelle : notre entreprise commence également à utiliser des outils d’IA dans nos pratiques. Nous l’avons trouvé très utile pour la recherche, la rédaction et l’analyse de cas. Mais nous les traitons de la même manière que vous traiteriez un jeune avocat très intelligent et dynamique. Comme je le dis à maintes reprises aux gens avec qui je travaille : vous devez vérifier le travail. à chaque fois. Peu importe à quel point l’IA est « digne de confiance ».

L’intelligence artificielle tout au long du cycle de vie des litiges

L’une des parties les plus pratiques de la discussion s’est concentrée sur la manière dont l’IA peut être utilisée tout au long du cycle de vie du dossier d’emploi. Les panélistes ont parcouru les étapes – évaluation initiale du cas, rédaction de la plainte, découverte électronique et examen des documents, préparation du voir-dire, planification de la déposition, analyse des témoins experts, examen des documents de la partie adverse et pratique de la requête – et ont discuté de la manière de déployer des outils d’IA à chaque étape.

Du côté des enquêtes, par exemple, l’IA peut aider à l’analyse préliminaire d’une plainte, à la collecte et à la préservation des preuves, à l’examen de documents, à la préparation d’entretiens avec des témoins, à la reconnaissance de formes et à l’analyse statistique, et même à la création de rapports d’enquête.

Mais les panélistes n’ont pas tardé à souligner que la qualité de vos résultats IA dépend entièrement de la qualité de vos entrées. Un intervenant a discuté d’un cadre organisé de motivation : attribuer un personnage professionnel (“rôle”), définir une tâche spécifique (“objectif”), fournir des faits et des sources pertinents (“contexte”), établir des garde-fous (“contraintes”) et définir la coordination dont vous avez besoin (“structure”).

Ensuite – et c’est crucial – examinez les résultats et demandez à l’IA de critiquer son travail. Quels sont les problèmes avec ces questions ? Comment puis-je l’améliorer ? Évitez les questions complexes. Évitez les questions de type accusatoire ou interrogatoire. Répéta-t-il.

Ce type d’approche disciplinée est ce qui différencie les travaux utiles basés sur l’IA de ceux qui vous donnent un ordre d’affichage.

Les questions probantes arrivent

Pour les employeurs et leurs avocats, la partie la plus avant-gardiste du panel concernait peut-être les questions émergentes concernant les preuves générées par l’IA dans la salle d’audience. Le Comité consultatif sur les règles fédérales de la preuve a proposé une nouvelle règle 707, qui réglementerait l’admissibilité des preuves générées automatiquement et exigerait que les preuves produites par l’intelligence artificielle répondent aux mêmes normes que les témoignages d’experts.

C’est un gros problème. Comme l’ont expliqué les participants, les preuves générées par l’IA présentent des défis fondamentaux que les tribunaux commencent tout juste à résoudre. Si vous exécutez deux fois la même requête via un outil d’IA, vous pouvez obtenir un résultat différent à chaque fois. Comment démontrer la fiabilité d’un système qui ne produit pas de résultats cohérents ? Comment un tribunal évalue-t-il quelque chose qui ne peut être remis en question ?

Nous avions l’habitude de faire appel à des experts pour effectuer diverses analyses – modélisation statistique, reconnaissance de formes, revue de documents. Désormais, les clients peuvent transmettre leurs données via des outils d’IA et peut-être affirmer qu’ils n’ont pas du tout besoin de faire appel à un expert. Mais comme les membres du comité l’ont clairement indiqué, cela ne suffirait pas. Les tribunaux devront comprendre la méthodologie, les apports, la fiabilité et les limites. Ce n’est pas parce qu’une machine produit le résultat que celui-ci est fiable, et les juges exigeront que les parties le prouvent.

Détectabilité des stimulus – une nouvelle frontière

Le comité a également abordé une question dont j’ai parlé récemment, soit la possibilité de découvrir les claims.

La réponse courte est : cela dépend et le droit évolue rapidement. Comme l’ont discuté les panélistes, la question fondamentale se pose de savoir quel type d’outil vous utilisez et quelles protections de confidentialité sont en place. Si ces protections vont au-delà, le juge du panel a suggéré que les réclamations pourraient être une autre forme de produit de travail – reflétant les impressions mentales de l’avocat sur la manière dont une stratégie juridique devrait être développée.

Ceci est conforme aux conclusions des tribunaux. dans Tremblay c.OpenAIun tribunal du district nord de Californie a estimé que les affirmations en matière d’intelligence artificielle développées par des avocats pouvaient constituer le produit de travaux d’opinion lorsqu’elles étaient utilisées à des fins contentieuses. Mais dans États-Unis c.Hebnerdécidée par le juge Rakoff dans le district sud de New York en février dernier, détenait des documents créés par un client non-avocat via une plateforme d’IA grand public. Non Pour protéger – parce que le client a agi de sa propre initiative, sans instruction de l’avocat, et que les conditions de service de la plateforme ont effectivement détruit toute attente de confidentialité.

Une comparaison entre les revendications et les termes de recherche traditionnels est également apparue. Les allégations sont-elles équivalentes aux recherches par mots clés que les parties sont depuis longtemps tenues de divulguer dans le cadre de la découverte électronique ? Le juge Porcelli a suggéré qu’exiger que les réclamations elles-mêmes soient produites pourrait être un pont trop loin. La question la plus pertinente est de savoir si vous avez rempli vos obligations de découverte, et non comment vous y êtes parvenu. Mais cette ligne sera bientôt éprouvée.

La pratique du droit du travail évolue rapidement. L’IA rend les avocats plus efficaces, mais elle crée également de nouveaux risques et de nouvelles questions auxquelles les tribunaux commencent seulement à répondre. Et assurez-vous de demander à votre avocat comment il utilise les outils d’IA.

Source link

Recevoir Des Offres Par Email

We don’t spam! Read our privacy policy for more info.

Similar Posts