Crédito: dominio público Unsplash/CC0
El uso de la IA se está extendiendo en todas las profesiones e industrias, y la ley no es una excepción.
Los abogados han sido innovadores en su uso de modelos de idiomas grandes (LLMS), pero también estamos viendo ejemplos de ellos atrapados por las capacidades lingüísticas de la IA generativa.
No confíes en AI
Los modelos de IA refinados, combinados con la recuperación o los sistemas de “trapo”, tienen la capacidad de resumir, revisar y analizar documentos.
Pero cada vez más, tribunales y reguladores legales están advirtiendo a los abogados que no confíen en la IA generativa sin verificar su trabajo, y en algunos casos les aconsejan no usarlo en absoluto.
De hecho, ya hemos visto Los tribunales amonestan a los abogados para enviar documentos legales que incluyan Contenido fabricado por AI.
Y en Australia, los tribunales mismos han sido cauteloso sobre el uso de la tecnología.
Significado ordinario y IA generativa
Algunos tribunales de todo el mundo están experimentando con el uso de IA generativa.
En Inglaterra, Lord Justice Birss le aconsejó que usara Chatgpt para resumir un área de la ley. En el caso de los Estados Unidos de Snell v United Specialty Insurance CoEl juez Kevin Newsom usó Chatgpt para determinar el significado simple y ordinario de un término polémico en una póliza de seguro.
Al interpretar documentos para decidir su significado legal, los tribunales generalmente miran el significado ordinario de las palabras, así como el contexto en el que se usan.
Pero ¿Cómo determinan los jueces? el significado ordinario de una palabra?
Un enfoque es preguntar a “gente común”.
Durante la mayor parte del siglo XIX, la Corte Suprema de los Estados Unidos ordenó que sus jueces Montar pueblo a ciudad Ayude casos para darles exposición a ciudadanos y condiciones cotidianos fuera de la capital.
Los jueces a menudo consultan un diccionario. O tal vez le preguntan a Chatgpt.
Una herramienta entre muchos
Volvamos al caso Snell en los Estados Unidos mencionado anteriormente. A mediados de 2014, el juez Kevin Newsom tuvo la tarea de decidir si la cobertura de una póliza de seguro de “paisajismo” incluía la instalación de un trampolín.
Justice Newsom revisó tres diccionarios y encontró tres respuestas muy diferentes.
Su honor consideró un sentimiento de “visceral, instinto”, solo para decidir que no parecía muy convincente. En cambio, su honor le preguntó a Chatgpt.
La posibilidad de que la IA generativa proporcione un “significado ordinario” es de alguna manera convincente.
Después de todo, estos modelos están capacitados en vastas corpus del idioma inglés (libros, periódicos, indicaciones del usuario) que cubren todo tipo de discursos en todo tipo de contextos.
Su lectura no está limitada por antecedentes, intereses o edad. En este sentido, el chatgpt podría ser visto como representando a una amalgama de la persona común de una manera que juzga, o incluso el compiladores de diccionariosno lo son.
Dicho todo esto, el juez terminó al sonar una nota de precaución. En opinión de su honor, los LLM solo deberían ser “una herramienta entre muchos”, sostenida y probada contra el contexto histórico, el sentido común y los significados del diccionario.
No es un oráculo de significado ordinario
También hay diferencias importantes entre la IA generativa y los diccionarios, que limitan su papel como oráculos de significado ordinario.
Como han descubierto numerosos abogados, no solo generativo Ai alucinarTambién puede ser sycofántico, proporcionando la respuesta que, como lo sugiere el contexto, es lo que la persona que proporciona el aviso quiere escuchar.
Esto significa que es probable que las herramientas ofrezcan respuestas seguras pero rubias al intentar imitar el discurso humano.
Otra preocupación es alrededor de la transparencia.
Sabemos cómo se compilan los diccionarios y el proceso escrupulosamente documentado. No tenemos una comprensión clara de los datos de capacitación utilizados en los modelos de IA de propósito general gratuitos.
Y, a diferencia de los diccionarios, que utilizan un proceso de colaboración para compilar contenido, gran parte de los datos de capacitación de IA a menudo se usan sin el conocimiento o consentimiento del autor original.
Del significado común al juicio
Los tribunales, empresas, gobiernos y empresas continúan experimentando con IA generativa. Las empresas y desarrolladores de tecnología continúan encontrando formas de refinar y mejorar sus resultados.
Para los abogados y los tribunales, la precisión es importante. Pero también lo hacen otros valores, como la transparencia, la equidad y la responsabilidad.
Estos son parte de Marco ético de IA de Australia y central para la administración de justicia.
La responsabilidad central de un juez en la interpretación de textos se ha mantenido sin cambios a lo largo de los siglos: resolver la tensión entre el lenguaje legal clínico y la naturaleza a menudo desordenada de nuestras realidades vividas.
El encanto de las salidas respaldadas por datos generativas de datos no debe distraer del hecho de que estas decisiones se basan invariablemente en el juicio y el contexto.
Si bien puede presentar una nueva información para tomar estas decisiones, la IA generativa no puede tratarse como más autorizada o confiable que cualquier otra fuente, y ciertamente no más éticamente convincente.
Proporcionado por la Universidad de Melbourne
Cita: La ley se basa en ser precisa. AI está interrumpiendo que (2025, 23 de junio) recuperó el 23 de junio de 2025 de https://techxplore.com/news/2025-06-law-precise-ai-disrupting.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.