Estimados lectores, me he topado con un excelente artículo que quiero compartirlo como herramienta de reflexión en cuanto las limitaciones e innovaciones tecnológicas, que se implementan con las nuevas tecnologías como es la inteligencia artificial, incorporándose esta herramienta tecnológica en los Tribunales por parte de jueces, haciendo uso de esta tecnología con cautela, para abordar este tema como derecho comparado, implementada por un Tribunal Judicial de Estados Unidos, el presente artículo es redactado por el Abogado Bob Ambrogi que también es periodista, lleva más de dos décadas escribiendo y hablando sobre tecnología e innovación jurídica. Escribe en el galardonado blog LawSites, es columnista de Above the Law, presenta el podcast sobre innovación jurídica LawNext y presenta la mesa redonda semanal de periodistas de tecnología jurídica Legaltech Week .
Este interesante artículo publicado en fecha 10 de marzo de 2025, señala la pregunta siguiente ¿Deberían los tribunales utilizar ChatGPT? En esta opinión de apelación, tanto la opinión mayoritaria como las opiniones disidentes lo hicieron.
cito extracto del artículo "En un momento en que algunos tribunales aún cuestionan o incluso prohíben el uso de inteligencia artificial generativa, una decisión reciente del Tribunal de Apelaciones del Distrito de Columbia es notable por el hecho de que tanto la opinión mayoritaria como las disidentes discutieron abiertamente su uso de ChatGPT en sus deliberaciones".
"La decisión, emitida el 20 de febrero en el caso Ross v. Estados Unidos, se produjo en una apelación de un asunto en el que un tribunal inferior había condenado a Niya Ross por crueldad animal después de que dejó a su perro Cinnamon en un automóvil en un día de 98 grados".
"La opinión es la primera de ese tribunal en discutir públicamente el uso de herramientas de IA en la toma de decisiones, y fue inusual por el hecho de que tanto la mayoría como los disidentes citaron ChatGPT, lo que a su vez condujo a una opinión concurrente escrita únicamente para señalar y discutir el uso de IA general por parte del tribunal".
"La opinión mayoritaria, redactada por el juez asociado Vijay Shanker , al revocar la condena, también hizo referencia al debate sobre la IA. En una nota a pie de página, la mayoría expresó su escepticismo sobre el uso de ChatGPT como sustituto del conocimiento común".
En una opinión concurrente, el juez asociado John P. Howard III ofreció un análisis más exhaustivo del papel emergente de la IA en el sistema judicial. Señaló que las herramientas de IA son "más que un truco" y se están incorporando cada vez más a los tribunales de diversas maneras.
El juez Howard destacó lo que cree que son varias consideraciones críticas para el uso de IA judicial:
Los tribunales deben abordar la tecnología de IA con cautela.
Los casos de uso específicos requieren una consideración cuidadosa.
Los problemas potenciales incluyen seguridad, privacidad, confiabilidad y sesgo.
Los funcionarios judiciales deben comprender qué datos recopilan las herramientas de IA y cómo los utilizan en ese contexto, elogió a sus colegas por usar la IA de manera apropiada, en particular porque ni siquiera corrieron el riesgo inadvertidamente de exponer información deliberativa.
"Planta Emblemática de Irlanda el Trébol"
“Me parece que el uso reflexivo que hicieron mis dos colegas es un buen ejemplo del uso de herramientas de IA judicial por muchas razones, incluida la consideración del valor relativo de los resultados, pero especialmente porque es evidente que no se trató de una delegación de la toma de decisiones, sino del uso de una herramienta para ayudar a la mente judicial a considerar con mayor profundidad los problemas del caso”, escribió, y añadió: “Interesante, sin duda”.
Implicaciones más amplias
Esta opinión no es la primera en la que un juez ha discutido públicamente el uso de la IA generativa para resolver un caso. El año pasado, el juez Kevin Newsom, del Tribunal de Apelaciones del Undécimo Circuito de EE. UU., fue noticia por su opinión concurrente de 32 páginas, que analizaba el uso de la IA generativa por parte de los tribunales para interpretar palabras y frases.
Sin embargo, este parece ser al menos uno de los primeros debates judiciales publicados que detalla explícitamente el uso de herramientas de IA en la toma de decisiones legales. Y si bien los jueces utilizaron ChatGPT más como una herramienta exploratoria que como un mecanismo de toma de decisiones, la transparencia en su interacción con la IA es notable.
“Las herramientas de IA son más que un truco publicitario; están llegando a los tribunales de diversas maneras, y los jueces deberán desarrollar competencias en esta tecnología, incluso si desean evitar su uso”, escribió el juez Howard. “Sin embargo, los tribunales deben, y ya lo están haciendo, abordar el uso de esta tecnología con cautela”.
Es referencia según lo proporcionado por la IA Gemini, "que la IA no es infalible, no perfecta, como posibles desventajas que puede tener el ChatGPT y otras herramientas IA, pueden generar información incorrecta o sesgada, lo que podría tener graves consecuencias en el contexto legal. Es crucial garantizar la precisión y fiabilidad de la información generada por la IA antes de utilizarla en los Tribunales".
"Los algoritmos de IA pueden ser complejos y difíciles de entender, lo que dificulta la identificación y corrección de errores o sesgos. Es necesario garantizar la transparencia y la rendición de cuentas en el uso de la IA en los Tribunales".
Existen la preocupación de que la IA pueda reemplazar el juicio humano en la toma de decisiones legales, lo que podría socavar los principios fundamentales de la justicia, se necesita una regulación cuidadosa para garantizar que la IA se utilice de manera justa, imparcial y transparente en el sistema judicial.
En resumen la IA tiene el potencial de transformar el sistema judicial, pero es necesario abordar cuidadosamente los riesgos y desafíos asociados con el uso.
En cuanto a la eficiencia de la IA podría ayudar a automatizar tareas repetitivas, como la revisión de documentos, la generación de resúmenes legales y la investigación de jurisprudencias, podría acelerar los procesos judiciales reduciendo los retrasos y mejorando el sistema de justicia con mayor agilidad.
La IA nos puede ayudar a organizar sistemáticamente un caso determinado recopilando información y almacenando información en la web, pero jamás reemplazara las emociones y sentimientos humanos, ¿Qué motiva un hecho? lo cual se percibe a través de lo que ves y observas, el sentido lógico humano para llegar a una conclusión ajustada a los elementos Fácticos, pruebas y derecho, en cuanto el uso de la IA generativa por parte de los tribunales para interpretar palabras y frases.
Fuente:
https://www.lawnext.com/2025/03/should-courts-use-chatgpt-in-this-appellate-opinion-both-the-majority-and-dissenting-opinions-did.html
"Should Courts Use ChatGPT? In This Appellate Opinion, Both The Majority and Dissenting Opinions Did
At a time when some courts are still questioning or even banning the use of generative artificial intelligence, a recent decision from the District of Columbia Court of Appeals is notable for the fact that both the majority and dissenting opinions openly discussed their use of ChatGPT in their deliberations.
The decision, issued Feb. 20 in the case Ross v. United States, came in an appeal of a matter in which a lower court had convicted Niya Ross of animal cruelty after she left her dog Cinnamon in a car on a 98-degree day.
The opinion is the first by that court to publicly discuss its the use of AI tools in the decision-making, and it was unusual for the fact that both the majority and dissent cited ChatGPT, which in turn led to a concurring opinion written solely to point out and discuss the court’s use of gen AI".
This opinion is not the first in which a judge has publicly discussed his use of gen AI in deciding a case. Last year, 11th U.S. Circuit Court of Appeals Judge Kevin Newsom made news for his 32-page concurring opinion pondering the use of generative AI by courts in interpreting words and phrases.
However, this appears to be at least one of the first published judicial discussions explicitly detailing AI tool usage in legal decision-making. And while the judges used ChatGPT more as a exploratory tool than a decision-making mechanism, the transparency about their AI interaction is notable.
“AI tools are more than a gimmick; they are coming to courts in various ways, and judges will have to develop competency in this technology, even if the judge wishes to avoid using it,” Judge Howard wrote. “Courts, however, must and are approaching the use of such technology cautiously.”
0 Comentarios