Fuente de la imagen: mvc archivo propio |
La sentencia del TSJN se centra en la apertura de una pieza separada para investigar si hubo abuso de derecho o mala fe procesal por parte del querellante. Se argumentó que la inclusión de citas legales incorrectas, facilitadas por un sistema de IA, podría ser indicativa de mala fe. Sin embargo, el tribunal decidió archivar la pieza separada sin imponer sanción, considerando la naturaleza novedosa del caso y la pronta reacción del querellante al reconocer el error[3]. Pero el Fallo resalta la necesidad de un marco regulatorio claro sobre el uso de la IA en el ámbito legal[4]. Aunque la IA puede ser una herramienta valiosa, su uso descuidado puede llevar a errores significativos, como la inclusión de referencias legales incorrectas. La sentencia también pone de relieve la responsabilidad ética de los abogados de supervisar y validar la información generada por estas tecnologías, siendo un recordatorio de que la integración de la IA debe ser cuidadosa y supervisada. Fuente de la información: TSJN. Fuente de la imagen: mvc.
___________________
[1] Velasco-Carretero, Manuel (2024). Sentencia ATSJ NA 38/2024. Sitio iurepost. Visitado el 22/12/2024.
[2] Donde un juez impuso una sanción económica por el uso indebido de ChatGPT en escritos procesales, subrayando la responsabilidad de los abogados y abogadas de garantizar la exactitud de sus presentaciones. Fuente: diarioLaley: El juez sanciona por mala fe al abogado que aportó... Sitio visitado el 22/12/2024.
[3] La evolución de la jurisprudencia en este ámbito será crucial para definir el futuro de la práctica legal en la era digital.
[4] La comunidad legal debe reflexionar sobre las implicaciones de la IA y establecer directrices que aseguren su uso responsable, protegiendo así la integridad del proceso judicial y la confianza en el sistema legal.