![]() |
| Fuente de la imagen: IA y Justicia: Lecciones del Tribunal Superior de Navarra (M. Velasco, 2024) |
Esta regla establece requisitos para las políticas que adopten los tribunales[8]. Pero ¿Qué es un sistema público de IA generativa? Un sistema público de IA generativa es aquel al que cualquier persona que no sea personal o funcionario judicial puede acceder a los datos que los tribunales introducen, cargan o bien utilizar esos datos para entrenar sistemas de IA. También, se prohíbe el uso de la IA generativa para discriminar ilegalmente o impactar de manera dispar a individuos o comunidades por motivos protegidos por la ley federal o estatal. Además, la regla exige que el personal y los funcionarios judiciales que creen o utilicen material de IA generativa tomen medidas razonables para verificar su exactitud y corregir cualquier error o “alucinación” (información falsa generada por la IA). Asimismo, deben tomar medidas razonables para eliminar cualquier contenido sesgado, ofensivo o dañino. Un punto importante es el requisito de revelar el uso de la IA generativa si la versión final de un trabajo escrito, visual o de audio proporcionado al público consiste enteramente en resultados de IA generativa, lo que incluye informar al público cuando interactúan con un chatbot de IA y no con una persona. Sin embargo, esta divulgación no es necesaria cuando la IA generativa se utiliza como una herramienta de asistencia, similar a otras herramientas no relacionadas con la IA, como para la investigación legal o la edición de documentos escritos por humanos. La finalidad es evitar la desconfianza injustificada o desalentar el uso de herramientas de IA para fines aceptables.
La flexibilidad es clave, permitiendo a los tribunales adaptar sus propias políticas según sus necesidades específicas, siempre que aborden los riesgos principales. Por otro lado, el Estándar se enfoca en el uso de la IA generativa por parte de los funcionarios judiciales en sus tareas adjudicativas, es decir, aquellas directamente relacionadas con la toma de decisiones judiciales. Las disposiciones de este estándar son similares a las de la regla, recomendando, por ejemplo, no introducir información confidencial en sistemas públicos de IA generativa, ni utilizarla para discriminar. Igualmente, deben tomar medidas razonables para verificar la exactitud del material de IA generativa y eliminar contenido sesgado. A diferencia de la regla, el estándar establece que los funcionarios judiciales deben considerar si divulgan el uso de la IA generativa si se utiliza para crear contenido proporcionado al público. Esta diferencia se debe a que el Grupo de Trabajo considera que las preguntas sobre la medida en que los funcionarios judiciales pueden usar la IA generativa en sus funciones adjudicativas deben abordarse a través del Código de Ética Judicial de California y la orientación ética relacionada. El Grupo de Trabajo reconoce que crear reglas para una tecnología en constante evolución es un reto, ya que podrían quedar obsoletas rápidamente o limitar la innovación. Por ello, el enfoque se centra en abordar los riesgos generales de la IA generativa, como la confidencialidad, el sesgo, la exactitud y la transparencia, independientemente de cómo se desarrolle la tecnología en el futuro.
La propuesta fue objeto de un periodo de comentarios públicos, recibiendo observaciones de diversas entidades, incluyendo tribunales, jueces, profesorado de derecho y asociaciones de abogacía, considerándose varias sugerencias, lo que llevó a revisiones en la regla, especialmente en lo que respecta a las definiciones de "IA generativa" y "sistema público de IA generativa", así como a los requisitos de divulgación. Aunque algunos comentarios sugirieron prohibir por completo el uso de la IA para tareas adjudicativas o establecer reglas más restrictivas, el Grupo de Trabajo optó por un enfoque que equilibra la necesidad de proteger la información y la confianza pública con la flexibilidad necesaria para la innovación. El impacto fiscal y operativo es que los tribunales que no prohíban la IA generativa deberán adoptar una política de uso, lo que podría requerir capacitación para el personal. No obstante, la propuesta no exige que los tribunales adquieran herramientas de IA generativa. Concluyendo, el CJC ha establecido un marco para la IA generativa en los tribunales, buscando un equilibrio entre la modernización y la protección, enfocándose en la supervisión, la transparencia y la mitigación de riesgos, al tiempo que permite a los juzgados adaptar el uso a sus necesidades específicas, siempre bajo el paraguas de las nuevas reglas y estándares, y en coherencia con los principios éticos existentes. Fuente de la información: texto IA en la Justicia de California: Un Nuevo Marco Normativo y marco normativo del CJC. Fuente de la imagen: mvc archivo propio.
____________
[1] Velasco-Carretero, Manuel (2025). IA en la Justicia de California: Un Nuevo Marco Normativo. Sitio iurepost. Visitado el 26/8/2025.
[2] La Regla 10.430 de las Reglas de la Corte de California trata sobre la administración de los tribunales de primera instancia, específicamente los procedimientos para el tratamiento de casos atrasados o en demora (backlog) y la gestión de la carga de trabajo de los jueces para garantizar la pronta resolución de los casos, como se detalla en el sitio web oficial del sistema judicial de California, California Courts.
[3] REPORT TO THE JUDICIAL COUNCIL. Item No.: 25-109. For business meeting on July 18, 2025. Judicial Council Of California.
[4] Que entran en vigor el 1/9/2025.
[5] Antes del 15/12/2025.
[6] Como texto, imágenes, audio, video o código.
[7] Es decir, aquellas que no implican directamente la toma de decisiones en un caso.
[8] Por ejemplo, se prohíbe estrictamente introducir información confidencial, de identificación personal u otra información no pública en un sistema público de IA generativa.
