miércoles, 4 de febrero de 2026

El Órgano Judicial frente al Espejo del Algoritmo

Fuente de la imagen: mvc archivo propio
La justicia española ha iniciado un viaje sin retorno hacia la digitalización, pero con un freno de mano muy claro: la inteligencia artificial (IA) nunca podrá quitarle la silla al órgano judicial. Recientemente, el Consejo General del Poder Judicial de mi país (CGPJ) ha dictado la Instrucción 2/2026[1], que comenté en ¿Algoritmos con toga? Paradigma de la Instrucción 2/2026 (iurepost, M. Velasco, 2026)[2], para poner orden en este nuevo escenario, siguiendo el rastro de una normativa europea que considera a la IA en los tribunales como una tecnología de "alto riesgo". Esto es así porque los algoritmos, aunque rápidos, pueden afectar directamente a nuestros derechos fundamentales, como la libertad o la igualdad ante la ley. Por ello, se ha establecido un muro de protección llamado "principio de control humano efectivo", que obliga a que detrás de cada clic y de cada sugerencia de la máquina haya siempre una persona de carne y hueso supervisando, interpretando la ley y valorando las pruebas de forma consciente. La idea es que la tecnología sea un copiloto que ayude a encontrar leyes o antecedentes, pero que el volante de la decisión final sea siempre propiedad exclusiva de la magistratura.

En el día a día de un juzgado, estas reglas significan que un juez o una jueza no puede simplemente "copiar y pegar" lo que diga un programa informático. Si bien pueden usar herramientas oficiales para redactar borradores o resumir documentos extensos, estos borradores no tienen valor legal hasta que el órgano judicial los revisa, los modifica a su gusto y los firma, asumiendo toda la responsabilidad de lo que allí se diga. Un punto calificador para la seguridad de todos nosotros es la prohibición de usar aplicaciones de IA externas o comerciales —como las que usamos para chatear en nuestros móviles— para tratar datos de juicios reales; la privacidad es sagrada y los datos de un proceso no pueden "alimentar" a máquinas de empresas privadas. Además, los jueces deben estar alerta ante los "sesgos algorítmicos", que son esos prejuicios que los programas pueden heredar de los datos y que podrían llevar a decisiones injustas o discriminatorias. Concluyendo, la IA llega para limpiar de burocracia los tribunales y agilizar el análisis de información, pero la sensibilidad y el criterio humano siguen siendo los únicos dueños de la balanza de la justicia. Fuente de la imagen: mvc archivo propio.
_________________
[1] Acuerdo de 28 de enero de 2026, del Pleno del Consejo General del Poder Judicial, por el que se aprueba la Instrucción 2/2026, sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional. Publicado en el BOE núm. 27, de 30 de enero de 2026.
[2] Velasco-Carretero, Manuel (2026) ¿Algoritmos con toga? Paradigma de la Instrucción 2/2026. Sitio iurepost. Visitado el 4/2/2026.