Inteligencia artificial en los juzgados: orden, cautela… y muchas preguntas abiertas

A propósito de la Instrucción 2/2026, del Consejo General del Poder Judicial, sobre la utilización de sistemas de inteligencia artificial en la actividad jurisdiccional

La Instrucción 2/2026 del Consejo General del Poder Judicial (CGPJ) marca un punto de inflexión en la relación entre justicia y tecnología en España. Por primera vez, se establece un marco formal para el uso de sistemas de inteligencia artificial en el ámbito jurisdiccional, fijando límites, principios y condiciones.
La norma pretende responder a una realidad ya existente: la IA está entrando en despachos, juzgados y plataformas de gestión procesal. La cuestión no es si debía regularse, sino cómo y hasta dónde. Y ahí es donde surgen las dudas más relevantes.

Un paso necesario ante un fenómeno imparable

Durante años, la digitalización judicial avanzó sin una reflexión profunda sobre el papel de los algoritmos. Herramientas de búsqueda jurisprudencial, análisis documental, predicción de plazos o clasificación automática de escritos se han ido incorporando sin un marco común.
La Instrucción 2/2026 reconoce este vacío y trata de llenarlo estableciendo principios básicos: la IA no puede sustituir al juez, no puede decidir por él ni condicionar su criterio, y debe utilizarse como herramienta auxiliar, no como fuente de autoridad.

En este punto, la norma acierta. La independencia judicial exige que la tecnología sea apoyo, no atajo.

El núcleo del mensaje: la decisión sigue siendo humana

Uno de los ejes más relevantes de la instrucción es su insistencia en que ninguna resolución puede basarse exclusivamente en sistemas automatizados.
El juez debe conocer, comprender y controlar el uso de la herramienta. No vale delegar. No vale ampararse en el algoritmo.
Este principio protege dos valores esenciales:

  • la responsabilidad personal del juez,
  • y el derecho del ciudadano a ser juzgado por una persona, no por una máquina.

Desde la perspectiva del Estado de Derecho, esta es probablemente la mayor fortaleza del texto.

Transparencia y explicabilidad: buenas intenciones, difícil aplicación

La instrucción exige que los sistemas utilizados sean transparentes, auditables y explicables. En teoría, esto garantiza que las partes puedan conocer cómo influyen las herramientas tecnológicas en el proceso.
En la práctica, este es uno de los puntos más problemáticos. Muchos sistemas de IA actuales —especialmente los basados en aprendizaje automático— son difíciles de explicar incluso para sus desarrolladores.

Existe, por tanto, un riesgo evidente: que la exigencia de explicabilidad quede en el plano formal, mientras el funcionamiento real siga siendo opaco para jueces, abogados y ciudadanos.

Desigualdad tecnológica entre juzgados

Otro aspecto poco visible, pero crucial, es el impacto desigual de la instrucción según territorios.
No todos los juzgados tienen los mismos medios, infraestructuras ni apoyo técnico. Algunos podrán integrar sistemas avanzados con garantías; otros apenas podrán cumplir los mínimos.
Esto puede generar una justicia a dos velocidades: juzgados digitalmente asistidos frente a juzgados analógicos, con consecuencias en eficiencia, calidad y tiempos de respuesta.

La instrucción regula el uso, pero no resuelve el problema estructural de los recursos.

Abogados y justiciables: entre la oportunidad y la inquietud

Para los profesionales del Derecho, la Instrucción 2/2026 abre un escenario ambivalente.
Por un lado, la IA puede mejorar la gestión procesal, reducir retrasos y facilitar el acceso a información.
Por otro, introduce una nueva variable difícil de controlar: la mediación algorítmica en la tramitación judicial.

Muchos abogados se preguntan hasta qué punto podrán impugnar decisiones influidas por herramientas tecnológicas, o cómo demostrar un uso inadecuado de un sistema automatizado. La norma apunta garantías, pero todavía deja zonas grises.

El riesgo del “cumplimiento simbólico”

Como ocurre con muchas regulaciones tecnológicas, existe el peligro de que la instrucción se cumpla de forma meramente formal:
protocolos escritos, declaraciones de principios, manuales internos… sin una verdadera cultura de control tecnológico.
Si no hay formación real, auditorías periódicas y supervisión externa, la regulación puede convertirse en un marco decorativo, más tranquilizador que eficaz.

¿Refuerza la calidad de la justicia? Sí, pero no por sí sola

La Instrucción 2/2026 no va a transformar por sí misma el sistema judicial. No resolverá el colapso, ni la lentitud estructural, ni la sobrecarga de trabajo.
Lo que sí hace es poner límites antes de que sea demasiado tarde, evitando que la tecnología se imponga sin reglas. En ese sentido, actúa de forma preventiva, no reactiva.

Refuerza la calidad institucional, pero no sustituye a las reformas pendientes en medios, personal y organización.

Una regulación prudente en un terreno inestable

La Instrucción 2/2026 es una norma sensata, cautelosa y jurídicamente coherente. Reconoce el potencial de la inteligencia artificial, pero también sus riesgos.
No idealiza la tecnología ni la demoniza. La encuadra.

Sin embargo, su eficacia dependerá menos del texto y más de tres factores:

  • la formación de jueces y funcionarios,
  • la calidad de los sistemas utilizados,
  • y la capacidad real de supervisión.

Si estos pilares fallan, la instrucción será un buen documento sin impacto profundo. Si funcionan, puede convertirse en la base de una justicia más moderna sin renunciar a sus principios.
En un momento en que muchos países avanzan sin red, España ha optado por la prudencia. No es un camino espectacular, pero sí responsable.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos recientes

Archivo de documentos

Último documento enviado a nuestros suscriptores con la información de actualidad de la quincena.

Suscríbete a nuestros envíos y recibe la información al día en materia de Normativa Municipal.