La jurista española Carmen Cuadrado advirtió que el uso de inteligencia artificial en los sistemas judiciales puede afectar los derechos de los acusados si no se aplican controles adecuados, transparencia en los procesos y supervisión humana en la toma de decisiones.
Durante una conferencia realizada en el auditorio de la Fundación Global Democracia y Desarrollo (Funglode),la especialista explicó que la incorporación de estas tecnologías en los tribunales no responde únicamente a avances tecnológicos, sino a la necesidad de mejorar la coherencia y eficiencia en las decisiones judiciales, ante la dificultad histórica de garantizar que casos similares reciban respuestas similares.
No obstante, subrayó que la rapidez y la capacidad de procesamiento de datos no garantizan por sí solas decisiones justas, ya que los algoritmos pueden reproducir sesgos existentes en la información con la que son entrenados.
Caso Loomis y la transparencia
Durante su intervención, Cuadrado citó el denominado caso Loomis, considerado un referente internacional en el debate sobre el uso de sistemas algorítmicos en decisiones judiciales, al plantear interrogantes sobre la transparencia y comprensión de estas herramientas.
Explicó que cuando una persona no puede entender cómo se evalúa su situación dentro de un proceso judicial, se debilitan principios esenciales del sistema de justicia, como la presunción de inocencia y el derecho a la defensa.
Advirtió que, en esos escenarios, la tecnología puede convertirse en un actor oculto dentro del proceso judicial, influyendo en decisiones que afectan la libertad de las personas sin que exista pleno conocimiento sobre su funcionamiento.
La experta señaló que una de las principales razones que ha impulsado el uso de inteligencia artificial en los sistemas judiciales es la necesidad de agilizar la gestión de expedientes y enfrentar la congestión de casos en los tribunales.
Indicó que estas herramientas permiten clasificar documentos, analizar grandes volúmenes de información y detectar patrones en poco tiempo, lo que puede contribuir a mejorar la eficiencia administrativa del sistema.
Sin embargo, alertó que el mayor riesgo surge cuando la búsqueda de rapidez y productividad desplaza valores fundamentales de la justicia, como la imparcialidad, la motivación de las decisiones y la responsabilidad institucional.

“Juzgar no es calcular”
Cuadrado enfatizó que la función judicial implica interpretar normas, valorar hechos, ponderar principios jurídicos y justificar decisiones, tareas que no pueden ser sustituidas por un sistema automatizado.
Sostuvo que un algoritmo puede calcular, clasificar y predecir resultados, pero juzgar exige ofrecer razones claras y asumir responsabilidad por las decisiones adoptadas, especialmente cuando están en juego derechos fundamentales.
En ese sentido, propuso una posición equilibrada frente al avance tecnológico y es utilizar la inteligencia artificial como herramienta de apoyo para la organización y análisis de información, pero mantener en el juez la responsabilidad final de cada decisión.
No sustituir al juez
La jurista destacó que el debate actual no debe centrarse en si la tecnología es más rápida o eficiente que el ser humano, sino en si las decisiones que se adoptan mediante su uso cumplen con los estándares de legitimidad que exige una democracia.
Reiteró que la inteligencia artificial puede ser útil para fortalecer el funcionamiento del sistema judicial, siempre que se utilice bajo supervisión humana, con reglas claras y con pleno respeto a los derechos de las personas.
“La democracia no necesita solo decisiones eficaces; necesita decisiones legítimas”, concluyó.
A la actividad asistió el expresidente de la República, Leonel Fernández, directivos de la fundación, abogados y juristas.
