Catedrático español de visita en la U. de Chile

Lorenzo Bujosa Vadell: “La inteligencia artificial ya está entre nosotros y el Derecho debe establecer sus límites”

Lorenzo Bujosa: “El Derecho debe establecer límites a la IA”
“Debemos prepararnos para convivir con esta tecnología sin perder derechos”, asegura el profesor de la Universidad de Salamanca.
“La justicia exige supervisión humana: la IA debe asistir, no decidir”, dice el catedrático español Lorenzo Bujosa Vadell.
“La justicia del futuro no puede prescindir del criterio humano: la inteligencia artificial debe ser herramienta, no juez", afirma el académico.

Catedrático de Derecho Procesal en la Universidad de Salamanca y referente iberoamericano en su área, el profesor  visitó Chile para participar como conferencista principal en el seminario internacional “Inteligencia Artificial y acceso a la justicia”, organizado por la de la 鶹. Durante su intervención, reflexionó sobre las implicancias éticas y jurídicas del uso de la IA en procesos judiciales, una temática que -según plantea- ya no pertenece al futuro, sino al presente.

En conversación con Visitantes de Prensa Uchile, el académico español valoró la calidad del debate jurídico que se da en nuestro país en torno a estos temas y destacó el rol de las universidades como espacios de formación, reflexión interdisciplinar y resguardo de los derechos fundamentales frente a los desafíos tecnológicos.

-¿Qué implicancias prácticas tiene la IA para la justicia y para las personas que buscan resolver conflictos?

La inteligencia artificial ya está entre nosotros. Por tanto, no se trata de decidir si la usamos o no: ya se usa. Lo urgente ahora es determinar en qué condiciones, con qué límites y hasta qué punto puede aplicarse, especialmente en ámbitos tan sensibles como el judicial. Esto requiere principios éticos claros y normas jurídicas que reconozcan la centralidad del ser humano.

En ese sentido, el Derecho procesal tiene la responsabilidad de anticipar los riesgos y establecer criterios claros para el uso de estas herramientas. No podemos permitir que una tecnología, por eficiente que sea, debilite las garantías fundamentales del debido proceso o la autonomía del juez.

-También habló de las paradojas que acompañan su uso. ¿Cuál considera la más urgente de abordar?

Diría que la paradoja más evidente es la fascinación que nos produce la IA frente a los riesgos reales que implica. Por ejemplo, puede resolver cuestiones en segundos que a un tribunal le tomarían meses. Esa eficiencia genera embelesamiento, pero a la vez puede debilitar nuestra capacidad crítica, especialmente cuando hay sesgos o discriminaciones ocultas en los algoritmos.

El gran reto es lograr un equilibrio: aprovechar las ventajas sin perder de vista los peligros. La justicia no puede convertirse en un proceso automatizado que omite los matices del caso concreto. El riesgo es perder humanidad en la búsqueda de eficiencia.

-¿Cree que estamos preparados para el ritmo acelerado en que evoluciona esta tecnología en el ámbito jurídico?

No lo estamos, pero debemos prepararnos. Y eso parte por reconocer que estos debates no son nuevos: hace más de 80 años ya se planteaban dilemas éticos sobre máquinas pensantes. Hoy convivimos con la IA a diario, y debemos aprender a usarla con criterios jurídicos, sin que nos desborde ni nos reemplace. Eso requiere cambios en la formación de abogados, jueces y funcionarios. También exige que los juristas dialoguen con expertos en informática, tecnología y ética. No podemos seguir trabajando en compartimentos estancos.

-Mencionó el caso de un juez en Colombia que usó ChatGPT para fundamentar una sentencia. ¿Qué riesgos identifica en esta tendencia?

Uno fundamental: que no sepamos qué jueces lo están usando. Ese juez colombiano al menos fue transparente. Pero ¿cuántos no lo dicen? En sistemas judiciales sobrecargados, es tentador delegar en estas herramientas. Sin embargo, se pierde la supervisión humana, que es un principio ético clave.

Además, muchos modelos de IA aún se basan en datos pasados, lo que impide adecuar las decisiones a la realidad social actual. La justicia no puede ser únicamente predictiva ni replicar patrones del pasado sin adaptarse a las transformaciones del presente.  

Es importante subrayar que, aunque en estos casos la IA no decide por sí sola quién es culpable o inocente, su uso puede influir decisivamente en la argumentación de una resolución judicial. Si los jueces comienzan a confiar excesivamente en estos sistemas, sin ejercer un control crítico sobre los contenidos que generan, podríamos acercarnos peligrosamente a una delegación de funciones inaceptable. El derecho no puede permitir que una herramienta automatizada, por útil que sea, condicione el resultado de un juicio sin que exista una reflexión jurídica y ética responsable detrás.

-¿Y qué lecciones cree que puede aprender América Latina del proceso europeo de regulación en IA?

La Unión Europea ha sido pionera en establecer directrices éticas y ahora normas concretas, como el Reglamento de Inteligencia Artificial. Chile puede inspirarse en ese modelo y adaptarlo a su realidad. Ya hay señales de que se están considerando esas bases éticas en normativas locales, lo cual me parece muy alentador.

No se trata de copiar, sino de entender los principios detrás de esa normativa: protección de datos, equidad, transparencia, supervisión humana. Todo eso es perfectamente trasladable, con las adaptaciones necesarias, a contextos como el latinoamericano.

-En su opinión, ¿cuáles son los límites que jamás deberían cruzarse en el uso de la IA?

La sustitución del juez por una máquina. Puede haber automatización en procedimientos sencillos, pero las decisiones de fondo deben ser humanas. La justicia exige valorar matices, particularidades, emociones. La IA puede asistir, pero no decidir. En España ya hay normas que prohíben expresamente esta sustitución.

Algunos autores han planteado la posibilidad del “juez robot”, pero eso es profundamente peligroso. La equidad y la justicia material muchas veces se basan en elementos que una máquina no puede captar. El ser humano sigue siendo insustituible.

-Habló también de la necesidad de garantizar la transparencia. ¿Cómo se puede lograr eso de forma efectiva?

Primero, que si un juez usa IA, lo diga. Luego, asegurar que los sistemas sean trazables, es decir, que podamos revisar cómo llegaron a una decisión. El llamado “algoritmo caja negra” es un riesgo, porque impide ejercer adecuadamente el derecho a defensa si no sabemos cómo se tomó la decisión.

Además, la trazabilidad debe ser comprensible. No basta con que el sistema sea auditado por técnicos. Los abogados, los jueces y la ciudadanía también deben poder entender, en términos sencillos, qué papel jugó la IA en una decisión judicial.

-¿Y cuál es el rol de las universidades en este proceso de transición tecnológica y jurídica?

Fundamental. Las universidades deben liderar la formación y reflexión interdisciplinaria, y generar puentes entre juristas e ingenieros. Solo si hablamos el mismo idioma podremos construir herramientas fiables y justas. También deben formar a los futuros jueces, abogados y funcionarios para que puedan interactuar críticamente con estas tecnologías.

Además, tienen un rol insustituible en promover el pensamiento crítico, alertar sobre los riesgos y evitar que la tecnología avance sin contrapesos democráticos. El Derecho debe evolucionar, pero no perder su esencia.

-Finalmente, ¿qué mensaje quisiera dejar sobre este tema para Chile y el mundo?

Que aprovechemos lo bueno que trae la IA, pero sin olvidar que el ser humano no tiene equivalente. La IA no es un fin en sí mismo. Si no mantenemos al ser humano en el centro, perdemos el norte ético y democrático. Me voy muy tranquilo de Chile, porque he visto un debate serio, riguroso y comprometido. Pero el trabajo recién comienza. Esto, como dije, es un work in progress.

Y en ese trabajo, las universidades, las instituciones y los propios operadores jurídicos tienen una misión urgente: construir una justicia del siglo XXI que no sea ni ciega ni automática, sino profundamente humana.

Compartir:
/u228499
Copiar