19.8 C
Puebla
miércoles, marzo 18, 2026

Herramienta de apoyo o excusa para la incapacidad

Herramienta de apoyo o excusa para la incapacidad

En medio del debate sobre si la reforma judicial debe corregirse (hasta una Ministra lo propone) y, las novedades sobre los procesos de selección de candidatos para la elección judicial del 2027, un nuevo elemento ha comenzado a ganar protagonismo en el discurso. La Inteligencia Artificial.

En los últimos años, el avance de la Inteligencia Artificial ha comenzado a permear en múltiples ámbitos de la vida pública, y el derecho no es la excepción. Desde despachos que utilizan algoritmos para redactar escritos hasta propuestas incipientes de automatización en tribunales, la promesa de eficiencia parece seductora. Sin embargo, detrás de esta innovación se esconde una dilema ¿es ético delegar decisiones jurídicas que afectan la vida, la libertad y el patrimonio de las personas a sistemas automatizados?

Presentada como símbolo de modernidad y eficiencia, la incorporación dela IA en el ámbito jurídico ha sido defendida por algunos como un paso inevitable hacia el futuro. Sin embargo, detrás de esta narrativa optimista se esconde una realidad más inquietante. El riesgo de que la inteligencia artificial se convierta en un recurso para encubrir la falta de preparación.

La propuesta de elegir a las personas juzgadoras mediante voto popular ha abierto un debate legítimo sobre la idoneidad técnica de quienes aspiren a impartir justicia. En este contexto, resulta preocupante que algunos perfiles, lejos de fortalecer su formación jurídica, apuesten por apoyarse excesivamente en herramientas automatizadas para suplir sus carencias, corriendo el riesgo de convertirse en una prótesis intelectual que oculte la incapacidad.

El problema no es la tecnología en sí, sino el uso que se le pretende dar. Delegar la redacción o fundamentación de una decisión a un sistema automatizado, vacía de contenido a la función jurisdiccional. Juzgar implica interpretar la ley, ponderar principios y comprender contextos humanos complejos. Ningún algoritmo, por avanzado que sea, puede sustituir esa labor sin empobrecerla gravemente.

La vaguedad de muchos sistemas automatizados dificulta incluso entender cómo se llega a determinadas conclusiones. En un sistema de justicia que ya enfrenta problemas de confianza, introducir decisiones opacas podría agravar la percepción de arbitrariedad.

En este escenario, la inteligencia artificial puede convertirse en una coartada conveniente. Bajo el discurso de la “modernización”, se corre el riesgo de normalizar prácticas que, en el fondo, reflejan deficiencias estructurales. La falta de capacitación, precariedad institucional y ausencia de controles efectivos. La tecnología no corrige estos problemas; en el peor de los casos, los disfraza.

No obstante, sería injusto ignorar los usos legítimos y potencialmente beneficiosos de la inteligencia artificial en el derecho. Aplicada con criterios claros, puede contribuir a traducir resoluciones judiciales a un lenguaje más accesible para la ciudadanía, reduciendo la brecha entre el sistema legal y la sociedad. También puede ser útil en tareas técnicas, como el cálculo preciso de prestaciones en litigios laborales o mercantiles, donde la automatización puede mejorar la eficiencia sin sustituir el juicio humano.

La clave está en establecer límites firmes. La inteligencia artificial debe ser una herramienta subordinada al criterio jurídico, nunca un sustituto de este. Su uso debe ser transparente, verificable y, sobre todo, complementario. Pretender lo contrario no es innovación, es evasión de responsabilidad.

La reforma judicial representa una oportunidad histórica para fortalecer el sistema de justicia en México. Pero si en lugar de apostar por la formación, la ética y la capacidad técnica de los juzgadores, se opta por maquillar deficiencias con tecnología, el resultado podría ser un sistema más frágil y menos confiable. La inteligencia artificial no debe ser el refugio de la incompetencia. En el derecho, como en la democracia, la legitimidad no se automatiza.

Notas relacionadas

Últimas noticias

Lo más visto