
El Organismo Judicial (OJ), entonces presidido por el magistrado Teódulo Cifuentes Maldonado, dio un paso inédito: incorporar inteligencia artificial para “agilizar” el análisis de amparos. El proyecto, denominado MEIA-Amparos, fue adjudicado a la empresa BDG Sociedad Anónima por Q87 mil 770 y promete resumir expedientes, identificar argumentos y hasta generar borradores asistidos de resoluciones.
Además, otros dos proyectos le fueron adjudicados a la misma empresa, siempre relacionados con inteligencia artificial, y la consulta de expedientes legales.
Sin embargo, especialistas en Derecho y organismos internacionales advierten sobre los riesgos de aplicar inteligencia artificial en procesos judiciales que deben regirse por principios de independencia, motivación y debido proceso, aunque aplauden el avance para reducir una mora judicial. Mientras, la institución no responde sobre cuál será el uso específico, en cuáles amparos y por qué en ellos.

AMPAROS CON IA
Según los documentos de contratación, el MEIA-Amparos es accesible vía web y procesará, con ayuda de la API de Gemini, al menos 350 expedientes de amparo, cada uno con unas 200 páginas.
El sistema, según los documentos, tiene la capacidad de aprender de la legislación nacional, así como de la jurisprudencia vinculada a los amparos. Asimismo, ofrece resúmenes generales de cada expediente, identifica argumentos y entidades clave, ordena referencias legales, genera líneas de tiempo y destaca alertas críticas. También, incorporará estadísticas, borradores asistidos de resoluciones y una opción de chat interactivo con IA generativa.
Entre sus funciones más polémicas figura la capacidad de generar borradores de resoluciones mediante IA generativa, un aspecto que ha despertado inquietud entre juristas y defensores de la independencia judicial.
Organismo Judicial compra una inteligencia artificial para “agilizar” el análisis de amparos
SEPARACIÓN Y RESPONSABILIDAD
El abogado y maestro en derechos humanos Alfredo Ortega, quien ha trabajado para la Corte Interamericana de Derechos Humanos y el Centro por la Justicia y el Derecho Internacional (Cejil), reconoce que el uso de inteligencia artificial en la justicia “es inevitable”, pero advierte que su aplicación exige una clara separación entre las tareas administrativas y las decisiones judiciales.
“Las herramientas de lenguaje pueden ser útiles para sistematizar expedientes, transparentar la información y facilitar el trabajo de los operadores de justicia”, explica Ortega. “Pero el riesgo surge cuando se pretende trasladar esas funciones a la toma de decisiones judiciales”.
Ortega subraya que los procesos de amparo, por su naturaleza constitucional, requieren de garantías ineludibles como la transparencia, la motivación de las resoluciones y la publicidad de los fallos. “Un juez debe explicar por qué decide de una forma u otra. Ese razonamiento no puede ser sustituido por una máquina que, por ahora, no razona, sino que predice resultados probables a partir de los datos con los que fue entrenada”, puntualiza.

El jurista señala, además, un riesgo estructural: los sesgos del propio sistema judicial podrían reproducirse en la IA. “Si la mayoría de decisiones judiciales reflejan patrones discriminatorios, el algoritmo podría replicarlos”, advierte.
No obstante, Ortega cree que, usada con responsabilidad, la tecnología podría fortalecer la transparencia y reducir la arbitrariedad. “En un país donde muchas resoluciones carecen de adecuada motivación, una herramienta bien implementada podría ayudar a estandarizar criterios y permitir una auditoría social más efectiva. Pero deben establecerse límites claros: la IA puede asistir, no decidir”, concluye.
ALIADA, PERO BAJO SUPERVISIÓN
Para el abogado penalista José Barrios, la inteligencia artificial puede ser una aliada si se usa con ética y supervisión. “En los amparos, donde hay enormes volúmenes de expedientes, una IA podría ordenar, clasificar y priorizar casos. Pero debe quedar claro que su papel es de apoyo técnico, no de sustitución del razonamiento jurídico”, afirma.
Barrios considera que el criterio jurídico “nunca podrá ser reemplazado por una máquina”, ya que se basa en la interpretación del contexto y los valores humanos. “La IA puede fortalecer el trabajo del abogado, no reemplazarlo. Puede ayudar a detectar patrones, revisar jurisprudencia o evitar errores formales, pero la responsabilidad y la decisión siempre debe recaer en un ser humano”, sostiene.
El jurista alerta sobre los riesgos en contextos como el guatemalteco, donde la independencia judicial aún enfrenta cuestionamientos.“Si no se conoce cómo ‘piensa’ el algoritmo, con qué datos fue entrenado o qué criterios utiliza para recomendar decisiones, se corre el peligro de que se reproduzcan sesgos o se vulneren garantías constitucionales», puntualizó.

“Si no se garantiza transparencia sobre cómo se entrena el algoritmo o qué criterios utiliza, se corre el peligro de reproducir sesgos o manipular resultados. En un sistema sin controles robustos, una IA mal implementada puede convertirse en un instrumento de poder”, advierte.
Pese a ello, el profesional del derecho está seguro de que «la IA no viene a sustituirnos, sino a potenciarnos» y refirió que «es una herramienta, una aliada, que nos reta a adaptarnos, aprender y mejorar. Quienes sepan integrarla con criterio y ética, ampliarán sus capacidades; quienes no lo hagan, quedarán rezagados, como ocurrió alguna vez con quienes se resistieron a dejar la máquina de escribir por la computadora con acceso a internet. La diferencia, como siempre, estará en la disposición a evolucionar», concluyó.
INFORME DE NACIONES UNIDAS
Las preocupaciones de los expertos coinciden con las advertencias formuladas por Margaret Satterthwaite, relatora especial de Naciones Unidas, sobre la independencia de magistrados y abogados. En su informe más reciente, la experta alerta de los “riesgos sustanciales” que supone la automatización de decisiones judiciales sin salvaguardias adecuadas.
Entre los principales peligros, Satterthwaite identifica el “sesgo de automatización”, la tendencia a aceptar sin cuestionar los resultados generados por sistemas tecnológicos. “El uso de IA sesgada puede producir resultados discriminatorios y vulnerar el derecho a un juicio imparcial”, señala.
El informe advierte, además, de la amenaza a la independencia judicial: “Los jueces podrían sufrir presiones o represalias si se desvían de las recomendaciones generadas por un sistema automatizado, mientras que los gobiernos o actores privados podrían influir en el diseño y entrenamiento de las herramientas de IA”.
Satterthwaite también subraya los riesgos de opacidad y falta de trazabilidad: muchos sistemas operan como “cajas negras”, imposibles de auditar o impugnar. “La justicia no puede delegar su legitimidad en una tecnología cuyo funcionamiento no se entiende ni se puede supervisar”, concluye el documento.
EL DILEMA
La incorporación del MEIA-Amparos sitúa a Guatemala en uno de los países de la región en aplicar inteligencia artificial en la justicia. Pero el entusiasmo por la innovación convive con un dilema de fondo: ¿hasta qué punto la eficiencia puede justificar el riesgo de delegar el juicio humano en un algoritmo?
Para Ortega y Barrios, la respuesta es clara. La IA puede ser una herramienta poderosa para ordenar, procesar y transparentar, pero nunca para decidir.
Mientras tanto, el Organismo Judicial guarda silencio sobre los alcances del proyecto. No ha precisado quiénes usarán la herramienta —juzgados, tribunales, salas o la Corte Suprema—, ni cómo evitará que una máquina de aprender interfiera en el corazón mismo de la justicia: la decisión razonada de un juez o magistrado.







