Observatorio Tracewarden

Agentes de IA y riesgo procesal

La discusión jurídica ya no gira solo alrededor del prompt aislado. El mercado legal está empezando a moverse hacia flujos agentic o más autónomos, capaces de planificar, ejecutar y adaptar tareas en secuencia. En paralelo, la jurisprudencia muestra que el verdadero problema procesal no es la mera existencia de IA, sino el modo en que se la usa, el control humano efectivo y el perjuicio concreto que deja en el proceso.

Autor: Jorge Peralta · Publicado: 2026-04-04

Chubut dejó un antecedente útil para pensar el problema

En octubre de 2025, la Cámara en lo Penal de Esquel anuló una sentencia condenatoria luego de detectar que el juez había incorporado a su fallo texto generado por un asistente de IA sin supervisión, transparencia ni validación suficientes. La resolución destacó la afectación al control humano, al debido proceso y a la prohibición de delegar funciones jurisdiccionales en sistemas automatizados.

Ese antecedente es útil porque muestra la sensibilidad procesal del problema: cuando la herramienta interviene en una parte decisiva del razonamiento sin control visible, la discusión deja de ser estética o tecnológica y pasa a ser una cuestión de debido proceso, juez natural y legitimidad de la decisión.

La revisión posterior del STJ Chubut afinó el estándar

En marzo de 2026, el Superior Tribunal de Justicia del Chubut volvió sobre el asunto en la causa Provincia del Chubut c/ Payalef, Raúl Amelio s/ recurso de queja. El tribunal sostuvo que la nulidad procesal exige afectación sustancial de garantías o perjuicio concreto y que el eventual incumplimiento de pautas reglamentarias sobre IA no genera, por sí solo, nulidad automática. También precisó que el control jurisdiccional recae sobre la fundamentación exteriorizada y no sobre los instrumentos intelectuales utilizados por el magistrado.

Esta segunda decisión es importante porque evita dos errores inversos: ni banaliza el problema, ni sostiene que cualquier rastro de IA produzca nulidad por sí mismo. El estándar correcto pasa por control humano, exteriorización suficiente, perjuicio y trazabilidad del proceso.

Por qué esto importa más con agentes de IA

Thomson Reuters anunció en 2025 el despliegue de agentic workflows para legal, riesgo y compliance: sistemas que no solo generan salida, sino que planifican y ejecutan flujos complejos, incluyendo drafting inteligente, análisis de deposiciones y evaluaciones de riesgo. En paralelo, en ILTACON 2025 se destacó que los agentes funcionan orientados a objetivos, dependen críticamente del contexto y requieren intervención humana para verificar resultados y decidir cuándo escalar al profesional.

Esto cambia el mapa del riesgo. Una cosa es un asistente que responde a una consulta puntual. Otra cosa es un sistema que encadena pasos, reutiliza contexto, orquesta herramientas y produce resultados que pueden terminar influyendo en escritos, estrategia, revisión documental o decisiones procesales.

El salto de asistencia puntual a ejecución multietapa no elimina responsabilidad. La redistribuye sobre una arquitectura mucho más exigente de control.

Qué debería poder demostrar un estudio o equipo jurídico

  • Qué tareas quedan dentro del perímetro permitido del agente.
  • Qué datos y fuentes puede usar.
  • Qué decisiones siguen siendo exclusivamente humanas.
  • Qué evidencia deja cada paso relevante del flujo.
  • Cómo se verifica la salida antes de que produzca efecto procesal o institucional.
  • Cómo se documenta el perjuicio o la ausencia de perjuicio si luego aparece una objeción.

Conclusión

El riesgo procesal en la era de los agentes no se mide por el mero uso de IA, sino por el nivel de autonomía concedido, el estándar de supervisión humana, la posibilidad de reconstrucción posterior y la capacidad de demostrar si existió o no un perjuicio jurídicamente relevante.

Fuentes públicas consultadas