Observatorio Tracewarden · IA jurídica / prompt injection

Brasil: sanción judicial por prompt injection oculto en una petición laboral

Una petición judicial con texto invisible dirigido a una IA judicial expuso un riesgo que los estudios jurídicos argentinos todavía no están mirando con suficiente atención: el expediente también puede contener instrucciones diseñadas para manipular sistemas automatizados.

Autor: Jorge Eduardo Peralta · Publicado: 2026-05-15 · Última revisión: 2026-05-15

Qué ocurrió

Texto invisible, IA judicial y sanción procesal

En mayo de 2026 se conoció en Brasil un caso tramitado ante la 3ª Vara do Trabalho de Parauapebas, Pará, identificado bajo el proceso 0001062-55.2025.5.08.0130. Según medios jurídicos brasileños y la decisión judicial difundida públicamente, una petición inicial contenía un comando oculto escrito en fuente blanca sobre fondo blanco, invisible para el lector humano común, pero potencialmente legible para sistemas de inteligencia artificial.

El comando estaba dirigido a condicionar la respuesta de una IA, pidiéndole contestar superficialmente y no impugnar documentos. El sistema Galileu, utilizado en la Justicia del Trabajo brasileña, habría detectado la instrucción y emitido una alerta. La decisión final no fue tomada por la IA: fue adoptada por el juez luego de la revisión humana del hecho detectado.

Jurisdicción

Justicia del Trabajo de Brasil

3ª Vara do Trabalho de Parauapebas, Pará. Tribunal Regional do Trabalho da 8ª Região.

Expediente

Proceso 0001062-55.2025.5.08.0130

Caso difundido públicamente en mayo de 2026 por medios jurídicos brasileños y con sentencia enlazada por cobertura especializada.

Sanción informada

Multa del 10% del valor de la causa

Las fuentes consultadas informan una multa aproximada de R$ 84.250,08 por mala fe procesal o acto atentatorio contra la dignidad de la justicia.

Por qué importa

El expediente puede convertirse en superficie de ataque

Hasta ahora, buena parte de la discusión sobre IA jurídica se concentró en alucinaciones, citas falsas, jurisprudencia inexistente y pérdida de confidencialidad abogado-cliente. Este caso agrega otro nivel: documentos jurídicos diseñados para atacar, condicionar o contaminar sistemas de IA que leen, resumen, clasifican o asisten en la revisión de expedientes.

La inyección de prompts ya no debe tratarse como un riesgo abstracto de ciberseguridad. En entornos jurídicos puede aparecer dentro de escritos judiciales, anexos, documentos PDF, documentos Word, evidencia digital, metadatos o texto invisible.

Antes

El riesgo visible era la respuesta falsa

Citas inventadas, doctrina inexistente, resúmenes defectuosos o pérdida de secreto profesional por carga de datos en plataformas abiertas.

Ahora

El documento también puede atacar al sistema

La pieza procesal puede contener instrucciones adversariales destinadas a manipular una herramienta de IA usada por la contraparte, el proveedor, el organismo o el propio equipo jurídico.

El riesgo técnico

Qué significa prompt injection en un flujo jurídico

Prompt injection (inyección de instrucciones o inyección de prompts) es una técnica mediante la cual se insertan instrucciones, visibles u ocultas, para alterar el comportamiento de un sistema de IA. En este caso, no se trataría de una orden dada abiertamente a una herramienta, sino de una instrucción escondida dentro de un documento procesal.

El riesgo aparece cuando una herramienta de IA lee el documento sin separar contenido jurídico, instrucciones adversariales, metadatos, texto oculto o elementos manipulados. Esa falla puede afectar resúmenes, contestaciones, análisis internos, búsquedas sobre bases documentales o sistemas RAG jurídico.

OCR

Texto que la persona no ve, pero el sistema sí

OCR (Optical Character Recognition / reconocimiento óptico de caracteres) puede extraer texto de imágenes o documentos. Si no hay control, también puede procesar texto oculto o manipulado.

RAG jurídico

Recuperar documentos no equivale a confiar en ellos

RAG (Retrieval-Augmented Generation / generación aumentada por recuperación) puede consultar documentación curada, pero necesita controles contra contaminación documental e instrucciones adversariales.

Validación humana

La alerta técnica no reemplaza el juicio profesional

La IA puede detectar señales. La decisión profesional exige revisión humana sustantiva, trazabilidad de IA y criterio documentado.

Lectura Tracewarden

No alcanza con preguntar si la IA responde bien

También hay que poder demostrar cómo fue utilizada, qué documentos procesó, qué controles se aplicaron, qué riesgos fueron detectados y qué intervención humana existió antes de tomar decisiones profesionales.

Este caso muestra un nuevo vector de riesgo legal por IA: la herramienta no solo puede equivocarse; también puede recibir instrucciones hostiles escondidas dentro del material que procesa.

El punto crítico no es solo el uso de IA, sino la ausencia de protocolos de validación, trazabilidad y control.

Qué debería revisar un estudio jurídico

Controles mínimos sin convertir esto en un manual gratuito

Un estudio jurídico, área legal, proveedor legaltech u organismo que procese documentos con IA debería revisar, como mínimo, si sus flujos pueden detectar y documentar intentos de manipulación adversarial.

  • Revisión de documentos con texto oculto antes de procesarlos con IA.
  • Validación de PDFs y documentos Word en flujos de revisión asistida.
  • Control de metadatos y elementos invisibles o no evidentes para lectura humana.
  • Separación entre contenido del expediente e instrucciones del sistema.
  • Registro de qué herramienta se usó, con qué documento y bajo qué configuración.
  • Validación humana sustantiva antes de confiar en resúmenes, contestaciones o análisis generados por IA.
  • Trazabilidad del proceso de revisión y criterios para detectar intentos de inyección de prompts.
  • Política interna sobre uso de IA en escritos, prueba documental y revisión de expedientes.

La lista no reemplaza una auditoría. Sirve para mostrar la brecha: si el estudio no sabe responder esto, su uso de IA todavía no es defendible.

Argentina

Por qué este caso debería importar ahora

Aunque el caso ocurrió en Brasil, el riesgo es plenamente trasladable a Argentina. Cualquier estudio jurídico, asesoría legal, área de compliance (cumplimiento normativo), poder judicial o proveedor legaltech que procese documentos con IA puede quedar expuesto a instrucciones ocultas, contaminación documental o manipulación adversarial.

La discusión ya no es solo ética o tecnológica. También es operativa, probatoria y reputacional. La IA jurídica, la inteligencia artificial jurídica y la IA en poderes judiciales necesitan gobernanza de IA, seguridad en IA jurídica, auditoría de proveedores de IA, trazabilidad de IA y validación humana sustantiva.

La confidencialidad abogado-cliente, el uso de IA en estudios jurídicos y la defensabilidad del uso de IA no pueden depender de confianza informal. Si el expediente contiene material adversarial, la ausencia de control se convierte en riesgo profesional.

Si ya usás IA para revisar documentos, el primer paso no es comprar otra herramienta.

El primer paso es saber en qué nivel de exposición estás. Si tu estudio jurídico, área legal o equipo institucional ya utiliza IA para revisar documentos, resumir expedientes, preparar escritos, analizar evidencia o consultar bases internas, necesitás poder demostrar cómo se usó, qué se controló y qué intervención humana existió.

Evaluamos riesgos iniciales de trazabilidad, confidencialidad, validación humana, uso de herramientas externas, tratamiento documental e inyección de prompts en flujos jurídicos.