Observatorio Tracewarden

Sullivan & Cromwell: cuando tener políticas de IA no alcanza

Una firma global reconoció ante un tribunal federal de Nueva York que una presentación contenía citas inexactas y errores generados por IA. El dato crítico no es que la IA haya alucinado. El dato crítico es que existían políticas internas, entrenamiento y revisión, pero el control no funcionó.

Autor: Jorge Peralta · Publicado: 2026-04-25 · Última revisión: 2026-04-25

Qué ocurrió

El 18 de abril de 2026, Sullivan & Cromwell presentó una carta al juez Martin Glenn, en el expediente In re Prince Global Holdings Limited, et al., reconociendo que una moción presentada el 9 de abril contenía citas inexactas y otros errores. La carta atribuyó parte de esas fallas a alucinaciones de IA: casos fabricados, autoridades mal citadas o fuentes jurídicas inexistentes.

La firma indicó que mantenía políticas integrales y entrenamiento obligatorio para el uso de IA en trabajo jurídico. Sin embargo, reconoció que esas políticas no fueron seguidas en la preparación de la moción y que la revisión secundaria tampoco detectó las citas inexactas generadas por IA.

La gobernanza no existe porque una organización declara reglas. Existe cuando esas reglas se cumplen, se documentan y pueden reconstruirse frente a un incidente.

Qué debe aclararse sobre YPF

En Argentina, varios titulares vincularon la noticia con YPF porque Sullivan & Cromwell tuvo alta visibilidad pública por su rol en litigios relacionados con la República Argentina y la expropiación de YPF. Esa vía de búsqueda es relevante para encontrar el caso, pero la precisión importa: el incidente de alucinaciones de IA ocurrió en el expediente Prince Global Holdings, no en el expediente YPF.

Para Tracewarden, esta distinción no es menor. Una lectura seria de IA jurídica exige separar gancho mediático, hecho documentado y análisis estratégico. Si el Observatorio denuncia falta de trazabilidad en otros, también debe aplicarse ese estándar sobre sus propios casos.

Por qué este caso importa más que otros

El caso no involucra solo a un profesional aislado usando una herramienta de IA sin advertir sus riesgos. Involucra a una firma global, sofisticada y con políticas internas. Por eso el patrón es más incómodo: tener reglas, licencias o entrenamiento no garantiza control si el flujo real de trabajo no deja evidencia de cumplimiento.

La herramienta específica no fue identificada públicamente en las fuentes revisadas. Por eso no corresponde atribuir el incidente a ChatGPT, Claude, Copilot u otro producto concreto. El problema verificable está en la cadena de control: uso de IA, incorporación del resultado, revisión de citas, validación humana y responsabilidad por la presentación judicial.

Patrón de riesgo detectado

Política declarada sin ejecución verificable.

Este patrón aparece cuando una organización puede decir que tiene reglas de IA, pero no puede demostrar con suficiente claridad quién usó la herramienta, con qué finalidad, qué resultado se incorporó, quién verificó las citas, qué fuente externa confirmó la autoridad jurídica y qué evidencia quedó para reconstruir el proceso.

La consecuencia no queda dentro del estudio. Cuando el error llega al expediente, el impacto puede ser procesal, reputacional, comercial y disciplinario.

Lectura Tracewarden

Este caso demuestra que la conversación sobre IA jurídica no puede quedarse en herramientas, prompts o productividad. El centro del problema es la defensabilidad del uso: poder explicar cómo intervino la IA, qué controles existieron, quién revisó el resultado y qué evidencia quedó documentada.

En términos Tracewarden, la pregunta correcta no es si el estudio “usa IA”. La pregunta es si puede defender ese uso cuando una contraparte, cliente, tribunal, socio o aseguradora pida explicaciones.

Intervención Tracewarden aplicable

Un caso de este tipo justifica una intervención en cuatro niveles: diagnóstico inicial de exposición, gobernanza aplicada, trazabilidad mínima defendible y validación humana específica para citas, jurisprudencia, doctrina, normativa y hechos del caso.

No se trata de prohibir la IA. Se trata de evitar que el uso de IA quede sin dueño, sin registro y sin defensa posible.

Criterio de lectura

Esta entrada separa el hecho documentado de la lectura estratégica. Las fuentes se listan para permitir verificación posterior y evitar que el Observatorio funcione como opinión sin soporte.

Fuentes públicas consultadas

Aplicación Tracewarden

Si este patrón existe en tu estudio, conviene medir la exposición antes del incidente.

El Observatorio no es una biblioteca decorativa. Cada caso muestra una brecha que puede aparecer en estudios jurídicos y áreas legales: falta de validación, uso informal, ausencia de trazabilidad, datos sensibles sin criterio o dependencia ciega de una herramienta.