Observatorio Tracewarden

Citas falsas, IA y responsabilidad profesional: el riesgo ya llegó al expediente

Casos recientes en Argentina y Estados Unidos muestran que el uso de Inteligencia Artificial en entornos jurídicos ya no puede tratarse como una práctica informal. Cuando no hay trazabilidad, validación ni control humano documentado, el problema deja de ser tecnológico y pasa a ser profesional, ético y reputacional.

Autor: Jorge Eduardo Peralta · Publicado: 2026-05-09 · Última revisión: 2026-05-09

Punto de partida

El riesgo no aparece solo cuando la herramienta se equivoca

La IA ya está siendo usada para redactar, resumir, investigar y preparar documentos jurídicos. El riesgo no aparece solo cuando la herramienta se equivoca. El riesgo aparece cuando nadie puede demostrar cómo se usó, qué se verificó, quién revisó el resultado y qué controles existían antes de presentar, firmar o entregar el trabajo.

Riesgo central

Citas inexistentes o mal atribuidas

El patrón se repite: contenido jurídico generado o asistido por IA llega al expediente sin contraste suficiente con fuentes primarias o bases jurídicas confiables.

Lectura Tracewarden

La defensa futura exige evidencia

No alcanza con afirmar que hubo revisión humana. El estudio necesita poder explicar qué se controló, con qué fuente, por quién y antes de qué decisión.

Casos recientes

Casos recientes que muestran el nuevo estándar de riesgo

Maine, Estados Unidos — Fuller v. Hyde School

Sanción no monetaria por citas legales erróneas generadas mediante IA

Una abogada fue sancionada por presentar documentos con citas legales erróneas generadas mediante IA. El tribunal no prohibió la IA, pero cuestionó la falta de supervisión profesional suficiente e impuso medidas correctivas no monetarias, incluyendo capacitación y procedimientos internos.

Riesgo detectado: uso de IA sin verificación completa de citas legales.

Lección Tracewarden: toda cita generada o sugerida por IA debe verificarse contra fuente primaria o base jurídica confiable antes de ingresar al expediente.

Neuquén, Argentina — citas falsas en recurso judicial

Remisión al Colegio de Abogados y Procuradores de Cutral Có

La Cámara de Apelaciones del Interior de Neuquén detectó citas jurisprudenciales inexistentes en un recurso de apelación y remitió el caso al Colegio de Abogados y Procuradores de Cutral Có para evaluar una eventual actuación disciplinaria.

Riesgo detectado: incorporación de jurisprudencia falsa o no verificable en una presentación judicial.

Lección Tracewarden: no hace falta una ley específica sobre IA para que exista riesgo profesional. Las reglas de ética, buena fe procesal y responsabilidad profesional ya son suficientes para cuestionar el uso negligente de IA.

Georgia, Estados Unidos — Payne v. State

El error asistido por IA terminó contaminando una decisión judicial

La Corte Suprema de Georgia sancionó a una fiscal por citas falsas o mal atribuidas vinculadas al uso de IA. El caso es especialmente relevante porque el error no quedó limitado a un escrito: terminó contaminando una decisión judicial inferior.

Riesgo detectado: error generado o amplificado por IA trasladado al razonamiento judicial.

Lección Tracewarden: en documentos de alto impacto jurídico, la revisión debe ser reforzada, trazable y documentada antes de que el contenido llegue al expediente.

Pennsylvania — Character.AI

Cuando una interfaz conversacional aparenta autoridad profesional

El Estado de Pennsylvania demandó a Character.AI porque un chatbot habría aparentado ser un profesional médico licenciado. Aunque no es un caso jurídico, funciona como advertencia directa para chatbots legales o asistentes conversacionales usados por estudios, colegios profesionales o empresas legaltech.

Riesgo detectado: interfaz conversacional con apariencia de autoridad profesional.

Lección Tracewarden: un chatbot jurídico no puede parecer abogado, no puede prometer asesoramiento final y debe derivar consultas sensibles a revisión humana.

Nippon Life v. OpenAI

La frontera entre información general y asesoramiento jurídico funcional

Una demanda acusó a ChatGPT de haber funcionado, en los hechos, como asesor jurídico sin licencia. No es una sentencia, pero marca una frontera crítica: cuándo la IA deja de brindar información general y empieza a parecer asesoramiento jurídico funcional.

Riesgo detectado: sustitución informal del criterio jurídico profesional.

Lección Tracewarden: toda herramienta de IA usada en derecho debe tener límites claros, supervisión humana y registro del proceso.

Interpretación Tracewarden

El problema no es usar IA. El problema es no poder defender su uso.

Estos casos no muestran que la IA deba prohibirse. Muestran algo más incómodo: usar IA sin gobernanza convierte cada resultado en una posible fuente de responsabilidad.

La falla no está solo en la alucinación. La falla está en no tener un sistema capaz de detectar, corregir y defender el uso de IA antes de que el error llegue al cliente, al tribunal o al expediente.

Cuando la inteligencia se abarata, la responsabilidad se encarece.

Autodiagnóstico

Un estudio jurídico que usa IA debería poder responder:

  • Qué herramienta se utilizó.
  • Qué datos fueron ingresados.
  • Qué fuentes fueron consultadas.
  • Qué citas fueron verificadas.
  • Quién revisó el resultado.
  • Qué parte fue generada por IA.
  • Qué parte fue validada por criterio humano.
  • Qué evidencia queda disponible si mañana hay un reclamo.

Si esas preguntas no pueden responderse, el uso de IA no es defendible. Es solo confianza informal.

Antes de que el problema aparezca en un expediente, revisá cómo están usando IA.

Los casos recientes muestran que la IA no falla solamente cuando inventa información. Falla cuando el estudio no puede demostrar cómo la usó, quién validó el resultado y qué controles existían antes de firmar, presentar o responder.

Tracewarden ayuda a estudios jurídicos, áreas legales y equipos profesionales a convertir el uso informal de IA en un proceso trazable, validado y defendible.