Observatorio Tracewarden

Responsabilidad profesional frente a IA

La pregunta decisiva no es si la IA ayudó. La pregunta decisiva es quién responde cuando el producto asistido por IA llega al expediente, al cliente, a la opinión jurídica o a la decisión institucional con errores que debieron haberse detectado. La respuesta que viene dando la práctica judicial es bastante consistente: responde la persona que firma, valida, presenta o deja circular el resultado como confiable.

Autor: Jorge Peralta · Publicado: 2026-04-04

Utah: el firmante sigue siendo gatekeeper

En Garner v. Kadince, la Corte de Apelaciones de Utah sostuvo que cada abogado mantiene una obligación permanente de revisar y asegurar la exactitud de los escritos judiciales. La decisión es relevante porque el tribunal no se detuvo en el problema técnico del modelo, sino en el fallo del circuito profesional de control: se presentó un escrito con autoridad legal fabricada obtenida de ChatGPT, y esa presentación violó las obligaciones del abogado firmante bajo la regla aplicable.

El tribunal fue explícito: una opinión falsa no es “derecho vigente”, y la corte no puede cargar con la tarea de verificar la veracidad de cada cita que aparece en un escrito presentado por las partes.

Wyoming: la obligación ética no cambia con IA

El juez federal Kelly Rankin, en Wyoming, sintetizó el estándar de manera particularmente útil: a medida que los abogados ingresan al mundo de la IA, el deber de verificar fuentes y hacer una investigación razonable del derecho vigente permanece inalterado. En el caso contra Walmart, la cuestión no se agotó en el abogado que generó el borrador. La sanción alcanzó también a quienes debían haber garantizado la exactitud del escrito antes de su presentación.

Éste es un punto central para cualquier estudio. Si la revisión depende solo de confianza informal o de supuestos tácitos sobre quién controló qué, la cadena de responsabilidad queda rota justo donde más importa.

6th U.S. Circuit: la gravedad aumenta cuando no hay colaboración

En marzo de 2026, Reuters informó que el 6th U.S. Circuit Court of Appeals sancionó con USD 30.000 a dos abogados por presentar un recurso con más de dos docenas de citas falsas y tergiversaciones de hechos, todo con rasgos de alucinación generativa. La decisión agregó un matiz importante: el tribunal consideró relevante que los abogados no respondieran de manera clara a la consulta judicial sobre cómo habían controlado sus presentaciones y si habían usado IA para prepararlas.

Esto muestra algo adicional. El problema no es solamente el error inicial. También pesa la conducta posterior: cooperación, transparencia, aceptación de responsabilidad y capacidad de mostrar un proceso serio de revisión.

La responsabilidad profesional frente a IA no se resuelve preguntando qué hizo la herramienta. Se resuelve preguntando qué hizo —o dejó de hacer— la organización para controlar su uso.

Qué debería quedar probado dentro de un estudio

  • Qué herramienta intervino y para qué tarea.
  • Quién autorizó o toleró ese uso.
  • Quién revisó el resultado antes de su circulación.
  • Bajo qué criterio se verificaron citas, datos, hechos y fuentes.
  • Qué evidencia quedó de esa validación.
  • Qué respuesta interna existe si luego aparece un error.

Conclusión

En trabajo jurídico, la IA no elimina responsabilidad: la redistribuye sobre una estructura que, si no está diseñada, termina fallando en el punto más visible. Por eso la cuestión no es prohibirla ni celebrarla. La cuestión es volver demostrable quién controló el proceso y con qué seriedad lo hizo.

Fuentes públicas consultadas