La evidencia no apunta a uso marginal. Apunta a uso creciente.
El informe 2025 de Thomson Reuters señala que aproximadamente la mitad de los profesionales de sectores legales, tributarios, contables, de riesgo y gubernamentales ya utiliza GenAI de alguna manera. Además, el 95% de los encuestados cree que la IA generativa será una parte central del flujo de trabajo de su organización dentro de los próximos cinco años.
La conclusión relevante para un estudio jurídico no es simplemente “la IA se está adoptando”. La conclusión relevante es otra: el uso ya existe y la expectativa de centralidad futura es muy alta. Si la organización todavía no ordenó reglas, responsabilidades y controles, el riesgo ya corre por dentro de la operación.
La brecha crítica está en políticas y entrenamiento
El mismo informe muestra que más de la mitad de los encuestados indicó que su organización no tenía políticas sobre GenAI en el trabajo, y casi dos tercios dijeron no haber recibido capacitación específica. Ese dato es particularmente útil porque muestra un desacople peligroso: uso creciente por un lado, y guardrails institucionales insuficientes por el otro.
En otras palabras, la organización puede estar usando IA sin saber todavía cómo debería usarla, qué debería restringir, qué debería documentar y quién debería responder ante un desvío.
La conversación con clientes tampoco está madura
Thomson Reuters también muestra que una mayoría de clientes quiere que sus firmas utilicen GenAI, pero al mismo tiempo gran parte de esos clientes ni siquiera sabe si sus estudios efectivamente la están usando. Ese punto importa porque derriba un falso dilema. El problema no es simplemente usar o no usar IA. El problema es usarla sin estructura, sin conversación suficiente y sin parámetros claros sobre costo, valor, confidencialidad y supervisión.
El Shadow AI no empieza cuando hay mala fe. Empieza cuando el uso real crece más rápido que la estructura que debería gobernarlo.
Cómo aparece en un estudio jurídico
- Uso de cuentas personales o herramientas no inventariadas.
- Prompts sobre material sensible sin criterios explícitos.
- Resultados reutilizados sin dejar evidencia de revisión.
- Dependencia de herramientas que no forman parte de una política aprobada.
- Ausencia de entrenamiento mínimo para quienes ya las están usando.
Por qué importa aunque todavía no haya un incidente visible
Porque el problema del Shadow AI es acumulativo. No siempre produce un escándalo inmediato. A veces deja otra cosa: opacidad. Nadie sabe con certeza qué herramienta se usa, dónde, para qué tareas, bajo qué condiciones o con qué respaldo. Cuando eso ocurre, la organización ya perdió una parte central de la gobernanza antes incluso de que aparezca el primer conflicto.