Shadow AI y Agentic AI: riesgos, señales de exposición y cómo retomar el control
La adopción de la IA en la empresa ha pasado de ser una tendencia a una realidad operativa. Ya no hablamos de pilotos aislados ni de iniciativas controladas en laboratorio. Ahora la IA está integrada en procesos de negocio, conectada a datos empresariales críticos y presente en decisiones que impactan directamente en las operaciones.
Sin embargo, dependiendo de la madurez de cada empresa este avance es desigual. Algunas han desarrollado marcos de gobierno y seguridad, mientras que en otras el crecimiento ha sido más orgánico, impulsado por la necesidad de ganar eficiencia. En este segundo contexto es donde se produce el fenómeno shadow AI: empleados que utilizan herramientas de IA externas sin supervisión y con riesgo de fuga de información, pérdida de control o incumplimiento normativo. Es un problema serio, pero manejable dentro de marcos de seguridad.
Ahora el escenario añade una nueva capa de complejidad: la IA agéntica. Sistemas capaces de ejecutar tareas, interactuar con aplicaciones, acceder a datos corporativos y operar con cierto grado de autonomía. Esta evolución supone un cambio en cómo la tecnología se integra en los procesos.
Es en este paso hacia sistemas autónomos donde aparece un nuevo modelo de riesgo. La IA deja de ser una herramienta consultiva para convertirse en un elemento activo en las operaciones empresariales, con impacto directo en decisiones, accesos y ejecución de tareas.
La diferencia es relevante porque, hasta ahora, el principal riesgo era lo que la IA generaba: respuestas incorrectas, sesgos y fugas de información. Problemas críticos pero acotados. Ahora se trata de modelos que acceden, conectan y ejecutan.
■ Esto supone que el fenómeno shadow AI deja de ser suficiente como marco explicativo. El problema ya no es solo quién usa la IA, sino cómo se integra en las operaciones: qué puede hacer por sí misma, con qué identidad, con qué permisos y sobre qué datos y sistemas.
Con la IA agéntica las empresas asumen nuevos riesgos que, en muchos casos, aún no han identificado.
Cómo se manifesta este cambio en las empresas
Esta evolución de una IA que responde a una IA que actúa a menudo sucede fuera de los circuitos habituales de supervisión.
En entornos empresariales ya estamos viendo automatizaciones que conectan herramientas. Por ejemplo, un asistente que no solo redacta un correo sino que accede al CRM, consulta datos de clientes y propone una acción: un flujo que cruza información de distintas fuentes sin pasar por validaciones formales. Aunque son desarrollos útiles, introducen dependencias y accesos que no siempre están bien definidos.
Esto se refleja también en cómo se construyen estas soluciones. Cada vez es más frecuente que perfiles de negocio desarrollen sus propios flujos o aplicaciones apoyándose en plataformas de IA, sin pasar por los circuitos habituales de auditoría, desarrollo, seguridad o cumplimiento. No es desarrollo tradicional, pero tampoco uso pasivo. Es un espacio intermedio donde surge el término shadow developers.
En estos escenarios no existe un diseño de seguridad desde el inicio. Las integraciones se construyen rápido, los permisos se conceden de forma amplia y la lógica queda dispersa entre prompts, herramientas y configuraciones difíciles de auditar. Lo que mejora la productividad puede convertirse en una vulnerabilidad.
■ Nada de esto responde a un uso malintencionado, sino a la necesidad de avanzar más rápido. Precisamente por esa falta de control sobre la integración, el riesgo comienza a consolidarse.
¿Qué cambia con la IA agéntica?
La IA agéntica cambia la naturaleza del riesgo. Hasta ahora los problemas estaban acotados a la interacción. Aunque sus consecuencias podían ser relevantes, el riesgo quedaba contenido en la interacción.
Ahora la integración en procesos reales implica conexión continua con sistemas y datos. El riesgo deja de ser puntual y pasa a ser inherente al proceso. El contexto ya no es la información aislada enviada un prompt, sino un flujo constante entre herramientas, modelos y fuentes internas, a menudo sin límites adecuados.
Por tanto, si ese flujo no se gestiona, la exposición pasa a formar parte del proceso.
Algo similar ocurre con los accesos. Los agentes necesitan permisos para operar: acceden a aplicaciones, consultan datos y ejecutan acciones. Pero esos permisos muchas veces responden a conveniencia, no a mínimo privilegio, generando riesgos difíciles de detectar.
También cambia la naturaleza de las acciones. Antes un error generaba una mala decisión humana. Ahora puede traducirse directamente en una acción ejecutada, reduciendo el margen de contención.
Y está la trazabilidad. Cuando intervienen múltiples sistemas, reconstruir qué ha pasado deja de ser sencillo. Sin esa capacidad, auditar o explicar el comportamiento se vuelve complejo.
En este contexto, amenazas como la manipulación de prompts o la contaminación de fuentes no solo afectan al modelo, sino al sistema completo.
Con la IA agéntica el riesgo deja de ser observable desde fuera y se integra en la operación.
Cómo identificar la falta de control sobre la IA
Lo relevante ya no es lo que podría ocurrir, sino lo que ya está ocurriendo, a menudo sin visibilidad suficiente.
El uso de herramientas fuera del entorno corporativo sigue creciendo, junto con integraciones abiertas con SaaS o repositorios internos. Incluso si funcionan, amplían la superficie de exposición.
En muchos casos no existe un inventario completo de modelos, agentes o automatizaciones. Se sabe que la IA está presente, pero no dónde ni con qué alcance, lo que dificulta la trazabilidad.
Los permisos excesivos también son habituales: muchas API abiertas, accesos amplios e integraciones sin control.
Y, especialmente, los datos: información sensible sin clasificar, sobrecompartida o sin controles adecuados para entornos de IA.
Cuando la falta de control es continua el riesgo deja de ser puntual y se vuelve habitual.
Lo que debe definirse antes de escalar IA y agentes
Antes de escalar el uso de IA y agentes, hay una base mínima que no es opcional. No se trata de limitar la adopción, sino de evitar un crecimiento descontrolado desde el inicio.
- Alcance. Saber qué uso de IA existe realmente en la empresa, tanto dentro como fuera de los entornos corporativos. Sin ese inventario, cualquier decisión parte de una visión incompleta.
- Acotar el uso. No todos los casos tienen el mismo nivel de riesgo ni deben tratarse igual. Definir qué usos son aceptables, en qué condiciones y con qué limitaciones evita que la adopción avance más rápido que la capacidad de gobernarla.
- Definir responsabilidades. Quién puede desplegar, quién valida y quién supervisa. Cuando estas funciones no están claras, el control se diluye.
- Gobierno del dato. Qué información puede utilizarse, en qué contextos y con qué restricciones. Sin este criterio, la exposición no se puede acotar.
- Supervisión humana, especialmente en procesos sensibles. El concepto human-in-the-loop no es un freno, sino un mecanismo de control cuando hay impacto en cliente, negocio o cumplimiento.
- Marco normativo. Normativas como el AI Act, NIS2 o DORA ya están definiendo requisitos de trazabilidad, responsabilidad y control.
Sin estos elementos, lo que parece una adopción rápida de la IA, es en realidad una expansión desordenada del riesgo.
Controles operativos: seguridad, identidad, datos y cumplimiento
Seguridad
En seguridad, el foco está en cómo interactúan los modelos con su entorno. Sin protección frente a ataques como el prompt injection o la extracción de información, cualquier punto de interacción puede convertirse en una vía de manipulación o fuga.
Proteger sistemas no es suficiente: hay que proteger los flujos.
Identidad
En identidad, el cambio es profundo. Ya no se trata solo de usuarios, sino de agentes que operan con credenciales verificables, acceden a sistemas y ejecutan acciones.
Sin un gobierno claro de identidades no humanas y sin aplicar el principio de mínimo privilegio, el riesgo crece de forma acumulativa y difícil de detectar.
Datos
En el ámbito del dato la exposición es continua. Los modelos necesitan contexto, y ese contexto suele incluir información sensible.
Sin clasificación, cifrado, prevención de fuga y protección de datos empresariales, ese flujo se convierte en un vector de riesgo permanente.
Cumplimiento
En cumplimiento la clave es la evidencia. No basta con cumplir: hay que poder demostrar qué ha ocurrido, cómo y por qué.
Los requisitos básicos son trazabilidad, auditoría y capacidad de explicar cada interacción. Sin ese control, cualquier incidente se agrava.
Estos controles no funcionan de forma aislada: es su combinación la que determina el nivel de protección.
Visibilidad, detección y respuesta: el nuevo estándar operativo
Cuando la IA entra en los procesos operativos, el control depende de la capacidad para ver, detectar y actuar en tiempo real.
Visibilidad
Sin visibilidad no se puede saber qué está ocurriendo: qué agentes están activos, qué datos utilizan y qué acciones ejecutan. La monitorización es una condición básica de gobernanza.
Esta visibilidad debe ser completa: modelos, datos, identidades e integraciones. Los riesgos no aparecen en un único punto, sino en su interacción.
A medida que estos sistemas se integran en la operación, esta visibilidad evoluciona hacia la observabilidad, capaz de aportar contexto y comprensión de lo que ocurre.
Detección
A partir de ahí, la detección permite identificar anomalías antes de que se conviertan en incidentes: accesos inesperados, comportamientos anómalos o desviaciones en el uso.
Respuesta
La capacidad de respuesta en segundos para contener incidentes y automatizar acciones es donde los modelos tradicionales fallan. Aquí cobra sentido la integración con SOC especializados, especialmente en entornos donde la IA interactúa con sistemas críticos.
Además, cada incidente es una oportunidad para ajustar controles y reforzar el sistema. La seguridad en IA es un proceso continuo.
La gestión eficaz requiere tecnología, metodologías y experiencia para analizar y actuar con criterio.
¿Cómo empezar a recuperar el control?
Las empresas no necesitan esperar a que el riesgo se manifieste. En muchos casos ya existe y puede abordarse de forma proactiva.
- Entender la exposición real, más allá del shadow AI: identificar agentes, automatizaciones e integraciones ya en uso.
- Identificar las identidades no humanas y sus permisos. Este punto, antes secundario, ahora es clave.
- Revisar accesos y definir límites, aplicando mínimo privilegio y reduciendo integraciones innecesarias.
- Definir políticas corporativas: qué se puede hacer, qué no y en qué condiciones.
- Establecer monitorización continua para entender en tiempo real qué está ocurriendo.
- Reforzar el cumplimiento, asegurando trazabilidad, control y capacidad de respuesta.
—Este no es un enfoque final, pero sí un punto de partida para gestionar la IA de forma controlada.
Cuando la IA entra en las operaciones es necesario cambiar la forma de adoptarla.
Conclusión
Cuando la IA se integra en la operación, el reto es hacerlo con control: entender los riesgos, proteger datos e identidades y operar con visibilidad continua allí donde la IA actúa.
En Telefónica Tech acompañamos a las empresas en su Secure Journey to AI, ayudándolas a identificar riesgos desde las primeras fases, definir controles y establecer un modelo de gobernanza y respuesta continua alineado con sus necesidades operativas y de cumplimiento..
Cloud Híbrida
Ciberseguridad
AI & Data
IoT y Conectividad
Business Applications
Intelligent Workplace
Consultoría y Servicios Profesionales
Pequeña y Mediana Empresa
Sanidad y Social
Industria
Retail
Turismo y Ocio
Transporte y Logística
Energía y Utilities
Banca y Finanzas
Ciudades Inteligentes
Sector Público