Hace dos años nadie me preguntaba qué hacer con ChatGPT. Ahora aparece en la mitad de las reuniones que tengo con CTOs y CISOs. La salida que casi todos prueban primero es bloquearlo desde el firewall corporativo. Funciona una semana. La gente abre otra pestaña en otro proveedor y el agujero sigue ahí, con otro nombre.
Hace años escribimos en este blog sobre la amenaza del Shadow IT, esa zona gris donde las personas resuelven sus tareas con herramientas que el área de TI no aprobó. La IA generativa volvió a abrir esa puerta, ahora con un caudal que ninguna restricción de proxy va a contener. Aparece un nombre nuevo para el mismo fenómeno: shadow AI en empresas.
¿Qué es Shadow AI y en qué se diferencia del Shadow IT?
Shadow AI es el uso de modelos de IA generativa por parte de colaboradores sin aprobación, supervisión ni inventario por parte de seguridad o tecnología. El nombre es nuevo, el patrón no.
La diferencia respecto al Shadow IT clásico tiene tres aristas que conviene mirar desde la arquitectura.
Primero, la barrera de entrada. Adoptar una herramienta SaaS no aprobada exige registrarse, cargar datos, aprender una interfaz. Usar un LLM público requiere abrir una pestaña y pegar texto. Es la fricción más baja que hayamos visto en una herramienta no controlada.
Segundo, la naturaleza del dato que sale. Las herramientas de Shadow IT más comunes (un Trello personal, un Notion lateral) reciben datos estructurados que la persona elige conscientemente. Un prompt a ChatGPT recibe lo que la persona está pensando ahora, sin filtro previo, incluyendo a veces fragmentos de contratos, datos de clientes o credenciales pegadas por error.
Tercero, el resultado vuelve adentro. La salida del modelo se copia en el documento corporativo, en el código que se sube al repo, en el correo que se envía al cliente. El lazo de retroalimentación entre afuera y adentro es inmediato, y eso significa que cualquier alucinación o sesgo del modelo entra al flujo de trabajo sin pasar por una revisión.
¿Por qué bloquear ChatGPT no funciona en la práctica?
Cuando una organización bloquea el dominio de ChatGPT desde su firewall corporativo, ocurren tres cosas casi al mismo tiempo.
Las personas que usaban la herramienta para resolver tareas reales no dejan de usarla, simplemente la usan desde el celular personal o desde redes domésticas. La fuga de datos se hace más difícil de auditar, porque ya no pasa por la red corporativa.
Aparecen alternativas menos conocidas que ofrecen el mismo servicio sin estar en las listas de bloqueo. Cualquier playbook de seguridad medianamente actualizado tiene decenas de proveedores equivalentes, y mantener una lista de denegación al día es una carrera perdida.
Se rompe la conversación entre TI y el resto del negocio. La persona que está usando el modelo para algo legítimo (resumir un correo largo, redactar una respuesta a un cliente, depurar un bloque de código) percibe a TI como obstáculo y deja de pedir herramientas. La organización pierde visibilidad sobre necesidades reales que se podrían atender con una solución corporativa.
El instinto de bloquear viene de un buen lugar. Lo entiendo, porque lo viví en mi propia carrera. Cuando hay un riesgo nuevo y todavía no sabemos cómo medirlo, la primera reacción es cortar el flujo. Ese reflejo asume que el comportamiento se va a detener cuando la herramienta deja de funcionar. Con LLMs públicos, eso ya no es cierto.
Tres riesgos concretos del Shadow AI en tu organización
Conviene ponerle nombre a lo que está en juego antes de pensar controles.
Fuga de datos sensibles. El más obvio. Un análisis de propuesta comercial que incluye nombres de clientes, una conversación con soporte legal pegando cláusulas de un contrato, un fragmento de código con credenciales hardcodeadas que alguien quiere «limpiar» antes de subir al repo. Cada uno de esos prompts puede terminar entrenando un modelo público o quedar registrado en los logs del proveedor.
Decisiones basadas en alucinaciones. Un LLM puede generar respuestas que parecen correctas y no lo son. Si la salida se copia sin revisión a una propuesta, a un informe regulatorio o a una recomendación al cliente, el error se propaga sin trazabilidad. El daño viene de la cadena de revisión que no estaba diseñada para outputs de IA.
Exposición a normativas. GDPR, ISO 27001, NIS2 y las normativas locales de cada país. Todas exigen control sobre el ciclo de vida del dato. Un programa serio de cumplimiento necesita responder, ante una auditoría, qué datos salieron de la organización, hacia dónde y con qué base legal. Cuando el flujo es Shadow AI, la respuesta es «no sabemos», y eso ya es un hallazgo.

¿Qué controles sí funcionan frente al Shadow AI?
La pregunta que les hago a los equipos con los que trabajamos es otra. Ya no «cómo bloqueamos», sino «qué canales diseñamos para que el uso de IA suceda donde tenemos visibilidad».
Política accesible y específica. Una página corta, en lenguaje del colaborador, que diga qué se puede pegar en un LLM y qué no. Tres ejemplos concretos valen más que diez páginas legales. Si la política vive en una intranet que nadie revisa, la política no existe.
Identidad y herramienta corporativa. Si la organización ofrece un canal aprobado (la versión enterprise de un proveedor con DPA firmado, o un modelo en su propia infraestructura), conectado al SSO corporativo, con logs de uso, la mayor parte del Shadow AI desaparece sola. La gente prefiere la herramienta oficial cuando la oficial funciona y respeta su flujo.
Concienciación en el momento del riesgo. Acá entra el espacio donde la plataforma de awareness trabaja todos los días. La capacitación tradicional, el módulo anual de 30 minutos, no le habla al colaborador que en este momento está por pegar un fragmento de contrato en un chat. Lo que sí funciona son los nudges contextuales, los micro-recordatorios que aparecen cuando el comportamiento de riesgo está por ocurrir, y las simulaciones específicas que entrenan el reflejo de pausar antes de pegar. Sobre cómo se entrena ese reflejo escribimos antes en Cybersecurity Awareness: por qué la IA no puede sustituir la guía humana y en el rol de los nudges en ciberseguridad.
Detección que conversa con el comportamiento. Toda esta capa funciona mejor cuando las señales del SIEM, del DLP y del programa de awareness se hablan entre sí. Si tu DLP marca un evento de pegado masivo de texto hacia un dominio externo, ese evento puede disparar un módulo educativo de un minuto sobre Shadow AI dirigido a esa persona en concreto. El comportamiento humano es la pieza que tu SIEM no estaba viendo, y la concienciación contextual cierra ese loop.
Dónde encaja una plataforma como SMARTFENSE
Lo que vemos en los programas que están funcionando es un patrón. La plataforma de awareness no compite con el firewall ni con el DLP. Es la capa que se conecta a esos sistemas vía API, recibe sus señales y traduce un evento técnico en una intervención educativa pertinente para la persona involucrada.
En SMARTFENSE diseñamos para ese stack. La concienciación se asigna por comportamiento real, no solo por rol o por antigüedad. Cuando la organización ya tiene catálogos sobre uso seguro de IA generativa (algo que en el último año pasó de ser deseable a ser exigido por auditorías), la plataforma los activa donde se necesitan, en el idioma del colaborador, en el momento del riesgo.
Eso no resuelve el Shadow AI por sí solo. Lo que sí hace es convertir cada incidente menor en un punto de aprendizaje para esa persona y, agregado, para el resto del programa. Después de unos meses, la organización tiene lo que antes le faltaba. Un mapa real de qué áreas usan qué herramientas, qué tipos de datos están en riesgo, dónde la formación está moviendo el comportamiento y dónde no.
Tres pasos para empezar esta semana
Si tu organización todavía no tiene una postura formal sobre Shadow AI, hay tres cosas que puedes resolver sin grandes proyectos.
Hablar con tu equipo, sin script. Preguntar quién está usando qué, para qué tareas, con qué datos. La foto que sale de esa conversación suele sorprender, y es el insumo más útil para la política que viene después.
Escribir una primera versión de la política, breve, con ejemplos. No esperar al documento perfecto, porque mientras se redacta el documento perfecto, los datos ya están saliendo.
Activar la conversación con la plataforma de awareness sobre cómo encaja el tema en el catálogo del próximo trimestre. Si todavía no tienes una plataforma, este es un buen punto de partida para hablar con nosotros sobre cómo empezar.
Bloquear ChatGPT no resuelve el Shadow AI. Diseñar los canales, sí.
Deja una respuesta