Porque bloquear o ChatGPT não resolve o Shadow AI

Café de barrio en la mañana temprano. Un colaborador con vestimenta casual de oficina, sentado solo junto a una ventana, concentrado en un smartphone personal sostenido a la altura del pecho mientras una taza de café humea a su lado y una agenda impresa descansa olvidada sobre la mesa de madera

Porque bloquear o ChatGPT não resolve o Shadow AI

Há dois anos ninguém me perguntava o que fazer com o ChatGPT. Agora aparece em metade das reuniões que tenho com CTOs e CISOs. A primeira saída que quase todos experimentam é bloqueá-lo a partir do firewall empresarial. Funciona uma semana. As pessoas abrem outro separador noutro fornecedor e o buraco continua lá, só com um nome novo.

Há uns anos escrevemos neste blog sobre a ameaça do Shadow IT, aquela zona cinzenta onde as pessoas resolvem as suas tarefas com ferramentas que a área de TI não aprovou. A IA generativa voltou a abrir essa porta, agora com um caudal que nenhuma regra de proxy conseguirá conter. Aparece um nome novo para o mesmo fenómeno: shadow AI nas empresas.

O que é Shadow AI e em que difere do Shadow IT?

Shadow AI é a utilização de modelos de IA generativa por parte de colaboradores sem aprovação, supervisão nem inventário por parte da segurança ou da tecnologia. O nome é novo, o padrão não.

A diferença em relação ao Shadow IT clássico tem três ângulos que vale a pena olhar do ponto de vista da arquitetura.

Primeiro, a barreira de entrada. Adotar uma ferramenta SaaS não aprovada exige registo, carregamento de dados, aprender uma interface. Usar um LLM público requer apenas abrir um separador e colar texto. É a fricção mais baixa que alguma vez vimos numa ferramenta não controlada.

Segundo, a natureza do dado que sai. As ferramentas mais comuns de Shadow IT (um Trello pessoal, um Notion lateral) recebem dados estruturados que a pessoa escolheu de forma consciente. Um prompt ao ChatGPT recebe aquilo que a pessoa está a pensar nesse momento, sem filtro, incluindo por vezes fragmentos de contratos, dados de clientes ou credenciais coladas por engano.

Terceiro, o resultado volta para dentro. A resposta do modelo é colada no documento empresarial, no código que se faz commit no repositório, no email que se envia ao cliente. O ciclo de retroalimentação entre fora e dentro é imediato, e isso significa que qualquer alucinação ou viés do modelo entra no fluxo de trabalho sem passar por uma revisão.

Porque é que bloquear o ChatGPT não funciona na prática?

Quando uma organização bloqueia o domínio do ChatGPT a partir do firewall empresarial, acontecem três coisas quase em simultâneo.

As pessoas que usavam a ferramenta para resolver tarefas reais não deixam de o fazer, simplesmente passam a usá-la a partir do telemóvel pessoal ou de redes domésticas. A fuga de dados torna-se mais difícil de auditar, porque já não passa pela rede empresarial.

Aparecem alternativas menos conhecidas que oferecem o mesmo serviço sem estar nas listas de bloqueio. Qualquer playbook de segurança razoavelmente atualizado lista dezenas de fornecedores equivalentes, e manter uma lista de bloqueio em dia é uma corrida perdida.

Quebra-se a conversa entre TI e o resto do negócio. A pessoa que estava a usar o modelo para algo legítimo (resumir um email longo, redigir uma resposta a um cliente, depurar um bloco de código) começa a ver TI como obstáculo e deixa de pedir ferramentas. A organização perde visibilidade sobre necessidades reais que poderiam ser cobertas por uma solução empresarial.

O instinto de bloquear vem de um bom lugar. Compreendo-o, porque vivi-o na minha própria carreira. Quando aparece um risco novo e ainda não sabemos como medi-lo, a primeira reação é cortar o fluxo. Esse reflexo presume que o comportamento vai parar quando a ferramenta deixa de funcionar. Com LLMs públicos, isso já não é verdade.

Três riscos concretos do Shadow AI na sua organização

Antes de pensar em controlos, convém dar nome àquilo que está em jogo.

Fuga de dados sensíveis. O mais óbvio. Uma análise de proposta comercial com nomes de clientes, uma conversa com o jurídico a colar cláusulas de um contrato, um excerto de código com credenciais hardcoded que alguém quer “limpar” antes de enviar para o repositório. Qualquer um desses prompts pode acabar a treinar um modelo público ou a ficar registado nos logs do fornecedor.

Decisões baseadas em alucinações. Um LLM pode gerar respostas que parecem corretas e não o são. Se a saída é copiada sem revisão para uma proposta, um relatório regulamentar ou uma recomendação ao cliente, o erro propaga-se sem rasto. O dano vem da cadeia de revisão que não foi desenhada para outputs de IA.

Exposição regulamentar. RGPD, ISO 27001, NIS2 e as normativas locais de cada país. Todas exigem controlo sobre o ciclo de vida do dado. Um programa de compliance sério precisa de responder, perante um auditor, que dados saíram da organização, para onde foram e com que base legal. Quando o fluxo é Shadow AI, a resposta é “não sabemos,” e isso já é uma constatação.

Detalhe vertical de duas mãos sobre uma secretária de madeira a desenhar um diagrama de fluxo num caderno de papel com caneta preta: nós redondos ligados por setas curvas, duas setas realçadas com marcador âmbar; à beira da imagem uma chávena de café e notas adesivas de cor

Que controlos funcionam mesmo contra o Shadow AI?

A pergunta que faço às equipas com quem trabalhamos é outra. Não “como bloqueamos,” mas “que canais desenhamos para que o uso de IA aconteça onde temos visibilidade.”

Política acessível e específica. Uma página curta, na linguagem do colaborador, que diga o que pode ser colado num LLM e o que não pode. Três exemplos concretos valem mais do que dez páginas de jargão jurídico. Se a política vive numa intranet que ninguém lê, a política não existe.

Identidade e ferramenta empresarial. Quando a organização oferece um canal aprovado (a versão enterprise de um fornecedor com DPA assinado, ou um modelo na própria infraestrutura) ligado ao SSO empresarial, com logs de utilização, a maior parte do Shadow AI desaparece sozinha. As pessoas preferem a ferramenta oficial quando a oficial funciona e respeita o seu fluxo.

Sensibilização no momento do risco. Aqui entra o espaço em que a plataforma de awareness trabalha todos os dias. A formação tradicional, o módulo anual de 30 minutos, não fala ao colaborador que neste momento está prestes a colar um excerto de contrato num chat. O que funciona são os nudges contextuais, os micro-lembretes que aparecem quando o comportamento de risco está prestes a acontecer, e as simulações específicas que treinam o reflexo de pausar antes de colar. Sobre como se treina esse reflexo escrevemos em Cybersecurity Awareness: porque é que a IA não pode substituir a orientação humana e no papel dos nudges em cibersegurança.

Deteção que conversa com o comportamento. Toda esta camada funciona melhor quando os sinais do SIEM, do DLP e do programa de awareness conversam entre si. Se o seu DLP marca um evento de paste massivo para um domínio externo, esse evento pode disparar um módulo educativo de um minuto sobre Shadow AI dirigido a essa pessoa em concreto. O comportamento humano é a peça que o seu SIEM não estava a ver, e a sensibilização contextual fecha esse ciclo.

Onde encaixa uma plataforma como a SMARTFENSE

O que vemos nos programas que estão a funcionar é um padrão. A plataforma de awareness não compete com o firewall nem com o DLP. É a camada que se liga a esses sistemas via API, recebe os seus sinais e traduz um evento técnico numa intervenção educativa pertinente para a pessoa envolvida.

Na SMARTFENSE desenhamos para essa stack. A sensibilização é atribuída por comportamento real, não apenas por função ou antiguidade. Quando a organização já tem catálogos sobre uso seguro de IA generativa (algo que no último ano passou de desejável a expectável pelas auditorias), a plataforma ativa-os onde são precisos, no idioma do colaborador, no momento do risco.

Isto sozinho não resolve o Shadow AI. O que faz é converter cada incidente menor num ponto de aprendizagem para essa pessoa e, em agregado, para o resto do programa. Após uns meses, a organização tem o que antes lhe faltava. Um mapa real de que áreas usam que ferramentas, que tipos de dados estão em risco, onde a formação está a mover o comportamento e onde não.

Três passos para começar esta semana

Se a sua organização ainda não tem uma posição formal sobre Shadow AI, há três coisas que pode resolver sem grandes projetos.

Falar com a sua equipa, sem guião. Perguntar quem está a usar o quê, para que tarefas, com que dados. O retrato que sai dessa conversa costuma surpreender e é o insumo mais útil para a política que vem a seguir.

Escrever uma primeira versão da política, breve, com exemplos. Não esperar pelo documento perfeito, porque enquanto o documento perfeito é redigido, os dados já estão a sair.

Abrir a conversa com a plataforma de awareness sobre como o tema encaixa no catálogo do próximo trimestre. Se ainda não tem uma plataforma, este é um bom ponto de partida para falar connosco sobre como começar.

Bloquear o ChatGPT não resolve o Shadow AI. Desenhar os canais, sim.

Mauro Sánchez

CTO de SMARTFENSE, lidera los equipos de ingeniería y desarrollo. Especialista en materia de ciberseguridad e infraestructura, siendo el encargado de definir y concretar las integraciones y alianzas tecnológicas estratégicas de SMARTFENSE con diferentes soluciones. Más de 20 años avalan su experiencia en la toma de decisión e implementación de medidas de seguridad y tecnología.

Deixe um comentário