Perché bloccare ChatGPT non risolve lo Shadow AI

Café de barrio en la mañana temprano. Un colaborador con vestimenta casual de oficina, sentado solo junto a una ventana, concentrado en un smartphone personal sostenido a la altura del pecho mientras una taza de café humea a su lado y una agenda impresa descansa olvidada sobre la mesa de madera

Perché bloccare ChatGPT non risolve lo Shadow AI

Due anni fa nessuno mi chiedeva cosa fare con ChatGPT. Ora compare in metà delle riunioni che ho con CTO e CISO. La prima via d’uscita che quasi tutti provano è bloccarlo dal firewall aziendale. Funziona una settimana. Le persone aprono un’altra scheda su un altro provider e il buco resta lì, solo con un nome nuovo.

Anni fa abbiamo scritto su questo blog della minaccia dello Shadow IT, quella zona grigia in cui le persone svolgono il proprio lavoro con strumenti che il reparto IT non ha approvato. L’IA generativa ha riaperto quella porta, ora con un flusso che nessuna regola di proxy potrà contenere. Compare un nome nuovo per lo stesso fenomeno: shadow AI in azienda.

Cos’è lo Shadow AI e in cosa si differenzia dallo Shadow IT?

Shadow AI è l’uso di modelli di IA generativa da parte dei collaboratori senza approvazione, supervisione né inventario da parte della sicurezza o della tecnologia. Il nome è nuovo, lo schema no.

La differenza rispetto allo Shadow IT classico ha tre angoli che vale la pena guardare con occhio architetturale.

Primo, la barriera d’ingresso. Adottare uno strumento SaaS non approvato richiede registrazione, caricamento di dati, apprendimento di un’interfaccia. Usare un LLM pubblico richiede aprire una scheda e incollare del testo. È l’attrito più basso che abbiamo mai visto su uno strumento non gestito.

Secondo, la natura del dato che esce. Gli strumenti più comuni di Shadow IT (un Trello personale, un Notion laterale) ricevono dati strutturati che la persona ha consapevolmente scelto. Un prompt a ChatGPT riceve quello che la persona sta pensando in quel momento, senza filtro, includendo a volte frammenti di contratti, dati di clienti o credenziali incollate per errore.

Terzo, l’output torna dentro. La risposta del modello viene incollata nel documento aziendale, nel codice committato sul repo, nell’email inviata al cliente. Il loop di feedback tra fuori e dentro è immediato, e questo significa che qualunque allucinazione o bias del modello entra nel flusso di lavoro senza passare da una revisione.

Perché bloccare ChatGPT non funziona nella pratica

Quando un’organizzazione blocca il dominio di ChatGPT dal firewall aziendale, succedono tre cose quasi nello stesso momento.

Le persone che usavano lo strumento per attività reali non smettono, semplicemente passano al telefono personale o alla rete domestica. La fuga di dati diventa più difficile da auditare, perché non passa più dalla rete aziendale.

Compaiono alternative meno conosciute che offrono lo stesso servizio senza essere nelle blocklist. Qualunque playbook di sicurezza ragionevolmente aggiornato elenca decine di provider equivalenti, e mantenere una lista di blocco al passo è una corsa persa.

Si rompe la conversazione tra IT e il resto del business. La persona che stava usando il modello per qualcosa di legittimo (riassumere una email lunga, redigere una risposta a un cliente, fare debug di un blocco di codice) inizia a vedere l’IT come un ostacolo e smette di chiedere strumenti. L’organizzazione perde visibilità su esigenze reali che una soluzione aziendale avrebbe potuto coprire.

L’istinto di bloccare nasce da un buon posto. Lo capisco, perché l’ho vissuto nella mia carriera. Quando appare un rischio nuovo e ancora non sappiamo come misurarlo, la prima reazione è tagliare il flusso. Quel riflesso presume che il comportamento si fermi quando lo strumento smette di funzionare. Con gli LLM pubblici, non è più vero.

Tre rischi concreti dello Shadow AI nella tua organizzazione

Prima di pensare ai controlli, conviene dare un nome a ciò che è in gioco.

Fuga di dati sensibili. Il più ovvio. Un’analisi di proposta commerciale con nomi di clienti, una conversazione con il legale che incolla clausole di contratto, un frammento di codice con credenziali hardcoded che qualcuno vuole “ripulire” prima di pusharlo. Ognuno di questi prompt può finire ad addestrare un modello pubblico o restare nei log del provider.

Decisioni basate su allucinazioni. Un LLM può generare risposte che sembrano corrette e non lo sono. Se l’output viene copiato senza revisione in una proposta, in un report regolamentare o in una raccomandazione al cliente, l’errore si propaga senza tracciabilità. Il danno viene dalla catena di revisione che non era progettata per output di IA.

Esposizione normativa. GDPR, ISO 27001, NIS2 e le normative locali di ciascun paese. Tutte richiedono controllo sul ciclo di vita del dato. Un programma di compliance serio deve poter rispondere, davanti a un auditor, quali dati sono usciti dall’organizzazione, dove sono andati e con quale base legale. Quando il flusso è Shadow AI, la risposta è “non lo sappiamo,” e questo è già un rilievo.

Dettaglio dall'alto di due mani su una scrivania di legno che disegnano un diagramma di flusso su un quaderno di carta con penna nera: nodi tondi collegati da frecce curve, due frecce evidenziate con un marcatore ambrato; ai margini una tazza di caffè e note adesive colorate

Quali controlli funzionano davvero contro lo Shadow AI?

La domanda che faccio ai team con cui lavoriamo è un’altra. Non “come blocchiamo,” ma “quali canali progettiamo perché l’uso dell’IA avvenga dove abbiamo visibilità.”

Policy accessibile e specifica. Una pagina breve, nel linguaggio del collaboratore, che dice cosa si può incollare in un LLM e cosa no. Tre esempi concreti valgono più di dieci pagine di legalese. Se la policy vive in un’intranet che nessuno legge, la policy non esiste.

Identità e strumento aziendale. Quando l’organizzazione offre un canale approvato (la versione enterprise di un provider con DPA firmato, o un modello sulla propria infrastruttura) connesso al SSO aziendale con log d’uso, gran parte dello Shadow AI sparisce da sola. Le persone preferiscono lo strumento ufficiale quando quello ufficiale funziona e rispetta il loro flusso.

Concienciazione nel momento del rischio. Qui entra lo spazio in cui la piattaforma di awareness lavora ogni giorno. La formazione tradizionale, il modulo annuale da 30 minuti, non parla al collaboratore che proprio adesso sta per incollare un frammento di contratto in una chat. Quello che funziona sono i nudge contestuali, i micro-richiami che compaiono quando il comportamento a rischio sta per accadere, e le simulazioni specifiche che allenano il riflesso di fermarsi prima di incollare. Su come si allena quel riflesso abbiamo scritto in Cybersecurity Awareness: perché l’IA non può sostituire la guida umana e sul ruolo dei nudge in cybersecurity.

Rilevamento che dialoga con il comportamento. Tutto questo livello funziona meglio quando i segnali di SIEM, DLP e programma di awareness si parlano. Se il tuo DLP rileva un evento di paste massivo verso un dominio esterno, quell’evento può attivare un modulo educativo di un minuto su Shadow AI consegnato a quella persona specifica. Il comportamento umano è il pezzo che il tuo SIEM non stava vedendo, e l’awareness contestuale chiude quel loop.

Dove si inserisce una piattaforma come SMARTFENSE

Quello che vediamo nei programmi che funzionano è uno schema. La piattaforma di awareness non compete con il firewall né con il DLP. È il livello che si connette a quei sistemi via API, ingerisce i loro segnali e traduce un evento tecnico in un intervento educativo pertinente per la persona coinvolta.

In SMARTFENSE progettiamo per quello stack. L’awareness viene assegnata in base al comportamento reale, non solo per ruolo o anzianità. Quando l’organizzazione ha già cataloghi sull’uso sicuro dell’IA generativa (qualcosa che nell’ultimo anno è passato da nice-to-have ad atteso dagli audit), la piattaforma li attiva dove servono, nella lingua del collaboratore, nel momento del rischio.

Da solo questo non risolve lo Shadow AI. Quello che fa è trasformare ogni incidente minore in un punto di apprendimento per quella persona e, in aggregato, per il resto del programma. Dopo qualche mese, l’organizzazione ha quello che prima mancava. Una mappa reale di quali aree usano quali strumenti, quali tipi di dati sono a rischio, dove la formazione sta spostando il comportamento e dove no.

Tre passi da iniziare questa settimana

Se la tua organizzazione non ha ancora una posizione formale sullo Shadow AI, ci sono tre cose che puoi risolvere senza grandi progetti.

Parla con il tuo team senza copione. Chiedi chi sta usando cosa, per quali attività, con quali dati. La fotografia che esce da quella conversazione di solito sorprende ed è l’input più utile per la policy che verrà dopo.

Scrivi una prima versione della policy, breve, con esempi. Non aspettare il documento perfetto, perché mentre il documento perfetto viene redatto, i dati stanno già uscendo.

Apri la conversazione con la piattaforma di awareness su come il tema entra nel catalogo del prossimo trimestre. Se ancora non hai una piattaforma, questo è un buon punto di partenza per parlare con noi su come iniziare.

Bloccare ChatGPT non risolve lo Shadow AI. Progettare i canali, sì.

Mauro Sánchez

CTO de SMARTFENSE, lidera los equipos de ingeniería y desarrollo. Especialista en materia de ciberseguridad e infraestructura, siendo el encargado de definir y concretar las integraciones y alianzas tecnológicas estratégicas de SMARTFENSE con diferentes soluciones. Más de 20 años avalan su experiencia en la toma de decisión e implementación de medidas de seguridad y tecnología.

Lascia un commento