Deepfake in azienda: come allenare un riflesso

Vista de tres cuartos desde atrás de una persona sentada en una mesa de cocina con luz cálida de tarde, comparando una fotografía impresa de un retrato con la imagen del mismo retrato en la pantalla de un smartphone

Deepfake in azienda: come allenare un riflesso

Un paio d’anni fa, quando in azienda qualcuno parlava di deepfake, pensava quasi sempre a un caso molto preciso: il video manipolato di un CEO, la voce clonata in una telefonata al CFO. Era una preoccupazione della direzione, legata a persone con visibilità pubblica e potere di firma. Il resto dell’organizzazione poteva proseguire la propria giornata senza che il tema occupasse troppo spazio.

Quella mappa è invecchiata. L’IA generativa è passata dall’essere un evento straordinario a stare dentro flussi in cui ognuno di noi prende decisioni quotidiane: un’assunzione, un acquisto, una raccomandazione che arriva da un profilo che sembra affidabile. E il nostro riflesso, quello vecchio, è ancora lo stesso. Se l’immagine è impeccabile, diamo per scontato che sia reale. Ed è proprio questo che la nuova generazione di frodi ha imparato a sfruttare.

Cosa facciamo di fronte a questo cambiamento? La prima cosa che facciamo di solito è la mossa più naturale nella formazione aziendale, cioè aggiungere un altro modulo. Più articoli, più bullet, più spiegazioni su come funziona l’IA generativa. La persona finisce per saperne di più sull’argomento ma, al momento di decidere, torna a fidarsi di ciò che vede, ovviamente.

Quello che dobbiamo allenare è un riflesso

C’è un punto, qui, che vale la pena guardare con calma. Le persone tendiamo a prendere decisioni rapide, quasi automatiche, quando ciò che abbiamo davanti ci sembra familiare. Davanti a un’immagine perfetta, a una voce riconoscibile o a un profilo curato, andiamo in pilota automatico. Per questo, quando l’avversario controlla la qualità dell’immagine, la battaglia per riconoscere il falso a occhio nudo è persa in partenza.

Quello che dobbiamo installare è un’altra abitudine: la capacità di non decidere mai sulla base di un’immagine soltanto. Detta così sembra semplice, ma è un cambiamento profondo nel comportamento. Significa mettere un istante di dubbio dove prima c’era una fiducia “cieca”. E un riflesso del genere non si cambia semplicemente leggendo. Si cambia vivendo l’errore una volta, in un ambiente in cui sbagliare non costa nulla.

Tutto comincia dalla diagnosi

Prima di proporre nuove abitudini a qualcuno, conviene sapere cosa fa oggi. Quando vede una foto profilo su una rete professionale, la ingrandisce? Fa una ricerca inversa? Davanti a un’offerta scontata, legge la URL prima di cliccare? Davanti a una chiamata inattesa del “suo direttore” che chiede un bonifico urgente, conferma per un altro canale prima di muoversi?

Senza sapere da dove parte oggi questa persona, qualsiasi programma finisce per dare per scontata una lacuna che forse non è quella reale. La diagnosi iniziale serve proprio a questo: misura l’abitudine per calibrare poi il contenuto su ciò che effettivamente fa o non fa. Funziona più come una fotografia del punto di partenza che come un questionario di valutazione.

Poi, esporre

Una volta che sappiamo come decide oggi la persona, il passo successivo non è raccontargli più cose. È metterla davanti a una decisione, in un ambiente sicuro, e lasciare che sbagli. L’errore vissuto in prima persona riesce a installare il dubbio dove prima c’era una fiducia automatica.

Da lì in poi, sì, arriva l’informazione su come funziona l’IA, su quali passaggi di verifica hanno senso e su quali segnali guardare. Ma quell’informazione arriva quando la persona ha già capito, sulla propria pelle, che il suo occhio non basta. Leggerla dopo aver sbagliato è molto diverso che leggerla a freddo.

Il loop si chiude con la misurazione del riflesso

La fine del percorso non può essere un certificato di “modulo completato”. Deve essere una misurazione del riflesso nuovo: ora riconosce i segnali di allerta quando compaiono?, sa cosa fare di fronte ad essi?, segnala? Confrontata con la diagnosi iniziale, quella misurazione restituisce a chi guida il programma qualcosa di più interessante di una percentuale di completamento. Restituisce una curva di cambiamento, che è ciò che conta davvero.

Come si vive questo ciclo dall’esperienza del collaboratore?

C’è una sfida molto semplice che illustra bene l’effetto. Compaiono due immagini affiancate e la consegna è scegliere quale è stata generata con l’IA. La maggior parte delle persone sbaglia. Quel singolo errore fa, in modo quasi immediato, quello che trenta minuti di teoria non riescono a fare: installa il dubbio dove prima c’era una fiducia piena.

Schermata della sfida Reale o IA: una fotografia di una persona che abbraccia un gatto, con due pulsanti sotto per scegliere tra Reale o Generato con IA

In un’altra proposta, la persona entra in una conversazione che si apre passo dopo passo. Ogni risposta apre o chiude porte, condivide un dato e la conversazione si muove, lo trattiene e la conversazione si sposta altrove. Quando finisce, vede il panorama completo di ciò che è successo, le decisioni che hanno aperto rischio e quelle che lo hanno chiuso. Quello che impara assomiglia più a una sensazione che a una regola. Quando una conversazione comincia a “tirarti” e da dove.

Esiste anche una versione più ludica dello stesso principio, portata al formato di un videogioco di pochi minuti, in cui ogni decisione ha una conseguenza visibile e un feedback immediato. Nel tempo che servirebbe per leggere un’infografica, la persona attraversa diversi errori controllati e inizia a registrare, quasi senza accorgersene, il riflesso nuovo.

Card del videogioco Reale o IA? del catalogo SMARTFENSE, con l'immagine divisa tra una metà fotografica e una metà pixelata generata dall'IA, etichetta Videogioco, durata 3 minuti e difficoltà media

Consapevolezza che scala con la curva dell’IA

Se quest’ultimo periodo ci ha insegnato qualcosa è che l’IA generativa non resterà ferma ad aspettare che la sicurezza la raggiunga. Qualsiasi indicatore visibile che impariamo oggi può invecchiare rapidamente. Per questo, una formazione che vive come un evento puntuale una volta all’anno smette di avere senso. La consapevolezza funziona come un’infrastruttura viva, sostenuta nel tempo e connessa al contesto in cui il rischio compare davvero.

Quello che non muta così in fretta è il riflesso. L’abitudine di fermarsi, chiedere e verificare prima di decidere continua a funzionare anche quando l’immagine migliora, anche quando la voce si affina, anche quando il profilo del contatto sembra impeccabile. Ed è proprio questo che il metodo pedagogico punta ad allenare, deepfake dopo deepfake, decisione dopo decisione.

I segnali ci sono, basta sapere dove guardare e che domande farsi. Se vuoi vedere come questo approccio si sta applicando alla famiglia di minacce aperta dall’IA generativa, ti invitiamo a scoprire la piattaforma e a fare una chiacchierata con noi su come si traduce nel tuo programma.

Carolina Carmelé

Creadora de contenidos con amplia experiencia en ciberseguridad, tecnología de la información y concienciación en seguridad. Desarrolla y gestiona materiales educativos claros, atractivos y eficaces, utilizando formatos creativos para conectar con audiencias diversas.

Lascia un commento