Deepfakes na empresa: como treinar um reflexo

Vista de tres cuartos desde atrás de una persona sentada en una mesa de cocina con luz cálida de tarde, comparando una fotografía impresa de un retrato con la imagen del mismo retrato en la pantalla de un smartphone

Deepfakes na empresa: como treinar um reflexo

Há cerca de dois anos, quando alguém numa empresa falava de deepfake, pensava quase sempre num caso muito concreto: o vídeo manipulado de um CEO, a voz clonada numa chamada para o CFO. Era uma preocupação da direção, ligada a pessoas com visibilidade pública e poder de assinatura. O resto da organização podia continuar o seu dia sem que o tema lhe ocupasse demasiado espaço.

Esse mapa ficou desatualizado. A IA generativa passou de evento extraordinário a estar presente em fluxos onde qualquer um de nós toma decisões do dia a dia: uma contratação, uma compra, uma recomendação que vem de um perfil que parece de confiança. E o nosso reflexo, o antigo, continua a ser o mesmo. Se a imagem parece impecável, assumimos que é real. É exatamente isso que a nova geração de fraudes aprendeu a explorar.

O que fazemos perante esta mudança? A primeira coisa que costumamos fazer é o gesto mais natural na formação corporativa, ou seja, acrescentar mais um módulo. Mais artigos, mais bullets, mais explicações sobre como funciona a IA generativa. A pessoa acaba a saber mais sobre o tema mas, na hora de decidir, volta a confiar no que vê, claro.

O que precisamos de treinar é um reflexo

Há aqui um ponto que vale a pena olhar com calma. As pessoas tendemos a tomar decisões rápidas, quase automáticas, quando o que temos à frente parece familiar. Perante uma imagem perfeita, uma voz reconhecível ou um perfil cuidado, vamos em piloto automático. Por isso, quando o adversário controla a qualidade da imagem, a batalha por detetar o falso a olho nu está perdida à partida.

O que precisamos de instalar é outro hábito: a capacidade de nunca decidir só a partir de uma imagem. Posto assim soa simples, mas é uma mudança profunda no comportamento. É colocar um instante de dúvida onde antes havia uma confiança “cega”. E um reflexo desse tipo não se muda simplesmente a ler. Muda-se a viver o erro uma vez, num ambiente onde enganar-se não custa nada.

Tudo começa pelo diagnóstico

Antes de propor novos hábitos a alguém, convém saber o que faz hoje. Quando vê uma fotografia de perfil numa rede profissional, amplia? Faz uma pesquisa inversa? Perante uma oferta com desconto, lê o URL antes de carregar? Perante uma chamada inesperada do “seu diretor” a pedir uma transferência urgente, confirma por outro canal antes de avançar?

Sem saber onde está esta pessoa hoje, qualquer programa acaba por assumir uma falha que talvez não seja a real. O diagnóstico inicial cumpre essa função: mede o hábito para depois calibrar o conteúdo sobre aquilo que efetivamente faz ou não faz. Funciona mais como uma fotografia do ponto de partida do que como um questionário avaliativo.

Depois, expor

Uma vez que sabemos como decide a pessoa hoje, o passo seguinte não é contar-lhe mais coisas. É colocá-la perante uma decisão, num ambiente seguro, e deixar que se engane. O erro vivido na primeira pessoa consegue instalar a dúvida onde antes havia uma confiança automática.

A partir daí, sim, chega a informação sobre como funciona a IA, que passos de verificação fazem sentido e que sinais olhar. Mas essa informação chega quando a pessoa já percebeu, no seu próprio corpo, que o seu olho não chega. Ler depois de se ter enganado é muito diferente de ler a frio.

O loop fecha-se com a medição do reflexo

O fim do percurso não pode ser um certificado de “completou o módulo”. Tem de ser uma medição do reflexo novo: agora identifica os sinais de alerta quando aparecem?, sabe o que fazer perante eles?, comunica? Comparada com o diagnóstico inicial, essa medição devolve a quem lidera o programa algo mais interessante do que uma percentagem de conclusão. Devolve uma curva de mudança, que é o que acaba por importar.

Como se vive este ciclo a partir da experiência do colaborador?

Há um desafio muito simples que ilustra bem o efeito. Aparecem duas imagens lado a lado e o pedido é escolher qual foi gerada com IA. A maior parte das pessoas engana-se. Esse único erro faz, de forma quase imediata, o que trinta minutos de teoria não conseguem: instala a dúvida onde antes havia uma confiança plena.

Captura do desafio Real ou IA: uma fotografia de uma pessoa a abraçar um gato, com dois botões abaixo para escolher entre Real ou Gerado com IA

Noutra proposta, a pessoa entra numa conversa que se vai abrindo passo a passo. Cada resposta abre ou fecha portas, partilha um dado e a conversa avança, retém-no e a conversa move-se para outro lado. Quando termina, vê o panorama completo do que aconteceu, as decisões que abriram risco e as que o fecharam. O que se aprende ali aproxima-se mais de uma sensação do que de uma regra. Quando uma conversa começa a “puxar” e por onde.

E existe uma versão mais lúdica do mesmo princípio, levada ao formato de um videojogo de poucos minutos, em que cada decisão tem uma consequência visível e feedback imediato. No tempo que daria para ler uma infografia, a pessoa atravessa vários erros controlados e começa a registar, quase sem dar por isso, o reflexo novo.

Card do videojogo Real ou IA? do catálogo SMARTFENSE, com a imagem dividida ao meio entre uma metade fotográfica e uma metade pixelizada gerada por IA, etiqueta Videojogo, duração 3 minutos e dificuldade média

Sensibilização que escala com a curva da IA

Se algo este último período nos ensinou foi que a IA generativa não vai ficar quieta à espera que a área de cibersegurança a alcance. Qualquer indicador visível que aprendamos hoje pode ficar desatualizado rapidamente. Por isso, uma formação que viva como um evento pontual uma vez por ano deixa de fazer sentido. A sensibilização funciona como infraestrutura viva, sustentada no tempo e ligada ao contexto onde o risco realmente aparece.

O que não muda assim tão depressa é o reflexo. O hábito de fazer uma pausa, perguntar e verificar antes de decidir continua a funcionar mesmo quando a imagem melhora, mesmo quando a voz se afina, mesmo quando o perfil do contacto parece impecável. E é isso que o método pedagógico procura treinar, deepfake após deepfake, decisão após decisão.

Os sinais lá estão, basta saber onde olhar e que perguntas fazer. Se quiseres ver como esta abordagem está a ser aplicada à família de ameaças aberta pela IA generativa, convidamos-te a conhecer a plataforma e a conversar connosco sobre como se traduz no teu programa.

Carolina Carmelé

Creadora de contenidos con amplia experiencia en ciberseguridad, tecnología de la información y concienciación en seguridad. Desarrolla y gestiona materiales educativos claros, atractivos y eficaces, utilizando formatos creativos para conectar con audiencias diversas.

Deixe um comentário