A proliferação dos deepfakes marca um avanço preocupante na sofisticação das fraudes no ambiente corporativo. Esse tipo de golpe já trouxe prejuízos que atingem cifras milionárias, a exemplo de um caso ocorrido em Hong Kong, onde US$ 25 milhões foram desviados após uma reunião virtual com “executivos” falsificados por IA. No Brasil, o cenário é igualmente preocupante, pois o uso malicioso de deepfakes cresceu 830% entre 2022 e 2023, conforme levantamento de empresas especializadas, tornando o país um dos principais alvos na América Latina. "Anos atrás, ninguém poderia se passar pelo executivo de uma empresa em reuniões estratégicas, mas hoje vídeos, áudios e imagens hiper-realistas gerados por inteligência artificial são usados para enganar diretores, CEOs e CFOs, manipulando decisões e simulando ordens financeiras", alerta Alberto Jorge, especialista em cibersegurança e CEO da Trust Control.
Alberto Jorge ressalta ainda que a sofisticação crescente das tecnologias deepfake pode comprometer não só o patrimônio financeiro, mas também a reputação e a confiança institucional das empresas. Para enfrentar essa ameaça, ele recomenda medidas preventivas como autenticação multifator, biometria, treinamentos contínuos e monitoramento constante das redes sociais e da internet para identificar usos indevidos da imagem corporativa. "Estabelecer normas claras e uma cultura organizacional focada em segurança da informação não é mais uma opção, mas uma exigência estratégica", afirma.
Implementar autenticação multifator robusta: qualquer transação crítica, especialmente as financeiras ou que envolvam informações confidenciais, deve exigir múltiplos fatores de autenticação, utilizando um segundo canal seguro.
Treinar continuamente as equipes: o fator humano é o elo mais fraco na segurança cibernética. Por isso, as empresas devem educar seus funcionários, de todos os níveis hierárquicos, sobre o que são deepfakes, como eles funcionam, os perigos que representam e como identificar possíveis tentativas de fraude.
Utilizar tecnologias de detecção e monitoramento com IA: a própria inteligência artificial, que possibilita a criação de deepfakes, também pode ser usada para detectá-los. Ferramentas especializadas analisam vídeos e áudios em busca de sinais de manipulação e podem ser integradas aos sistemas de segurança cibernética da empresa para monitorar padrões incomuns de acesso e comunicação.
Estabelecer protocolos para verificação de identidade e comunicação em vídeo: isso pode incluir a exigência de que os CEOs e outros executivos sigam um roteiro pré-determinado com perguntas de segurança ou ações específicas durante a chamada para provar sua identidade.
Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
Giuliano Villa Nova
[email protected]