As deepfakes deixam de ser curiosidade digital e passam a representar uma ameaça real e autônoma

Relatório de Segurança em IA 2025 da Check Point Software revela avanço tecnológico e comercialização de ferramentas de deepfake em tempo real

JULIANA VERCELLI
05/08/2025 14h52 - Atualizado há 8 horas

As deepfakes deixam de ser curiosidade digital e passam a representar uma ameaça real e autônoma
Imagem ilustrativa - Divulgação Check Point Software
O Relatório de Segurança em IA 2025, publicado pela Check Point Research (CPR), divisão de inteligência em ameaças da Check Point Software, aponta que a tecnologia de deepfakes alcançou um novo patamar de maturidade, combinando realismo, automação e ampla disseminação em fóruns da dark web e marketplaces clandestinos.

Em um cenário em que a linha entre realidade e ficção digital se dissolve, os ataques baseados em deepfakes estão mais comuns, personalizados e eficazes, colocando em risco desde usuários individuais até grandes corporações.


Os pesquisadores da Check Point Software apontam no relatório que mais de US$ 35 milhões em perdas foram atribuídos a fraudes envolvendo vídeos deepfakes em apenas dois casos de grande repercussão no Reino Unido e no Canadá.

Ferramentas de voz geradas por IA já são amplamente utilizadas em golpes de sextorsão, personificação de CEOs e sequestros falsos — como no caso registrado na Itália, onde criminosos se passaram pelo Ministro da Defesa em uma chamada ao vivo para extorquir contatos de alto perfil.

No Brasil, houve o caso envolvendo sete adolescentes responsabilizados por manipulação de imagens em Maceió (AL) criando deepfake contra colegas de escola no ano passado.

O avanço da automação torna essa ameaça ainda mais preocupante. Sistemas de telefonia movidos por IA, com preço médio de US$ 20 mil, são capazes de imitar qualquer voz, em qualquer idioma, em múltiplas conversas simultaneamente, sem a necessidade de um operador humano. Essas soluções já estão sendo comercializadas abertamente na dark web e marketplaces do Telegram.

A evolução da ameaça: do estático ao autônomo

Os pesquisadores da Check Point Software delinearam ainda um “Espectro de Maturidade da Deepfake”, destacando como a IA generativa evoluiu da criação de conteúdo estático e que, em breve, alcançará agentes autônomos que conduzem conversas ao vivo por vídeo com alvos desavisados:

 
Tipo de geração  Nível de tecnologia  Exemplo de caso de uso 
Offline  Roteiros e mídia pré-renderizados E-mails de phishing, vídeos de personificação
Tempo real  Troca de rosto ao vivo, modulação de voz Chamadas de vídeo falsas com diretores financeiros ou CFOs, golpes com fundos de emergência
Autônomo  Agentes de IA interativos gerenciando chats ao vivo Falsificação de identidade em tempo real em múltiplas plataformas simultaneamente


Atualmente, as ferramentas maliciosas mais avançadas são impulsionadas por LLMs (Grandes Modelos de Linguagem) como DeepSeek e Gemini, e por modelos personalizados como WormGPT e GhostGPT. Além de criar conteúdo, essas IAs conseguem adaptar tom e linguagem com base nas respostas das vítimas, conduzindo conversas dinâmicas com alto nível de sofisticação.

Deepfakes acessíveis: a democratização do cibercrime

O acesso a essas tecnologias não está mais restrito a grupos de elite do cibercrime. Qualquer ator mal-intencionado, mesmo com pouca habilidade técnica, pode adquirir ferramentas eficazes, como:
 
  • Ferramentas de clonagem de voz como ElevenLabs conseguem gerar uma voz convincente em menos de dez minutos a partir de amostras curtas de áudio.
  • Plugins de troca de rosto para vídeo ao vivo estão disponíveis em mercados clandestinos a partir de algumas centenas de dólares.
  • Uma suíte de phishing movida por IA, chamada GoMailPro, foi abertamente anunciada no Telegram por US$ 500/mês, com suporte integrado ao ChatGPT.
  • Kits de comprometimento de e-mail corporativo, como o “Business Invoice Swapper”, escaneiam caixas de entrada e alteram automaticamente detalhes de faturas usando IA – escalando fraudes com intervenção humana quase nula.

Para os especialistas, o cibercrime terceirizou a criatividade para as máquinas e mesmo atacantes com poucos recursos conseguem lançar operações sofisticadas em larga escala.

Quando o real e o falso se confundem

O FBI já alertou que imagens, vídeos e vozes geradas por IA estão minando formas tradicionais de confiança e verificação. De golpes em entrevistas de emprego com troca de rosto em tempo real a conferências falsas com executivos, a linha entre ficção e realidade digital está se apagando.

As equipes de segurança não podem mais confiar apenas na intuição ou em verificações visuais:
  • Vozes reais e geradas por IA já são indistinguíveis.
  • Deepfakes de áudio já são método comum em campanhas de engenharia social em larga escala.

Como se proteger

Para ajudar as organizações a se protegerem, as soluções da Check Point Software oferecem proteção completa para todos os tipos de arquivos, sistemas operacionais e superfícies de ataque, atuando de forma proativa para:
 
  • Detectar e bloquear ameaças geradas por IA, como mídias falsas e cargas de phishing
  • Isolar comportamentos suspeitos ligados a agentes de IA autônomos
  • Neutralizar malwares incorporados em arquivos deepfake ou utilizados para sua entrega

Aliadas à conscientização dos usuários e aos princípios de Confiança Zero (ou Zero Trust), essas soluções representam uma defesa essencial diante de adversários cada vez mais autônomos, criativos e persistentes.

À medida que deepfakes são geradas por demanda, impulsionadas por modelos de mercado e operacionalizadas em escala, organizações precisam deixar de tratá-las como curiosidade tecnológica e enfrentá-las como um risco real e crescente.
 

Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
JULIANA VERCELLI
[email protected]


FONTE: https://www.checkpoint.com/pt/
Notícias Relacionadas »