As deepfakes deixam de ser curiosidade digital e passam a representar uma ameaça real e autônoma
Relatório de Segurança em IA 2025 da Check Point Software revela avanço tecnológico e comercialização de ferramentas de deepfake em tempo real
JULIANA VERCELLI
05/08/2025 14h52 - Atualizado há 8 horas
Imagem ilustrativa - Divulgação Check Point Software
O Relatório de Segurança em IA 2025, publicado pela Check Point Research (CPR), divisão de inteligência em ameaças da Check Point Software, aponta que a tecnologia de deepfakes alcançou um novo patamar de maturidade, combinando realismo, automação e ampla disseminação em fóruns da dark web e marketplaces clandestinos. Em um cenário em que a linha entre realidade e ficção digital se dissolve, os ataques baseados em deepfakes estão mais comuns, personalizados e eficazes, colocando em risco desde usuários individuais até grandes corporações. Os pesquisadores da Check Point Software apontam no relatório que mais de US$ 35 milhões em perdas foram atribuídos a fraudes envolvendo vídeos deepfakes em apenas dois casos de grande repercussão no Reino Unido e no Canadá. Ferramentas de voz geradas por IA já são amplamente utilizadas em golpes de sextorsão, personificação de CEOs e sequestros falsos — como no caso registrado na Itália, onde criminosos se passaram pelo Ministro da Defesa em uma chamada ao vivo para extorquir contatos de alto perfil. No Brasil, houve o caso envolvendo sete adolescentes responsabilizados por manipulação de imagens em Maceió (AL) criando deepfake contra colegas de escola no ano passado. O avanço da automação torna essa ameaça ainda mais preocupante. Sistemas de telefonia movidos por IA, com preço médio de US$ 20 mil, são capazes de imitar qualquer voz, em qualquer idioma, em múltiplas conversas simultaneamente, sem a necessidade de um operador humano. Essas soluções já estão sendo comercializadas abertamente na dark web e marketplaces do Telegram. A evolução da ameaça: do estático ao autônomo Os pesquisadores da Check Point Software delinearam ainda um “Espectro de Maturidade da Deepfake”, destacando como a IA generativa evoluiu da criação de conteúdo estático e que, em breve, alcançará agentes autônomos que conduzem conversas ao vivo por vídeo com alvos desavisados: Tipo de geração | Nível de tecnologia | Exemplo de caso de uso |
Offline | Roteiros e mídia pré-renderizados | E-mails de phishing, vídeos de personificação |
Tempo real | Troca de rosto ao vivo, modulação de voz | Chamadas de vídeo falsas com diretores financeiros ou CFOs, golpes com fundos de emergência |
Autônomo | Agentes de IA interativos gerenciando chats ao vivo | Falsificação de identidade em tempo real em múltiplas plataformas simultaneamente |
Atualmente, as ferramentas maliciosas mais avançadas são impulsionadas por LLMs (Grandes Modelos de Linguagem) como DeepSeek e Gemini, e por modelos personalizados como WormGPT e GhostGPT. Além de criar conteúdo, essas IAs conseguem adaptar tom e linguagem com base nas respostas das vítimas, conduzindo conversas dinâmicas com alto nível de sofisticação. Deepfakes acessíveis: a democratização do cibercrime O acesso a essas tecnologias não está mais restrito a grupos de elite do cibercrime. Qualquer ator mal-intencionado, mesmo com pouca habilidade técnica, pode adquirir ferramentas eficazes, como: - Ferramentas de clonagem de voz como ElevenLabs conseguem gerar uma voz convincente em menos de dez minutos a partir de amostras curtas de áudio.
- Plugins de troca de rosto para vídeo ao vivo estão disponíveis em mercados clandestinos a partir de algumas centenas de dólares.
- Uma suíte de phishing movida por IA, chamada GoMailPro, foi abertamente anunciada no Telegram por US$ 500/mês, com suporte integrado ao ChatGPT.
- Kits de comprometimento de e-mail corporativo, como o “Business Invoice Swapper”, escaneiam caixas de entrada e alteram automaticamente detalhes de faturas usando IA – escalando fraudes com intervenção humana quase nula.
Para os especialistas, o cibercrime terceirizou a criatividade para as máquinas e mesmo atacantes com poucos recursos conseguem lançar operações sofisticadas em larga escala. Quando o real e o falso se confundem O FBI já alertou que imagens, vídeos e vozes geradas por IA estão minando formas tradicionais de confiança e verificação. De golpes em entrevistas de emprego com troca de rosto em tempo real a conferências falsas com executivos, a linha entre ficção e realidade digital está se apagando. As equipes de segurança não podem mais confiar apenas na intuição ou em verificações visuais: - Vozes reais e geradas por IA já são indistinguíveis.
- Deepfakes de áudio já são método comum em campanhas de engenharia social em larga escala.
Como se proteger Para ajudar as organizações a se protegerem, as soluções da Check Point Software oferecem proteção completa para todos os tipos de arquivos, sistemas operacionais e superfícies de ataque, atuando de forma proativa para: - Detectar e bloquear ameaças geradas por IA, como mídias falsas e cargas de phishing
- Isolar comportamentos suspeitos ligados a agentes de IA autônomos
- Neutralizar malwares incorporados em arquivos deepfake ou utilizados para sua entrega
Aliadas à conscientização dos usuários e aos princípios de Confiança Zero (ou Zero Trust), essas soluções representam uma defesa essencial diante de adversários cada vez mais autônomos, criativos e persistentes. À medida que deepfakes são geradas por demanda, impulsionadas por modelos de mercado e operacionalizadas em escala, organizações precisam deixar de tratá-las como curiosidade tecnológica e enfrentá-las como um risco real e crescente. Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
JULIANA VERCELLI
[email protected]
FONTE: https://www.checkpoint.com/pt/