Cibercriminosos avançam no uso de IA para ataques mais rápidos, personalizados e de difícil detecção
Especialistas da Check Point Software alertam sobre a ascensão de ferramentas ofensivas como WormGPT, Xanthorox AI e deepfakes que elevam o nível das ameaças digitais e desafiam a segurança de marcas e dados corporativos em escala global
JULIANA VERCELLI
04/07/2025 14h08 - Atualizado há 10 horas
Imagem ilustrativa - Relatório da Check Point Software
Enquanto a inteligência artificial (IA) transforma a cibersegurança com respostas mais rápidas, precisas e automatizadas, cibercriminosos estão explorando os mesmos avanços para sofisticar seus ataques. Para especialistas da divisão Enterprise Risk Management da Check Point Software é possível perceber a consolidação da IA como ferramenta ofensiva, utilizada por agentes maliciosos para burlar defesas, manipular dados e simular interações humanas com níveis inéditos de realismo. Entre os exemplos mais alarmantes está o fato de os cibercriminosos estarem adotando rapidamente a IA usando grandes modelos de linguagem (LLMs) e IA de agente avançada para criar ataques mais potentes e evasivos. Os especialistas consideram a ascensão de LLMs maliciosos como o WormGPT e o recém-lançado Xanthorox AI. O WormGPT, baseado no modelo GPT-J, foi promovido como uma alternativa "blackhat", com funcionalidades voltadas a atividades ilegais, incluindo treinamento com dados relacionados a malwares. Embora seus criadores tenham encerrado as operações, a disseminação do código mostra que a ameaça persiste. Outros modelos ofensivos, como BurpGPT, PentestGPT, FraudGPT e PassGPT, também vêm ganhando espaço, com planos para lançamentos mais avançados, como o Evil-GPT-Web3. Já o Xanthorox AI, lançado no primeiro trimestre de 2025, representa um marco na sofisticação desses ataques. Trata-se de um sistema autônomo e modular, desenvolvido do zero e operando totalmente offline — o que aumenta sua resiliência e anonimato. A ferramenta é composta por cinco módulos especializados (Xanthorox Coder, V4 Model, Vision, Reasoner Advanced e o Fifth Coordination Module), capazes de automatizar desde a criação de malwares até campanhas de engenharia social e ataques coordenados sem necessidade de supervisão humana. Diferente dos LLMs tradicionais, o Xanthorox é uma IA agente, com capacidade de decisão e adaptação ao ambiente. Impacto direto nas marcas e no consumidor O uso de IA também vem transformando os ataques de phishing. Com o auxílio de prompt injections, cibercriminosos manipulam modelos legítimos para criar e-mails de phishing altamente personalizados e convincentes, lançados com mais frequência e sofisticação. Em 2024, 67,4% dos ataques de phishing no mundo envolveram táticas baseadas em IA, com o setor financeiro entre os principais alvos. A IA permite que os atacantes criem campanhas altamente personalizadas e convincentes, incluindo spear-phishing, deepfakes e técnicas avançadas de engenharia social. Uma pesquisa de 2021 já mostrava que, mesmo com IAs mais antigas, e-mails de spear-phishing gerados por IA atingiam uma taxa de cliques de 60%. Um estudo mais recente, de 2024, apontou que e-mails totalmente gerados por IA, muitas vezes indistinguíveis das comunicações corporativas legítimas, obtiveram uma taxa de cliques de 54%, um aumento de 350% em relação a e-mails de phishing genéricos. Um exemplo real ocorreu em fevereiro de 2024, quando a filial húngara de uma varejista europeia perdeu €15,5 milhões em um ataque do tipo BEC (Business Email Compromise). Utilizando IA Generativa, os cibercriminosos replicaram com precisão o estilo e a urgência de e-mails internos, enganando a equipe financeira. Deepfakes elevam a engenharia social a um novo patamar Além dos e-mails, os ataques estão sendo reforçados por deepfakes — vídeos, áudios e imagens sintéticas criadas por IA para simular pessoas reais. De acordo com a Deloitte, mais de um quarto dos executivos (25,9%) já foram expostos a algum incidente envolvendo deepfakes. Casos emblemáticos no mundo incluem: - Emirados Árabes (2020): um gerente de banco perdeu cerca de US$ 35 milhões após um ataque de phishing com voz sintetizada. A voz do diretor da empresa foi clonada a partir de áudios públicos. E-mails falsos do "diretor" e de um "advogado" tornaram o golpe ainda mais crível.
- Hong Kong (janeiro de 2024): uma multinacional sofreu uma perda de US$ 25 milhões com um golpe via vídeo deepfake. Atacantes simularam o CFO e outros funcionários em uma videoconferência, explorando a dinâmica do grupo para convencer um funcionário da área financeira.
- Reino Unido (maio de 2024): em uma tentativa frustrada, mas preocupante, os atacantes usaram uma conta falsa no WhatsApp, clonagem de voz via IA e vídeos manipulados do YouTube para se passarem por um CEO durante uma reunião no Microsoft Teams, tentando induzir um líder de agência a abrir uma nova empresa para obter fundos e dados pessoais.
- Brasil (junho de 2025): um dos casos emblemáticos e mais recente no país, um grupo criminoso utilizava IA para manipular imagens e burlar a segurança dos bancos – a Polícia Civil da Bahia prendeu um suspeito e apreenderam diversos materiais fraudulentos.
IA também impulsiona a etapa de reconhecimento A IA permite que os atacantes coletem e analisem grandes volumes de dados públicos em tempo real, extraídos de redes sociais, registros oficiais e bancos de dados vazados. Com isso, campanhas de spear-phishing se tornam mais direcionadas e eficazes, explorando vulnerabilidades específicas de cada organização. Modelos como Grok 3 e ChatGPT 4.0 já oferecem recursos de análise de padrões comportamentais e comunicação interna, ajudando atacantes a identificar o melhor momento para agir. Um caso emblemático ocorreu na Índia, no início de 2024: uma grande instituição financeira foi alvo de uma campanha baseada em IA que resultou no roubo de dados sensíveis de clientes. E-mails replicando o estilo de escrita do CEO, criados com dados do LinkedIn e sites corporativos, redirecionaram executivos a um portal interno falso. A Índia registrou um aumento de 175% em ataques de phishing financeiro no primeiro semestre de 2024, com a IA desempenhando papel central. Para os especialistas, isso mostra que não se está lidando mais apenas com códigos maliciosos, mas com sistemas que raciocinam, se adaptam e exploram vulnerabilidades com autonomia; e o modelo defensivo precisa evoluir com a mesma velocidade. Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
JULIANA VERCELLI
[email protected]
FONTE: https://www.checkpoint.com/pt/