Imagem de Freepik
Até 2027, os agentes de Inteligência Artificial (IA) reduzirão em 50% o tempo necessário para explorar as exposições de contas, de acordo com o
Gartner, Inc. “A apropriação de contas (Account takeover - ATO) continua sendo um vetor de ataque persistente, pois as credenciais de autenticação fracas, como senhas, são coletadas por diversos meios, incluindo violações de dados,
phishing, engenharia social e malware”, diz
Jeremy D'Hoinne, Vice-Presidente e Analista do Gartner. “Os invasores, então, utilizam
bots para automatizar uma série de tentativas de login em diversos serviços, na esperança de que as credenciais tenham sido reutilizadas em várias plataformas.”
Os agentes de IA irão viabilizar a automação de mais etapas na apropriação de contas, desde a engenharia social baseada em vozes falsas (
deepfake) até a automação de ponta a ponta de abuso de credenciais de usuários.
Por conta disso, fornecedores lançarão produtos web, aplicativos, APIs (Interface de Programação de Aplicativos) e canais de voz para detectar, monitorar e classificar interações envolvendo agentes de IA.
“Diante dessa ameaça em evolução, os líderes de
segurança devem acelerar a mudança para uma autenticação multifator (MFA) resistente a
phishing e sem senha”, afirma
Akif Khan, Vice-Presidente e Analista do Gartner. “Para os casos de uso de clientes, em que os usuários podem escolher entre opções de autenticação, os eduque e incentive a migrar de senhas para chaves de acesso (
passkeys) multidispositivo, quando apropriado.”
Defendendo-se contra a ascensão e expansão dos ataques de engenharia social Além da apropriação de contas, a engenharia social habilitada por tecnologia representará uma ameaça significativa à segurança cibernética corporativa. O Gartner prevê que, até 2028, 40% dos ataques de engenharia social terão como alvo tanto executivos e quanto a força de trabalho em geral. Os atacantes agora estão combinando táticas de engenharia social com técnicas de realidade falsa, como
deepfake de áudio e vídeo, para enganar funcionários durante chamadas.
Embora apenas alguns casos de grande repercussão tenham sido reportados, esses incidentes ressaltaram a credibilidade da ameaça e resultaram em perdas financeiras substanciais para as empresas que foram vítimas dela. O desafio de detectar
deepfakes ainda está em estágio inicial, especialmente quando aplicados às diversas superfícies de ataque de comunicações de voz e vídeo em tempo real entre pessoas em diferentes plataformas.
“As empresas precisarão acompanhar as mudanças do mercado e adaptar procedimentos e fluxos de trabalho para melhor resistir a ataques que utilizam técnicas de realidade falsa”, diz
Manuel Acosta, Diretor Analista Sênior do Gartner. “Educar os funcionários sobre o cenário de ameaças em evolução, com treinamentos específicos para engenharia social com
deepfakes, é uma etapa fundamental.”
Temas como esse e outros que exploram o cenário em evolução de riscos e estratégias, além de
insights práticos sobre como lidar com os desafios de ambientes cibernéticos cada vez mais complexos serão destaque na
Conferência Gartner Segurança & Gestão de Risco, que será realizada nos dias 05 e 06 de agosto, em São Paulo. Mais informações estão disponíveis em:
https://www.gartner.com/pt-br/conferences/la/security-risk-management-brazil Os clientes do Gartner podem obter mais informações no relatório
"Predicts 2025: Navigating Imminent AI Turbulence for Cybersecurity." Aprenda a avaliar assistentes de IA de segurança cibernética em
How to Evaluate Cybersecurity AI Assistants.
Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
MARIANA MIRRHA SANTOS
[email protected]