Dicas para identificar conteúdo falso na internet
Professor da ETT/UniSociesc fala sobre deepfakes e o uso indevido da Inteligência Artificial na produção de vídeos hiper-realistas
GRAZIELA LINDNER
25/08/2025 09h50 - Atualizado há 12 horas
Divulgação ETT/Freepik
Imagine assistir a um vídeo do presidente de um país declarando guerra, de um médico renomado recomendando um medicamento experimental, de uma celebridade envolvida em um escândalo ou de um político acusando outro de corrupção… e tudo não passar de uma mentira convincente. Essa é a realidade dos deepfakes — vídeos, imagens ou áudios hiper-realistas criados por Inteligência Artificial (IA) para manipular digitalmente pessoas em situações que nunca ocorreram. A tecnologia por trás dos deepfakes utiliza redes neurais avançadas, como as GANs (Generative Adversarial Networks), que aprendem a partir de milhares de imagens e horas de áudio de uma pessoa para replicar seus traços com precisão impressionante. Especialista em Big Data e Ciência de Dados, o professor de Informática da ETT – instituição do ecossistema UniSociesc -, Márcio José Käms Senhorinha explica que as técnicas mais comuns são a troca de rosto (face swap), a clonagem de voz (voice synthesis) e a manipulação de gestos (puppetry). “Os deepfakes já foram utilizados em situações que impactaram a política, o entretenimento e até a segurança pública.” Exemplos não faltam. Em 2022, um vídeo falso do presidente ucraniano “pedindo rendição” circulou na internet. Em 2021, o TikTok foi tomado por vídeos ultrarrealistas de um “falso Tom Cruise”, gerados por IA, que causaram grande polêmica. Também não são raros os golpes milionários contra empresas após vozes clonadas de CEOs autorizarem transferências ilegais. O Starling Bank, banco digital britânico, chegou a alertar clientes sobre fraudadores capazes de replicar a voz de alguém a partir de apenas três segundos de áudio encontrado online. Com a voz clonada, criminosos se passam por familiares ou colegas da vítima em ligações telefônicas para solicitar dinheiro. Riscos da desinformação sobre crimes virtuais A falta de conhecimento sobre a manipulação digital de vídeos e áudios traz riscos sérios, como: - manipulação política e fake news, capazes de gerar crises e influenciar eleições;
- golpes financeiros e sequestros virtuais, com o uso de vozes clonadas;
- pornografia de vingança, com manipulação de fotos ou vídeos íntimos.
“O deepfake provoca uma crise de credibilidade, levando a sociedade a desconfiar de qualquer conteúdo audiovisual”, afirma o professor da ETT, Márcio José Käms Senhorinha. Regulamentação e uso ético À medida que os deepfakes se tornam mais acessíveis, governos e empresas correm para estabelecer limites. A União Europeia e os Estados Unidos discutem leis contra deepfakes maliciosos e o uso de marcas d’água digitais invisíveis (watermarking) para identificar mídias sintéticas. No Brasil, algumas legislações já oferecem suporte. A Lei Geral de Proteção de Dados (LGPD) regula o uso de dados pessoais e pode ser aplicada em casos de imagens ou vozes usadas sem consentimento. Já o Código Penal pode ser acionado em crimes de falsidade ideológica, difamação, injúria, fraude ou uso indevido de identidade. No contexto eleitoral, discute-se a responsabilização de criadores e disseminadores de deepfakes para evitar interferência em eleições. Plataformas digitais também vêm sendo pressionadas a remover rapidamente conteúdos nocivos. De acordo com o professor Márcio José Käms Senhorinha, os deepfakes representam um divisor de águas na era digital: “Enquanto revolucionam a criação de conteúdo, desafiam nossa noção de verdade. Por isso, debates sobre regulamentação, segurança digital e ética na IA são fundamentais para impedir que a tecnologia seja usada como arma.” Como identificar um deepfake? Detectar um deepfake nem sempre é simples, mas alguns sinais podem ajudar: - Inconsistências faciais – piscadas irregulares, assimetrias sutis, movimentos dos olhos fora de sincronia.
- Descompasso entre áudio e imagem – falhas na sincronização labial.
- Textura facial artificial – pele excessivamente lisa, ausência de detalhes naturais.
- Iluminação incoerente – sombras desalinhadas ou cabelo com contornos flutuantes.
- Falhas de movimento – travamentos em expressões faciais.
- Bordas estranhas – halos ou áreas desfocadas ao redor da cabeça.
- Metadados duvidosos – ausência de informações sobre data, hora ou dispositivo de captura.
- Alterações bruscas – mudanças repentinas de voz ou cenário.
- Verificação cruzada – checar fontes confiáveis ou sites de fact-checking.
- Cautela com vídeos inesperados – especialmente se forem sensíveis, polêmicos ou alarmistas.
- Boas práticas – confirmar informações em fontes independentes, consultar especialistas e desconfiar de conteúdo fora de contexto.
Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
GRAZIELA JANAINA LINDNER DE SOUZA
[email protected]
FONTE: https://www.escolatupy.com.br/