Deepfakes e responsabilidade jurídica: o Brasil está preparado para os riscos da IA?
O avanço da IA e os riscos da manipulação digital
MARíLIA BOBATO
26/05/2025 13h28 - Atualizado há 3 semanas
Divulgação
A crescente popularização da inteligência artificial tem impulsionado inovações em diversos setores. No entanto, esse avanço também revela riscos significativos, como a disseminação de conteúdos falsos gerados por IA — os chamados deepfakes. Segundo o Sumsub Fraud Report 2023, o Brasil registrou um aumento de 830% em casos de deepfake em apenas um ano, sendo responsável por quase metade dos casos detectados na América Latina. Já o Relatório Global de Ameaças da ESET apontou um crescimento de 335% no uso de deepfakes por cibercriminosos no segundo semestre de 2024. O que são deepfakes? Deepfakes são conteúdos manipulados digitalmente — vídeos, áudios ou imagens — que simulam com alto grau de realismo a aparência ou voz de uma pessoa. Criados com inteligência artificial, esses materiais podem induzir o público a acreditar que uma pessoa fez ou disse algo que, na realidade, nunca ocorreu. O uso malicioso dessas ferramentas tem gerado impactos preocupantes, como: Propagação de fake news; Fraudes financeiras; Danos à imagem de figuras públicas; Aumento da desinformação. Casos recentes de manipulação de imagem Diversas personalidades públicas brasileiras já foram vítimas de deepfakes. A atriz Giovanna Ewbank teve sua imagem falsamente associada a um procedimento estético. Em julho de 2024, a atriz Paolla Oliveira também denunciou o uso indevido de sua voz e rosto em um vídeo promocional falso. Mais recentemente, a influenciadora Tânia Carvalho foi retratada como usuária de um “chá emagrecedor” para tratar lipedema — quando, na realidade, ela havia relatado publicamente um processo de tratamento envolvendo alimentação, exercícios e cirurgia. Qual a legislação brasileira aplicável? O Brasil ainda não possui uma legislação específica sobre deepfakes. No entanto, o ordenamento jurídico atual permite responsabilizações com base em dispositivos já existentes, como: Estelionato (art. 171, CP) Calúnia (art. 138, CP) Difamação (art. 139, CP) Falsidade ideológica (art. 299, CP) Na esfera cível, é possível pleitear indenizações por danos morais e materiais. Também se discute a responsabilidade de plataformas digitais por hospedarem ou não removerem conteúdos falsos após notificação. A urgência de um marco legal específico A ausência de uma lei que regule especificamente os deepfakes torna a repressão a essa prática mais difícil e lenta. Para a professora Ana Silvia Mancuso, especialista em proteção de dados pelo Insper, a solução começa com educação digital e tecnologia preventiva: “É essencial investir em educação digital para capacitar as pessoas a identificar sinais de manipulação. Além disso, a criação de ferramentas de autenticação de mídia — como o watermarking e o uso de blockchain — pode ajudar a rastrear a origem e validar a autenticidade de conteúdos”. Ela também reforça a necessidade de algoritmos robustos por parte de plataformas e redes sociais para detecção e bloqueio automático de deepfakes. O risco à privacidade e à democracia A disseminação de deepfakes compromete a privacidade, o debate público e até a integridade de processos democráticos. Vídeos manipulados podem influenciar eleições, prejudicar reputações e espalhar desinformação em larga escala. É essencial que o Brasil acompanhe o ritmo das inovações tecnológicas com regulação eficaz, educação digital e investimento em ferramentas de verificação. Enquanto o marco legal específico não chega, cabe às vítimas buscar amparo nas normas existentes e à sociedade civil exigir maior responsabilidade das plataformas e legisladores. Maria Eduarda Calcagnotto Michelon da Luz - bacharel em Direito, atua nas áreas do Direito Civil e Bancário no escritório Alceu Machado Sperb & Bonat Cordeiro. Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
MARILIA SGANZERLA BOBATO
[email protected]