Brasileiros não identificam deepfakes, alerta pesquisa em 2026

Apesar da alta exposição a vídeos e imagens manipulados por inteligência artificial (IA), conhecidos como deepfakes, a maioria dos brasileiros ainda enfrenta grande dificuldade em identificá-los, conforme revelam estudos recentes. O cenário de vulnerabilidade digital preocupa especialistas e autoridades, especialmente diante da proximidade das eleições de 2026 e do crescente uso da tecnologia em fraudes financeiras e disseminação de desinformação.
Exposição Massiva e Baixa Capacidade de Detecção
Um levantamento da Veriff, empresa especializada em verificação de identidade digital, aponta que 80% dos brasileiros já tiveram contato com deepfakes na internet, um índice superior à média global de 60%. Contudo, a capacidade de detecção não acompanhou essa exposição: apenas 29% dos entrevistados conseguem reconhecer corretamente um vídeo falso, enquanto 35% identificam adequadamente conteúdos autênticos. Essa discrepância evidencia a velocidade da evolução tecnológica e a crescente sofisticação dos deepfakes.
Até poucos anos atrás, sinais visuais como dedos extras, distorções em membros ou falhas na iluminação serviam como alertas para o olho humano. No entanto, o avanço da tecnologia e o surgimento de novos geradores de vídeo, como o Seedance 2.0 da ByteDance e o NanoBanana 2 do Google, elevaram o grau de realismo das produções sintéticas, eliminando essas falhas óbvias e tornando-as praticamente indistinguíveis da realidade para a percepção humana. “O olho humano já não consegue distinguir com segurança o que é real”, afirma Andrea Rozenberg, diretora de mercados emergentes da Veriff.
Veja também:
Deepfakes como Ferramenta de Fraude e Desinformação
Ameaça às Eleições de 2026
O período eleitoral de 2026 é um dos principais focos de preocupação. O Tribunal Superior Eleitoral (TSE) já endureceu as regras para o uso de inteligência artificial nas campanhas, exigindo que materiais de propaganda eleitoral que utilizem imagens, vozes ou conteúdos manipulados informem explicitamente que foram produzidos ou alterados por IA, inclusive em versões impressas, e indiquem a tecnologia utilizada. A proibição se estende à publicação, republicação ou impulsionamento de conteúdos novos gerados por IA nas 72 horas anteriores ao pleito e 24 horas posteriores.
A Agência Brasileira de Inteligência (Abin) alertou que a contaminação do debate público por deepfakes será inevitável, dada a velocidade de criação e disseminação de desinformação, que supera a capacidade de verificação. Ministros do Superior Tribunal de Justiça (STJ) também destacam que a IA e a disseminação de deepfakes representam um desafio crescente para a integridade do processo eleitoral, exigindo mecanismos rápidos de identificação e proteção do eleitor.
Crescimento de Golpes Financeiros
O uso de deepfakes em fraudes financeiras disparou no Brasil. Dados da Polícia Federal indicam que, em 2025, 42,5% das fraudes financeiras registradas no país já contaram com ferramentas de IA, principalmente deepfakes. O crescimento dos vídeos e áudios falsos gerados por IA para fins criminosos foi de 830% entre 2024 e 2025, colocando o Brasil na liderança desse tipo de crime na América Latina e resultando em prejuízos que já alcançam bilhões de reais. Golpistas utilizam a tecnologia para simular executivos, celebridades e até parentes próximos, visando autorizar transferências ou capturar credenciais bancárias.
Violência Digital e Deepfakes Sexuais
Deepfakes têm sido empregados também em casos de violência digital, com um crescimento notável de deepfakes sexuais. Um levantamento da SaferNet Brasil identificou 173 vítimas de deepfakes sexuais em instituições de ensino públicas e privadas em dez estados brasileiros em 2025, sendo todas as vítimas mulheres, incluindo alunas e professoras. A produção de conteúdo sexual falsificado expõe mulheres a chantagem, humilhação pública e sofrimento psicológico, contribuindo para o aumento da violência de gênero no ambiente digital.
Desdobramentos e Caminhos para a Proteção
Diante do cenário, há um esforço conjunto para combater a proliferação de deepfakes e seus impactos. O governo federal instituiu um grupo de trabalho para avaliar o impacto das deepfakes e estudar medidas para proteção de direitos fundamentais e contenção de fraudes e golpes.
Especialistas e autoridades apontam para a necessidade de diversas ações:
- Alfabetização Midiática: É considerada uma “vacina contra a desinformação”, essencial para que os cidadãos desenvolvam pensamento crítico, desconfiem de conteúdos que despertem emoções fortes ou tragam pedidos urgentes, e verifiquem a origem das informações.
- Atualização Tecnológica: Detectores de deepfakes precisam ser constantemente atualizados para acompanhar a rápida evolução dos modelos de IA.
- Regulamentação e Colaboração: Além das regras do TSE, discute-se no Congresso o “Marco Legal da Inteligência Artificial”, que prevê multas e suspensão de sistemas para uso indevido. A chefe de compliance em IA da Sumsub, Natália Fritzen, destaca a importância da ação conjunta entre empresas de tecnologia e autoridades para proteger o processo democrático.
A disseminação de conteúdos falsos criados com IA mais que triplicou entre 2024 e 2025 no Brasil, com um crescimento de 308%, e passou a ser empregada de forma estratégica como arma política, além dos golpes digitais. A luta contra os deepfakes exige uma abordagem multifacetada, combinando educação, tecnologia e legislação, para garantir um ambiente digital mais seguro e confiável.
