Justiça Eleitoral condena só 1 em 5 casos de deepfake

Justiça Eleitoral Condena Apenas 20% dos Casos de Deepfake, Revelando Desafios Técnicos
A Justiça Eleitoral brasileira enfrenta significativa dificuldade em punir o uso de deepfakes em campanhas, resultando em condenação para apenas um a cada cinco casos registrados. Um levantamento recente, baseado em decisões relacionadas às eleições de 2024, aponta que, de 591 ações analisadas sobre conteúdos manipulados por inteligência artificial (IA), apenas 118 resultaram em reconhecimento formal de irregularidade e condenação. Este cenário expõe a fragilidade institucional diante do avanço tecnológico, onde a complexidade em rastrear a autoria e comprovar tecnicamente a manipulação por IA se tornam os principais entraves judiciais.
A Barreira da Comprovação Técnica
O principal obstáculo identificado reside na ausência de provas técnicas conclusivas. Em diversos julgamentos, perícias realizadas, inclusive pela Polícia Federal, não conseguiram determinar com certeza se um áudio ou vídeo foi de fato manipulado por inteligência artificial, mesmo havendo fortes indícios de fraude.
Um caso emblemático que ilustra essa dificuldade ocorreu no município de Caxias, no Maranhão. Durante a campanha, um áudio atribuído a um adversário político foi veiculado, levantando suspeitas de simulação de voz via IA. Contudo, a perícia da Polícia Federal foi inconclusiva, o que levou ao arquivamento da ação judicial, apesar dos indícios de manipulação. Especialistas apontam que, sem essa confirmação técnica robusta, a responsabilização dos envolvidos se torna inviável.
Divergência Jurídica e Classificação de Conteúdo
Além da questão técnica, a falta de uniformidade no enquadramento jurídico das denúncias contribui para o cenário de incerteza. O entendimento sobre o que constitui um deepfake ilícito e quando a manipulação se enquadra em outras categorias, como crítica, sátira ou humor, varia entre os diferentes tribunais eleitorais.
- Em alguns casos, conteúdos manipulados foram permitidos sob a alegação de serem manifestações legítimas de expressão.
- Em análise de 18 ações julgadas pela segunda instância eleitoral desde fevereiro de 2024, os magistrados demonstraram entendimentos divergentes sobre a remoção, com apenas quatro determinando a retirada do conteúdo.
- Em 62% dos casos analisados, conteúdos considerados “expressivos” não foram proibidos, por serem classificados como sátira ou crítica.
Essa falta de padronização dificulta a aplicação consistente das regras estabelecidas pelo Tribunal Superior Eleitoral (TSE).
Veja também:
As Respostas do TSE e o Endurecimento das Regras
Diante do avanço da tecnologia e dos desafios evidenciados nas eleições anteriores, o TSE adotou medidas mais rigorosas para as próximas disputas, visando reforçar o combate à desinformação gerada por IA.
Novas Regras para o Uso de IA
As normas mais recentes implementadas pelo TSE buscam mitigar os riscos, focando na transparência e na restrição temporal do uso de conteúdo sintético:
- Identificação Obrigatória: Materiais produzidos com o uso de inteligência artificial devem trazer uma identificação clara e visível ao eleitor.
- Proibição Próxima ao Voto: O emprego de conteúdo gerado por IA é proibido nas 72 horas que antecedem a votação, estendendo-se ao dia seguinte ao pleito.
- Inversão do Ônus da Prova: Uma mudança significativa é a possibilidade de inversão do ônus da prova em determinadas situações. Isso significa que o responsável pela publicação de um conteúdo contestado poderá ter a obrigação de demonstrar sua veracidade, e não o contrário.
O TSE também implementou mecanismos de combate à desinformação, como o Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia (Ciedde) e o Sistema de Alerta de Desinformação Eleitoral (Siade).
Desdobramentos e Propostas para o Futuro
O debate sobre a eficácia do combate aos deepfakes continua intenso, com propostas para fortalecer a capacidade técnica da Justiça Eleitoral.
Criação de Força-Tarefa Técnica
Recentemente, o ministro Gilmar Mendes, atuando no TSE, sugeriu a criação de uma força-tarefa com peritos técnicos e instituições acadêmicas.
- O objetivo é garantir a identificação rápida e proativa de conteúdos produzidos por IA, especialmente deepfakes, durante o período eleitoral.
- A proposta visa fortalecer a capacidade técnica do tribunal, promovendo uma resposta mais célere e preventiva, em vez de apenas reativa e punitiva.
- Isso envolveria o credenciamento prévio de especialistas e centros de pesquisa para análise ágil de materiais sintéticos.
Apesar das regras mais rígidas e das propostas de aprimoramento técnico, o desafio permanece complexo, visto que a tecnologia de IA avança em ritmo acelerado, exigindo adaptações constantes do arcabouço legal e judicial.
