Vídeo Falso de Shakira Apoiando Bolsonaro Causa Alerta de Deepfake

Um vídeo gerado por Inteligência Artificial (IA) que simulava a cantora Shakira declarando apoio ao ex-presidente Jair Bolsonaro durante seu show gratuito em Copacabana, no Rio de Janeiro, circulou intensamente nas redes sociais nos últimos dias, sendo prontamente desmascarado por agências de checagem. O incidente, ocorrido logo após a apresentação de 2 de maio de 2026, ressalta os crescentes desafios impostos pelos deepfakes na integridade do debate público e eleitoral no Brasil.
As publicações enganosas, que acumulavam dezenas de milhares de visualizações e interações em plataformas como TikTok, Instagram, Facebook, X, YouTube, Kwai e WhatsApp, mostravam a artista colombiana supostamente fazendo declarações políticas e gestos de apoio a Bolsonaro e ao senador Flávio Bolsonaro. No entanto, a análise detalhada de veículos de checagem como UOL Confere, Aos Fatos e AFP Checamos confirmou a falsidade do conteúdo.
A Origem e a Desmistificação do Deepfake
O vídeo falso surgiu na esteira do megaevento de Shakira na Praia de Copacabana, que atraiu uma multidão estimada e foi amplamente coberto pela mídia. A cantora, de fato, utilizou figurinos com as cores verde e amarelo da bandeira brasileira, o que foi interpretado erroneamente por alguns como um sinal de posicionamento político. Contudo, a própria artista e a imprensa confirmaram que a escolha das cores foi uma homenagem ao Brasil, sem qualquer conotação partidária.
Os vídeos manipulados exibiam Shakira supostamente proferindo frases como “aqui é Bolsonaro” ou “Libertem Bolsonaro e elejam Flávio presidente. Vinte e dois!”. A identificação da fraude foi possível devido a uma série de inconsistências visuais e auditivas, características de conteúdos gerados por IA. Entre os indícios notados pelos verificadores estavam:
- Marca d’água indicando conteúdo sintético em algumas versões.
- Ausência de correspondência com o cenário real do show.
- Inconsistências nos movimentos corporais e labiais da cantora.
- Contornos do rosto e do cabelo borrados.
- Aparência facial que não correspondia totalmente à artista.
- Figuras distorcidas ao fundo da imagem.
Além disso, ferramentas de detecção de IA, como a Hive Moderation, apontaram uma alta probabilidade de o áudio ter sido gerado sinteticamente. A íntegra do show e os trechos disponíveis online não apresentaram nenhuma manifestação política por parte de Shakira.
Veja também:
Deepfakes e o Cenário Eleitoral de 2026
O incidente com Shakira não é um caso isolado e se insere em um contexto de crescente preocupação com o uso de deepfakes para manipulação eleitoral no Brasil. Especialistas alertam que as eleições de 2026, para a escolha do presidente do país, ocorrerão em um cenário político polarizado e com o avanço exponencial das tecnologias de IA.
Relatórios indicam um aumento significativo nos ataques com deepfake no Brasil, com um crescimento de 126% em 2025, segundo o “Identity Fraud Report 2025-2026” da Sumsubs. O Tribunal Superior Eleitoral (TSE) já mapeou o impacto da IA generativa em eleições anteriores, identificando casos de materiais criados por IA com potencial nocivo ao processo eleitoral. A Resolução TSE 23.732/24, em vigor desde 2024, proíbe o uso de deepfakes para prejudicar e desacreditar pessoas, mas a rápida circulação digital e a dificuldade em identificar a fonte original dificultam a responsabilização efetiva.
A capacidade dos deepfakes de criar realidades paralelas convincentes representa uma ameaça sem precedentes à confiança social e à formação livre da opinião do eleitorado. A facilidade de acesso a ferramentas de clonagem de voz e manipulação de vídeo torna a desinformação por IA uma “corrida armamentista” digital, exigindo uma atuação integrada entre Justiça Eleitoral, plataformas e sociedade civil para prevenção e repressão.
Desdobramentos e Alerta Contínuo
A rápida desinformação gerada pelo vídeo de Shakira reforça a necessidade de vigilância constante e de ferramentas de checagem. Celebridades e políticos são alvos frequentes de deepfakes, como o caso da primeira-ministra italiana Giorgia Meloni, que também denunciou ter sido vítima de imagens criadas por IA.
Apesar de o vídeo ter sido desmentido, a sua ampla circulação demonstra o poder de alcance da desinformação e o impacto que ela pode ter antes mesmo de qualquer correção. A Justiça Eleitoral e as plataformas digitais enfrentam o desafio de desenvolver mecanismos mais eficazes para combater a disseminação de deepfakes, garantindo a lisura e a transparência do processo democrático.
