Mulher tem fotos roubadas e usadas em deepfake pornográfico; operação investiga

A Polícia Civil de Mato Grosso deflagrou a Operação Deepfake para investigar o uso de inteligência artificial (IA) na manipulação e divulgação indevida de imagens de uma mulher em Lucas do Rio Verde. As ações ocorreram nesta terça-feira (4).
O Caso
A vítima procurou a delegacia após descobrir a existência de perfis falsos que usavam suas fotos. As imagens foram adulteradas e publicadas em plataformas de conteúdo adulto, como se fossem autênticas, resultando em sérios danos à imagem e à reputação da mulher.
Com base nas provas reunidas, a Justiça autorizou sete ordens judiciais, sendo quatro mandados de busca e apreensão e três quebras de sigilo telemático, todas cumpridas em Várzea Grande.
Veja também:
Deepfake e a Lei
Deepfake é uma tecnologia de inteligência artificial que permite criar vídeos, áudios ou imagens falsas extremamente realistas, onde uma pessoa aparenta dizer ou fazer algo que nunca realmente disse ou fez. A palavra deriva da combinação de “deep learning” (aprendizado profundo) e “fake” (falso).
O uso de deepfakes para fins criminosos tem crescido, com destaque para pornografia não consensual, fraudes financeiras, extorsão e chantagem, desinformação política e violência psicológica.
A legislação brasileira aborda esses crimes através de diversos dispositivos. O Marco Civil da Internet (Lei 12.965/2014) estabelece responsabilidades para provedores de internet e proteção de dados pessoais. O Código Penal tipifica crimes como calúnia, difamação, injúria e ameaça, que podem ser aplicados em casos de deepfake malicioso. A Lei 13.718/2018 criminalizou especificamente a divulgação não consensual de conteúdo íntimo através do art. 218-C, que pune quem divulgar “sem o consentimento da vítima, cena de sexo, nudez ou pornografia”. A Lei 14.132/2021 tipificou o crime de perseguição no art. 147-A, frequentemente associado ao uso de deepfakes para intimidação.
Como identificar um deepfake
A delegada Maria Pureza Machado explica que, geralmente, quando é um vídeo falso, pode-se perceber uma certa alteração no movimento da imagem. O tom de pele da pessoa é diferente, e a iluminação muda um pouco.
O que fazer se for vítima de deepfake
A vítima deve documentar o crime, obtendo registros das imagens divulgadas, das plataformas onde estão, dos endereços e perfis que estão divulgando. É fundamental notificar as plataformas imediatamente sobre o ocorrido. Graças ao Marco Civil da Internet existe um artigo na lei que obriga as plataformas a removerem imagens e vídeos com cenas de nudez e atos sexuais divulgadas sem autorização. Outra medida importante é fazer uma notícia-crime (boletim de ocorrência).
Aumento de crimes com deepfake
Entre 2022 e 2023, o Brasil registrou um crescimento de 830% em crimes com deepfake, de acordo com o Relatório de Fraude de Identidade 2023 da Sumsub. No Distrito Federal, os números também impressionam: houve um aumento de 900% nos últimos três anos.
Estudo de Oxford revela que 96% de todo conteúdo deepfake é pornográfico, e 99% das vítimas são mulheres.
A Polícia Civil segue investigando o caso.
