Golpe com IA: Falso Apresentador Engana Idosos em SP e Causa Prejuízo de R$ 30 Mil

Um casal de idosos na cidade de Marília, interior de São Paulo, foi vítima de um sofisticado golpe que utilizou inteligência artificial para simular a presença de um apresentador de televisão. A fraude resultou em um prejuízo superior a R$ 30 mil, após os criminosos prometerem uma falsa premiação de R$ 50 mil em um título de capitalização. O caso foi registrado como estelionato contra pessoa idosa e está sob investigação da Polícia Civil.
Como o Golpe Foi Aplicado
A ação criminosa teve início quando a mulher, de 72 anos, recebeu uma ligação telefônica. Do outro lado da linha, um homem afirmava que ela havia sido sorteada em uma promoção de título de capitalização e seria contemplada com R$ 50 mil.
Para conferir credibilidade à farsa, os golpistas realizaram uma videochamada com o casal, onde uma pessoa se passava por um conhecido apresentador de TV. A ambientação utilizada na videochamada simulava um cenário de programa televisivo, reforçando a ilusão de que se tratava de uma comunicação oficial.
Durante a interação, os criminosos solicitaram dados bancários e fotos de documentos pessoais dos aposentados, alegando que essas informações eram indispensáveis para o depósito do suposto prêmio. Para construir confiança e induzir o casal a prosseguir com as instruções, os estelionatários chegaram a depositar R$ 6 mil na conta da idosa.
Após ganhar a confiança das vítimas, os criminosos executaram a parte principal do golpe. Eles realizaram diversas transferências via Pix e contrataram empréstimos em nome dos idosos, totalizando o prejuízo de mais de R$ 30 mil. O casal só percebeu que havia caído em uma fraude após ser alertado por um vizinho.
Veja também:
O Papel da Inteligência Artificial nos Golpes
Embora os detalhes específicos sobre o uso de IA na manipulação visual do “apresentador” não tenham sido explicitamente detalhados em todas as fontes sobre este caso, o título original da notícia e o contexto de outros golpes recentes indicam que a inteligência artificial desempenha um papel crescente na sofisticação das fraudes.
A tecnologia deepfake, por exemplo, permite a criação de vídeos e áudios falsos com alta fidelidade, imitando vozes e imagens de pessoas reais, incluindo celebridades e figuras públicas. Essa capacidade de gerar conteúdo convincente dificulta a detecção de fraudes por parte das vítimas, especialmente idosos, que podem ter menos familiaridade com as novas tecnologias.
Casos semelhantes de clonagem de voz e manipulação de vídeos de jornalistas e apresentadores para aplicar golpes, como os que prometem falsas indenizações ou solicitam doações, têm sido reportados, evidenciando a crescente ameaça das deepfakes e da IA no cenário do crime cibernético.
Investigação e Alertas
A Polícia Civil de São Paulo está investigando o caso como estelionato contra pessoa idosa. As autoridades buscam identificar os envolvidos e rastrear as movimentações bancárias para responsabilizar os criminosos.
As autoridades e especialistas em segurança digital reforçam a importância de desconfiar de contatos inesperados que anunciem prêmios ou vantagens financeiras. Instituições financeiras e emissoras de televisão não solicitam dados pessoais sensíveis, abertura de contas ou depósitos para liberação de prêmios. É crucial verificar a autenticidade de qualquer contato diretamente com a empresa ou instituição mencionada antes de fornecer qualquer informação ou realizar transações.
Recomendações de Segurança:
- Desconfie de prêmios inesperados: Programas de TV ou bancos não pedem dados para liberar prêmios.
- Não compartilhe dados pessoais: Evite enviar documentos ou informações bancárias por aplicativos de mensagem.
- Verifique a fonte: Em caso de dúvida, entre em contato diretamente com a instituição ou emissora pelos canais oficiais.
- Cuidado com links e códigos: Jamais clique em links suspeitos ou digite códigos recebidos por mensagens sem verificar a procedência.
