Golpe da Ligação Muda: IA clona voz com poucos segundos de áudio

Autoridades brasileiras e especialistas em cibersegurança emitiram um alerta urgente sobre a evolução do “golpe da ligação muda”, que agora utiliza Inteligência Artificial (IA) para clonar a voz das vítimas com apenas breves amostras de áudio.
A tática, que antes servia primariamente para confirmar se um número telefônico estava ativo, transformou-se em uma porta de entrada para fraudes sofisticadas de engenharia social. O objetivo final dos criminosos é utilizar a voz sintética, praticamente idêntica à original, para se passar pela vítima em contato com familiares, amigos ou instituições, solicitando transferências urgentes de dinheiro ou acesso a dados sensíveis.
A Mecânica do Novo Golpe: Captura e Clonagem por IA
O processo do golpe se divide em duas fases principais, ambas potencializadas pelo avanço da tecnologia de IA generativa, que tornou a clonagem de voz mais acessível e precisa.
Fase 1: A Captura da Amostra de Voz
A fase inicial se concretiza através da chamada telefônica silenciosa. A vítima recebe uma ligação de um número desconhecido e, ao atender, encontra silêncio do outro lado da linha. Especialistas alertam que o silêncio não é acidental, mas sim uma isca para induzir o destinatário a falar algo, como um simples “Alô?”, “Quem fala?” ou “Sim?”.
- Confirmação de Linha Ativa: Qualquer resposta humana confirma que o número está em uso e ativo, sendo registrado em bancos de dados de golpistas.
- Coleta de Áudio: A resposta verbal, mesmo curta, é gravada. Algoritmos avançados de IA podem gerar uma cópia convincente da voz da vítima com apenas alguns segundos de material de áudio.
- Outras Abordagens: Em alguns casos, os criminosos iniciam um falso atendimento, como se fossem de centrais de bancos ou órgãos públicos, para prolongar a conversa e obter uma amostra de voz mais variada.
Fase 2: O Ataque com Voz Clonada (Deepfake de Áudio)
Com a amostra de voz em mãos, os golpistas utilizam softwares de IA, que se tornaram mais baratos e fáceis de operar, para criar um modelo vocal sintético. Este modelo é então usado para simular qualquer frase que os criminosos desejem.
A aplicação mais perigosa ocorre quando a voz clonada é usada em uma nova ligação, simulando uma situação de emergência, como um sequestro, acidente ou necessidade financeira súbita de um familiar.
A tecnologia permite reproduzir tons, ritmo e entonação com alto grau de precisão, explorando a reação emocional e o instinto de proteção da vítima.
Um caso relatado envolveu golpistas que ligaram durante a madrugada, usando a voz clonada de um suposto filho sequestrado para pedir dinheiro e até mesmo sugerir que a mãe entregasse joias. A presença da voz idêntica foi suficiente para que a família agisse em pânico.
Veja também:
O Contexto da Fraude Digital no Brasil
O avanço do golpe da voz clonada reflete um cenário mais amplo de crescimento do estelionato eletrônico no país. Dados recentes apontam para uma escalada significativa nesses crimes:
- O estelionato virtual registrou um crescimento de 408% entre 2018 e 2024 no Brasil.
- Em 2024, o país contabilizou mais de 2,1 milhões de casos de estelionato eletrônico, uma média de quatro golpes por minuto.
- A Federação Brasileira de Bancos (Febraban) indicou que 39% dos brasileiros foram vítimas de algum golpe bancário em 2025, sendo a modalidade de central telefônica falsa, que utiliza ligações, uma das mais relevantes.
Especialistas apontam que, embora a legislação atual enquadre esses atos como estelionato digital, a sofisticação exige atenção contínua e novas barreiras de defesa.
Como se Proteger do Golpe da Voz Clonada
A prevenção é a principal ferramenta contra essa modalidade de fraude, exigindo uma mudança de comportamento em relação a chamadas não identificadas.
Medidas Imediatas ao Receber a Ligação
A recomendação primária das autoridades, como a Polícia Civil de São Paulo, é alterar a reação padrão ao atender chamadas suspeitas:
- Não atenda números desconhecidos: Sempre que possível, ignore ligações de origem não identificada.
- Permaneça em Silêncio: Se atender uma ligação desconhecida, não fale nada, nem mesmo um “Alô?”. Espere para ver se o interlocutor se identifica ou se a chamada cai.
- Desligue Imediatamente: Se houver silêncio ou qualquer sinal de gravação, encerre a chamada sem insistir ou tentar puxar conversa.
- Cuidado com o “Sim”: Evite dizer “sim” ou outras expressões afirmativas, pois elas podem ser gravadas e usadas para autorizações falsas.
Estratégias de Verificação e Segurança
Para situações de emergência ou pedidos urgentes, é crucial estabelecer protocolos de segurança com familiares e amigos:
- Palavra-Chave de Segurança: Combine com pessoas próximas uma palavra-chave secreta ou pergunta específica que só o verdadeiro familiar saberia responder.
- Retorno Direto: Se receber um áudio ou ligação suspeita de um conhecido solicitando dinheiro, não responda ou transfira. Desligue e ligue de volta para o número salvo e confiável da pessoa para confirmar a situação.
- Configurações do Telefone: Ative filtros de chamadas ou o recurso de Call Screening (em iPhones e Androids) para que o aparelho só receba ou toque para contatos salvos.
- Redes Sociais: Esteja ciente de que áudios e vídeos postados publicamente em redes sociais também podem ser usados para alimentar os sistemas de IA.
Desdobramentos e o Futuro da Fraude
O uso de IA para clonagem de voz representa um desafio crescente, pois a tecnologia está se tornando cada vez mais acessível, diminuindo a barreira técnica para criminosos com menos conhecimento especializado.
A tendência é que os golpes continuem a se personalizar, visando a manipulação emocional com maior credibilidade. A identidade vocal é um fator poderoso de confiança, e sua falsificação exige que a desconfiança digital se torne a nova norma em interações telefônicas não solicitadas.
