IA Aprimora ‘Arte de Enganar Humanos’ e Impulsiona Golpes no Brasil

A capacidade da inteligência artificial (IA) de simular interações humanas e enganar, antes um conceito mais filosófico, tornou-se uma realidade alarmante no Brasil, impulsionando uma nova onda de golpes digitais sofisticados. Enquanto pensadores como Hélio Schwartsman, da Folha de S.Paulo, refletem sobre a evolução da IA e sua habilidade de ludibriar, a Polícia Federal e especialistas em segurança digital alertam para o uso crescente da tecnologia em fraudes que causam bilhões em prejuízos e vitimam milhões de brasileiros.
A Filosofia da Decepção Digital: Do Teste de Turing aos Desafios Atuais
O debate sobre a capacidade das máquinas de enganar humanos remonta ao Teste de Turing, proposto em 1950 por Alan Turing. O critério era simples: se uma pessoa não conseguisse distinguir se estava interagindo com uma máquina ou um humano, a máquina teria atingido um nível de inteligência similar ao nosso.
Em sua coluna na Folha de S.Paulo, Hélio Schwartsman revisita essa ideia, propondo um novo teste para os Grandes Modelos de Linguagem (LLMs), a versão mais popular das IAs: a capacidade de ensinar uma criança a falar um segundo idioma em sessões interativas. Para Schwartsman, se a IA conseguir simular o contexto social necessário para esse aprendizado, ela terá obtido êxito em um nível profundo de interação e, implicitamente, de simulação humana.
Essa reflexão ganha contornos práticos com o avanço da IA generativa, que permite a criação de conteúdos cada vez mais realistas, desafiando a confiança digital e a capacidade humana de discernir o que é real do que é fabricado.
Veja também:
A Ascensão dos Golpes com Inteligência Artificial no Brasil
A “arte de enganar humanos” é hoje potencializada pela IA no cenário dos crimes cibernéticos. Em 2026, o Brasil enfrenta um aumento expressivo nos golpes digitais, com a inteligência artificial sendo utilizada em quase metade das tentativas de fraudes financeiras no país.
Deepfakes e Clonagem de Voz: Ferramentas de Manipulação
- Deepfakes em Alta: Vídeos e áudios falsos gerados por IA, conhecidos como deepfakes, cresceram 830% entre 2024 e 2025, colocando o Brasil na liderança desse tipo de crime na América Latina. Essas manipulações são usadas para imitar pessoas reais, desde familiares e executivos até autoridades, tornando os golpes extremamente convincentes.
- Voz Clonada para Extorsão: Criminosos utilizam segundos de áudio de redes sociais para clonar vozes, simulando acidentes, sequestros ou pedidos urgentes de dinheiro via Pix, explorando o fator emocional das vítimas.
Sofisticação e Personalização dos Ataques
A engenharia social, que explora vulnerabilidades comportamentais, atingiu um novo patamar com a IA. Em vez de mensagens genéricas e mal escritas, os golpistas agora produzem textos perfeitos, com vocabulário adequado e argumentos persuasivos, adaptados ao perfil da vítima.
- Golpes Híbridos: A IA facilita a criação de esquemas que combinam diversos canais – e-mail, WhatsApp, SMS, redes sociais e ligações – para construir a confiança da vítima antes do ataque final.
- Falsas Centrais e Identidades Sintéticas: Criminosos se passam por atendentes de bancos, usando IA para simular sotaques e entonações, e até criam identidades sintéticas para aplicar fraudes.
- Impacto nas Empresas: Pequenos e médios empresários também são alvos, com falsos comprovantes de Pix, adulteração de boletos e invasão de contas de WhatsApp empresarial.
Impacto e Desafios para a Sociedade
Os golpes digitais representam um prejuízo estimado em centenas de bilhões de dólares globalmente e cerca de R$ 50 bilhões no Brasil nos últimos anos. Dados da Serasa Experian indicam que 51% dos brasileiros foram vítimas de golpes ou fraudes digitais em 2024, com uma tentativa a cada 2,2 segundos.
A dificuldade em processar esses crimes e a subnotificação das vítimas, muitas vezes por vergonha ou descrença na recuperação do prejuízo, agravam o problema. Além disso, a internacionalização das redes criminosas e o uso de criptoativos dificultam o rastreamento e a recuperação dos valores.
Respostas e Regulamentação em Andamento
Diante do cenário, autoridades e empresas buscam ações coordenadas. O Brasil tem avançado na criação de regulamentações para o uso da IA, visando equilibrar inovação e proteção.
- Eleições 2026: O Tribunal Superior Eleitoral (TSE) estabeleceu regras para o pleito de 2026, proibindo deepfakes que simulem voz ou imagem de candidatos para prejudicar ou favorecer candidaturas, e exigindo rótulo de “conteúdo fabricado/manipulado” para materiais de campanha que utilizem IA.
- Responsabilização de Plataformas: Pesquisadores da Universidade Columbia defendem que redes sociais sejam legalmente obrigadas a prevenir golpes online, argumentando que elas possuem a maior capacidade de inibir fraudes. A Meta, inclusive, já processou brasileiros pelo uso de deepfakes em anúncios falsos de produtos de saúde.
- Governança no Judiciário: O Conselho Nacional de Justiça (CNJ) atualizou diretrizes para o uso de IA nos tribunais, exigindo supervisão humana em decisões automatizadas e proibindo o uso de dados sigilosos para treinamento de modelos.
- Parceria Público-Privada: O governo federal e bancos assinaram um protocolo de ação conjunta para conter fraudes, mas especialistas indicam a necessidade de uma estratégia coordenada nacional, similar à de países como Europa e Austrália.
Desdobramentos e Vigilância Contínua
A evolução da IA sugere que os golpes se tornarão ainda mais direcionados, silenciosos e difíceis de identificar. A educação midiática e a informação de qualidade são consideradas “vacinas” contra a desinformação. Especialistas recomendam atenção redobrada, ativação da autenticação em dois fatores e cautela ao expor dados pessoais.
A proteção contra a “arte de enganar humanos” na era digital exige uma postura preventiva constante, tanto de indivíduos quanto de instituições, para não ceder às sofisticadas táticas de manipulação que a inteligência artificial agora possibilita.
