Phishing com IA: Nova técnica faz milhares de vítimas

Uma nova técnica de phishing que utiliza Inteligência Artificial (IA) está se espalhando rapidamente, já tendo feito milhares de vítimas. Essa modalidade de golpe combina a tecnologia avançada de deepfake com técnicas de engenharia social para criar conteúdos que simulam figuras públicas ou executivos, tornando o ataque mais crível e perigoso.
Como funcionam os golpes de phishing com vídeos de IA?
O phishing com deepfake explora a confiança visual e sonora. Golpistas desenvolvem vídeos que simulam executivos ou representantes de grandes plataformas com impressionante fidelidade. Esses vídeos são compartilhados em e-mails, mensagens ou páginas que parecem oficiais, transmitindo comunicados urgentes ou mudanças de política que exigem ação imediata da vítima.
O vídeo falso geralmente contém um pedido para acessar um determinado link, que leva a uma página de login idêntica à real. Em um exemplo recente envolvendo o YouTube, um vídeo informava sobre supostas alterações na monetização, direcionando criadores de conteúdo a um site clonado. Ao inserir login e senha nesse ambiente falso, a vítima entrega suas informações aos golpistas, permitindo o sequestro de contas, alteração de conteúdos, acesso a dados pessoais e até manipulação de recursos financeiros ligados à plataforma.
Veja também:
Quais são os riscos do phishing com vídeos deepfake?
Os impactos desse novo golpe se estendem muito além do acesso indevido à conta de uma vítima. O sequestro de canais, bastante comum em ataques contra criadores de conteúdo, pode resultar na exclusão de publicações, divulgação de material malicioso e prejuízos financeiros. Em muitos casos, anos de trabalho podem ser comprometidos por um único descuido. A exposição de informações pessoais e financeiras é outro risco relevante.
Como se proteger de golpes com vídeos de inteligência artificial?
A preocupação com golpes baseados em vídeos de IA exige uma combinação de tecnologia e boas práticas de comportamento online. Algumas recomendações importantes incluem:
- Desconfie de tom alarmista: Golpistas tendem a criar senso de urgência para apressar decisões.
- Jamais clique em links vindos de mensagens suspeitas: Prefira acessar sites diretamente pelo navegador ou pelo app oficial.
- Utilize autenticação em dois fatores (2FA): Essa camada extra de proteção previne acessos mesmo se a senha for comprometida.
- Verifique os remetentes: Confira se o endereço de e-mail corresponde ao nome do remetente e se o domínio é familiar.
- Examine os links: Passe o cursor sobre os links para verificar se as URLs são legítimas.
- Evite anexos não solicitados: Não baixe arquivos de remetentes desconhecidos.
- Mantenha o software de segurança atualizado: As atualizações de software incluem correções para vulnerabilidades conhecidas.
- Desconfiança Inteligente: Adote uma postura crítica ao receber mensagens emocionais ou urgentes, mesmo de fontes confiáveis.
IA Generativa e a Sofisticação do Phishing
A IA generativa permite que criminosos criem mensagens de phishing mais convincentes e sofisticadas, tornando sua detecção mais difícil, além de facilitar a automação dos golpes. Nos últimos meses, tem ocorrido um aumento no número de ataques direcionados, especialmente a executivos de empresas. Além disso, ferramentas de IA também vêm sendo usadas para a criação de áudios e vídeos simulando pessoas reais, criando uma nova geração de phishing.
Com a IA, os golpistas podem criar mensagens sem erros gramaticais e de ortografia, personalizadas e difíceis de detectar. A IA generativa também pode ajudar os golpistas a escalar suas operações, criando mensagens ainda mais convincentes em menos tempo.
Legislação Brasileira e Deepfakes
Atualmente, o Brasil ainda não possui uma legislação específica voltada ao uso de deepfakes em golpes de phishing, mas há discussões em andamento sobre o tema. No entanto, crimes cometidos com o uso dessas técnicas podem ser enquadrados em leis já existentes, como as que tratam de estelionato, fraude eletrônica e invasão de dispositivo informático.