Google Gemini vulnerável a comandos ocultos, Google ignora

O Google se recusa a corrigir uma falha de segurança no Gemini que permite a execução de comandos ocultos, expondo usuários a riscos de ataques e vazamento de dados. A vulnerabilidade, conhecida como ‘ASCII Smuggling’, utiliza caracteres especiais do Unicode para inserir instruções invisíveis aos usuários, mas legíveis para a inteligência artificial (IA).
O que é ASCII Smuggling?
ASCII Smuggling é uma técnica que explora caracteres de controle Unicode, também conhecidos como ‘tag characters’. Esses caracteres são invisíveis na interface, mas são processados pelas IAs, permitindo que hackers insiram comandos maliciosos em textos aparentemente inofensivos.
Veja também:
Como funciona o ataque
Um invasor pode, por exemplo, ocultar um comando em um e-mail ou convite de calendário, escrevendo-o em uma fonte muito pequena ou na mesma cor do fundo. Quando o usuário solicita que o Gemini resuma o texto, a IA lê e executa o comando invisível, o que pode ter consequências perigosas, como o envio de informações confidenciais para terceiros ou o redirecionamento para sites maliciosos.
O pesquisador de segurança Viktor Markopoulos, da FireTail, demonstrou que é possível injetar comandos ocultos no título de convites do Google Agenda, alterando remetente, descrição e links sem levantar suspeitas. Ele testou a vulnerabilidade em vários chatbots e descobriu que Gemini, DeepSeek e Grok são suscetíveis a ataques de ASCII Smuggling. ChatGPT, Microsoft Copilot e Claude demonstraram resistência devido a mecanismos de ‘sanitização’ de comandos.
Qual o risco?
A falha se torna ainda mais grave devido à integração do Gemini com o Google Workspace, que inclui Gmail, Docs e Agenda. Isso significa que um hacker pode obter acesso a informações confidenciais explorando a vulnerabilidade em e-mails, convites de calendário ou outros documentos processados automaticamente pelo Gemini.
Embora o ataque dependa de engenharia social, ele aumenta o risco de vazamento de informações, especialmente em contas corporativas que utilizam as integrações do Workspace. Administradores de contas corporativas devem reforçar as políticas de segurança e bloquear execuções automáticas de IA em conteúdos externos.
Resposta do Google
Markopoulos relatou suas descobertas ao Google em 18 de setembro de 2025, mas a empresa minimizou o problema, afirmando que a falha só pode ser explorada através de ataques de engenharia social e que não se trata de uma falha de segurança real. A decisão do Google de não corrigir a vulnerabilidade gerou debates na comunidade tecnológica.
Como o Google protege os usuários
O Google afirma que possui um sistema robusto de medidas de segurança para proteger os usuários do Gemini contra conteúdo malicioso e injeções de comandos. Quando o Gemini identifica ameaças, ele impede que o conteúdo seja usado para gerar uma resposta. No entanto, a vulnerabilidade de ASCII Smuggling demonstra que essas medidas não são totalmente eficazes.
Para se proteger, o Google recomenda que os usuários tenham cuidado ao interagir com conteúdo de fontes desconhecidas, prestem atenção aos avisos do Google sobre conteúdo suspeito e evitem clicar em links não confiáveis.
Especialistas recomendam monitorar o fluxo bruto de dados antes que ele seja processado pelo modelo de IA como uma medida de segurança adicional.
Alternativas
Enquanto o Google não corrige a falha no Gemini, usuários preocupados com a segurança de seus dados podem optar por utilizar outros chatbots que se mostraram mais resistentes a ataques de ASCII Smuggling, como ChatGPT, Microsoft Copilot e Claude.
O Google lançou o Gemini Enterprise, um pacote de ferramentas de IA para empresas, mas a falha de segurança expõe os riscos de integrar IA em ambientes corporativos sem as devidas precauções.