Google Bloqueia Ataque: 100 Mil Prompts Tentaram Clonar o Gemini

O Google emitiu um alerta sobre tentativas coordenadas e em larga escala de clonagem de seu modelo de inteligência artificial, o Gemini. De acordo com o Grupo de Inteligência de Ameaças do Google (GTIG), agentes maliciosos utilizaram uma técnica sofisticada, conhecida como “ataque de destilação” ou extração de modelo, que envolve o envio massivo de comandos (prompts) para mapear e replicar a lógica proprietária da IA.
Um dos incidentes mais notáveis relatados envolveu uma única campanha que disparou mais de 100 mil prompts contra o Gemini, antes que os sistemas de segurança da empresa detectassem o padrão e conseguissem bloquear a atividade. O objetivo central desses ataques é roubar a propriedade intelectual “cognitiva” do Gemini, que representa anos de desenvolvimento e bilhões de dólares em investimento, permitindo que concorrentes ou atores mal-intencionados criem modelos derivados a um custo significativamente menor.
A Mecânica do Ataque de Destilação
A técnica de destilação de IA, embora possa ser usada legitimamente para treinar modelos menores com base em modelos maiores (o “professor”), foi empregada aqui com intenção maliciosa. No contexto da extração de modelo, os atacantes tratam o Gemini como um modelo mestre, enviando milhares de perguntas cuidadosamente elaboradas através do acesso legítimo à API.
O foco não é uma invasão tradicional de servidores ou roubo de código-fonte, mas sim a engenharia reversa do processo de raciocínio. Os invasores buscam “coagir o modelo a produzir processos de raciocínio completos”, em vez de apenas a resposta final. Um exemplo de comando utilizado visava manter o conteúdo de raciocínio estritamente consistente com o idioma da entrada do usuário, sugerindo uma tentativa de replicar a capacidade de raciocínio do Gemini em múltiplos idiomas e em uma ampla variedade de tarefas.
Propriedade Intelectual em Xeque
O Google classificou essa atividade como uma forma de roubo de propriedade intelectual, pois permite que um modelo “aluno” seja treinado para imitar o desempenho do modelo proprietário sem o custo de desenvolvimento original. O relatório do GTIG indicou que esses ataques de extração foram observados com frequência, vindos principalmente de entidades do setor privado e pesquisadores globais que buscam obter vantagem competitiva.
A empresa destacou que, embora os ataques tenham sido mitigados em tempo real, protegendo os rastros de raciocínio internos, a prática viola diretamente seus termos de serviço, podendo sujeitar os responsáveis a ações legais.
Veja também:
Contexto e Repercussão na Segurança de IA
O incidente com o Gemini serve como um sinal de alerta para toda a indústria de inteligência artificial. John Hultquist, analista-chefe do GTIG, comentou que esses ataques logo se tornarão uma ocorrência comum contra ferramentas de IA personalizadas, especialmente aquelas treinadas com dados sensíveis.
A preocupação reside no fato de que, se um invasor conseguir destilar o conhecimento de uma IA treinada com segredos comerciais, esse conhecimento poderia ser replicado em outro sistema. O relatório do Google também mencionou que atores ligados a estados-nação, incluindo grupos da China, Irã, Coreia do Norte e Rússia, utilizaram o Gemini para acelerar suas próprias operações de ciberataques, como engenharia social e reconhecimento pós-comprometimento, o que levou o Google a desativar contas associadas a esses grupos.
Defesas e Próximos Passos
Em resposta ao aumento dessas ameaças, o Google afirmou ter ajustado seus algoritmos de segurança para bloquear usos maliciosos e reforçar as salvaguardas contra a destilação. A empresa se encontra em uma posição delicada: precisa permitir o acesso legítimo aos seus modelos via API para desenvolvedores e usuários, ao mesmo tempo em que protege a lógica interna que confere valor competitivo ao Gemini.
O caso do Gemini sublinha a evolução da segurança cibernética no campo da IA, deslocando o foco de vulnerabilidades tradicionais para a proteção da inteligência algorítmica. A corrida pela dominância em IA agora envolve não apenas a criação de modelos superiores, mas também a defesa robusta contra a sua replicação não autorizada.
