IA: Anthropic Enfrenta Pentágono por Limites Éticos

O cenário de desenvolvimento e aplicação da Inteligência Artificial (IA) em contextos militares atingiu um ponto de inflexão nos Estados Unidos, centrado em um embate entre o Departamento de Defesa (Pentágono) e a empresa de IA Anthropic, criadora do modelo Claude.
O Epicentro do Conflito: Salvaguardas Éticas vs. Exigências Militares
O cerne da disputa reside na exigência do Pentágono para que fornecedores de tecnologia permitam o uso de seus modelos de IA para qualquer finalidade considerada legal, sem restrições impostas pelas empresas privadas. A Anthropic, por outro lado, recusou-se a remover salvaguardas cruciais em seu modelo Claude, mantendo cláusulas que proíbem estritamente o uso da tecnologia para armas totalmente autônomas sem supervisão humana e para vigilância doméstica em massa.
Este impasse se intensificou após o Pentágono exigir a alteração dos contratos já em vigor, que envolviam valores estimados em cerca de US$ 200 milhões por fornecedor.
A Posição da Anthropic e a Reação do Governo
A Anthropic, fundada por ex-pesquisadores da OpenAI e atualmente avaliada em um valor significativo, posicionou-se firmemente em defesa de seus princípios éticos. A empresa argumenta que esses limites são fundamentais para assegurar que a IA não seja usada para fins que ultrapassem limites éticos ou que infrinjam a natureza humana.
Em resposta à recusa da Anthropic, o governo, sob a administração do presidente Donald Trump, tomou medidas drásticas:
- O Pentágono ameaçou classificar a Anthropic como um “risco à cadeia de suprimentos”, uma designação que a empresa contesta judicialmente por ser abusiva e sem base legal.
- Houve a ameaça de invocar a Lei de Produção de Defesa para forçar o cumprimento das exigências.
- O governo determinou a suspensão do uso da tecnologia da Anthropic em órgãos federais e autorizou o início da substituição do modelo em programas militares.
A empresa contestou a classificação, apontando a contradição de ser rotulada como risco à segurança, enquanto o Pentágono também a considerava essencial para a segurança nacional.
Veja também:
O Desdobramento: A OpenAI Assume o Centro das Atenções
O vácuo deixado pela recusa da Anthropic foi rapidamente preenchido pela OpenAI, criadora do ChatGPT. Poucas horas após o ultimato à Anthropic, a OpenAI firmou um acordo de colaboração com o Departamento de Defesa.
A decisão da OpenAI reposicionou a empresa no centro das contratações militares de IA nos EUA, em um contexto de intensa rivalidade tecnológica com a China.
A Controvérsia do Acordo com a OpenAI
Embora o CEO da OpenAI, Sam Altman, tenha afirmado que o acordo demonstra “profundo respeito pela segurança”, permitindo o desenvolvimento de salvaguardas técnicas e a atuação de funcionários da empresa em projetos confidenciais, a parceria gerou forte reação negativa:
- Reação do Público: O aplicativo móvel do ChatGPT registrou uma queda abrupta de 295% nas desinstalações em um único dia após o anúncio, acompanhada por um aumento de 775% nas avaliações de uma estrela.
- Apoio à Concorrente: Em contrapartida, os downloads do Claude, da Anthropic, cresceram significativamente, sugerindo que parte dos consumidores apoiou a postura ética da concorrente.
- Críticas Internas: Funcionários da OpenAI expressaram frustração com a liderança e os termos do contrato, questionando os limites éticos e a forma como a negociação foi conduzida, com alguns manifestando apoio à postura da Anthropic.
Em resposta às críticas, Sam Altman admitiu que o processo de aprovação e comunicação do acordo foi “descuidado” e anunciou alterações no texto contratual para reforçar a proibição de uso intencional para vigilância interna de cidadãos dos EUA e monitoramento deliberado.
Implicações Globais: IA como Ativo Geopolítico
O confronto entre a Anthropic e o Pentágono, e o subsequente acordo com a OpenAI, expõe a dependência estrutural dos Estados Unidos em relação a empresas privadas para a aceleração de suas capacidades militares de IA, justamente no momento em que a velocidade tecnológica é vista como vantagem estratégica contra rivais como China e Rússia.
A utilização do modelo Claude em operações militares reais, como a análise de dados que teria auxiliado na captura do ditador Nicolás Maduro na Venezuela, aumentou a tensão, pois sugere que a tecnologia já está sendo empregada em campo mesmo durante as negociações.
O Futuro da Integração Militar de IA
Especialistas alertam que o episódio pode limitar e atrasar o ritmo de adoção de ferramentas de IA nas Forças Armadas, forçando um debate mais profundo sobre limites institucionais.
Paralelamente, o Pentágono segue avançando com outras parcerias, como a adoção do sistema Maven, da Palantir, como programa formalmente adotado, focado no direcionamento de armas e análise de campo de batalha.
O caso Anthropic/Pentágono não é apenas uma disputa contratual; ele define a linha tênue entre o imperativo da segurança nacional e a responsabilidade ética no desenvolvimento de tecnologias que possuem potencial de alterar a natureza da guerra e da vigilância em escala global.
