Revolta na Amazon: 1.500 engenheiros preferem Claude ao invés de IA interna

Uma tensão crescente se instalou nos bastidores da Amazon, onde engenheiros de software expressaram forte insatisfação com as políticas internas que priorizam o uso da ferramenta de programação com Inteligência Artificial (IA) própria da empresa, o Kiro, em detrimento do Claude Code, da Anthropic. Segundo relatos, cerca de 1.500 funcionários apoiaram formalmente a adoção do Claude Code como ferramenta oficial em fóruns internos, argumentando que a IA rival oferece maior produtividade e eficiência para o desenvolvimento de código de produção.
A política da Amazon, que exige autorização formal para o uso de ferramentas externas de IA para código de produção ou produtos ativos, foi reforçada no segundo semestre do ano passado, quando a empresa divulgou orientações para priorizar o Kiro. O Kiro, embora baseado nos modelos da Anthropic, utiliza ferramentas desenvolvidas pela própria Amazon Web Services (AWS), o que a empresa alega facilitar a integração, o controle e a governança.
O Conflito de Interesses e a Parceria Estratégica
O dilema se torna ainda mais complexo devido à profunda relação financeira e estratégica entre a Amazon e a Anthropic. A gigante de Jeff Bezos é uma das maiores investidoras da Anthropic, com um aporte que pode ultrapassar os 60 bilhões de dólares em participação acionária, e também é a principal provedora de infraestrutura em nuvem para a startup.
Apesar dessa parceria, a restrição interna gerou uma situação constrangedora, especialmente para os engenheiros envolvidos na venda do AWS Bedrock, a plataforma da Amazon que oferece aos clientes acesso a modelos de IA de terceiros, incluindo o Claude Code.
Incoerência na Recomendação ao Cliente
Os funcionários questionaram a credibilidade de recomendar o Claude aos clientes enquanto são impedidos de utilizá-lo livremente em seu próprio trabalho de desenvolvimento de produção. Em discussões internas, um engenheiro teria questionado: “Os clientes vão perguntar por que deveriam confiar ou usar uma ferramenta que não aprovamos para uso interno”.
Engenheiros argumentam que a imposição do Kiro, que alguns consideram inferior em desempenho para certas tarefas, pode, na verdade, desacelerar o desenvolvimento. Uma das críticas centrais é que, sem a força competitiva do Claude, a única forma de o Kiro sobreviver seria pela “adoção forçada, em vez de valor genuíno”.
Veja também:
Histórico de Confiança e Governança de IA
A frustração dos desenvolvedores foi agravada por informações conflitantes sobre a aprovação de segurança do Claude Code. Fontes internas relataram que diretrizes anteriores indicavam que o Claude Code havia passado nas análises de segurança e legais, mas essa menção teria sido posteriormente editada ou removida das comunicações oficiais, aumentando a desconfiança sobre os motivos da rejeição.
A Amazon, por sua vez, defende a política, citando que o Kiro oferece melhorias na eficiência e aceleração no crescimento de clientes, e que, embora a parceria com a Anthropic seja forte, a companhia não planeja endossar ferramentas adicionais de desenvolvimento de IA de terceiros para uso em produção.
A empresa afirmou que cerca de 70% de seus engenheiros de software utilizaram o Kiro pelo menos uma vez em janeiro, indicando um avanço na adoção da ferramenta interna. No entanto, a manifestação de 1.500 colaboradores sinaliza que a preferência pela ferramenta externa, vista como mais eficaz, permanece forte entre a base técnica da companhia.
Contexto Mais Amplo de IA na Amazon
Este episódio de resistência interna ocorre em um momento em que a inteligência artificial é o eixo estratégico central da Amazon, que tem realizado grandes reestruturações corporativas para focar em suas apostas de IA. Paralelamente, a empresa enfrenta o desafio de equilibrar a promoção de suas próprias soluções de IA com a necessidade de manter uma parceria lucrativa com um de seus maiores investimentos no setor. O caso ilustra a tensão comum em grandes corporações: a busca por inovação rápida versus a necessidade de manter o controle estrito sobre segurança e governança de dados em ferramentas de IA.
