Altman: Apavorado com IA mais forte que o Governo, mas constrói isso?

Sam Altman, CEO da OpenAI, expressou publicamente seu temor por um futuro onde empresas de Inteligência Artificial (IA) se considerem mais poderosas que os governos, uma declaração que gerou um intenso debate sobre a contradição inerente às ações da própria companhia que ele lidera. Essa preocupação foi levantada em um contexto de estreitamento de laços entre a OpenAI e o aparato militar e governamental dos Estados Unidos, levantando questionamentos sobre a real intenção e controle da tecnologia mais avançada do setor.
A Contradição Central: Declaração vs. Ações da OpenAI
A declaração de Altman, feita durante uma sessão de perguntas e respostas com sua audiência no X (antigo Twitter), buscou posicionar a OpenAI como uma entidade responsável e cautelosa no cenário da IA. O CEO afirmou estar apavorado com a possibilidade de que empresas privadas de tecnologia de IA pudessem operar com um poder superior ao de um governo democraticamente eleito, uma premissa que, em tese, é filosoficamente sólida no âmbito da governança.
No entanto, o momento da declaração foi notavelmente estratégico. Ela ocorreu poucas horas após a OpenAI fechar um acordo com o Departamento de Defesa dos EUA, um movimento que a colocou em uma posição de destaque junto ao establishment militar. Este acordo, que incluiu o uso da tecnologia da OpenAI em operações militares, gerou polêmica e aprofundou um racha com a concorrente Anthropic.
O Contraste com a Anthropic e o Acordo com o Pentágono
A polêmica se intensificou devido à postura da Anthropic, rival direta da OpenAI, que se recusou a assinar sob as mesmas condições impostas pelo Pentágono, sendo classificada pelo governo dos EUA como um “risco para a cadeia de suprimentos” por sua relutância. A Anthropic teria exigido garantias explícitas contra o uso de sua IA para vigilância em massa ou armas autônomas, enquanto a OpenAI aceitou uma fórmula mais ambígua, baseada em “todos os usos legais”, e garantiu o contrato.
Em resposta às críticas internas e externas, Sam Altman buscou acalmar os ânimos, reconhecendo que o acordo “foi apressado e não pega bem”. Ele explicou aos funcionários que a OpenAI não detém o poder de decisão operacional sobre como os militares utilizarão a tecnologia – ou seja, o governo americano, através do secretário responsável, é quem decide sobre as ações militares específicas, como um ataque ou uma invasão. Altman ressaltou que a OpenAI forneceria seu “conhecimento técnico” e construiria mecanismos de segurança, mas as decisões finais caberiam ao DoD.
Veja também:
A Liderança da OpenAI no Debate Regulatório
Esta não é a primeira vez que Sam Altman se manifesta sobre a necessidade de governança para a IA. Em outras ocasiões, ele tem defendido ativamente a regulamentação do setor, inclusive sugerindo a criação de uma nova agência governamental para licenciar empresas de IA, comparando o impacto da tecnologia ao da invenção da imprensa.
Altman já expressou preocupação com o potencial da IA para disseminar desinformação, especialmente em períodos eleitorais, e enfatizou a necessidade urgente de salvaguardas. Ele também defende a democratização da tecnologia, alertando que a centralização da IA em poucas mãos, sejam elas de uma empresa ou de um país, pode levar à “ruína”.
A Visão sobre o Poder da IA
Em um ponto que reforça a magnitude do que está sendo construído, Altman chegou a afirmar que, em um sentido amplo, o ChatGPT já é “mais poderoso do que qualquer ser humano que já existiu”, dada a escala de tarefas relevantes que milhões de pessoas realizam diariamente com a ferramenta. Ele prevê que sistemas capazes de descobrir novos *insights* e robôs realizando tarefas no mundo real podem chegar em breve, aproximando a humanidade da construção de uma Superinteligência Artificial (AGI).
Apesar de defender a regulamentação, Altman também demonstrou preocupação com a nacionalização da OpenAI pelo governo, embora considere que, a longo prazo, um desenvolvimento da AGI sob liderança governamental possa ser mais apropriado. Ele reforça que a colaboração estreita entre o governo e as empresas de IA é “extremamente importante”, mas critica a ideia de que os contribuintes devam resgatar empresas de tecnologia.
Implicações para o Futuro
O cerne da tensão reside no fato de que, enquanto Altman clama por um poder estatal supervisionando a IA, a OpenAI, ao fechar o acordo com o Pentágono e ao se posicionar como líder no desenvolvimento de modelos cada vez mais capazes, está, na prática, se tornando uma das entidades mais influentes e poderosas no campo da tecnologia avançada. A decisão de aceitar os termos do DoD, em detrimento da postura mais restritiva da Anthropic, sugere que a busca por influência e contratos estratégicos pode, momentaneamente, se sobrepor às preocupações éticas mais rigorosas defendidas publicamente.
A comunidade tecnológica e legislativa segue atenta, observando se as ações da OpenAI e de seu CEO continuarão a reforçar a narrativa de que a indústria está construindo ferramentas que exigem supervisão estatal, ou se a própria empresa se consolidará como uma força regulatória *de facto* no cenário global de inteligência artificial.
