Trump Reverte Posição e Agora Quer Regular Ameaças da IA

Em uma guinada significativa em sua postura sobre a inteligência artificial (IA), o presidente dos Estados Unidos, Donald Trump, agora defende a regulação rigorosa da tecnologia, marcando uma drástica reversão de sua abordagem inicial de desregulamentação. A mudança ocorre em meio a crescentes preocupações com as ameaças à segurança cibernética e nacional representadas por modelos de IA avançados, como o recém-lançado Mythos da Anthropic.
Anteriormente, a administração Trump promovia uma política de “mãos livres” para a inovação em IA, argumentando que a regulamentação excessiva tolheria o desenvolvimento e a competitividade americana. Essa visão era central em seu programa, que via o Estado como um obstáculo e as empresas como impulsionadoras do progresso tecnológico. Em janeiro de 2025, Trump chegou a revogar rapidamente um processo regulatório da era Biden que visava proteger os cidadãos e a segurança nacional dos riscos da IA, classificando-o como “oneroso e desnecessário”.
A Virada: Preocupações com Segurança Impulsionam Nova Agenda
A reviravolta na política de Trump é atribuída principalmente ao surgimento de ferramentas de IA que demonstram capacidade de desestabilizar a segurança digital. O modelo Mythos da Anthropic é frequentemente citado como um catalisador para essa mudança, com relatos de que a tecnologia pode identificar milhares de vulnerabilidades graves em sistemas operacionais e softwares. Além do Mythos, há indicações de que o ChatGPT 5.5 também carrega riscos semelhantes, elevando o alerta sobre o potencial de ataques cibernéticos complexos facilitados por essas IAs.
As discussões atuais na Casa Branca indicam a consideração de um decreto executivo para criar um grupo de trabalho sobre IA. Esse grupo reuniria executivos de tecnologia e chefes de governo para estabelecer procedimentos de supervisão, incluindo um processo formal de revisão para novos modelos de IA antes de seu lançamento público. Autoridades americanas informaram executivos de empresas como Anthropic, Google e OpenAI sobre esses planos.
Veja também:
Propostas e Desdobramentos da Nova Abordagem
Entre as medidas em estudo, destaca-se a exigência de que as empresas submetam seus modelos de IA a um comitê para aferir riscos de diversas ordens, incluindo segurança digital, biossegurança e ameaças de hackers e do crime organizado. Em abril de 2026, Trump chegou a declarar que a inteligência artificial deveria ter um “botão de desligar” (kill switch) devido aos riscos que representa, especialmente para o sistema bancário.
A administração Trump já avançou com acordos voluntários para testes de segurança governamentais em modelos de IA com gigantes da tecnologia como Google DeepMind, Microsoft e xAI. Essa iniciativa visa garantir que os modelos atendam a certos padrões de segurança antes e depois do lançamento, um movimento que se alinha a abordagens de países como o Reino Unido.
Contexto Geopolítico e Competição com a China
A mudança de postura de Trump também se insere em um contexto de intensa competição geopolítica com a China pela supremacia em IA. A Casa Branca vê a inteligência artificial como essencial para a competitividade econômica e a segurança nacional dos EUA. A disputa tecnológica entre as duas potências se intensificou após o lançamento do Mythos, elevando as apostas de ambos os lados e levando observadores a comparar o cenário atual a uma corrida armamentista nuclear da Guerra Fria.
O presidente Trump, inclusive, planeja centrar as conversas sobre inteligência artificial durante sua visita a Pequim para um encontro com o líder chinês Xi Jinping, programado para esta semana. Embora a formalização de acordos seja considerada improvável devido à desconfiança mútua, a pauta da IA, incluindo a venda de chips e o acesso a modelos avançados, estará em destaque.
Críticas e Desafios da Regulamentação
Apesar da virada, a abordagem de Trump à regulamentação da IA ainda enfrenta desafios. Anteriormente, sua administração havia assinado um decreto executivo em dezembro de 2025 que limitava severamente a capacidade dos estados de regulamentar a IA, argumentando que um “manual único” federal era necessário para a liderança americana. Essa medida foi criticada por criar um “vácuo regulatório perigoso” e por desmantelar proteções existentes.
Críticos de ambos os partidos políticos, bem como grupos de direitos civis e consumidores, expressaram preocupação de que a proibição da regulamentação estadual pudesse favorecer grandes empresas de IA, que operariam com pouca ou nenhuma supervisão. A tese jurídica por trás desses desafios provavelmente seria a Cláusula de Comércio Adormecido, que proíbe estados de legislar de forma a onerar indevidamente o comércio interestadual.
No entanto, a nova postura de Trump parece reconhecer a gravidade das ameaças da IA, comparando-as à necessidade de acordos sobre mísseis e armas biológicas durante a Guerra Fria. A complexidade da tecnologia e suas implicações em áreas como empregos, educação, privacidade e saúde mental têm aumentado as preocupações globais, isolando Trump em sua antiga postura de não intervenção.
O Que Acontece Agora
A administração Trump está em processo de formular uma política de IA mais robusta e centralizada. A criação de um grupo de trabalho governamental e a implementação de processos formais de revisão para modelos de IA são passos concretos nessa direção. A expectativa é que o Centro Americano para Padrões e Inovação em IA (CAISI) lidere o desenvolvimento de requisitos obrigatórios, com o Congresso possivelmente estabelecendo um escritório permanente de fiscalização.
A pressão de grupos de defesa, como o Americans for Responsible Innovation, para que o governo avalie modelos avançados de IA em busca de ameaças à segurança antes do lançamento público e negue contratos governamentais a empresas que não passarem pela revisão, também está influenciando as discussões. O debate sobre a regulamentação da Inteligência Artificial tornou-se, assim, um ponto central da política global em 2026, com os EUA buscando equilibrar a inovação com a responsabilidade e a segurança nacional.
