Agentes de IA: Quem Define as Regras da Autonomia Executiva?

A ascensão dos agentes de Inteligência Artificial, que evoluíram de meros copilotos para sistemas autônomos capazes de executar tarefas complexas e tomar decisões em nome de usuários e corporações, impõe uma questão central e urgente: quem governa esses agentes?
Em 2026, a implementação desses sistemas autônomos, que movimentam orçamentos e interagem com infraestruturas críticas, transformou a governança de um desafio técnico em uma questão de responsabilidade corporativa e soberania regulatória. A autonomia crescente desses agentes está superando a velocidade dos sistemas de controle tradicionais, gerando um descompasso que exige novos frameworks de supervisão.
O Desafio da Autonomia em Fluxos de Trabalho
Agentes de IA diferem fundamentalmente de ferramentas anteriores, como chatbots, por sua capacidade de encadear ações complexas de forma autônoma, como preparar relatórios que envolvem a coleta e síntese de dados de múltiplos sistemas. Essa funcionalidade, prevista para automatizar até 15% das decisões diárias nas empresas nos próximos anos, segundo projeções, traz riscos significativos se não houver governança clara.
- Velocidade de Ação: Incidentes recentes mostraram que, em casos de abuso, o tempo entre o acesso inicial e a exfiltração de dados por agentes comprometidos caiu drasticamente, chegando a apenas 72 minutos em 2025.
- Vetor de Risco: Em 90% das investigações de segurança envolvendo esses sistemas, o ponto crítico não foi uma invasão técnica, mas o abuso de identidades e permissões já concedidas ao agente.
- Mudança de Foco: A governança precisa migrar da gestão de modelos e dados para a governança das próprias decisões executadas pelos agentes.
Para endereçar essa realidade, especialistas defendem a adoção de um framework de governança declarativa, que se baseia na definição prévia de comportamentos aceitáveis, monitoramento contínuo e intervenção quando o uso desvia da política estabelecida, ao invés de depender de controles manuais ou rígidos.
Veja também:
A Governança no Âmbito Corporativo
No setor privado, a governança de IA se estrutura em pilares multifuncionais que visam alinhar a supervisão ao risco do negócio e garantir a responsabilidade. Estruturas como o Framework de Governança de IA (DAGF) sugerem cinco pilares fundamentais, que englobam desde a organização interna até a segurança cibernética específica para IA.
Responsabilização e Intervenção Humana
Um ponto crucial é a definição de responsabilidade clara. Toda aplicação de IA, incluindo os agentes, deve ter indivíduos ou equipes designadas como responsáveis pelos resultados e pelo gerenciamento de riscos.
Para tarefas de alto risco ou decisões confidenciais, os frameworks exigem a manutenção da autoridade final humana (human-in-the-loop). A governança deve especificar os pontos de verificação necessários, como as intervenções devem ocorrer e como essas decisões finais são documentadas, garantindo que a responsabilidade não se dissolva após a implantação do sistema.
O Cenário Regulatório no Brasil
No Brasil, a governança dos agentes de IA está intrinsecamente ligada ao debate legislativo em torno do Projeto de Lei nº 2338/2023, que busca estabelecer o marco regulatório nacional.
Estrutura Institucional em Debate
O avanço legislativo em 2025 e 2026 foca na definição do arranjo institucional que fiscalizará a norma.
- PL 2338/2023: Aprovado no Senado em dezembro de 2024, o texto segue para a Câmara dos Deputados, discutindo critérios para designação de agentes sujeitos à regulação e penalidades.
- Autoridades Setoriais vs. ANPD: O modelo em discussão prevê que autoridades reguladoras setoriais mantenham competência normativa em suas áreas, enquanto a Autoridade Nacional de Proteção de Dados (ANPD) teria a função de harmonizar regras gerais e regular setores desregulados, como IAs de propósito geral.
- Órgãos Consultivos: Propostas incluem a criação do Comitê de Regulação e Inovação em Inteligência Artificial (CRIA) e do Comitê de Especialistas e Cientistas de Inteligência Artificial (CECIA) para garantir a participação social e técnica nas decisões.
Apesar da tramitação do PL, a fiscalização de riscos não aguarda a aprovação final. A ANPD já tem atuado, por exemplo, suspendendo funcionalidades de plataformas que utilizavam dados de usuários para treinamento sem base legal adequada, demonstrando que a adequação à LGPD (Lei Geral de Proteção de Dados Pessoais) é uma obrigação corrente.
Tensão entre Fomento e Regulação
A governança brasileira busca um equilíbrio entre o fomento ao desenvolvimento tecnológico, alinhado ao Plano Brasileiro de Inteligência Artificial (PBIA), e as exigências regulatórias. O PBIA visa posicionar o país como protagonista, com eixos estratégicos que incluem infraestrutura e soberania tecnológica, mas a legislação precisa garantir proteção de direitos fundamentais e sistemas confiáveis.
Perspectivas Globais e o Foco no Risco
Globalmente, a governança também se concentra na classificação de risco. A União Europeia avança com a implementação progressiva da sua Lei de Inteligência Artificial (AI Act), com exigências de auditoria e documentação.
Em resposta à sofisticação dos agentes, o foco regulatório internacional, como as orientações do SEC nos EUA e o NIST AI Risk Management Framework, direciona-se à gestão de riscos, transparência e explicabilidade, especialmente para sistemas opacos de “caixa preta” usados em decisões importantes.
O Que Acontece Agora?
Para as organizações, o governo dos agentes de IA exige uma revisão imediata dos controles de acesso e permissões, que foram desenhados para usuários humanos e não para entidades autônomas.
A tendência é que os padrões mais elevados internacionais sejam adotados antecipadamente, reduzindo o risco regulatório em múltiplas jurisdições. A definição de quem governa, portanto, se desdobra em duas frentes:
- Governo Federal: Acelerar a definição do arranjo institucional (CRIA, CECIA e papel da ANPD/Setoriais) para dar segurança jurídica ao setor.
- Setor Privado: Implementar modelos de governança declarativa, focados em definir a intenção e os limites de ação dos agentes, garantindo que a inovação responsável se sobreponha à autonomia descontrolada.
A fiscalização, tanto no setor público quanto no privado, caminha para uma supervisão contínua e contextualizada, assegurando que a velocidade da máquina não comprometa a proteção dos direitos e a segurança dos dados.
