Excesso de Regras de IA Ameaça Inovação no Brasil, Alertam Especialistas

Especialistas brasileiros em tecnologia e direito têm manifestado preocupação crescente com o risco de excesso regulatório da Inteligência Artificial (IA) no país, alertando que um marco legal excessivamente rígido pode inibir investimentos, pesquisa e o desenvolvimento tecnológico nacional. O debate centraliza-se no Projeto de Lei nº 2.338/2023, que busca estabelecer diretrizes para o uso da IA no Brasil, atualmente em análise na Câmara dos Deputados após aprovação no Senado.
A avaliação predominante entre os debatedores é que o Brasil possui um grande potencial para se tornar protagonista no cenário global de IA. Contudo, para alcançar esse objetivo, é imperativo criar um ambiente regulatório que ofereça segurança jurídica sem sufocar a competitividade, exigindo previsibilidade e alinhamento com padrões internacionais, mas que também seja capaz de diferenciar as necessidades de grandes corporações, startups e pequenos negócios.
O Dilema do PL 2.338/2023: Risco vs. Inovação
O Projeto de Lei nº 2.338/2023, que está em discussão na Comissão Especial da Câmara, tem sido comparado, em sua abordagem, ao modelo mais prescritivo da União Europeia (o AI Act). Críticos temem que essa rigidez, especialmente na classificação de sistemas de IA como de “alto risco”, possa gerar uma carga regulatória desproporcional, aumentando os custos de inovação e dificultando a operação de pequenas e médias empresas e startups.
Durante discussões recentes, como o ciclo de debates promovido pelo Metrópoles em parceria com a OpenAI, diversos participantes enfatizaram a necessidade de um equilíbrio delicado. O deputado federal Reginaldo Lopes (PT-MG), 2º vice-presidente da comissão especial, reconheceu que, embora o projeto traga contribuições relevantes, ainda há impasses importantes nos eixos regulatórios, incluindo fomento, responsabilidade civil e regras éticas.
Preocupações com a Burocracia e o Mercado
O receio é que a regulamentação prematura, antes que o tema seja plenamente compreendido por todos os setores, restrinja a inovação. Especialistas sugeriram a adoção de um modelo regulatório mais flexível e descentralizado, em contraste com o modelo centralizador que se desenha no projeto atual, que tende a empoderar a Autoridade Nacional de Proteção de Dados (ANPD) como reguladora central.
- Impacto em Pequenas Empresas: Há um forte apelo para que as regras sejam menos onerosas para startups e microempresas, que podem não ter a mesma capacidade de absorver custos de compliance que grandes corporações.
- Modelo Assimétrico: Defende-se uma regulação assimétrica, onde a carga regulatória se intensifica proporcionalmente ao risco da aplicação da IA, evitando obrigações excessivas onde o risco é menor.
- Direitos Autorais: A questão dos direitos autorais permanece um entrave significativo, com preocupações de que o modelo em discussão não garanta remuneração efetiva aos criadores, ao mesmo tempo em que pode criar obstáculos ao desenvolvimento de soluções de IA.
Veja também:
Soberania Tecnológica e o Papel das Agências Setoriais
Outro ponto crucial levantado por representantes do setor público e privado é a soberania tecnológica brasileira na gestão de dados e na governança da IA. Houve defesa robusta para que o marco legal assegure a autonomia decisória de agências reguladoras setoriais, como a Agência Nacional de Telecomunicações (Anatel) e o Banco Central (Bacen), em suas respectivas áreas de competência, evitando a centralização excessiva na ANPD.
O presidente do Serpro, Alexandre Gonçalves de Amorim, por exemplo, defendeu que empresas públicas como Serpro e Dataprev, que já operam sistemas complexos com soberania, sejam incluídas ativamente no Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). A preocupação é garantir que os dados nacionais permaneçam sob controle soberano, especialmente em infraestruturas críticas.
O senador Marcos Pontes (PL-SP), que tem defendido um texto menos restritivo, reforçou que a legislação deve ser atualizada rapidamente para não se tornar obsoleta e deve proteger os usuários, mas, fundamentalmente, garantir segurança jurídica para a indústria nacional.
Impactos Sociais e a Necessidade de Fomento
Além da inovação econômica, especialistas também apontaram os impactos sociais. Houve alertas sobre o risco da IA comprometer direitos humanos, citando vieses discriminatórios em respostas de sistemas e o potencial de desinformação via deep fakes. Um pesquisador do Conselho Nacional de Direitos Humanos mencionou que 40% das empresas planejam demissões ou redução de funcionários devido à automatização.
Contudo, a crítica mais recorrente ao PL 2.338/2023 é a ênfase no tratamento de riscos com pouca atenção às potencialidades e ao fomento. Especialistas argumentam que a lei deve ir além da análise de riscos, incentivando ativamente a formação de trabalhadores e a competitividade, em vez de apenas impor obrigações.
O debate sugere que o sucesso do marco regulatório brasileiro dependerá da capacidade dos parlamentares de incorporar flexibilidade, reconhecer a assimetria do mercado e garantir que a lei estimule o desenvolvimento tecnológico, evitando um cenário onde a proteção exagerada resulte no cerceamento da inovação no país.
