IA na Europa: Países divergem sobre modelo de regulação

A implementação do regulamento europeu para inteligência artificial (AI Act) tem gerado diferentes abordagens entre os países da União Europeia, especialmente no que se refere à escolha de um ou múltiplos órgãos reguladores. Enquanto alguns países optam por designar agências já existentes para supervisionar a aplicação da lei, outros preferem criar novas entidades ou distribuir as responsabilidades entre diversos setores.
Modelos de Regulação em Diferentes Países
Portugal: O governo português anunciou que a Anacom, agência reguladora de telecomunicações do país, será a responsável por supervisionar a aplicação do AI Act. A escolha se baseou na experiência da Anacom na área tecnológica e no diálogo com o setor.
Espanha: Em contrapartida, a Espanha optou por criar um órgão específico para a supervisão da IA, a Agência Espanhola de Supervisão da Inteligência Artificial (AESIA). Essa agência é dedicada exclusivamente ao tema da inteligência artificial.
Irlanda: A Irlanda adotou um modelo diferente, distribuindo as competências entre 15 órgãos setoriais, incluindo o Banco Central e as comissões de proteção de dados e defesa do consumidor.
Veja também:
O Regulamento Europeu de Inteligência Artificial (AI Act)
O Regulamento da Inteligência Artificial (Regulamento (UE) 2024/1689) é o primeiro quadro jurídico abrangente em matéria de IA a nível mundial. O objetivo é promover uma IA de confiança na Europa, estabelecendo regras claras baseadas no risco. A lei foi assinada em 13 de junho de 2024, publicada em 12 de julho de 2024 e entrou em vigor em 1 de agosto de 2024, com aplicabilidade a partir de 2 de agosto de 2026.
A proposta do AI Act visa classificar e regular as aplicações de inteligência artificial com base no risco de causar prejuízos. As práticas são classificadas em proibidas, de alto risco e outros sistemas de IA. Sistemas de alto risco terão mais tempo para cumprir os requisitos, com obrigações aplicáveis 36 meses após a entrada em vigor da legislação.
Impacto e Implementação
A Lei de IA impõe obrigações de transparência aos sistemas de alto risco, enquanto as regras sobre modelos de IA de uso geral serão mais leves. A legislação restringe o uso de vigilância biométrica em tempo real em espaços públicos pelos governos, exceto em casos de crimes específicos, prevenção de ataques terroristas e busca de suspeitos de crimes graves.
A Comissão Europeia introduziu instrumentos para apoiar o desenvolvimento e a implantação responsáveis de modelos de IA, incluindo orientações sobre as obrigações dos fornecedores. A Comissão também espera o cumprimento total da lei até 2 de agosto de 2026, com sanções para o não cumprimento.
Regulamentação Nacional e o Caso da Itália
A Itália se tornou o primeiro país da União Europeia a regulamentar o uso da IA com uma lei nacional, que já está em vigor. A lei italiana foca em responsabilidade digital, proteção de grupos vulneráveis e incentivo à inovação tecnológica. A nova legislação prevê limitações ao uso por menores de idade e penas de prisão para o uso da IA para causar danos, como deepfakes.
A lei italiana servirá como legislação nacional complementar, cobrindo a aplicação da IA nas áreas de saúde, educação, justiça, administração pública e trabalho, com foco no uso “centrado no ser humano”.
Desafios e Perspectivas
A complexidade do modelo europeu é vista como um entrave à inovação e ao desenvolvimento de startups. A falta de nomeação de reguladores de IA por alguns países da UE também é um desafio. No entanto, a Lei de IA é diretamente aplicável, independentemente da designação de uma autoridade competente.
A Europa busca criar uma referência global com a legislação para regulamentar a IA, equilibrando inovação e proteção. A lei terá alcance global, impactando empresas fora da UE que usam dados de clientes da UE em suas plataformas de IA.