PL 2338/2023: Brasil Debate IA Humana em Meio a Temores de Desumanização

O Brasil intensifica o debate sobre a regulamentação da Inteligência Artificial (IA) com a tramitação do Projeto de Lei 2338/2023, que busca garantir a centralidade da pessoa humana e a remuneração justa por direitos autorais no desenvolvimento e uso da tecnologia. A discussão, que ganha destaque em veículos como o MundoBA, reflete uma crescente preocupação global sobre os riscos de uma IA “desumana” e seus impactos na sociedade, desde a despersonalização das interações até a disseminação de desinformação e vieses algorítmicos.
Projeto de Lei 2338/2023: Centralidade Humana e Direitos Autorais
O Projeto de Lei 2338/2023, de autoria do senador Rodrigo Pacheco (PSD-MG), atualmente em análise na Câmara dos Deputados, é o epicentro do debate regulatório da IA no Brasil. O texto enfatiza o desenvolvimento, fomento e uso ético e responsável da inteligência artificial, com a pessoa humana como pilar central.
Um dos pontos cruciais do PL é a exigência de transparência sobre os dados de treinamento de IAs generativas. Desenvolvedores que utilizarem conteúdo protegido por direitos autorais e conexos deverão informar sobre esses materiais em um sumário de fácil acesso online. Além disso, o projeto prevê a remuneração justa aos titulares de direitos autorais, garantindo que o uso de obras musicais, literárias, artísticas, científicas, fotográficas, audiovisuais e jornalísticas não configure um “extrativismo digital” gratuito.
A proposta busca coibir o que é percebido como uma “espoliação autoral” na era da IA, defendendo que a tecnologia não pode aviltar a pessoa humana nem degenerar a cultura. A discussão no Congresso Nacional é acompanhada por um forte lobby de empresas de tecnologia, que, segundo críticos, buscam a continuidade do aproveitamento parasitário do acervo cultural brasileiro.
Veja também:
A Desumanização Pela IA: Preocupações Crescentes
A questão de uma inteligência artificial potencialmente “desumana” não se restringe apenas ao campo dos direitos autorais. Ela abrange uma série de preocupações éticas e sociais que vêm sendo debatidas globalmente em 2026.
Impacto nas Interações Humanas e Saúde Mental
Especialistas alertam que a humanização da IA pode, paradoxalmente, levar à desumanização das interações humanas. Ao substituir o contato interpessoal por conversas com assistentes virtuais ou robôs de atendimento, os indivíduos podem desenvolver uma ilusão de relacionamento superficial, perdendo a capacidade de construir laços genuínos e significativos. Esse fenômeno é visto como um reflexo de uma crise emocional mais profunda e um sintoma do crescente isolamento social.
Vieses Algorítmicos e Discriminação
A IA não é neutra. Ela aprende com dados produzidos por humanos e, consequentemente, pode refletir e amplificar vieses e desigualdades sociais existentes. Casos de sistemas de reconhecimento facial com altas taxas de erro para certos grupos demográficos, ou geradores de imagem que associam profissões de prestígio a homens brancos e pessoas de baixa renda a tons de pele mais escuros, exemplificam como a IA pode perpetuar e escalar preconceitos. A falta de transparência sobre como os algoritmos tomam decisões torna esses vieses ainda mais perigosos e difíceis de contestar.
Desinformação e Ameaças à Democracia
A capacidade da IA de gerar conteúdo realista, como vídeos, áudios e textos, acelerou a disseminação de desinformação e fake news. Levantamentos recentes indicam que a maioria dos casos de desinformação com tecnologias de IA surgiram nos últimos dois anos, com eleições, guerras e golpes sendo os assuntos mais recorrentes. Essa proliferação de conteúdos falsos ameaça a integridade democrática e exige uma maior desconfiança dos conteúdos recebidos.
Agentes Autônomos e Responsabilidade
A ascensão de agentes de IA capazes de executar tarefas complexas com mínima interação humana levanta questões cruciais sobre os limites da autonomia das máquinas. A quem cabe a responsabilidade quando as ações de uma IA autônoma resultam em danos? A ausência de limites e diretrizes claras pode levar a ações desalinhadas com os interesses humanos. O uso de IA em operações militares, por exemplo, já gera preocupações sobre a capacidade de máquinas escolherem alvos de forma autônoma e o risco de violações de privacidade e mortes de civis.
Preocupações com o Mercado de Trabalho
Embora alguns especialistas, como David George da Andreessen Horowitz, rejeitem a ideia de um “apocalipse de empregos” em massa causado pela IA, a tecnologia já está modificando a divisão de tarefas dentro das empresas. Funções administrativas e rotineiras são mais expostas à substituição, enquanto a IA é usada para apoiar funções analíticas, técnicas e gerenciais. O desafio reside na adaptação dos sistemas organizacionais e na preparação dos trabalhadores para as novas ferramentas de IA.
Desdobramentos e Busca por Regulamentação Ética
Diante desses desafios, a busca por uma regulamentação ética da IA tornou-se uma prioridade global. Em 2026, a discussão sobre ética e IA está saindo do campo teórico para a prática, com a implementação de diretrizes responsáveis se tornando um diferencial.
- No Brasil: Além do PL 2338/2023, há um reconhecimento da necessidade de desenvolver capacidade local para a compreensão e implementação de práticas éticas de IA. A 2ª Conferência Latino-Americana de Ética em Inteligência Artificial (LAAI-Ethics), agendada para setembro de 2026 no Rio de Janeiro, visa promover diálogos entre decisores, acadêmicos e profissionais da indústria para soluções práticas e inclusivas.
- Nos EUA: O governo americano anunciou que terá acesso antecipado a novos modelos de IA desenvolvidos por grandes empresas de tecnologia, como Google DeepMind e Microsoft, para avaliação antes do lançamento público. Essa mudança de postura, impulsionada por preocupações com segurança e o avanço de tecnologias mais poderosas, visa garantir testes rigorosos e avaliar os impactos da IA na segurança nacional.
- Diretrizes Internacionais: Princípios como transparência (decisões da IA claras e compreensíveis), privacidade e segurança (proteção de dados), equidade (coleta de dados justa para evitar vieses), responsabilidade (definição de quem responde pelas ações da IA) e supervisão humana (intervenção profissional quando necessário) são amplamente defendidos como pilares para o uso responsável da tecnologia.
A comunidade internacional e os legisladores reconhecem que, para garantir um futuro ético com a IA, é fundamental que a tecnologia seja utilizada para fortalecer laços reais e não para substituí-los, protegendo a dignidade e a privacidade humana. A questão central permanece: estamos humanizando as máquinas ou desumanizando a nós mesmos? A resposta dependerá, em grande parte, da capacidade da sociedade de estabelecer e fazer cumprir padrões éticos e marcos legais que coloquem a pessoa humana no centro do desenvolvimento tecnológico.
