Pular para o Conteúdo
Logo Mundomi - 3
  • Notícias
  • Ofertas
  • IA
  • Top
  • Celulares
  • Games
  • WebStories
Logo Mundomi - 3

Home » IA

Pesquisa Unicamp: Reconhecimento Facial Reproduz Desigualdades Sociais

Horário 13/05/2026
pesquisa unicamp reconhecimento facial reproduz desigualdades sociais

Uma recente pesquisa de mestrado defendida na Universidade Estadual de Campinas (Unicamp) expõe de forma contundente como os sistemas de reconhecimento facial atuais reproduzem e aprofundam desigualdades sociais já existentes. A cientista da computação Ana Carolina Silva das Neves da Hora, conhecida como Nina da Hora, em sua tese “Do Rosto ao Vetor: Epistemicídio Computacional no Reconhecimento Facial”, revelou que o viés algorítmico leva à falha na detecção de certos grupos demográficos, resultando em um “epistemicídio computacional”.

A pesquisa, defendida nesta segunda-feira (11) no Instituto de Computação (IC) da Unicamp, sob orientação da professora Sandra Avila e coorientação da antropóloga Marisol Marini (USP), combina reflexão teórica e experimentos computacionais para analisar desigualdades em arquiteturas de detecção facial amplamente utilizadas. Os resultados demonstram que o dano começa antes mesmo da identificação, quando o sistema não consegue sequer reconhecer um rosto como válido, afetando desproporcionalmente idosos e grupos étnicos específicos.

O Epistemicídio Computacional e a Falha na Detecção

Nina da Hora introduz o conceito de “epistemicídio computacional”, inspirado nos trabalhos da filósofa Sueli Carneiro sobre o apagamento de sujeitos negros na produção do conhecimento. Segundo a pesquisadora, os sistemas de reconhecimento facial simplificam realidades complexas, transformando a diversidade humana em categorias rígidas e falhas.

Em um dos experimentos, auditando arquiteturas de detecção facial com uma base de dados criada pela Meta (dona de Facebook, Instagram e WhatsApp), a partir de vídeos de pessoas de países como Brasil, Índia, Síria e Indonésia, os resultados foram alarmantes. Pessoas acima de 85 anos tiveram uma taxa de detecção de apenas 44%, enquanto grupos mais jovens alcançaram índices superiores a 90%. Em casos ainda mais extremos, a pesquisa identificou grupos com 0% de detecção, ou seja, completamente invisíveis para os sistemas.

“O dano já começa antes, quando o sistema sequer detecta aquele rosto como um rosto válido”, explica Nina da Hora. Essa falha inicial tem implicações profundas, pois a não detecção é o primeiro passo para a exclusão e a reprodução de preconceitos em larga escala, transformando pessoas em meros padrões de vigilância.

Veja também:

  • IA revoluciona produção de filmes e cria novos negócios no cinema
  • Agentes de IA Elevam Blip a Novo Patamar em Conversas Inteligentes

Vieses Algorítmicos e Seus Impactos Reais

Os problemas identificados pela pesquisa da Unicamp não são isolados. Estudos globais e nacionais têm consistentemente demonstrado que algoritmos de reconhecimento facial apresentam vieses significativos. A pesquisa “Gender Shades”, do MIT Media Lab, por exemplo, revelou taxas de erro de até 34,7% para mulheres negras, enquanto para homens brancos essa taxa era inferior a 1%.

No Brasil, o impacto desses vieses é particularmente grave no contexto da segurança pública. Relatórios apontam que a tecnologia de reconhecimento facial tem uma taxa de erro maior para mulheres, pessoas negras e trans. Um levantamento da Rede de Observatórios da Segurança, em 2019, indicou que 90% das pessoas presas por meio de reconhecimento facial no país eram negras, evidenciando como a tecnologia aprofunda o racismo estrutural e a violência policial.

A Agência Brasil, em 2024, destacou que a tecnologia pode gerar prisões injustas e vigilância desproporcional. O uso em estádios, por exemplo, expõe torcedores que já sofrem violências sistemáticas a uma insegurança adicional e constrangimento. Além disso, a tecnologia fere o Estatuto da Criança e do Adolescente (ECA) em relação à hipervulnerabilidade de menores de idade, exigindo maior atenção no tratamento de seus dados.

A Origem dos Vieses: Dados e Desenvolvimento

A principal causa desses vieses reside nos dados utilizados para treinar os algoritmos de inteligência artificial. Muitos desses sistemas são desenvolvidos com bases de dados que carecem de diversidade, sendo predominantemente compostas por imagens de homens brancos. Isso significa que os algoritmos aprendem a identificar com maior precisão características faciais de um grupo específico, falhando ao processar rostos que se desviam desse padrão.

A falta de diversidade nas equipes de desenvolvimento de tecnologia também contribui para o problema. Quando as equipes não consideram diferentes perspectivas e experiências, o risco de incorporar vieses involuntários nos algoritmos aumenta. Os departamentos de pesquisa e desenvolvimento, assim como outros espaços sociais, reproduzem desigualdades, e a ausência de mulheres negras e outros grupos minorizados nesses ambientes se reflete diretamente na programação dos softwares.

O Uso no Brasil e os Desafios Éticos e Regulatórios

A tecnologia de reconhecimento facial tem se espalhado rapidamente pelo Brasil, sendo utilizada em diversos setores, desde a segurança pública em grandes cidades e estádios até condomínios e sistemas de cotas em vestibulares. Em 2024, o mercado movimentou R$ 14 bilhões, com expectativa de crescimento de mais de 22% em 2025.

No entanto, essa proliferação levanta sérias preocupações éticas e jurídicas. A falta de regulamentação específica e robusta para o uso do reconhecimento facial no Brasil é um obstáculo considerável, intensificando as preocupações com privacidade, consentimento e possíveis discriminações. A Lei Geral de Proteção de Dados (LGPD) estabelece a necessidade de maior atenção ao tratamento de dados de crianças e adolescentes, mas a aplicação prática ainda é um desafio.

Organizações da sociedade civil e pesquisadores têm criticado o uso indiscriminado da tecnologia, especialmente na segurança pública, argumentando que ela pode aprofundar o racismo estrutural e a misoginia. A campanha “Tire Meu Rosto da Sua Mira” mobiliza a sociedade pelo banimento total do uso de reconhecimento facial na segurança pública brasileira, destacando que as falhas do sistema agravam o histórico de violência policial contra a juventude negra e periférica.

Caminhos para um Futuro Mais Justo

Diante dos desafios expostos, a pesquisa de Nina da Hora e outros estudos apontam para a urgência de uma mudança de abordagem. É fundamental questionar a insistência em tecnologias que transformam pessoas em padrões de vigilância, como ressalta a pesquisadora da Unicamp.

Soluções potenciais incluem: investir em infraestrutura tecnológica e pesquisa para aprimorar os algoritmos; treinar os sistemas com dados mais diversificados e representativos da população global; aumentar a diversidade nas equipes de desenvolvimento de IA; e, crucialmente, desenvolver uma legislação robusta e ética que garanta a proteção dos direitos fundamentais e a transparência algorítmica.

A contribuição multidisciplinar de Nina da Hora, que combina computação, antropologia, artes visuais, estudos raciais e filosofia, é um exemplo da abordagem necessária para enfrentar esses desafios complexos. Reconhecida internacionalmente como “hacker antirracista” por sua atuação na ética em inteligência artificial, sua pesquisa reforça a importância do debate acadêmico e social para construir tecnologias mais justas e inclusivas.

Artigos relacionados

ihu discute ai no diva claude desafia limites psique humana
IA – 11/05/2026

IHU Discute ‘AI no Divã’: Claude Desafia Limites da Psique Humana

openai lanca deployment company acelerar adocao ia corporativa
IA – 11/05/2026

OpenAI Lança ‘Deployment Company’ para Acelerar Adoção de IA Corporativa

canal de direita usa ia parodiar mascote eleitoral pilili
IA – 10/05/2026

Canal de direita usa IA para parodiar mascote eleitoral Pilili

nunes marques tse ia eleicoes 2026
Notícias – 11/05/2026

Nunes Marques assume TSE com foco na regulamentação da IA para Eleições 2026

Ofertas da semana

  • Samsung Odyssey G5 Ultrawide: Monitor Gamer com Quase 50% OFF na Amazon
    Ofertas

    Samsung Odyssey G5 Ultrawide: Monitor Gamer com Quase 50% OFF na Amazon

    12/05/2026

    VER OFERTA Samsung Odyssey G5 Ultrawide: Monitor Gamer com Quase 50% OFF na AmazonContinue

  • Desconto Exclusivo: Cartão PS Store de R$ 530 por R$ 480 no KaBuM!
    Ofertas

    Desconto Exclusivo: Cartão PS Store de R$ 530 por R$ 480 no KaBuM!

    12/05/2026

    VER OFERTA Desconto Exclusivo: Cartão PS Store de R$ 530 por R$ 480 no KaBuM!Continue

© 2026 - Mundo Mi

Notícias, reviews, dicas e tutoriais sobre Xiaomi, Tecnologia, IA e muito mais ! O site mundomi.com.br é um site independente, portanto não somos um site oficial da Xiaomi. Xiaomi e Mi são propriedade da Xiaomi Inc.
Este site faz parte do programa Associados Amazon, Mercado Livre e outros. Quando você compra através de nossos links, podemos ganhar uma comissão sem nenhum custo para você.

</ HxDevs >

Institucional

    Política de privacidade Termos de uso Contato
  • Notícias
  • Ofertas
  • IA
  • Top
  • Celulares
  • Games
  • WebStories
Pesquisa