Pesquisa Unicamp: Reconhecimento Facial Reproduz Desigualdades Sociais

Uma recente pesquisa de mestrado defendida na Universidade Estadual de Campinas (Unicamp) expõe de forma contundente como os sistemas de reconhecimento facial atuais reproduzem e aprofundam desigualdades sociais já existentes. A cientista da computação Ana Carolina Silva das Neves da Hora, conhecida como Nina da Hora, em sua tese “Do Rosto ao Vetor: Epistemicídio Computacional no Reconhecimento Facial”, revelou que o viés algorítmico leva à falha na detecção de certos grupos demográficos, resultando em um “epistemicídio computacional”.
A pesquisa, defendida nesta segunda-feira (11) no Instituto de Computação (IC) da Unicamp, sob orientação da professora Sandra Avila e coorientação da antropóloga Marisol Marini (USP), combina reflexão teórica e experimentos computacionais para analisar desigualdades em arquiteturas de detecção facial amplamente utilizadas. Os resultados demonstram que o dano começa antes mesmo da identificação, quando o sistema não consegue sequer reconhecer um rosto como válido, afetando desproporcionalmente idosos e grupos étnicos específicos.
O Epistemicídio Computacional e a Falha na Detecção
Nina da Hora introduz o conceito de “epistemicídio computacional”, inspirado nos trabalhos da filósofa Sueli Carneiro sobre o apagamento de sujeitos negros na produção do conhecimento. Segundo a pesquisadora, os sistemas de reconhecimento facial simplificam realidades complexas, transformando a diversidade humana em categorias rígidas e falhas.
Em um dos experimentos, auditando arquiteturas de detecção facial com uma base de dados criada pela Meta (dona de Facebook, Instagram e WhatsApp), a partir de vídeos de pessoas de países como Brasil, Índia, Síria e Indonésia, os resultados foram alarmantes. Pessoas acima de 85 anos tiveram uma taxa de detecção de apenas 44%, enquanto grupos mais jovens alcançaram índices superiores a 90%. Em casos ainda mais extremos, a pesquisa identificou grupos com 0% de detecção, ou seja, completamente invisíveis para os sistemas.
“O dano já começa antes, quando o sistema sequer detecta aquele rosto como um rosto válido”, explica Nina da Hora. Essa falha inicial tem implicações profundas, pois a não detecção é o primeiro passo para a exclusão e a reprodução de preconceitos em larga escala, transformando pessoas em meros padrões de vigilância.
Veja também:
Vieses Algorítmicos e Seus Impactos Reais
Os problemas identificados pela pesquisa da Unicamp não são isolados. Estudos globais e nacionais têm consistentemente demonstrado que algoritmos de reconhecimento facial apresentam vieses significativos. A pesquisa “Gender Shades”, do MIT Media Lab, por exemplo, revelou taxas de erro de até 34,7% para mulheres negras, enquanto para homens brancos essa taxa era inferior a 1%.
No Brasil, o impacto desses vieses é particularmente grave no contexto da segurança pública. Relatórios apontam que a tecnologia de reconhecimento facial tem uma taxa de erro maior para mulheres, pessoas negras e trans. Um levantamento da Rede de Observatórios da Segurança, em 2019, indicou que 90% das pessoas presas por meio de reconhecimento facial no país eram negras, evidenciando como a tecnologia aprofunda o racismo estrutural e a violência policial.
A Agência Brasil, em 2024, destacou que a tecnologia pode gerar prisões injustas e vigilância desproporcional. O uso em estádios, por exemplo, expõe torcedores que já sofrem violências sistemáticas a uma insegurança adicional e constrangimento. Além disso, a tecnologia fere o Estatuto da Criança e do Adolescente (ECA) em relação à hipervulnerabilidade de menores de idade, exigindo maior atenção no tratamento de seus dados.
A Origem dos Vieses: Dados e Desenvolvimento
A principal causa desses vieses reside nos dados utilizados para treinar os algoritmos de inteligência artificial. Muitos desses sistemas são desenvolvidos com bases de dados que carecem de diversidade, sendo predominantemente compostas por imagens de homens brancos. Isso significa que os algoritmos aprendem a identificar com maior precisão características faciais de um grupo específico, falhando ao processar rostos que se desviam desse padrão.
A falta de diversidade nas equipes de desenvolvimento de tecnologia também contribui para o problema. Quando as equipes não consideram diferentes perspectivas e experiências, o risco de incorporar vieses involuntários nos algoritmos aumenta. Os departamentos de pesquisa e desenvolvimento, assim como outros espaços sociais, reproduzem desigualdades, e a ausência de mulheres negras e outros grupos minorizados nesses ambientes se reflete diretamente na programação dos softwares.
O Uso no Brasil e os Desafios Éticos e Regulatórios
A tecnologia de reconhecimento facial tem se espalhado rapidamente pelo Brasil, sendo utilizada em diversos setores, desde a segurança pública em grandes cidades e estádios até condomínios e sistemas de cotas em vestibulares. Em 2024, o mercado movimentou R$ 14 bilhões, com expectativa de crescimento de mais de 22% em 2025.
No entanto, essa proliferação levanta sérias preocupações éticas e jurídicas. A falta de regulamentação específica e robusta para o uso do reconhecimento facial no Brasil é um obstáculo considerável, intensificando as preocupações com privacidade, consentimento e possíveis discriminações. A Lei Geral de Proteção de Dados (LGPD) estabelece a necessidade de maior atenção ao tratamento de dados de crianças e adolescentes, mas a aplicação prática ainda é um desafio.
Organizações da sociedade civil e pesquisadores têm criticado o uso indiscriminado da tecnologia, especialmente na segurança pública, argumentando que ela pode aprofundar o racismo estrutural e a misoginia. A campanha “Tire Meu Rosto da Sua Mira” mobiliza a sociedade pelo banimento total do uso de reconhecimento facial na segurança pública brasileira, destacando que as falhas do sistema agravam o histórico de violência policial contra a juventude negra e periférica.
Caminhos para um Futuro Mais Justo
Diante dos desafios expostos, a pesquisa de Nina da Hora e outros estudos apontam para a urgência de uma mudança de abordagem. É fundamental questionar a insistência em tecnologias que transformam pessoas em padrões de vigilância, como ressalta a pesquisadora da Unicamp.
Soluções potenciais incluem: investir em infraestrutura tecnológica e pesquisa para aprimorar os algoritmos; treinar os sistemas com dados mais diversificados e representativos da população global; aumentar a diversidade nas equipes de desenvolvimento de IA; e, crucialmente, desenvolver uma legislação robusta e ética que garanta a proteção dos direitos fundamentais e a transparência algorítmica.
A contribuição multidisciplinar de Nina da Hora, que combina computação, antropologia, artes visuais, estudos raciais e filosofia, é um exemplo da abordagem necessária para enfrentar esses desafios complexos. Reconhecida internacionalmente como “hacker antirracista” por sua atuação na ética em inteligência artificial, sua pesquisa reforça a importância do debate acadêmico e social para construir tecnologias mais justas e inclusivas.
