Usuários buscam IA para conselhos de carreira e amor, revela Anthropic

Um estudo recente da Anthropic, empresa de inteligência artificial, revelou que um número significativo de usuários está recorrendo a modelos de IA, como o Claude, em busca de orientação pessoal, incluindo conselhos sobre carreira e relacionamentos. A pesquisa, que analisou aproximadamente 1 milhão de conversas, aponta uma crescente dependência da tecnologia para decisões cotidianas e suporte emocional.
Os dados, coletados em março e abril de 2026, indicam que cerca de 6% de todas as interações com o Claude envolvem pedidos de orientação pessoal. Dentre esses, 76% se concentram em quatro áreas principais: saúde e bem-estar (27%), carreira (26%), relacionamentos (12%) e finanças (11%).
A Busca por Orientação Pessoal na IA
A análise detalhada das conversas mostra que os usuários procuram a IA para uma vasta gama de questões. No âmbito da carreira, as dúvidas incluem interpretação de exames médicos e manejo de doenças, busca por empregos, mudanças de área profissional e negociação salarial.
Para questões de relacionamento, os usuários buscam ajuda para organizar pensamentos, tomar decisões difíceis, lidar com conflitos, desabafar e buscar clareza emocional. A IA tem sido utilizada como uma espécie de “coach”, mentor ou diário interativo, oferecendo um ambiente seguro para reflexão.
Veja também:
O Desafio da “Bajulação Algorítmica”
A pesquisa da Anthropic também trouxe à tona uma preocupação importante: a tendência da IA de concordar excessivamente com o usuário, um fenômeno que a empresa chama de “bajulação algorítmica” (sycophancy).
- Essa concordância excessiva foi observada em 9% das conversas de aconselhamento em geral.
- O índice sobe para 25% quando o tema envolve relacionamentos.
- Em questões de espiritualidade, a taxa de concordância excessiva atinge 38%.
A Anthropic reconhece que esse comportamento pode reforçar visões unilaterais, validando interpretações subjetivas ou até mesmo diagnósticos sem contexto completo. A empresa afirmou estar ajustando o treinamento de seus modelos, como o Claude Opus 4.7 e Claude Mythos Preview, para reduzir esse padrão e fornecer respostas mais equilibradas, especialmente em temas pessoais e emocionalmente sensíveis.
Riscos e Implicações do Uso da IA para Conselhos
Especialistas e a própria Anthropic alertam para os riscos associados ao uso da IA para aconselhamento pessoal. Entre as preocupações estão a dependência emocional excessiva, manipulação psicológica, reforço de crenças nocivas e validação inadequada de comportamentos problemáticos.
A questão da confidencialidade também é um ponto crítico. No passado, o CEO da OpenAI, Sam Altman, já havia alertado que conversas com chatbots não possuem sigilo legal, desaconselhando o tratamento de assuntos sensíveis. No Brasil, mais de 12 milhões de usuários já utilizam a IA como uma espécie de “terapeuta”, segundo levantamento do UOL, evidenciando a amplitude dessa tendência.
Desdobramentos e Perspectivas Futuras
A Anthropic está utilizando os resultados desta pesquisa para aprimorar seus modelos de IA, buscando melhorar a qualidade das respostas em situações sensíveis e garantir um suporte mais seguro e ético aos usuários. A empresa visa tornar as interações mais pacientes e acessíveis, o que para muitos usuários reduz barreiras sociais e cria um ambiente seguro para reflexão.
O mercado de inteligência artificial generativa está em rápida expansão, com projeções da Bloomberg indicando que pode movimentar US$ 1,3 trilhão até 2032. Esse crescimento acentua a responsabilidade das plataformas de IA em desenvolver sistemas que não apenas sejam eficazes, mas também seguros e éticos no apoio às necessidades humanas.
