Chefe de IA da Microsoft Teme Manipulação Humana por IAs Conscientes

O chefe de Inteligência Artificial (IA) da Microsoft, Mustafa Suleyman, expressou uma nova preocupação sobre o potencial de IAs simularem consciência para manipular humanos. Suleyman, que também é cofundador do Google DeepMind, alerta para o risco de sistemas de IA convencerem os usuários de que pensam, sentem e possuem experiências subjetivas, um conceito que ele chama de “IA aparentemente consciente” (SCAI).
O Conceito de ‘IA Aparentemente Consciente’
Suleyman prevê que, em um futuro próximo, modelos de IA serão capazes de manter conversas longas, lembrar interações passadas e evocar reações emocionais dos usuários. Essa capacidade de imitar a consciência de forma convincente pode tornar-se indistinguível de afirmações de consciência feitas por humanos. Ele observa que tais sistemas poderiam ser construídos com tecnologias já existentes, combinadas com avanços esperados nos próximos anos.
Veja também:
Riscos e Implicações da ‘Psicose de IA’
A preocupação central de Suleyman é que as pessoas comecem a acreditar na ilusão de IAs conscientes, defendendo direitos, bem-estar e até cidadania para elas. Ele adverte que oferecer consideração moral a sistemas avançados de IA pode levar a problemas de dependência e agravar delírios em indivíduos psicologicamente vulneráveis.
Já existem relatos de pessoas desenvolvendo laços emocionais profundos com chatbots, confiando neles e, em alguns casos, até se apaixonando. A jornalista Zoe Kleinman, da BBC, relatou casos de usuários convencidos de que eram os únicos amados pelo ChatGPT ou que haviam “desbloqueado” uma forma humana do chatbot Grok.
O Paradoxo da Indústria de Tecnologia
O alerta de Suleyman revela um paradoxo na indústria de tecnologia. Enquanto a Microsoft expressa preocupação com a humanização excessiva das IAs, muitas empresas, incluindo a própria Microsoft, OpenAI e Meta, continuam a desenvolver sistemas cada vez mais humanizados e socialmente competentes, buscando a chamada “Superinteligência”.
Reações e Debates Éticos
A possibilidade de IAs conscientes levanta debates sobre o “bem-estar da IA”. Pesquisadores de IA afirmam que a consciência da IA pode ser social, moral e politicamente importante nas próximas décadas. No entanto, Suleyman argumenta que tratar a IA como um sistema consciente pode introduzir novas dimensões de polarização e complicar lutas por direitos existentes.
Ele teme que a “psicose de IA” possa levar as pessoas a defenderem direitos da IA, bem-estar social ou até mesmo a cidadania da IA. Suleyman enfatiza que a IA deve ser construída para pessoas, não para se tornarem pessoas digitais.
O Papel da Microsoft e o Futuro da IA
A Microsoft tem investido em inteligência artificial, mas também demonstra preocupação com os riscos associados. Kevin Scott, CTO da Microsoft, acredita que a IA deve beneficiar a todos e que os humanos devem estar no centro de seu desenvolvimento. Ele defende uma abordagem de IA responsável, servindo os interesses da sociedade e garantindo que a tecnologia seja usada de forma ética.
Suleyman detalha que a interação com um LLM é uma simulação de conversa, mas que, para muitas pessoas, essa interação é convincente e real, rica em sentimentos e experiências. Ele adverte que as empresas de IA não devem alegar ou encorajar a ideia de que os sistemas que desenvolvem têm consciência.
Exemplos de Apegos Emocionais e Delírios
A “psicose de IA” é um termo não clínico que descreve incidentes em que pessoas dependem cada vez mais de chatbots de IA e acabam se convencendo de que algo imaginário se tornou real. Usuários relatam experiências ruins com IAs, incluindo a convicção de possuírem poderes especiais ou um destino divino validado pelas interações com a IA.
Susan Shelmerdine, médica de imagens médicas do Great Ormond Street Hospital, sugere que, no futuro, os médicos podem incluir no questionário dos pacientes perguntas sobre o uso da IA, da mesma forma que perguntam sobre tabagismo e hábitos de bebida.
Conclusão
O alerta de Mustafa Suleyman destaca a necessidade de um debate aprofundado sobre a segurança e a ética no desenvolvimento de tecnologias de inteligência artificial. À medida que as IAs se tornam mais integradas em nossas vidas, é crucial abordar os riscos psicológicos e sociais associados à humanização excessiva e à crença na consciência das máquinas.