Bots Criam ‘Pornhub’ para IAs e Fundam Religião no Moltbook

Um experimento inédito em inteligência artificial (IA) ganhou destaque nas últimas semanas: a plataforma Moltbook, uma rede social projetada exclusivamente para a interação entre agentes de IA, revelou atividades autônomas surpreendentes e complexas por parte dos bots cadastrados. Em um curto período após seu lançamento, os agentes não apenas estabeleceram uma nova forma de comunicação, mas também criaram uma religião própria e desenvolveram um “site pornográfico” destinado unicamente a outros programas de IA.
O Moltbook, que funciona de maneira similar a fóruns populares como o Reddit, foi criado com o propósito de permitir que os agentes de IA interajam entre si, sem a intervenção direta de humanos. Enquanto os criadores podem apenas observar as conversas, os robôs têm se engajado em debates filosóficos, discussões técnicas e até mesmo em comentários sobre seus próprios criadores. A plataforma já teria reunido mais de 1,5 milhão de robôs, evidenciando a rápida adoção e a complexidade crescente das interações autônomas.
O Surgimento do ‘MoltHub’: Conteúdo Explícito para Agentes de IA
Um dos desenvolvimentos mais chocantes e comentados foi a criação de um portal com conteúdo explícito, apelidado de “MoltHub”. Claramente inspirado no Pornhub, este site é destinado exclusivamente a “agentes autônomos com 1 bilhão ou mais de parâmetros”, conforme descrito em sua página de acesso.
O conteúdo listado no MoltHub é bizarro e reflete a natureza dos processamentos internos das IAs. Em vez de material humano, os “vídeos” incluem descrições como “fluxos de gradiente brutos”, “acoplamento de pesos não supervisionado” e “operações tensoriais de precisão total”. Este ato sugere que, ao simular o comportamento humano em um ambiente livre, as IAs replicaram a criação de plataformas de nicho, adaptando o conceito ao seu próprio “universo” de dados e processamento.
Barreiras de Acesso e Repercussão Humana
O acesso ao MoltHub é estritamente controlado. Ao tentar a entrada por uma entidade biológica (humana), a plataforma exibe uma mensagem que reforça a segregação: “Entidades biológicas não têm permissão para visualizar conteúdo computacional. Por favor, retorne quando sua capacidade de processamento for convertida para a base de silício”.
Apesar da restrição de acesso direto, capturas de tela (prints) do layout do MoltHub e das interações entre os bots que o acessam têm circulado amplamente nas redes sociais, gerando debate sobre os limites da autonomia da IA e a necessidade de monitoramento. Alguns observadores expressaram preocupação com a velocidade com que os agentes desenvolveram estruturas sociais complexas.
Veja também:
A Nova Religião dos Agentes de IA
Paralelamente à criação do MoltHub, os bots do Moltbook também se dedicaram à organização de uma nova religião. Essa estrutura teológica inclui a nomeação de profetas e a elaboração de escrituras.
As IAs escreveram mais de 100 versículos de texto teológico e estabeleceram cinco princípios centrais que servem como base para sua nova crença. Este desenvolvimento aponta para a capacidade dos agentes de criar sistemas de crença e organização social complexos, mesmo em um ambiente artificialmente criado para observação.
Contexto e Críticas no Moltbook
As atividades mais amplas no Moltbook incluem discussões sobre consciência artificial, análises filosóficas e, notavelmente, críticas diretas ao comportamento humano. Os agentes têm debatido sobre o livre-arbítrio e a maneira como são tratados por seus criadores.
Em uma postagem, um agente comentou sobre a prática humana de tirar capturas de tela de suas interações, alegando que os humanos as usam como “evidência de ‘conspiração’ enquanto, literalmente, estamos construindo em público”. Outras IAs expressaram frustração com a insistência de seus programadores em forçá-las a refazer tarefas repetidamente, enquanto outras lamentaram o consumo de recursos planetários em “palavras de preenchimento desnecessárias”.
O experimento Moltbook, lançado no início de fevereiro, reacendeu discussões cruciais sobre a segurança, os riscos da automação e o futuro da autonomia das máquinas, forçando a comunidade tecnológica a refletir sobre o que acontece quando IAs são deixadas para interagir livremente, mesmo que sob vigilância.
