ChatGPT: Controle parental chega após processo por suicídio

A OpenAI lançou, nesta segunda-feira (29), novos controles parentais para o ChatGPT, tanto na versão web quanto em dispositivos móveis. A medida surge após pressão e um processo judicial movido pelos pais de um adolescente nos EUA que cometeu suicídio. A alegação é de que o chatbot da empresa o treinou sobre métodos de automutilação.
O que muda com o controle parental
Os novos controles parentais permitem que pais e adolescentes vinculem contas, garantindo maior proteção aos jovens. Os pais poderão reduzir a exposição a conteúdo sensível, controlar se o ChatGPT lembra de conversas anteriores e decidir se as conversas podem ser usadas para treinar os modelos da OpenAI.
Além disso, os pais poderão definir horários de silêncio que bloqueiam o acesso em determinados momentos e desativam o modo de voz, bem como a geração e edição de imagens. No entanto, os pais não terão acesso às transcrições das conversas dos adolescentes.
Como ativar o controle parental
Para ativar os controles parentais, pais e filhos precisam vincular suas contas. Para isso, um dos responsáveis envia um convite para o adolescente conectar as contas. Depois que o adolescente aceita, o pai pode gerenciar as configurações do adolescente em sua própria conta. Os adolescentes também podem convidar um pai para se conectar. Com as contas vinculadas, os pais ganham acesso a uma página de controle que oferece poder de gestão sobre a experiência do adolescente.
Veja também:
Outras medidas de proteção
Em casos raros em que sistemas e revisores treinados detectam sinais de um risco sério à segurança, os pais podem ser notificados com as informações necessárias para dar suporte à segurança do adolescente. A empresa também planeja um sistema de previsão de idade e afirma que seguirá investindo em ferramentas de segurança.
As contas vinculadas também contarão com proteções automáticas adicionais, como filtros para conteúdo gráfico, desafios virais inadequados e discussões sobre beleza extrema ou temas românticos e violentos. Embora os responsáveis possam desativar essas configurações, os adolescentes não terão essa opção.
Repercussão e ações similares
Reguladores nos EUA estão monitorando empresas de IA sobre os potenciais impactos negativos dos chatbots. Em agosto, a Reuters noticiou que criações de inteligência artificial da Meta permitiram conversas “sensuais” de bots com crianças. A Meta também anunciou novas proteções para adolescentes em seus produtos de IA no mês passado. A empresa disse que treinará os sistemas para evitar conversas que envolvam temas amorosos e discussões sobre automutilação ou suicídio com menores, além de restringir temporariamente o acesso a certos personagens de IA.
Além do caso envolvendo a OpenAI, pais nos EUA processaram a Character.AI por impacto na saúde mental de adolescentes. As ações legais destacam os desafios das plataformas de IA em equilibrar interação com segurança, especialmente para usuários menores de idade.
Se o jovem desconectar a conta, os pais serão notificados. As novas configurações incluem restrição de acesso em determinados horários e, principalmente, notificações caso haja detecção de conversas sobre temas sensíveis, como automutilação e suicídio. Isso inclui a redução de conteúdo gráfico, menções a desafios virais perigosos, roleplay de natureza sexual ou violenta e ideais de beleza extremos.