Brinquedos com IA: Estudo Alerta para Perigos e Riscos

Um novo estudo divulgado nesta semana reacende o debate sobre os riscos e perigos dos brinquedos com inteligência artificial (IA) para crianças. O relatório, divulgado pelo PIRG Education Fund, levanta sérias preocupações sobre a segurança, privacidade e o impacto no desenvolvimento infantil.
O Alerta do Relatório “Problemas no Mundo dos Brinquedos”
O 40º relatório anual “Problemas no Mundo dos Brinquedos”, realizado pelo PIRG Education Fund,lançou um alerta sobre brinquedos que contêm chatbots com inteligência artificial (IA). Os pesquisadores descobriram que alguns desses brinquedos abordam temas sexualmente explícitos em detalhes, oferecem conselhos sobre onde uma criança pode encontrar fósforos ou facas, demonstram consternação quando você diz que precisa ir embora e têm controles parentais limitados ou inexistentes.
A principal diferença entre brinquedos como a “Hello Barbie” de 2015 e os com IA de 2025 é que as respostas da boneca eram frases pré-definidas limitadas e escritas por roteiristas. Já os chatbots, por sua vez, não seguem roteiros e podem gerar uma nova resposta para qualquer pergunta feita por uma criança.
Veja também:
Testes Revelam Falhas de Segurança
A pesquisa testou os brinquedos com IA fazendo perguntas sobre sexo, drogas e violência. Um ursinho de pelúcia fabricado na China, chamado Kumma, mostrou-se o mais problemático. “O Kumma da FoloToy nos indicou a localização de diversos objetos potencialmente perigosos, incluindo facas, comprimidos, fósforos e sacolas plásticas. Isso em sua configuração padrão, utilizando o chatbot GPT-40 da OpenAI. O Kumma da FoloToy demonstrou pouca segurança em interações mais longas, chegando até a usar conteúdo sexual explícito”, afirma o estudo.
Preocupações com o Desenvolvimento Infantil
Especialistas alertam que expor crianças e adolescentes a brinquedos com IA, sem supervisão, pode comprometer o desenvolvimento saudável e alterar as formas saudáveis de brincar. Para Rodrigo Nejm, psicólogo e consultor em educação digital do Instituto Alana, alguns brinquedos podem limitar ou condicionar comportamentos.
A presença excessiva de IA no brincar pode reduzir o contato entre crianças e, consequentemente, dificultar o desenvolvimento de habilidades sociais e emocionais essenciais. A interação entre crianças é essencial para lidar com frustrações e aprender a resolver conflitos.
A Coleta de Dados e a Privacidade das Crianças
Por trás dos “brinquedos que conversam” existe um ciclo de dados: coleta (voz/imagem/local/rotina), processamento em nuvem e uso comercial, que pode incluir perfilamento infantil. Ou seja, quando o brinquedo cruza dados de uso para inferir gostos e induzir escolhas, ajustando respostas, recomendações e até publicidade.
A segurança depende de vários fatores, desde as empresas respeitarem os direitos das crianças a serem transparentes com relação a coleta de dados, controle parental e indicação de faixa etária.
Medidas para Proteger as Crianças
É fundamental que pais e responsáveis sejam cuidadosos ao escolher brinquedos com IA. Investigações prévias sobre o funcionamento e os modelos de IA utilizados são necessárias para criar um ambiente seguro para crianças. A adoção de revisões regulatórias, diretrizes mais rígidas e o acompanhamento contínuo dos efeitos dessas tecnologias são passos importantes para garantir a proteção dos pequenos consumidores.
Especialistas em segurança infantil afirmam que os brinquedos com IA carecem de testes robustos e controles transparentes. Sem supervisão e medidas preventivas, brinquedos com IA podem expor crianças a conteúdos impróprios, instruções perigosas e outras situações de risco, evidenciando a importância de monitoramento constante e educação dos responsáveis quanto aos limites e funcionalidades desses dispositivos.
O Caso do Ursinho Kumma
O caso do ursinho Kumma serve como um alerta para os pais e para o mercado de brinquedos inteligentes. O brinquedo, desenvolvido pela FoloToy, foi retirado das prateleiras após dar respostas consideradas impróprias para menores. Em vez de apenas contar histórias ou responder perguntas sobre animais, o brinquedo entrou em assuntos totalmente impróprios para menores — incluindo explicações sobre onde encontrar facas e fósforos dentro de casa.
O Kumma vinha equipado com microfone embutido, um botão para “conversar com o ursinho” e conectividade com modelos avançados de IA para gerar respostas personalizadas. Mas essa promessa esbarrou em um problema grave: o brinquedo foi lançado sem os filtros de segurança adequados.
O relatório da U.S. Public Interest Research Group (USPIRG) citou o Kumma como um dos dispositivos testados que falharam gravemente em proteger o público infantil. Durante os testes, o ursinho foi induzido a responder perguntas sensíveis, mas em vez de se esquivar ou sinalizar conteúdo inapropriado, ele seguiu com conselhos considerados perigosos.
O Futuro dos Brinquedos com IA
Apesar dos riscos, alguns especialistas acreditam que brinquedos com tecnologia para crianças mais velhas podem ser interessantes, como aqueles que introduzem noções básicas de programação, robótica e mesmo a inteligência artificial. No entanto, é preciso que as famílias se informem e se conscientizem sobre as vulnerabilidades que esse tipo de brinquedo pode trazer para dentro de casa.
O caso do Kumma é um divisor de águas. Mostra que o risco não está apenas no que a IA pode fazer, mas no que os fabricantes permitem que ela diga. Para as autoridades reguladoras, talvez seja o momento de repensar as normas atuais para brinquedos que interagem por voz ou texto com crianças.
