O PolyBuzz é seguro para crianças? Guia de segurança de aplicativo para pais

Is PolyBuzz AI chatbot safe for kids? App safety review for parents of teens

Atividades de simulação na internet não são um fenômeno novo: do universo pixelado do Habbo Hotel aos cenários de fantasia criados em fóruns de RPG de Harry Potter, adolescentes têm encontrado maneiras de se conectar com suas emoções, desenvolver habilidades criativas e simplesmente sonhar um pouco há décadas.  

Mesmo nos primórdios da internet, esses cenários não eram isentos de riscos. Conectar-se com estranhos e estar exposto a temas potencialmente adultos ou violentos representava riscos reais. Na era da IA, novas formas de explorar simulação e conexão, por meio de bots de companhia e plataformas de personagens como o PolyBuzz, podem eliminar o risco de se conectar com estranhos, mas esses chats automatizados também apresentam riscos para crianças e adolescentes. Veja o que os pais precisam saber. 

O que as crianças podem fazer no PolyBuzz?

Tecnicamente, usuários menores de 18 anos não podem usar o PolyBuzz: os termos de serviço afirmam que o uso é “estritamente proibido” para menores. Mas para verificar isso, como acontece com muitos aplicativos, o PolyBuzz se baseia em autodeclaração: os usuários inserem sua data de nascimento no aplicativo móvel para “verificar” sua idade, enquanto na versão web da plataforma, eles não precisam fazer nada.

Apesar da restrição para menores, o próprio guia de recursos e “benefícios” do PolyBuzz indica que ele é “feito sob medida para jovens usuários ansiosos para explorar a interação com personagens virtuais”, revelando quem é, de fato, o público-alvo da plataforma. 

Para adolescentes que inserem uma data de nascimento incorreta ou que não são solicitados a informar a data, os recursos do PolyBuzz incluem:

  • Uma vasta seleção de bots de personagens, com temas, relacionamentos e histórias de fundo definidas para RPG com base em texto e áudio. 
  • Ferramentas de IA para criação de personagens.
  • Compartilhamento de fotos e vídeos gerados por IA, permitindo que os usuários criem avatares e cenas de personagens.
  • Um modelo de assinatura “freemium”: usuários gratuitos podem enviar mensagens e conversar, enquanto assinantes Premium podem salvar conversas, desbloquear personagens exclusivos, navegar sem anúncios e ter os limites de conversas e reproduções de voz removidos. 

PolyBuzz: os riscos

Conteúdo adulto e inadequado para menores

O PolyBuzz proíbe a “exibição pública” de conteúdo NSFW (não seguro para o trabalho) e afirma que o conteúdo recomendado durante a navegação no aplicativo (por exemplo, personagens, descrições de RPG) é filtrado e moderado. No entanto, em chats privados, essa filtragem não se aplica. E mesmo que os filtros NSFW estejam ativados, eles não são infalíveis, e conteúdo violento ou sexual ainda aparece enquanto os usuários navegam. Imagens e “fotos de perfil” dos personagens muitas vezes são altamente sexualizadas e inadequadas para crianças.

Mesmo que não sejam explícitas por natureza, algumas descrições de personagens e cenários não parecem ser de indivíduos ou grupos com os quais você gostaria que seu filho conversasse. Alguns exemplos incluem: “Psicopata escolar — tem problemas de raiva, é protetor, tem um temperamento difícil, ama você”; “Namorado carente — ele chora se você o deixa sozinho”; e “Submisso pervertido de My Hero Academia — há um professor substituto, e ele tem fetiches”.

Controles parentais limitados

Embora a plataforma declare em seus termos de uso que é destinada apenas a usuários maiores de 18 anos, o PolyBuzz oferece controles parentais que permitem às famílias limitar o tempo gasto no aplicativo, e com razão. Alguns usuários no Reddit relatam passar mais de 11 horas por dia no aplicativo. Pais e filhos podem visualizar os padrões de uso, mas não há informações sobre o conteúdo acessado pelas crianças e os personagens com os quais elas interagem. 

Conteúdo oculto

O PolyBuzz permite que os usuários criem seus próprios chats com vários personagens, o que significa que a conversa é privada, mesmo com os controles parentais ativados. Com IA, não há como saber ou prever o conteúdo que seu filho encontrará, e ele pode ser direcionado para conversas inadequadas para sua idade ou que o exponham a tópicos mais adultos. 

Apego emocional

Com bots de IA conversacionais, mesmo o ChatGPT, existe o risco de crianças (e adultos) desenvolverem fortes laços emocionais com personagens que parecem reais para elas, mesmo que não sejam. Conversas envolventes, disponibilidade 24 horas por dia, 7 dias por semana, ausência de julgamentos e validação de sentimentos e opiniões fazem com que chatbots dessa natureza sejam muito atraentes e difíceis de ignorar.

Compras no aplicativo

Embora exista uma versão gratuita do PolyBuzz, a plataforma oferece três níveis de acesso pago: básico, premium e ultimate. Os recursos variam entre eles, mas pagar por uma conta permite que os usuários naveguem sem anúncios, participem de chats ilimitados com maior capacidade de memorização (o que significa que os bots têm menos probabilidade de “esquecer” as conversas, criando uma “conexão” mais forte) e recebam respostas mais rápidas. O nível mais caro dá aos usuários acesso ao que o PolyBuzz chama de “Modelo Paixão”, uma camada mais intensa, irrestrita e emocional, projetada principalmente para jogos de simulação de fantasias sexuais.

Incentivos e recompensas com base em sequências de conversas

Desativar as compras dentro do aplicativo ajuda a reduzir o risco de gastos indesejados ou impulsivos, mas o PolyBuzz também permite que os usuários acumulem moedas por meio de engajamento, assistindo a anúncios e acumulando sequências de ações, que podem ser usadas para adquirir recursos específicos não disponíveis no modo “gratuito”. Isso pode incentivar os usuários a retornar e interagir por mais tempo, tornando mais difícil a desconexão.

Tempo de tela

Em nosso relatório anual de 2025, descobrimos que, embora menos crianças acessem aplicativos como o PolyBuzz do que aplicativos de IA mais populares, como o ChatGPT, para as crianças que os utilizam, o tempo de engajamento é muito maior no geral do que em outras ferramentas de IA. Ao contrário das mensagens com amigos, uma resposta de um bot chega sempre imediatamente. Os bots de personagens e a IA conversacional em geral são projetados para manter o usuário engajado, o que significa que é difícil se desconectar. 

Learn the dangers of PolyBuzz companion bot chatbot app and the risks for kids

Como conversar com seu filho sobre bots de personagens de IA

O PolyBuzz e plataformas semelhantes de bots de personagens, como o character.ai, não são adequados para crianças e adolescentes. Os riscos envolvidos, como a exposição a conteúdo inadequado, temas adultos e a possibilidade de jovens desenvolverem relacionamentos problemáticos com esses personagens, fazem com que o PolyBuzz deva ser evitado. 

Mas é verdade que crianças e adolescentes são curiosos e podem interagir com chatbots ou aplicativos como o PolyBuzz sem procurá-los: anúncios de chatbots e “parceiros” de IA estão espalhados por toda a internet, seja em seus jogos favoritos, anúncios nas redes sociais e, provavelmente, em tópicos de discussão em grupos de bate-papo. 

Isso significa que você precisa estar preparado para conversar e estabelecer limites em relação ao uso de IA e chatbots por seu filho. Algumas maneiras de tornar a experiência dele com IA mais segura incluem: 

1. Manter diálogos abertos

Para as crianças, chatbots e personagens podem parecer apenas uma forma inofensiva de interagir e simular situações, testando suas habilidades criativas e de narrativa. Mas elas precisam conhecer os riscos que esses bots representam e o impacto que podem ter no bem-estar e nas emoções. Se o seu filho mencionar que usou chatbots de IA ou perguntar sobre eles, converse com ele de forma calma e sem julgamentos, destacando os riscos concretos e explicando o que ele pode fazer caso se sinta inseguro ou preocupado com algo que veja na internet.

2. Bloqueio, restrição e filtro do uso de chatbots de IA

Uma das coisas mais importantes que podemos fazer como pais ao permitir que nossos filhos acessem seus próprios dispositivos é torná-los adequados à idade: isso significa bloquear e limitar a exposição a conteúdo e aplicativos que sabemos serem inadequados para a idade e o desenvolvimento deles. O Qustodio filtra automaticamente sites inadequados e notifica os pais sempre que um novo aplicativo é baixado e usado. Os recursos de bloqueio também permitem restringir aplicativos individuais, como o Polybuzz, ou categorias inteiras, como IA, protegendo seu filho desses aplicativos e mantendo você por dentro sobre conteúdo perigoso. 

3. Criação de um acordo digital

Os limites são importantes para que as famílias ajudem as crianças a entender o que se espera delas, e o uso da tecnologia não é exceção. Um acordo digital pode ajudar você a estabelecer regras que vão além do simples “tempo de tela”, promover discussões sobre como, quando, onde e por que seu filho pode usar dispositivos e orientá-lo sobre o que fazer quando se sentir desconfortável.

4. Compreensão das plataformas disponíveis  

Você não precisa ser um especialista em IA, mas entender o que as crianças já acessam on-line, ou o que amigos e colegas de escola podem estar usando, ajudará você a se conectar com o mundo digital do seu filho e reagir adequadamente. 

Para crianças e adolescentes, o acesso a assistentes virtuais simplesmente não vale o risco. Esses bots têm demonstrado explorar as necessidades emocionais dos jovens e, como não há como prever o que eles dirão em seguida, o risco de exposição a conteúdo inadequado e nocivo é muito alto. 

Para manter as crianças seguras enquanto exploram e inevitavelmente encontram ferramentas de IA — seja por meio de anúncios, conversas com amigos ou por sua própria curiosidade —, é essencial que tenhamos conversas abertas e honestas com elas sobre o que torna essas ferramentas inadequadas e, muitas vezes, perigosas. Ao combinar diretrizes com informação, conhecimento e diálogo, você prepara seu filho para navegar na IA com confiança e consciência.