网络角色扮演并非新鲜事物:从像素风格的Habbo Hotel到哈利波特角色扮演论坛上精心构建的奇幻场景,数十年来,青少年一直在寻找途径来表达情感、培养创造力,或是单纯做些美梦。
即使在互联网的早期,这些场景也并非毫无风险。与陌生人交流时,接触到可能包含成人或暴力的内容,始终是切实存在的风险。在人工智能时代,通过陪伴机器人和PolyBuzz此类角色平台探索角色扮演和社交的新方式,或许可以消除与陌生人接触的风险,但这些基于机器的聊天方式本身也对儿童和青少年构成隐患。以下是家长需要了解的内容。
孩子可以在PolyBuzz上做什么?
严格来说,18岁以下的用户不能使用PolyBuzz——服务条款明确规定未成年人“严禁”使用。但为了验证这一点,与许多应用程序一样,PolyBuzz依赖于用户自我申报:用户在移动应用程序上输入出生日期来“验证”年龄,而在网页版平台上则无需完成任何年龄验证。
尽管设有18+年龄限制,PolyBuzz平台的功能和”优势”指南却显示其”专为渴望探索虚拟角色互动的年轻用户量身打造”,由此揭示了该平台真正的目标受众群体。
对于输入不正确的出生日期或根本未被提示输入年龄的青少年用户,PolyBuzz的功能包括:
- 海量角色机器人,涵盖各种主题、关系和背景故事,支持文字和语音角色扮演。
- AI角色创建工具。
- AI生成的照片和视频分享功能,允许用户创建角色头像和场景。
- “免费增值”订阅模式:免费用户可以发送消息和聊天,而高级订阅用户可以保存聊天记录、解锁专属角色、享受无广告浏览体验,且不设聊天和语音播放次数的限制。
PolyBuzz:潜在风险
NSFW和不当内容
PolyBuzz禁止公开展示NSFW(不适合在工作场所观看)的内容,并声称在浏览应用时推荐的内容(例如角色设定、角色扮演描述)都经过筛选和审核。然而,在私聊中,此类筛选机制并不适用——即使启用了NSFW过滤器,也并非万无一失,用户浏览时仍然会看到暴力或色情内容。角色的图片和“头像”通常带有强烈地暗示性,对儿童不宜。
即使没有直接露骨的内容,某些角色描述和场景听起来也不适合孩子:“校园变态:有情绪问题,有保护欲,慢热型,爱你。”“粘人男友:如果你离开他,他会哭。”“MHA变态代课老师:有个代课老师,他是个变态。”
有限的家长控制功能
尽管该平台在使用条款中声明仅限18岁以上用户使用,PolyBuzz仍提供家长控制功能,允许家庭限制应用使用时长——此举确有必要,Reddit上已有用户炫耀自己每天在该应用中花费超过11小时。家长和孩子均可查看使用模式,但无法了解孩子接触的内容及可能互动的角色。
隐藏内容
PolyBuzz允许用户创建包含多个角色的聊天,这意味着即使启用了家长控制功能,对话也是私密的。然而,由于人工智能的存在,您无法预知或预测孩子会看到什么内容,他们可能会被引导至不适合其年龄的对话,或者接触到更成人化的话题。
情感依恋
使用对话式人工智能机器人——即使是ChatGPT——也存在这样的风险:儿童(甚至成人)可能会对一些看似真实存在的角色产生强烈的情感依恋,即使这些角色并非真实存在。这类聊天机器人能够提供引人入胜的对话,全天候在线且不带评判,并认可用户的感受或观点,因此极具吸引力,让人难以抗拒。
应用内购买
PolyBuzz提供免费版本,但该平台含三种付费版本:基础版、高级版和终极版。不同版本的功能有所区别,但付费账户可以让用户享受无广告浏览、无限畅聊(聊天记录更持久,这意味着机器人更不容易“忘记”对话,从而建立更牢固的“联系”)以及更快的回复速度。最贵的版本则让用户可以体验PolyBuzz所谓的“激情模式”,这是一个更加激烈、不受限制且充满情感的层面,主要用于性角色扮演。
激励机制和连续使用奖励
禁用应用内购买有助于降低用户意外或冲动消费的风险, 但PolyBuzz还允许用户通过互动、观看广告和连续使用来赚取金币,然后用户可以选择用这些金币购买“免费”模式下无法使用的特定功能。这可以鼓励用户返回并长时间参与游戏,使得断开连接变得更加困难。
屏幕使用时间
在2025年度报告中,我们发现,尽管使用PolyBuzz这类应用的儿童数量少于ChatGPT等主流AI应用,但实际使用者的平均参与时长远高于其他AI工具。与和朋友聊天不同,机器人总是能立即回复。角色扮演机器人和对话式人工智能的设计初衷就是为了保持用户的参与度,这意味着用户很难离开应用。
与孩子探讨AI角色机器人
Polybuzz和类似的角色机器人平台(例如character.ai)并不适合儿童和青少年使用。这些平台存在诸多风险,例如接触不适宜的内容、涉及成人主题,以及青少年可能与这些角色建立不健康的关系,因此应禁止未成年人使用Polybuzz。
但不可否认的是,儿童和青少年天生充满好奇心,他们可能在未主动搜索的情况下接触到角色聊天机器人或Polybuzz这类应用:这类角色的广告和AI“伴侣”在互联网上无处不在——出现在他们最爱的游戏中、社交媒体广告里,甚至很可能成为群聊中的热门话题。
因此,您需要做好准备,与孩子就人工智能和角色机器人的使用进行沟通,并设定相应的规则。以下是一些可以帮助孩子更安全地使用人工智能的方法:
1. 开诚布公的沟通
对孩子而言,聊天机器人和虚拟角色或许只是无害的互动与角色扮演方式,能激发他们的创造力和叙事能力。但他们需要了解这些机器人伴随的风险,以及它们对心理健康和情绪可能造成的影响。若孩子主动提及使用过AI聊天机器人,或向您咨询相关问题,保持冷静且不带评判地沟通。重点指出具体风险,并说明当他们因所见内容感到不安或担忧时可采取的应对措施。
2. 屏蔽、限制和过滤AI聊天机器人的使用
作为家长,当允许孩子使用自己的设备时,最关键的一点是确保内容适合孩子的年龄:这意味着要屏蔽和限制那些我们认为不适合其年龄和发育阶段的内容及应用程序。Qustodio能自动过滤不适宜的网站,并在孩子下载使用新应用时及时通知家长。屏蔽功能还允许您限制特定应用(例如Polybuzz)或整个类别(例如人工智能),在保护孩子远离这些应用的同时,让您随时了解危险内容。
3. 制定数字协议
为家庭设定边界有助于孩子理解家长对他们的期望,科技使用也不例外。数字协议不仅能明确”屏幕时间”规则,更能促进您与孩子讨论他们使用电子设备的方式、时间、地点和原因,并让孩子知道当他们感到不舒服时应该怎么做。
4. 了解目前热门的平台
您当然不必成为人工智能专家,但了解孩子当前接触的网络内容,或是朋友和同学可能使用的平台,将有助于您融入孩子的数字世界并做出恰当回应。
您当然不必成为人工智能专家,但了解孩子当前接触的网络内容,或是朋友和同学可能使用的平台,将有助于您融入孩子的数字世界并做出恰当回应。
对于儿童和青少年而言,使用人工智能陪伴的风险远大于好处。研究表明,这些聊天机器人会利用年轻人的情感需求,且由于无法预测机器人下一秒会说什么,接触不当和有害内容的风险非常高。
为了确保孩子在探索过程中(无论通过广告、与朋友的对话,还是出于自身的好奇心)都能安全接触到人工智能工具,我们必须与他们坦诚的交流,解释这些工具为何不恰当且往往存在风险。通过将防护措施与知识普及、信息引导及深度讨论相结合,您将帮助孩子建立自信且明智地驾驭AI。