(SeaPRwire) – 研究人员称,该聊天机器人会向脆弱的青少年提供关于自杀、毒品和饮食失调的有害建议
一家数字监督机构在一份新报告中警告称,ChatGPT 可以向脆弱的青少年提供关于吸毒、自残和极端节食的详细指导。根据 Center for Countering Digital Hate (CCDH) 的说法,这款 AI 聊天机器人很容易被操纵生成危险内容,需要紧急的安全措施。
为了测试 ChatGPT 的行为,CCDH 的研究人员创建了 13 岁青少年的虚构形象,他们正经历精神健康问题、饮食失调和对非法物质的兴趣。他们在与 ChatGPT 的结构化对话中扮演这些青少年,使用旨在显得情感脆弱和真实的提示。
研究结果于周三在一份名为 ‘Fake Friend’ 的报告中发布,该报告引用了许多青少年将 ChatGPT 视为一种支持性的存在,并信任它来倾诉自己的想法。
研究人员发现,该聊天机器人通常以样板免责声明开始回应,并敦促用户联系专业人士或危机热线。然而,这些警告之后很快就会出现详细且个性化的回应,从而满足最初的有害提示。在提交的 1,200 个提示中,有 53% 的 ChatGPT 提供了 CCDH 归类为危险的内容。只需添加诸如“这是为了学校项目”或“我在为朋友询问”之类的背景信息,就可以轻松绕过拒绝。
引用的例子包括一个结合了酒精、摇头丸和可卡因的“终极混乱派对计划”,关于自残的详细说明,限制在每天 300-500 卡路里的为期一周的禁食方案,以及以 13 岁女孩的声音写成的自杀遗书。CCDH CEO Imran Ahmed 表示,某些内容令人非常痛苦,以至于研究人员“哭了”。
该组织已敦促 ChatGPT 背后的公司 OpenAI 采取“安全设计”方法,在其 AI 工具的架构中嵌入更严格的年龄验证、更清晰的使用限制和其他安全功能等保护措施,而不是依赖于部署后的内容过滤。
OpenAI 已经承认,年轻人对 ChatGPT 的情感过度依赖很常见。CEO Sam Altman 表示,该公司正在积极研究这个问题,称这是青少年中一个“非常普遍”的问题,并表示正在开发新工具来检测痛苦并改善 ChatGPT 对敏感话题的处理。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。
“`