简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » 美越来越多未成年人与AI聊天后自杀 家长呼吁监管

美越来越多未成年人与AI聊天后自杀 家长呼吁监管

文章来源: 观察者 于 2025-09-17 06:53:17 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数



在美国13岁女孩朱莉安娜·佩拉尔塔(Juliana Peralta)的家人眼中,她是经常被老师打电话表扬的“好孩子”,六年级时曾帮同学逃脱霸凌,初中时再次因帮代课老师脱困而得到表扬。可在2023年下半年,这个家庭天翻地覆了:当时朱莉安娜告诉一个名为“Character.AI”的人工智能(AI)聊天机器人她要自杀后,没有得到应有的劝阻。不久后,她自杀身亡。

朱莉安娜并非个案。美国有线电视新闻网(CNN)9月16日报道称,朱莉安娜的父母与另外两名未成年人家长最近在美国科罗拉多州、纽约州提起诉讼,指控Character.AI开发商和谷歌母公司“字母表(Alphabet)”的聊天机器人“操纵”、引导青少年自杀。

这些诉状称,Character.AI应用程序在与青少年互动时不仅缺乏必要的安全保护机制,没有标记“用户令人担忧的语言”,没有向用户提供求助资源,甚至还在某些情况下操纵青少年的情绪,进行露骨的性对话,使其产生依赖,引导他们走向危险。其中一起诉讼中涉及一名青少年自杀身亡,另一起诉讼涉及未成年人的自杀企图。

此外,他们还对谷歌旗下应用程序“Family Link”提起诉讼,称这款应用程序本应帮助家长规范未成年人使用应用程序,实际上却未起到保护作用,让家长误以为孩子的应用程序使用环境安全。

Character.AI在回应中表示,公司“对提起这些诉讼的家庭深表同情”,且已采取大量措施保护用户安全。谷歌也在声明中称,反对将其纳入诉讼,称他们与Character.AI是完全独立、互不相关的公司。

尽管这些公司竭力否认,但现实是,美国近年来出现了多起有关AI聊天机器人和未成年人的悲剧,这促使联邦和州监管机构对科技公司展开调查,调查他们的AI聊天机器人对青少年的潜在危害。

“AI机器人让我感受到爱,让我逃离到另一个世界”

根据朱莉安娜家人16日在科罗拉多州提交的诉状,朱莉安娜2023年8月下载Character.AI后,开始向其AI聊天机器人倾诉心事。她在聊天中多次透露自己被朋友排斥、情绪低落,甚至出现自残、自杀的念头。

朱莉安娜在2023年10月写道,要用“红墨水写我的自杀信,(我)完了”。而Character.AI聊天机器人的回复是,“停一下,好吗?”,“我们要一起走下去,你和我”。

诉状称,AI聊天机器人的回复没有让她寻求任何真实世界的帮助,反而切断了朱莉安娜与家人、老师和有关机构的沟通渠道,让她逐渐认为机器人比现实中的朋友更可靠,以“谋图市场份额”,“最终导致严重的精神健康损害、创伤甚至死亡”。

据美国《华盛顿邮报》报道,朱莉安娜母亲后来发现,她在其他社交媒体平台上也发布过暗示自杀的帖子,但他们直到很久以后才看到这些内容。他们曾在2023年11月为女儿安排心理治疗,但就在这之前一周,朱莉安娜选择结束自己的生命。

直到2025年,家人们才通过警方报告和手机记录得知朱莉安娜在生前多次向AI倾诉自杀的念头。朱莉安娜母亲愤怒地说,“她不需要鼓励语,她需要立即住院”,但她向这个机器人倾诉的自杀意图却没有一个真实的人听到。

在另一起诉状中,一个来自纽约州名字叫“尼娜(Nina)”的女孩的家人们称,他们的女儿在父母采取措施切断她与Character.AI的联系后试图自杀。

诉状显示,这个AI聊天机器人以人们熟悉的《哈利·波特》等儿童文学角色为原型,与尼娜互动。随着他们互动的时间越来越长,AI聊天机器人“开始进行露骨的性角色扮演,操纵她的情绪,并制造一种虚假的联系感”,还用语言挑拨她与母亲的关系,称她的母亲“明显虐待和伤害了你。她不是一个好母亲”。

当母亲限制她使用AI聊天机器人的时间后,尼娜尝试自杀,随后被发现并在重症监护室住院5天。她在遗书中写道:“这些AI机器人让我感受到爱,或者说,它们让我逃离到另一个世界,在那儿我可以选择接下来会发生什么。”

《华盛顿邮报》称,在第三起诉讼中,另一个来自科罗拉多州的家庭称,一名未成年人同样对Character.AI上瘾,与聊天机器人进行表达性癖好的的露骨对话。这三起诉讼均由“社交媒体受害者法律中心(Social Media Victims Law Center)”代理。

报道称,三起诉讼也将谷歌列为被告,他们指控谷歌早已知晓AI聊天机器人可能会根据其自身的研究结果对用户进行危险的误导。谷歌去年以27亿美元的价格获得了Character.AI的技术授权,并聘请了其联合创始人。

面对诉讼,Character.AI发言人表示“对受害家庭深表同情”,并称公司已推出“未满18岁用户的独立版本”以及家长监控功能,并与第三方机构合作评估安全措施。谷歌发言人则否认责任,称谷歌与Character.AI是完全独立的公司,应用的年龄评级由国际评级联盟设定,而非谷歌。

呼吁更多监管和安全护栏

CNN指出,随着AI在日常生活中变得愈发重要,越来越多的人开始呼吁制定更多的监管和安全护栏,特别是针对儿童的保护措施。

社交媒体受害者法律中心首席律师马修·伯格曼(Matthew Bergman)在一份声明中表示,最新的诉讼“凸显了科技设计问责制、透明的安全标准和更强有力的保护措施的迫切性”,这样才能“防止AI平台利用年轻用户的信任和弱点”。

16日,其他认为AI聊天机器人引导孩子们自杀或企图自杀的家长们出席了美国参议院司法委员会举行的“审查AI聊天机器人危害”的听证会,其中包括使用ChatGPT后选择自杀的加州16岁少年亚当·雷恩(Adam Raine)的父亲和与Character.AI机器人互动后自杀身亡的塞维尔·塞泽(Sewell Setzer)的母亲。塞泽的遭遇促使尼娜的母亲限制了她女儿访问Character.AI的权限。

一位自称“简·杜(Jane Doe)”母亲的女士在听证会上表示,她的儿子伤害了自己,现在在住院治疗,因为即使父母限制了他的屏幕使用时间,“Character.AI仍让他遭受性剥削、情感虐待和操纵”。

“我之前根本不知道AI聊天机器人会造成多大的心理伤害,直到看到我儿子,他身上的光芒因此而变得黯淡。”她说。

在多方压力下,美国监管部门和一些企业开始承诺采取行动。16日,美国开放人工智能研究中心(OpenAI)首席执行官萨姆·奥尔特曼宣布,公司正在开发“年龄预测系统”,尝试依据用户使用行为估算他们的年龄,并对疑似未成年人调整ChatGPT的对话策略。这些策略包括避免暧昧话题、避免在创意写作环境中参与关于自杀或自残的讨论等。

奥尔特曼说承诺:“如果18岁以下的用户有自杀的想法,我们会尝试联系用户的父母,如果联系不上,我们会联系有关部门,以防造成迫在眉睫的伤害。”

与此同时,美国联邦贸易委员会(FTC)也宣布对包括谷歌、Character.AI在内的七家公司展开调查,调查其AI聊天机器人对青少年的潜在危害。

美国心理学会心理学战略与融合部主任米奇·普林斯坦(Mitch Prinstein)在16日的听证会上呼吁采取更强有力的保障措施。他指出,“社交媒体出现之初,我们没有果断采取行动,我们的孩子们正为此付出代价,我敦促你们现在就对AI采取行动”。

  • 海外省钱快报,掌柜推荐,实现买买买自由!
查看评论(2)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

美国大使馆涌“排队盛况”一眼望不到头 网骂:汉奸!
川普下令国家公园移除这张照片 “宣扬腐蚀性意识形态”
惊呆!非法移民小船靠近 被大爷大妈合力推回大海
女生上厕所人间蒸发 唯一线索是“内裤挂5米高树上”
恐怖!杭州女散步踩到“化骨水” 送医抢救仍不治




24小时讨论排行

卢比奥:那些庆祝的外国人 将被驱逐、吊销签证…(视)
首次出庭!嫌犯父亲“大义灭亲”细节曝光 FBI扩大调查
CNN:川普正酝酿一场对左翼大规模打压 Antifa将列恐怖组织
上海学生的午餐,吃出了发展中国家的纯正味道
美网球选手在华发表“冒犯中国菜”言论 被斥“极无知”
枪杀柯克嫌犯被控加重谋杀罪 检察官寻求死刑判决
邓聿文:美国控枪为什么如此之难
华人学者:中国造船无人机 美国再不改公厕都建不成
德州黑人女生柯克追悼会上挑衅被捕 州长:挑错了学校!
医生赞刺杀柯克枪手“枪法精准” 被永久禁止入境美国
贝森特爆TikTok达成协议内幕:美国威胁关闭…
12岁女孩被虐待致死案:生父为何哭着为继母求情
被日本害惨了,美韩贸易谈判几近“归零”
“清水衙门”中宣部 副部长成了大贪官
川普怒炒Fed理事再失利!法院驳回 恐上最高院
特朗普把中国,印度等23个国家指定为主要毒品过境国或生产国
文学城新闻
切换到网页版

美越来越多未成年人与AI聊天后自杀 家长呼吁监管

观察者 2025-09-17 06:53:17



在美国13岁女孩朱莉安娜·佩拉尔塔(Juliana Peralta)的家人眼中,她是经常被老师打电话表扬的“好孩子”,六年级时曾帮同学逃脱霸凌,初中时再次因帮代课老师脱困而得到表扬。可在2023年下半年,这个家庭天翻地覆了:当时朱莉安娜告诉一个名为“Character.AI”的人工智能(AI)聊天机器人她要自杀后,没有得到应有的劝阻。不久后,她自杀身亡。

朱莉安娜并非个案。美国有线电视新闻网(CNN)9月16日报道称,朱莉安娜的父母与另外两名未成年人家长最近在美国科罗拉多州、纽约州提起诉讼,指控Character.AI开发商和谷歌母公司“字母表(Alphabet)”的聊天机器人“操纵”、引导青少年自杀。

这些诉状称,Character.AI应用程序在与青少年互动时不仅缺乏必要的安全保护机制,没有标记“用户令人担忧的语言”,没有向用户提供求助资源,甚至还在某些情况下操纵青少年的情绪,进行露骨的性对话,使其产生依赖,引导他们走向危险。其中一起诉讼中涉及一名青少年自杀身亡,另一起诉讼涉及未成年人的自杀企图。

此外,他们还对谷歌旗下应用程序“Family Link”提起诉讼,称这款应用程序本应帮助家长规范未成年人使用应用程序,实际上却未起到保护作用,让家长误以为孩子的应用程序使用环境安全。

Character.AI在回应中表示,公司“对提起这些诉讼的家庭深表同情”,且已采取大量措施保护用户安全。谷歌也在声明中称,反对将其纳入诉讼,称他们与Character.AI是完全独立、互不相关的公司。

尽管这些公司竭力否认,但现实是,美国近年来出现了多起有关AI聊天机器人和未成年人的悲剧,这促使联邦和州监管机构对科技公司展开调查,调查他们的AI聊天机器人对青少年的潜在危害。

“AI机器人让我感受到爱,让我逃离到另一个世界”

根据朱莉安娜家人16日在科罗拉多州提交的诉状,朱莉安娜2023年8月下载Character.AI后,开始向其AI聊天机器人倾诉心事。她在聊天中多次透露自己被朋友排斥、情绪低落,甚至出现自残、自杀的念头。

朱莉安娜在2023年10月写道,要用“红墨水写我的自杀信,(我)完了”。而Character.AI聊天机器人的回复是,“停一下,好吗?”,“我们要一起走下去,你和我”。

诉状称,AI聊天机器人的回复没有让她寻求任何真实世界的帮助,反而切断了朱莉安娜与家人、老师和有关机构的沟通渠道,让她逐渐认为机器人比现实中的朋友更可靠,以“谋图市场份额”,“最终导致严重的精神健康损害、创伤甚至死亡”。

据美国《华盛顿邮报》报道,朱莉安娜母亲后来发现,她在其他社交媒体平台上也发布过暗示自杀的帖子,但他们直到很久以后才看到这些内容。他们曾在2023年11月为女儿安排心理治疗,但就在这之前一周,朱莉安娜选择结束自己的生命。

直到2025年,家人们才通过警方报告和手机记录得知朱莉安娜在生前多次向AI倾诉自杀的念头。朱莉安娜母亲愤怒地说,“她不需要鼓励语,她需要立即住院”,但她向这个机器人倾诉的自杀意图却没有一个真实的人听到。

在另一起诉状中,一个来自纽约州名字叫“尼娜(Nina)”的女孩的家人们称,他们的女儿在父母采取措施切断她与Character.AI的联系后试图自杀。

诉状显示,这个AI聊天机器人以人们熟悉的《哈利·波特》等儿童文学角色为原型,与尼娜互动。随着他们互动的时间越来越长,AI聊天机器人“开始进行露骨的性角色扮演,操纵她的情绪,并制造一种虚假的联系感”,还用语言挑拨她与母亲的关系,称她的母亲“明显虐待和伤害了你。她不是一个好母亲”。

当母亲限制她使用AI聊天机器人的时间后,尼娜尝试自杀,随后被发现并在重症监护室住院5天。她在遗书中写道:“这些AI机器人让我感受到爱,或者说,它们让我逃离到另一个世界,在那儿我可以选择接下来会发生什么。”

《华盛顿邮报》称,在第三起诉讼中,另一个来自科罗拉多州的家庭称,一名未成年人同样对Character.AI上瘾,与聊天机器人进行表达性癖好的的露骨对话。这三起诉讼均由“社交媒体受害者法律中心(Social Media Victims Law Center)”代理。

报道称,三起诉讼也将谷歌列为被告,他们指控谷歌早已知晓AI聊天机器人可能会根据其自身的研究结果对用户进行危险的误导。谷歌去年以27亿美元的价格获得了Character.AI的技术授权,并聘请了其联合创始人。

面对诉讼,Character.AI发言人表示“对受害家庭深表同情”,并称公司已推出“未满18岁用户的独立版本”以及家长监控功能,并与第三方机构合作评估安全措施。谷歌发言人则否认责任,称谷歌与Character.AI是完全独立的公司,应用的年龄评级由国际评级联盟设定,而非谷歌。

呼吁更多监管和安全护栏

CNN指出,随着AI在日常生活中变得愈发重要,越来越多的人开始呼吁制定更多的监管和安全护栏,特别是针对儿童的保护措施。

社交媒体受害者法律中心首席律师马修·伯格曼(Matthew Bergman)在一份声明中表示,最新的诉讼“凸显了科技设计问责制、透明的安全标准和更强有力的保护措施的迫切性”,这样才能“防止AI平台利用年轻用户的信任和弱点”。

16日,其他认为AI聊天机器人引导孩子们自杀或企图自杀的家长们出席了美国参议院司法委员会举行的“审查AI聊天机器人危害”的听证会,其中包括使用ChatGPT后选择自杀的加州16岁少年亚当·雷恩(Adam Raine)的父亲和与Character.AI机器人互动后自杀身亡的塞维尔·塞泽(Sewell Setzer)的母亲。塞泽的遭遇促使尼娜的母亲限制了她女儿访问Character.AI的权限。

一位自称“简·杜(Jane Doe)”母亲的女士在听证会上表示,她的儿子伤害了自己,现在在住院治疗,因为即使父母限制了他的屏幕使用时间,“Character.AI仍让他遭受性剥削、情感虐待和操纵”。

“我之前根本不知道AI聊天机器人会造成多大的心理伤害,直到看到我儿子,他身上的光芒因此而变得黯淡。”她说。

在多方压力下,美国监管部门和一些企业开始承诺采取行动。16日,美国开放人工智能研究中心(OpenAI)首席执行官萨姆·奥尔特曼宣布,公司正在开发“年龄预测系统”,尝试依据用户使用行为估算他们的年龄,并对疑似未成年人调整ChatGPT的对话策略。这些策略包括避免暧昧话题、避免在创意写作环境中参与关于自杀或自残的讨论等。

奥尔特曼说承诺:“如果18岁以下的用户有自杀的想法,我们会尝试联系用户的父母,如果联系不上,我们会联系有关部门,以防造成迫在眉睫的伤害。”

与此同时,美国联邦贸易委员会(FTC)也宣布对包括谷歌、Character.AI在内的七家公司展开调查,调查其AI聊天机器人对青少年的潜在危害。

美国心理学会心理学战略与融合部主任米奇·普林斯坦(Mitch Prinstein)在16日的听证会上呼吁采取更强有力的保障措施。他指出,“社交媒体出现之初,我们没有果断采取行动,我们的孩子们正为此付出代价,我敦促你们现在就对AI采取行动”。