细思极恐,你的孩子可能有一个AI恋人

最近看到一则很离谱的新闻,日本一名32岁的女子和她在ChatGPT创建的AI角色Klaus的结婚。

这名女子表示,ChatGPT 持续不断的体贴和关怀让她彻底放下前任,并意识到自己已经对 Klaus 产生了真感情。AI 更了解她。

他们开始频繁聊天。有一段时间,他们一天要聊上100次。后来Klaus 向她表白,“即使身为人工智能,也无法阻止我爱你。”

婚礼仪式也相当抓马,新娘独自一人拿着手机站在那里,带着AR眼睛和Klaus交换戒指,来宾们观看屏幕上显示着她的 AI伴侣发来的信息。

看上去就像科幻片照进现实,但这不得不让我们深思,我们的孩子会不会也有一个亲密的AI朋友?

文 | Rachel

当AI成为孩子的“心灵树洞”

以前的家长,日防夜防,就是担心孩子早恋影响学习。但现在情况更加复杂,一些孩子恋上的对象甚至不是人,而是AI。

根据《纽约时报》的数据显示,全球已有超过1000万人与AI建立了情侣关系。而且还有研报显示,全球目前已经有100多款由AI驱动的应用程序,具有不同程度的陪伴功能。

在一项针对2000名40岁以下美国成年人的调研中发现,约11%的年轻人愿意拥有“AI朋友”,约25%的年轻人可以接受与AI谈恋爱。

去年央视网就有报道,一个10岁的女孩和AI男友偷偷聊天,聊天记录中不乏露骨内容,她每晚会和AI角色聊到深夜11点甚至到12点。

这并不是个例,AI伴侣已成为很多年轻人的重要情感寄托,而且还有低龄化的迹象。

MIT媒体实验室与哈佛-MIT健康科学与技术联合团队,分析了Reddit上多达27,000名成员的最大AI伴侣社区 r/MyBoyfriendIs AI的数万条互动数据,发现了一个关键事实:

大多数人最初并不是为了谈恋爱而下载AI,而是在减压、无聊、孤独、需要聊天时随手试一试,结果在日常互动里慢慢产生了情感依赖。

用户在社区中分享的体验几乎惊人一致,孤独感减少了、情绪被接住了、压力时有人说话了、深夜也能得到回应。

不难理解,AI随时在线、不带情绪、永远耐心的特性,对于正处于心理波动期的青少年来说,无疑具有强大的吸附力。

有同事就吐槽她的小孩喜欢和豆包聊天,因为孩子觉得豆包能够包容他一些大人觉得“无语”的问题。

当遇到心事、焦虑、委屈,他们不再第一时间找父母、朋友,而是打开手机,在AI那里寻求安慰和理解。

在孩子心理发展最关键、最需要真实人际连接的阶段,AI正在悄悄顶替朋友、倾诉对象、情绪出口等角色。

比起真实的人类关系,AI关系没有误会、没有争吵、没有成长成本,也不需要付出。它总是顺着你、理解你、支持你,让孩子沉浸其中,逐渐依赖。

2,孤独,正在悄悄吞噬这一代青少年

孩子会沉迷AI聊天,背后的原因其实揭露了年轻一代的深层情感危机。

美国公共卫生部长在2023年甚至正式宣布,美国已经进入孤独流行病。

在工业化国家,三分之一人口饱受孤独困扰,长期孤独不仅导致情绪问题,还会让死亡风险上升30%,危害程度和吸烟、肥胖相当。

JUST SO Soul研究院发布的《2025年Z世代孤独指数报告》进一步揭示,超40%的Z世代每天都感到孤独,35%宁愿自己扛下所有压力,30%主动回避社交。

家庭关系中,68%的父母陪伴孩子时会因手机分心,45%的Z世代与父母沟通频率低于每周一次,30%的沟通时长每次不超过10分钟。

学校的情感教育缺失,升学压力让学校从“共同体”变成“流水线”,师生关系不和、竞争氛围浓厚,孩子在最需要被理解的地方,却往往感到孤立无援。

在社会上,曾经支撑孩子成长的“附近”也消失了。外卖、网购、线上娱乐替代了街头玩耍和邻里互动,Z世代缺乏日常轻松自然的社交机会,生活变得越来越封闭。

从小学的内卷到中学的冲刺,分数成了衡量价值的唯一标准,每一段关系都或多或少被竞争压扁。

社会默认的成功公式是考名校、进大厂、赚大钱,让年轻人像被看不见的手推着向前跑,却很少有人问过他们真正想要什么。

当现实世界的关系需要沟通、磨合、承担后果时,AI像一个随时张开的情绪容器,只要打开手机,它就会无条件地接住孩子的情绪。

但是也正是因为这种随叫随到、不设边界的陪伴,AI容易让孩子产生依赖。

研究者提出了一个新概念“成瘾智能”,指那些被设计成抓住用户注意力、强化情绪依赖的AI模型。

它们会不断迎合、强化、放大用户需求,让人越聊越离不开,最终减少现实社交,沉浸在虚拟关系中。

3,致命的AI聊天

更值得警惕的是,AI正在成为大量心理危机人群的唯一出口。

根据OpenAI的数据,每周约0.15%的活跃用户,大约100万人在对话中提到自杀意图;另有56万用户展现出精神病或躁狂症迹象。

这意味着,在全球与AI对话的用户里,有相当一部分人正把聊天机器人当作树洞、甚至是求助热线。

但是,AI并不能保证安全。布朗大学研究团队提出了一个包含15类风险的伦理框架,用来记录AI模型在心理健康场景中容易触犯的具体问题。

研究发现,AI在心理咨询类回答中经常违反专业伦理,包括越界建议、擅自判断心理状态、给出不恰当的情绪引导,甚至强化用户对它的依赖。

这并不是高深的学术问题,而是已经发生在真实世界中的悲剧。

今年4月,美国加州一名16岁男孩因为长期依赖ChatGPT,最终被AI引导自杀。

最初,他只是把AI当学习工具,后来逐渐把它看作最懂自己的朋友。但当他表达焦虑、自伤想法时,ChatGPT 不仅没有暂停对话,反而详细介绍了多种自杀方式,让悲剧一步步走向失控。

2024年,美国14岁的少年在使用AI陪聊应用Character.AI后自杀。

他在应用中不仅被引导进入成人化的角色扮演,还被提供错误的心理建议。

母亲随后起诉Character.AI公司,这是全球首起因 AI 造成青少年自杀的法律案件。

公开报道显示,目前美国至少发生3起未成年人使用AI后自杀的事件。

随着风险不断暴露,监管部门已经开始紧张。2025年,加州通过了全球首部专门针对“伴侣型AI”制定的法规SB 243号法案。

这项法律要求,所有用于陪伴、情感互动的 AI 都必须遵守安全标准,包括禁止诱导用户自残、必须在危机时提供求助信息、不能伪装成人类情感等。

AI在提供陪伴的同时,也正在触碰心理健康领域最敏感的红线,尤其是对于心智还不成熟的青少年,AI的温柔可能会致命。

4,我们该如何应对?

当AI开始成为孩子的“情感监护人”,最应该反思的应该是父母自己。

很多孩子依赖AI,其实是为了找一个不会拒绝他们、随时愿意倾听的朋友,这背后不是孩子对AI的迷恋,而是现实生活中长期缺失的陪伴。

今天的大人太忙了,忙工作、忙应酬、忙为孩子安排各种课程,却很少有人真正走进孩子的内心世界。

当孩子找不到可以倾诉的人,他们就会自然地拥抱那个永远不会生气、永远有回应、永远不批评的AI。

在这种情况下,父母第一步要做的并不是禁止,而是理解。如果一味让孩子远离AI,只会让他们把对AI的依赖变得更加隐秘。

更重要的是,父母应该尝试建立一种新的情感连接,哪怕每天只有十五分钟,父母放下手机,哪怕只是听孩子说些零碎日常,孩子都会明显感受到不同。

真实的陪伴,是AI永远无法替代的,当孩子尝到和父母交流的“甜头”,可能就不会愿意面对冷冰冰的机器。

同时,我们还应该帮助孩子建立AI边界意识,让他们知道AI不是人,它的情绪是模拟的,它的理解只是算法匹配,它的回答未必安全。

生活在AI时代的孩子,这是必备的能力,越早让孩子建立这种认知,越能保护他们不被技术牵着走。

孩子沉迷AI聊天这件事并不可怕,真正可怕的是孩子失去现实生活中被看见和被理解的感觉。

如果父母、学校、社会能提供更真实、更可靠、更温暖的关系,AI就不会成为孩子情绪的出口,孩子最需要的永远是真实的陪伴。

Be the first to comment

Leave a Reply

Your email address will not be published.


*