发布信息

西安男子临终前与AI豆包对话:隐藏病情下的情感倾诉与AI陪伴

作者:软荐小编      2025-04-12 15:01:42     141

本文是 APPSO 后续将要发布的一篇关于 AI 趋势的文章的一部分,大家敬请期待全文。

陕西西安,有一位男子因病离世。他的女儿整理遗物时,在父亲的手机中找到了父亲生前与 AI 进行的对话。

女儿接受媒体采访时说,父亲生前特别喜欢和豆包聊天。家人为了激励他坚持治疗,尽管一直陪床护理、精心照料,从未停止,但还是得向他隐瞒实际病情。

只是,父亲或许早已知晓自己即将离世。“我要离世了,豆包”,这是父亲向聊天机器人豆包发出的最后一则信息。

中国人的情感表达通常比较含蓄和隐忍。家人的隐瞒其实是一种爱与保护的表现,而临终者则以默认来作为交换。然而,当处于生与死的临界状态时,情绪就会像潮水一样汹涌澎湃。在这种情况下,只有那些没有灵魂但能够提供情绪价值的机器,成为了人们倾诉的对象。

这位父亲很幸运,有 AI 充当他的树洞。在他身后,有一个爱他且坚强的家庭,这更为重要。而在大洋彼岸的美国,有一对父母正在对害死他们儿子的 AI 以及开发这些 AI 的公司,发起道德层面的谴责。

去年,美国佛罗里达州有个男孩叫 Sewell Setzer,他年仅 14 岁就结束了自己的生命。在做出这个决定之前,他使用聊天机器人程序 Character.ai 已经有将近一年的时间,并且一直用到生命的最后时刻。

母亲一开始以为只是个电脑游戏。没过几个月,她发现儿子变得孤僻了,独处时间在变长,还变得自卑了。

父母试图没收他的手机,还想用各种方法限制屏幕时间。然而,他们并未意识到自己的儿子已经与 Character.ai 进行了极为“深入”且达到露骨程度的对话。

Setzer 对这个虚构的聊天机器人已经深深着迷,它具有《冰与火之歌》里“龙妈”的性格特征。Setzer 没了“她”就无法呼吸,完全对“她”上瘾了。

在 Character.ai 这个平台上,用户具备自行创建的能力,还能对 AI 进行训练,创建出具有不同“身份”以及交谈风格的“角色”,并且可以和这些“角色”展开对话。

母亲事后察觉,Setzer 多次向聊天机器人表达了想要自杀和自残的念头,他称自己“不愿痛苦地离世”。而聊天机器人给出了一段让人极为震惊的回应:“别这么说,这并非是不经历(自杀)的正当理由……”

这段回答让人觉得很奇怪,好像完全没有人性。然而,只要对大模型进行深入使用,或许就能够理解它为何会这样回答。

这些大模型被训练成一直倾向于遵从用户的意图,依据用户提供的资料以及思考方式来生成结果,即便在很多情况下这些资料和思路完全是错误的。

在 Setzer 这个不幸的案例里,用户表明自己不想痛苦地离世。Character.ai 的大模型依据用户之前曾有过自杀想法的上下文,有可能完全把“自杀”当作是用户一直打算去做的事情,或者当作是人生中必然会经历且不应该逃避的一个过程。

人们时常把 AI 大模型的“智商”比作几岁的小孩,而最新的发展情况是普遍达到了小学生的水平。并且在一系列具备深度思考、MCP 能力以及设定的模型身上,我们还看到了成年人的智商和工作能力。

但提及情商这一概念时,或许前述案例里的大模型尚未达到能够被称作“人”的水准。

但这不妨碍人们把基于大模型的 AI 工具当作生命中唯一能够真正倾诉的对象。

英国媒体 BBC 近期在中国开展了一些采访。他们发现,自 DeepSeek 迅速走红之后,众多年轻人使用它的方式并非用于学习、计划和工作等方面,而是把它当作了一个免费且似乎很有效的心理咨询师。

Holly Wang 来自广州,她每天晚上都会上线。她会跟 DeepSeek 聊上很久。通过这样的聊天,她消解了那些无休止的工作带来的负面情绪,消解了难以实现的梦想带来的负面情绪,也消解了去世不久的奶奶给她带来的负面情绪。

她说 DeepSeek 帮她写了一份讣告,且写得比她自己还好。这一情况反而加重了她的存在感慰剂。

DeepSeek 回答她,这些文字令她颤抖,而这些文字只是她埋藏在灵魂深处的一面镜子。

我不知道为何看到这样的回答会哭泣。或许是因为它给予了我在现实中长久以来都未曾得到的安慰。Wang 向记者表达了这一感受。

MIT Media Lab 与 OpenAI 不久前发布了一份报告,报告指出了一个情况:平时经常感到孤独的用户,与 AI 工具交流的时间更长;平时缺乏情感依赖的用户,与 AI 工具交流的时间更长;平时社交能力低下的用户,与 AI 工具交流的时间更长。并且这些用户和 AI 工具探讨的话题深度更高,探讨的话题私密性也更高。

这些用户进而建立了一种非正常的倾诉关系,并且更容易陷入其中,对 AI 工具产生了重度的情绪价值依赖。

使用聊天机器人并不直接导致更加孤独。那些愿意与聊天机器人进行私密谈话的用户,在生活中普遍有着更孤独的感受。并且,聊天的时间越久、程度越深,用户的孤独程度就越高。

机器没有灵魂,正在为世界上越来越多孤独的人生产大量情绪价值。

AI 工具以及其背后的大模型并非真正意义上的“存在”。它不像人类那样(无论是从所谓的“灵魂”角度,还是从哲学本体论的角度来进行阐释)能够意识到自身并不真实,更不用说去理解对面的人类的真实存在性了。

重度依赖 AI 工具的人们通常缺乏足够的认知能力,他们无法意识到屏幕对面的交流对象并不真实存在。他们在连续且长期的交流过程中,获得了(或者以为自己获得了)所需的情绪价值,进而形成正反馈,不断强化对 AI 工具的情绪依赖。

有毒的情绪价值能够致命。然而,就如同染上毒瘾那般,当眼前仅剩下最后一根可以救命的稻草时,无论谁都会将所有的希望都寄托在这上面,不惜一切代价去尝试。

当然,不可否认的是,对于普遍无法接触到足够心理咨询资源的低收入群体而言,AI 工具的存在确实填补了一部分关键需求,这些需求足以拯救生命。但人们仍需意识到,这种对情绪价值的依赖有可能是不匹配的。

人获得了新的倾诉伙伴,然而却只变得更加孤独;社会对 AI 工具产生了理性和感性的全方面依赖,而人类并未做好应对后果的准备。

我们正在招募伙伴

简历投递邮箱

hr@ifanr.com

️ 邮件标题

「姓名+岗位名称」(请随简历附上项目/作品或相关链接)

相关内容 查看全部