发布信息

五年级学生林朵用DeepSeek算命引发家庭趣事,科学备考建议成焦点

作者:软荐小编      2025-03-05 15:01:33     175

新学期刚开学时的一次家庭聚餐上,五年级的小学生林朵听到大人们在讨论用 DeepSeek 来“算命”。她既不了解什么是算命,也没听清 DeepSeek 是哪两个单词。不过,她还是当场向爸爸要来了手机,然后对着那个画着鲸鱼的 APP 虔诚地问道:“您好,请预测我下一次考试的分数。”

对话框很快吐出答案:预测考试成绩需要结合多方面因素,如学习情况、复习效率、知识掌握程度等,然而这些信息我目前无法获取。不过,我可以给你一些科学备考的建议,像“高效计划”“番茄工作法”“费曼学习法”等。

林朵很失望,因为没得到准确分数。林朵的爸爸在一旁吐槽女儿不会设置算命提示词,还想教学,却被其他人当场阻止。林朵的妈妈对这个答案拍手称赞,让她参考 D 老师推荐的学习方法。

这不是一个虚构的场景。我是林朵的舅妈,此刻正坐在林朵的对面,在一旁观察着一个五年级小学生进行大模型应用的初次体验。AI 玄学在蛇年引发了一阵旋风。不管是否相信玄学,也不管是否懂得 AI,只要拥有一段“咒语”(prompt,也就是“提示词”),就能够向 DeepSeek 询问自己的运势,或者询问办公室应该摆放什么植物,以及答辩 PPT 该选用哪种配色。

_AI“算命”,人类的赛博安慰剂_AI“算命”,人类的赛博安慰剂

在 DeepSeek 的建议下添置了水培龟背竹,它的样子看起来很有生命力,只是有点遮挡光线。

向 AI 寻求一些看似正确实则不然的答案,有一部分用户称其“很准”,这种情况似乎对各个年龄段的人都有着一种难以言明的吸引力。

我们为何总喜欢运用最科学的算法,去做最具玄学意味的事情呢?当我们向 AI 寻求关于人生的答案时,我们究竟在寻求着什么呢?

准不准不重要,情绪价值给够就行

GPT 横空出世已经有两年了。在这两年间,AI 大模型持续发展并取得突破。在“百模大战”的背景下,诞生了许多面向 C 端的 AI 应用。在激烈的竞争环境里,DeepSeek 凭借出色的文采以及有理有据的推理脱颖而出,成为了蛇年的社交宠儿。

不知道是谁最先开始使用 DeepSeek 来算命。这款“更契合中国网友体质”且更懂中文和中国文化的 AI 产品,明显比 GPT 更能符合国人的心意。在小红书上,突然出现了很多用 DeepSeek 算八字的帖子,并且还贴心地附上了相应的 prompt,使得不了解八字原理的网友也能够“直接使用”。在现实当中,一段经过精心设计的 prompt 能够成为职场上的一种“社交密码”,可以快速地与新同事开启话题。

有人说原本对 DeepSeek 没有感觉,但是一听可以算八字就立刻下载了一个;另外还有人因为白天服务器很繁忙,所以就半夜起身去找 DeepSeek 来算命,一直算到天亮。

高金金本身就是大模型行业的从业者,平日里会借助 AI 来询问各种事情。她无意间刷到了关于用 DeepSeek 来计算八字的帖子,于是就想着算一算当作消遣。她给 DeepSeek 和豆包发送了同一段 prompt,接着得到了两个相互矛盾的答案。她兴致盎然地用一方的答案去询问另一方。最终,豆包先认输,承认 DeepSeek 计算正确,并告知她不要迷信。这使她感到有些哭笑不得。

她没有询问关于人生的重要问题,像灾祸啦、正缘啦、人生选择之类的。对于结果呢,她只是“挑选让自己高兴的来参考”。由于日常喜爱戴首饰,所以她会问 DeepSeek 戴什么会更好。要是得到的答案不合心意,她就会继续追问。只有当 DeepSeek 有理有据地将她的命理和偏好结合起来,给出一款她喜欢的首饰类型时,她才会心满意足地结束对话。

周思远有着类似的心理。因为 AI 算塔罗牌是免费的,所以她会一直抽牌,直至获得让自己满意的解释。然而,她只是将此当作一种娱乐,并非真的很在意结果。

周思远对于算法基于大数据所提供的答案有其独特的理解。例如,当 AI 表示近期家里装修会有争吵且不太顺利时,她会思考,任何家庭在装修时都会出现吵架让人心烦的情况,很少有人能完全顺顺利利地完成装修。倘若 AI 计算得不好,那这就是大部分人都需要面对的生活常态;倘若计算得还不错,那这就是大部分人生活中都会有的小喜悦,自己察觉到了开心一下也挺好。

白鸥觉得 DeepSeek 如同一个知晓些玄学的好朋友。它会挑选好听的事情与你分享,并且不会劝说你花钱。尽管它会推荐购买一些改运的手串、金饰之类的物品,但不买也无妨,依然可以继续让它进行测算。当 DeepSeek 提议他在新的一年里要多去户外、多晒太阳时,本来就是户外爱好者的白鸥格外高兴。

在投其所好这方面,大数据真的有点东西。

在偏听偏信这方面,人类也是不遑多让。

在玄学赛道,AI能替代人吗?

用国产 AI 去计算中国传统玄学,这听起来似乎是合情合理的。然而,当打开小红书的评论区时,就能够发现有一半的人认为 AI“准得可怕”,而另一半的人则觉得 AI 是在“胡说八道”。

最近两年发展极为迅速的 AI 大模型,其本质是借助大量数据来进行学习与训练,从而掌握了一定的规律,也就能够推测出一句话中的下一个 token 是什么。DeepSeek 在这个流程当中加入了“推理思考”这一过程,所以它的“预测”就显得更具逻辑性了。

通用大模型存在很大局限性。其训练数据多数来自公开信息,玄学的理论知识或许有一些公开资料,但对于是否有足够多的公开运算实例则难以知晓,毕竟许多人的“玄学实践”是在线下进行的,其过程和结果也不会在网上发布。

大模型存在“幻觉”,这是一个大难题。AI 会说出一些没有根据的话,编造出原本不存在的内容。由于其设计原理,大模型不管是否知道准确答案,都必须给出预测结果,这就导致它会“脑补”一些内容,而人类很难分辨出这些内容。

DeepSeek 的幻觉情况比其他大模型更为严重。有人进行推测,DeepSeek-R1 模型对文本的“创造性”给予了较多“奖励”,这使得模型能够生成更多令人意想不到且富有创意的内容,然而也更容易偏离事实。此外,它的“推理”过程容易将简单问题变得复杂,由于“用力过猛”而导致输出方向偏离,进而产生幻觉。

理论上来说,如果不考虑“玄学”本身是否存在这种形而上的问题,只要给 AI 投喂足够多的玄学知识以及运算实例,将其做成一款垂类大模型,那么它就有可能很好地完成“命理师”“塔罗师”之类的工作。

相关内容 查看全部