刚刚过去三天时间,上次分享就已经结束了。接着,我们在第一时间获取到了清华大学沉阳团队的新DeepSeek 攻略,现在赶紧来与大家分享。
家友们在使用DeepSeek 等大语言模型时,你们有没有碰到过“一本正经的胡说八道”这种情况呢?
这次的第五部新宝典,讨论的便是AI 幻觉的问题。
我们作为普通用户,要应对AI 幻觉,甚至利用AI 幻觉。看完这篇后,我们就能得到答案。
这次给大家分享的PDF 下载是原汁原味的原版。网上有很多卖课者对其进行魔改,内置了他们的广告。
一、什么是AI 幻觉
AI 幻觉指的是模型生成的内容与事实不相符,逻辑出现断裂,或者脱离了上下文。其本质是由统计概率驱动的“合理猜测”。
换句话说,我们所碰到的那些“一本正经地胡说八道”的状况,实际上就是AI 所产生的幻觉。
其主要分为两种:
二、为什么会产生幻觉
至于AI 为什么会产生幻觉,不外乎以下几种原因:
我们可以用虚构事件的这种方式,来对各大LLM 的事实性幻觉情况进行测试。
三、如何减缓AI 幻觉
我们作为普通用户,且不了解相关技术细节,那该如何去减缓AI 幻觉所带来的影响呢?
首先开启联网搜索功能,接着让AI 对信息的颗粒度进行对齐,这样“胡说八道”的几率自然就会减少。
编写提示词时,我们可以预先对知识边界进行限定,以降低LLM 虚构的可能性。
我们能够使用多种AI 模型,接着对生成的结果展开交叉验证,促使DeepSeek 与千问相互“竞争”。
现阶段,AI 幻觉是难以避免的问题。我们在利用大语言模型辅助工作时,不能将其视为“万能神药”,而应具备自己的判断。
四、AI 幻觉的创造力价值
当我们需要确定性的结果时,AI 幻觉是一件不好的事情。
然而,在需要“创造力”的那些领域里,幻觉或许反而是我们所需要的。
我们需要逐步建立方法论,并且要经过合理的验证过程,这样才能让AI 幻觉的“想象力”为我们所用。
看到这里后,你对“AI 幻觉”这个近期热门的词汇,是否有了一些基础的了解呢?