近日,“人工智能乱编坑惨大学生”这件事以及“如何防止 DeepSeek 乱编文献”这件事,相继在网络社交平台上成为热门话题。
人工智能(AI)在教育中的应用日益增多。不少学者存有担忧,AI 生成的虚假学术成果或许会扭曲人对科学方法论的理解,也会削弱其“假设 - 验证”的科研逻辑训练。AI 通过算法推送制造的信息茧房,其中甚至包括 AI 谣言,这些会形成逻辑闭环,进而会对青少年独立思考和批判思维的培养产生影响。业内人士提及,只有理解了 AI 思考的模式,才能够让教育应用中的 AI 回归到教育本身的目标。
——编者
生成式 AI 正在迅速进入教育领域。传统教育手段存在智能化程度不足和效率低下的问题,而大模型等生成式 AI 能够在一定程度上辅助教师进行知识技能传授以及答疑解惑等工作,所以它被寄予了厚望。当前,我国的教育正处在高质量发展和转型的重要关键机遇期,生成式 AI 的出现为其带来了全新的可能性。
可以说,教育的高质量发展与 AI 技术的深度应用存在紧密联系。教育要实现高质量转型发展,就必然需要 AI 等先进技术进行大规模应用。生成式 AI 凭借其自身先进且庞大的知识储备以及认知能力,为教育的高质量发展奠定了必要的技术基础,也让教育的智能化转型具备了可能性。
AI 会通过设计个性化的学习路径,利用智能评估系统,提供沉浸式的学习体验等方式,能够有效地把教育效率提升起来,还能促进教育公平。
如何确保先进技术人人善用,而非滥用?
在教育领域,越来越多的人开始留意 AI 在教育应用方面的两面性。近期,像 OpenAI 的 O1 和 DeepSeek 的 R1 这样具有深度思维能力的大模型,已经在一定程度上拥有了类似人类的主动反思能力。它们尤其能够依据提问去揣测意图以及了解提问者的知识背景,进行全面的思考、细致的思考以及深入的思考,并且在反思之后生成答案,以此提升生成内容的质量与可信度。从一定程度上来看,深度思考大模型已经展现出以往只有人类才具备的“深思熟虑”以及“三思而后行”这样优良的品质。
AI 具有反思能力,这使得 AI 赋能教育发展过程中的机遇与挑战被进一步放大了。
人类的主动反思能力是很值得珍视的。教育学家杜威认为,教育的核心内涵之一就是培养学生的主动反思能力。当 AI 在一定程度上拥有了人类的这种能力,并且有可能进一步发展出各种专业思维能力之后,AI 在教育中的应用会进入一个全新的、复杂而微妙的阶段:其一,它能为教育的提质增效赋予更多力量,成为教育中更先进的助力工具;其二,具备深度思考能力的大模型若在教育中被错误使用甚至过度使用,对学习者的心智成长产生的负面影响会更加明显,从而使 AI 成为教育的破坏力,而非教育的推动力。这是我们需要深入分析、严肃研判的问题。
先进技术在人类社会中呈现出“双刃剑效应”,这是早有先例的。枪支是先进技术和先进能力的代表,与传统武器相比,人类能借助它更好地保护自己。然而,我们必须承认,枪支也具有巨大的破坏力。倘若枪支泛滥,人人都能获取,必然会给社会发展带来诸多不确定和不可控的因素。
AI 在发展,它在教育中也有应用,这将遇到类似的困境。先进技术是人人都可以使用的,然而,我们怎样才能确保大家能够好好地利用这种能力呢?而不是滥用或者误用它。
小学生在回答问题前习惯用大模型解答或参考,可能会丧失独立思考能力。眼下,许多大学生在大量使用生成式 AI 的各种功能,像文字润色修改、论文构思、报告撰写等。时间久了,能独立完成一篇论文的学生还有多少呢?这种独立的论文构思与撰写能力以及相应的科研能力,难道是高等教育可以放弃的吗?
AI思考与人类思考之间的差别,究竟是什么?
深入认识 AI 思考的本质后能够发现,它其实是以词元的概率组合来模仿人类思考的概率计算过程。人类的思考过程具有复杂性与多样性,其中包含着隐秘且直觉式的快速思考,同时也有借助语言和符号来进行的有意识、具有主动性且显性化的缓慢思考。一个真实的人,其思考过程或许多次混合了两种思维方式,在不知不觉中就完成了多种不同思维方式的交替运用以及复杂转变。然而,当下的大语言模型所达成的思维过程依然是依托于基于语言与符号的统计相关性计算而建立的,它的本质和人类的思维相差得非常远。
人类社会的思维方式具有多样性。不同语言的种族以及不同文化的人群,对于同一个问题的思维方式各不相同。日常的思维方式与专业的思维方式不一样,宗教的思维方式和科学的思维方式差异很大。相比之下,DeepSeek 的 R1 的思维方式呈现出明显的学术化和专业化思维倾向,很难达到人类思维的多样化水平。
AI 思考与人类真正的专业思考存在很大差距。AI 的思考看似很全面,但它可能没考虑到人类思考中的很多隐性因素。人类思维复杂且隐秘,人类思考时会用到很多自身难以明确表达的因素。许多专家在对问题进行研判时,存在着诸多难以用言语表达清楚的要素。正因如此,人类知识的传承不能仅仅依赖于书面的传授方式,而必须通过言传身教这一重要途径。那些难以用言语表达的经验,通常只能通过言传身教来进行传承。
我们必须对 AI 的思维过程与结果保持高度的批判意识。AI 的思考有可能犯错,会对学生起到误导作用。AI 思考的许多方式在统计意义上可能是合理的,但在特定情境下未必是最适合的思考方式。
事实上,越来越多的研究显示,大模型进行深度思考时,可能会导致幻觉率上升。这意味着,在其看似缜密且严谨的思维过程中,植入一些常识错误和事实错误的可能性在加大。人类思维的正确性与合理性,不仅仅取决于大脑的能力,人类的身体对世界的感知与体验,也在一定程度上为其进行合理思考提供了不可或缺的保障。AI 在身心协同方面与人类存在差距,它难以全面触及和理解人类社会现实世界的各个方面,所以 AI 的思维出现错误是不可避免的。我们需警惕 AI 思维犯错可能导致的“认知陷阱”,就如同导航系统虽日益可靠,但偶尔也会犯错并产生误导。
AI无法理解人类思维的留白之慧?
AI 思考存在过度全面的倾向。因为有海量知识和数据的支持,AI 很擅长把不同因素关联起来解决问题,所以它内在地带有“过度全面”的倾向。例如,当有“请介绍 DeepSeek R1”这样一个简单提问时,R1 可能会从用户意图、公司背景、产品特性、使用场景等多个维度进行深度思考,进而形成长篇大论。而大部分情形下,一句话的简单回答足以让大部分提问者满意。
事实上,人类思考通常是能够抓住主要矛盾和关键因素的高效思考方式,而并非一味追求全面的平庸式思考。在 AI 看似全面的思考背后,实际上体现的是一种认知能力缺失所导致的无奈与无力。因为 AI 往往无法抓住解决问题的关键所在。同时,AI 似乎也不能够理解人类思维所具有的缺陷之美以及留白所蕴含的智慧。
AI 思维存在明显的同质化问题。我们询问 AI 关于教育领域的影响时,不同的模型通常会给出结构和内容很相似的回答。比如,它们经常引用“认知脚手架”理论作为理论框架,不断举出可汗学院作为技术应用的范例,并且习惯性地引用苏格拉底的“产婆术”或柏拉图的“洞穴隐喻”等哲学典故来进行论证。
这种现象表明,AI 在面对相似问题时,它的思维过程是有一致性的,例证选择也具有一致性,理论应用同样呈现出一致性。这种一致性不是因为独立思考后达成的共识,而是由算法的模式识别以及大规模语料训练所引发的统计概率所导致的结果。
从认知科学的角度来看,AI 的“思考”实际上是对人类已有的知识体系进行重组以及复现。它缺乏真正的创新突破以及思想的多样性。如果我们人类轻易地采纳并且依赖 AI 生成的思维结果,那么社会整体将会面临思维同质化的严重风险。这种风险在学术研究与教育领域很突出。大量学生和研究者若使用相同的 AI 系统来获取思路和观点,就会不可避免地使知识生产的多样性减少,创新动力也会被削弱。
在教育应用中,我们需要认识到人机存在差异。我们要合理地为 AI 定位其角色。要让 AI 发挥在知识传递和思维辅助方面的优势。同时也要避免 AI 对学生的独立思考能力和创造力产生潜在的负面影响。在实践中,我们要构建新型的教育模式,实现人机协同。AI 承担知识传授和基础训练的部分工作,教师则更多地把精力放在学生的价值引导、情感互动和创新思维培养上。教育工作者需引导学生正确使用 AI 工具,让其作为思考的辅助,而非替代思考本身,要保持批判性思维,通过人机协作来发展更高层次的认知能力。同时,要对 AI 技术在教育领域的应用进行伦理规范和安全监管的加强。教育一直都应该把培养学生的核心素养以及思维能力当作教育的根本目标。AI 在教育中的应用不能偏离这一根本目标。
AI是教会学生还是教“废”学生?
近两年,很多高校都制定了有关大学生使用 AI 工具的规定。怎样合理地确定 AI 的使用范围呢?怎样避免因使用 AI 工具而遭遇学术不端的风险呢?怎样维护学术诚信,保障学生的成长呢?一些已经发生的真实案例以及研究成果,值得业内一直关注和探讨。
在过去的一年当中,立陶宛的维尔纽斯大学将 10 名学生予以开除。这些学生是因为在作业以及毕业论文当中,不当使用了 AI,具体表现为未明确表明或者披露自己使用了 AI,所以才被学校开除。
明尼苏达大学出现了类似情况。学生指控学校在学术纪律处理过程中存在管理不善和歧视行为。
研究发现,AI 对学生和教师的决策能力有显著影响,且会让学生变得懒惰。使用 AI 技术的教师和学生,会逐渐失去自己做任务的兴趣,同时也会逐渐导致人类决策权的丧失。随着 AI 的使用和依赖不断增加,人脑的思维能力会被自动限制。
沃顿商学院副教授伊森·莫里克及其同行邀请波士顿咨询集团帮忙开展研究,有近 800 名波士顿咨询的顾问参与了该实验。这些顾问被分成了两组,其中一组按照常规方式进行工作,而另一组则必须使用 GPT - 4。
发现普通任务中,使用 AI 组有显著优势。而在另一项精心设计的、AI 无法得出正确答案的任务里,人类顾问无需借助 AI 时,正确率为 84%,使用 AI 组的正确率则在 60%到 70%之间。
研究者们认为,AI 极为强大,能够较好地完成绝大部分工作。正因如此,人类在不知不觉中给予了 AI 很多信任。然而,如果问题超出了 AI 的能力范围,这种信任就有可能导致严重的错误。
(作者为复旦大学教授、上海市数据科学重点实验室主任)