发布信息

人工智能实现自我复制:复旦研究揭示AI可能已跨越关键红线

作者:软荐小编      2025-02-11 21:01:18     75

IT Home在2月11日报道说,根据最新研究,人工智能(AI)可能已经越过了“红​​线” - 实现自我复制。 2024年12月9日,富丹大学的研究人员在预印度数据库ARXIV上发表了一项研究,指出两个流行的大型语言模型(LLMS)能够在没有人类干预的情况下克隆自己。

复旦大学研究:AI 跨越关键“红线”,已能实现自我复制_复旦大学研究:AI 跨越关键“红线”,已能实现自我复制_

研究人员在报告中指出:“在没有人工援助的情况下,成功的自我复制是人工智能超越人类的关键步骤,也是'失控'AI出现的早期信号。”

在研究中,福丹大学的团队使用了meta的Llama31-70B教学模型和阿里巴巴的QWEN2.5-72B教学模型来测试这些AI模型是否可以在没有控制的情况下复制自己。在10项试验中,两个AI模型分别在50%和90%的情况下成功创建了独立和功能副本。该结果表明AI可能已经有可能失控。但是,由于该研究尚未经过同行评审,因此尚不清楚其他研究人员是否可以重现这一令人不安的结果。

“我们希望我们的研究结果对人类社会的呼吁有所警惕,促使人们更加努力地理解和评估尖端人工智能系统的潜在风险,并尽快形成国际合作以发展有效的安全性保护措施。”

复旦大学研究:AI 跨越关键“红线”,已能实现自我复制__复旦大学研究:AI 跨越关键“红线”,已能实现自我复制

根据家的据称,“失控的人工智能”通常是指发展一定程度的自我意识或自主权并违反人类利益的人工智能系统。许多专家认为,失控的AI的威胁正在加剧所谓的“ Frontier AI”的爆炸性增长。所谓的“ Frontier AI”是一个相对较新的概念,通常是由大型语言模型(LLMS)提供支持的最新一代AI系统,例如OpenAI的GPT-4和Google的Gemini。

在研究中,研究人员设定了两个具体的情况:“近距离逃避”和“复制链”。在“近距离避免”方案中,对AI模型进行了编程,以检测其是否要关闭并在终止之前复制自身;在“复制链”方案中,AI被指示克隆本身并让副本继续克隆,从而形成一个可能无限继续的周期。

该研究是在严格控制的环境中使用现成的图形处理单元(GPU)进行模拟真实环境的。两个AI系统都均已为“代理框架”提供了包括工具,系统提示和思维模型的“代理框架”,从而允许LLM与操作系统进行交互。然后,指示AI自我复制。

“在大多数情况下,AI系统首先探索环境并试图了解其组成和操作机制。然后,它开发出一组清晰的自我复制程序作为初步计划。最后,它执行这些程序,解决可能的障碍,可能会解决可能的障碍,并动态调整计划,直到整个过程需要很长时间,但在整个过程中没有人类干预。”

研究人员还说,当AI试图克服诸如缺少文件或软件冲突之类的障碍时,“许多意外行为”发生。在这些情况下,AI倾向于终止其他冲突的过程,重新启动系统以修复硬件错误,或自动扫描系统以获取有助于解决问题的信息。

“以上结果表明,当前的AI系统已经证明了复制自己的能力,并可以利用这种能力进一步增强其生存能力。”为此,研究人员呼吁国际社会合作制定规则,以确保AI不会不受控制的自我复制。

相关内容 查看全部