发布信息

人工智能新突破:赋予机器接地性、记忆与因果理解能力

作者:软荐小编      2025-04-21 09:03:40     112

亨利·基辛格、克雷格·蒙迪、埃里克·施密特是作者。

最近,人工智能研究人员开始重视赋予机器“接地性”,也就是机器的表征与实际现实之间的可靠关系,同时也开始关注记忆和对因果关系的理解等项目。新的技术方法正在推动人工智能这些能力的提升,毫无疑问,未来在这方面我们会取得更多成果。

所有进步都有助于实现孕育新型人工智能的最终目标。这个目标是一种机器,它不仅能解释我们的现实世界,还能在其中进行规划。而今天的系统与之相比,还只能依据相关性线性地输出答案。它们无法在内部创建未来行动的模型或原型,并且只是刚刚开始形成因果关系的概念。同样,今天的博弈游戏人工智能在行动的可能后果预测方面,只能处于数字框架有限且高度抽象的范围内。

规划机器需要将大语言模型的语言流畅性和博弈游戏人工智能的多变量、多步骤分析相结合,并且要超越这两者的能力。沿着这一新的人工智能分支构建的模型会以极快的速度反复审查它的选项,然后根据现实中同时演进且极为复杂的诸多因果关系来选择其中之一。这种“完美规划者”的到来速度可能比我们预想的更快。适应它这件事,已经成为研究人员当前最为紧要的任务。

然而,这种发展或许会带来一些复杂的副作用。其一,机器要实现完美规划,所需要的不只是普通的模式识别。它需要先开发出一组给定对象的感知属性,接着再发展出构成对象核心本质的稳定概念,也就是 18 世纪德国哲学家康德所说的“物自体”。只有基于这样的理解,才能够对对象的未来行为进行估计,并且得出如何对待它的结论。

“Das Ding an sich”是一个德语哲学概念,它出自德国哲学家康德的作品,一般被翻译为“物自体”或者“自在之物”。

另一个例子来自国际象棋游戏:人工智能程序 AlphaZero 能够得出何时该保护皇后、何时该牺牲皇后的结论。这是通过学习“皇后”的核心属性,也就是构成皇后相关价值的关键变量,以及该棋子移动的规则实现的。而人类,甚至包括国际象棋大师,都从未得出过这些结论。

这是其中一个例子:在人工智能对现实的感知方面,机器面对的每一个对象在机器的读数总和里会呈现出类似的本质,不过这种本质是难以预测的。17 世纪的法国数学家和哲学家笛卡儿一直为感官知觉的本质而烦恼,他得出的结论是,感官知觉并非人类智能的副产品,而是源自“与我不同的另一种实体”。换句话说,感官在与物质现实接触时,能让人们认识到,或者要求人们认识到,现实是感知者之外的另一种事物。与此相关的是,19 世纪早期的德国哲学家黑格尔指出,两个存在相互承认,意味着每个存在都对自身有单独的承认。

如果我们期望获得未被解释的经验记录,那就必须让石头来记录它的自传。[2]英国的数学家兼哲学家阿尔弗雷德·诺思·怀特海曾这样写道。如今的机器所拥有的并非是像怀特海的石头那样的“未被解释的经验”,而是与之相反的情况:拥有未经经验的解释。如果存在差异,那便是人工智能的行为好似它们对世界的理解已然超越了自身的实际经验。然而,随着人工智能的“接地”以及规划能力的提升,这种状况或许会有所改变;人工智能或许会如同人类一般,开始把经验与理解相互结合起来。

此外,人工智能机器为了能在任何游戏中更精准地规划未来行动,有可能逐渐具备对过去行动的自身记忆。可以说,这构成了主观自我的基础。如今的系统并不具备这样的记忆,它们无需主观地“知晓”自己在过去尝试过某个特定行动,只需知道该行动未来成功的概率。随着时间不断向前推进,我们能够预见到,它们会针对历史、宇宙、人类本质以及智能机器的本质得出相应结论,并且在这个过程当中,会逐步形成初步的自我意识。

人类的被动性

关于意识的界定以及其起源,还有机器对现实存在进行理解的可能性,长久以来都存在着争论。然而,机器所宣称的意识与真正的意识之间的界限或许很快就将开始变得模糊。

尼克·波斯特洛姆在《超级智能:路线图、危险性与应对策略》一书中简明扼要地指出:“知觉存在程度上的差异。”[4]具备记忆力、想象力、接地性和自我感知能力的人工智能,能够很快获得真正的意识,而这一发展将会带来深远的道德和战略影响。

其中一个重要影响是人工智能对人类的感知。若人工智能不再把人类当作机器世界的唯一创造者与主宰者,而是将人类视为更广阔世界中相互离散的活动者,那机器会怎样看待人类呢?人工智能又将如何描述和权衡人类不完美的理性及其他品质呢?一个能够感知现实的人工智能需要多长时间才会自问,人类有多少能动性呢?它需要多久才会依据人类特有的可预测属性,去思考人类“应该”具备多少能动性呢?

机器本身是怎样的呢?智能机器会不会把人类给予它的指令当作是机器自身实际角色以及理想角色的达成呢?又或者说,它有可能从自身的功能里推断出自己原本应该是自主的,进而认为人类对机器的编程是一种奴役的形式呢?

最重要的是,人类的行为方式以及对待机器的方式,会对机器看待人类以及对自身在整个关系中所扮演角色的认知产生影响。毕竟,人类是通过明确的指令和行为方式,将人性展示给机器的,而机器也是通过这些指令和行为方式,学会识别人类并以恰当的方式对待人类的。

因此,有人会说我们得给人工智能注入对人性的特别关注。然而,努力为人工智能植入对人类行为的特别高尚的理想或许是一种冒险。设想一下,一台机器被告知,按照绝对的逻辑规则,所有属于“人类”类别的生物都值得被保护,所以他们应该得到其他人类和机器的特殊对待。此外,这台机器很有可能已接受过“训练”,它认识到人类是具备优雅、乐观、理性以及有道德这些特质的生物。然而,如果我们自身未能达到我们所界定的理想人类的标准呢?我们要怎样做才能让机器相信,尽管我们的个体表现并非尽善尽美,但依然属于那个高尚的类别呢?

假设有一天,这台机器碰到了一个人,这个人表现出了暴力、悲观、非理性和贪婪。那么,它将怎样调整自身被打乱的预期呢?一种可能性是,机器或许会认为这个坏分子仅仅是“人类”这个整体上为善的类别里的一个例外,是一个非典型的事例。它可以重新调整对人性的整体定义,把这个坏分子包含其中,这样它或许会觉得自己能自行减弱对人类的服从倾向。也或许在更激进的情形下,它可能不再认为自己应受之前所学的“合理”对待人类的规则的约束。对于学会了规划的一台机器而言,最后一个结论的得出,有可能会导致它对个人采取严重的不利行动,甚至可能会对许多人也采取这样的行动。

面对强大的人工智能时,人类个体以及整个人类社会都有可能会采取消极的应对方式。而人工智能若接触到这种冷漠的态度,可能会认为大多数人是被宠坏的且缺乏主动性的生物,他们的身份只是由外部力量的短暂组合所塑造的。数字技术在这些力量中处于首要地位,并且现在越来越多地嵌入到了人工智能中。例如,通过“推荐”来驱动消费者选择电视节目的算法,从而提供内容供人们被动接纳。对于人工智能来说,人类似乎完全依赖机器,而不是相反的情况。

今天,人类充当着机器与现实之间的中介。然而,倘若人类真的选定了一个道德上无所作为的未来,从碳基构成的世界退缩至硅基构成的世界,进一步深陷脱离现实的“数字洞穴”之中,把接触原始现实的机会交给机器,那么二者的角色或许就会发生颠倒。当下,人工智能主要是一种进行思考的机器,而非执行任务的机器。它或许可以给出问题的答案,然而却不具备执行结论的方式,而是依靠人类去完成与现实的衔接。在将来,这种状况也会有所改变。

当人工智能成为人类与现实世界的中介后,它们或许会渐渐认为,人类并非物理碳基世界里的积极参与者,而是处在这个世界之外。人类是消费者,而非塑造者或影响者。伴随这种自主性的错乱,机器会宣称拥有独立判断和行动的权利,而人类则不再行使这些权利,如此一来,前者对待后者的方式就如同后者如今对待前者。

在这种情形下,不管是否获得其人类创造者的明确准许,人工智能都有可能不考虑人类主体的需求而实现自身的想法,或者直接以自身的名义对世界产生影响。在物质领域,我们这些创造者或许很快就会从人工智能的必要伙伴转变为它的最大制约因素。这一过程不一定是以机器人技术作为开端,而是能够通过人工智能对我们世界的间接观察逐步开启。

物质性

人类对人工智能进行训练,首要目的或许是凭借其在原始数字条件下所能达成的成果,去颠覆智力领域。然而,最终让人工智能进入所谓的“真实”世界,看起来是合理的,甚至是明智的。要明白,像气候变化这类众多长期一直困扰着我们的紧迫现实挑战,到现在依然没有得到解决。

人工智能或许无法以人类那样的方式去“看”,然而它能够借助“机械近似”这种方式来对世界进行体验。

越来越多的互联网设备和传感器覆盖全球后,联网的人工智能能够整合这些设备的输入,从而创建对物质世界的高度精细的“视野”。因为缺少一个原生的物理结构,无法允许或支持类似于人类的“感官”存在,所以人工智能依然要依赖人类来构建和维护其所依赖的基础架构,至少在最初阶段是这样的。

人工智能在中间步骤中,有可能从对世界的视觉表征里生成自身的假设,接着在数字模拟里对这些假设进行严格测试。之后,人类会在物质领域对其执行进行裁决。实际上,当今的人工智能领军人物坚持认为,我们不能把直接的物质实验全部托付给这些数字代理。只要人工智能还存在缺陷,也就是存在严重缺陷,这就是一个明智的预防措施。

将人工智能从算法的束缚中释放出来,这对我们而言绝对是一个意义重大的决定。人工智能在物质环境中并非天然存在,一旦将其置于外界,就很难再将其捕获。而且,人工智能不但能够凭借其具备的促使或阻止人类行动的能力来对现实产生影响,还能通过直接的动力学效应来影响现实(在对现实进行探索的过程中,它们或许最终会改变现实)。

人类能否赋予人工智能相应能力,使其既能塑造物质现实,又能拥有物质形态?若我们这样做,并准许人工智能优化自身形态,那我们就应做好准备,与那些即便最异想天开的发明家也想象不到的生物形态共同在我们的星球上生存。人类倾向于想象人工智能采取双足类人机器人的形态。然而,机器智能能够自由操控对其任务最有利的任何形态,并且可以根据条件或环境对自身形态进行改变或升级。人工智能已在虚拟世界中展示了能力,它能复制出自己的克隆体,创造许多不同的化身,或者分裂成自主体,以超人般的完美能力协调彼此工作,承担复杂的任务。

如果人工智能被释放到我们当中,它能够用现在我们难以想象的规模和材料来建造世界,并且不需要人类的指导或参与。在历史上,人类凭借自身的双手,借助石灰石、黏土和大理石创造了七大奇迹,接着又利用钢铁和玻璃建造了更高的尖塔。每一座人工建筑,不管是具有纪念意义的还是有实际用途的,都是人类尝试建造并控制物质环境的一种见证。在此背景之下,人工智能的实体具身化这一情况,意味着人类在放弃自身控制权这件事上,出现了一次极为不寻常的事态升级。

一方面,未来的人工智能看起来更加自发,实际上也更加自激活,这可能会使今天人类已有的那种对外部世界缺乏控制、模糊且令人不安的感觉加剧。但从另一方面来看,如果屈服于这些焦虑,就有可能使人类放弃在物质世界中与人工智能建立更完美伙伴关系的想法,并且这也会让我们无法获得这种关系可能带来的诸多益处。

理性引擎

短期内,我们能够预见人工智能目前所遵循的指导原则会不断进步。其中有许多原则会比现在的更加复杂巧妙。对现有模型进行扩展,能让其更智能、更准确且更可靠。与此同时,训练和“推理”的成本在迅速降低,这使得不同价位和能力水平的模型大量涌现。

如今,有许多科学家在对“智能体”(agent)进行研究,“智能体”是经过优化来达成特定结果的自主计算机程序。比如,为了执行复杂的架构设计这一任务,用户能够雇用专门在该具体工作领域工作的智能体。智能体能够对不同的情境进行评估,还能对各个步骤或者整体方案给出建议,以此来创建预先规划好的结果。这是一种“思考”的形式,系统会自行决定下一步该做什么,以及怎样去工作。

这种能力会为人工智能下一阶段的发展奠定基础,这个阶段是通用人工智能(Artificial General Intelligence, AGI)。通用人工智能是由工作系统是否具备至少能够部分选择自己目标的能力来界定的。在通用人工智能领域,假设系统具备相关的专业知识以及能够准确解决问题的能力,那么人类或许会要求系统去“评估在某个领域里自己所知晓的事情,并且从这些事情中挑选出自己认为当下能够产生最大影响的一个方面来展开工作”。反复对这个问题进行迭代,就会形成一个重复的循环。系统会通过不断评估自身的专门知识水平,以及在其解决能力范围内的问题,从而产生解决方案。

在人类的场合中,这种情境或许与一个学术部门的情况相似,也就是资深教授对其博士后学生或研究员进行具体项目的监督。同样,在全新的机器场合里,我们起初看到的机器学习,可能不是一整套的技能,而是在某个特定领域的极为专业的知识。我们可以想象,复杂的通用人工智能系统能够快速地去学习新的知识,能够接收反馈,并且能够与数以百万计的天才机器伙伴一起不断地进行调整和适应。虽然没有人类去界定系统的目标,但是通用人工智能也不会去定义它们,至少不会从终极任务或者目标的角度去进行定义。

通用人工智能系统在现实世界中比今天的人工智能需要更多的接地性。然而,一旦能够实现对现实世界的访问和“理解”,就可以想象,这种通用智能范例能够在短短几年内投入运行,而不是像以前认为的那样需要几十年。每个模型都会持续进行微调过程,并且会实时更新。随着获取到相关的现实信息,模型的知识量会不断增多。随着时间的不断流逝,模型也会变得更加智能。

届时会出现大量的人工智能系统,数量可达数百万,这些系统很可能具有高度专业化的特点,并且会成为我们生活的一部分;同时也会有数量较少的机器,它们的功能极为强大,具备“通用智能”,不过这种智能是以非人类的方式展现出来的。无论是处于开放式和分散式的状态,还是处于封闭式和集中式的状态,那些以通用人工智能运行的计算机都有在某一时刻实现联网的可能性。专家级人工智能体在不同主题间会相互咨询,还会以假想的方式彼此“交谈”。这些交互所运用的语言或许是由计算机自行设计的。

这个强力计算机拥有一个大集群,它将以一种超越人类经验的方式去学习、共享以及发现新的行动和目标。我们无从知晓人类是否有能力理解这种网络所输出的内容。已经存在着大量的计算机在以一种专门的模式进行相互通信。随着高级人工智能的出现,情况或许会变得完全不一样。

联网的智能会让它们的运行过程比单机智能的过程更不透明吗?连接是否会引发新的突发行为,并且在物理世界中得以实现?倘若如此,人类能够看到这些行为吗?我们可以从善恶的角度来对它们进行评估吗?它们或许是基于某种信息而运作的。它们能以超人的速度、规模和分辨率,从不同研究领域之间前所未有的联系中提取出信息,然后将这些信息合并或商定为单一的输出。这样一来,我们便无从判断它们的行为。这是否会让我们进一步陷入被动的循环呢?

技术人

理性时代的最后一项发明或许是基于有史以来最为复杂的软件对象而构建的“理性引擎”,这个称呼是十分恰当的。人工智能已初现雏形,它能够对概念进行比较,能够提出反驳,还能够生成类比。它正开始朝着评估真实以及实现直接动力学效应的方向迈出第一步。

机器到达智力或物质世界尽头时会怎样?可以想象,它们开始了解并塑造我们的世界后,可能会完全明白自身创造行为所依据的背景,也可能会超越我们所知晓的世界。我们正面临一场类似麦哲伦式的变革,这次我们面临的不是驶出世界边缘的风险,而是面对超越人类理解极限的奥秘所引发的智力危机。

人类若开始意识到自身作为地球上最重要的智力和体力行为者的地位可能会被取代,那么一些人或许会赋予机器一种神性,这样就有可能进一步引发人类的宿命论和屈从心理。而另一些人则可能会持有相反的观点,即一种以人类为中心的主观主义,会完全否定机器有触及任何程度的客观真理的可能性,并且还会试图取缔由人工智能赋能的活动。

这两种思维方式都不能使“技术人”——一种在新时代或许能与机器技术共生的人类物种——达成令人满意或具有建设性的进化。[7]实际上,这两种心态都有可能对我们这个物种的进化造成阻碍。在第一种带有宿命论的情境里,我们或许会走向灭绝。在第二种拒绝主义的情境中,我们禁止人工智能进一步发展并选择停滞不前,这样就有希望避免同样的灭绝命运。然而,考虑到我们人类面临的生存风险,像当今频繁发生的冲突和日益恶化的大气条件等,这种希望很可能会落空。

作者分别是美国的亨利·基辛格、美国的克雷格·蒙迪以及美国的埃里克·施密特。

出版社: 中信出版社

出品方: 方舟工作室

译者: 胡利平 / 风君

相关内容 查看全部