杰弗里·辛顿是被誉为“人工智能教父”的科学家。他在去年获得了诺贝尔物理学奖。这一事件引起了全网的一阵讨论。
最近辛顿接受了诺贝尔奖官方的专访。在回忆接到诺奖电话时的趣事时,他的第一反应是疑惑。因为他研究的并非物理学,这一点和全网的疑惑是相同的。
辛顿是深度学习领域的先驱,他最为人知的成就是神经网络。然而,很多人并不知晓,他曾宣称自己这辈子“最自豪”且“最失败”的成就,实际上是与特里·塞诺夫斯基共同提出了玻尔兹曼机理论。
详见:《深度学习之父 Hinton 的万字访谈录,其中提到中美 AI 竞赛没有退路可言》
他们的工作奠定了基础,另一位诺奖物理学奖得主约翰·霍普菲尔德等神经网络先驱的早期研究也奠定了基础,这些共同奠定了现代人工智能发展的基础。
采访中,辛顿表达了对人工智能未来发展的忧虑。他觉得,人工智能或许在仅仅五年的时间里就能超越人类的智慧。同时,他针对人工智能可能引发的社会风险,像大规模失业以及虚假信息等问题,发出了警告。更值得让人深入思考的是,辛顿暗示,人工智能所具有的潜在风险或许远远超过了我们当下的认知。
接下来的正文内容,带大家深入了解辛顿的最新观点。
诺贝尔奖:您最初是如何得知自己获得诺贝尔奖的?
杰弗里·辛顿:当时我在加利福尼亚的一家酒店房间里睡着了。我的手机背面朝上放在床头柜上,且声音已被关闭。由于是侧卧姿势,手机恰好在我的视线范围内。突然,手机屏幕亮起,我看到了一丝光亮,接着手机开始震动。考虑到加利福尼亚与我认识的几乎所有人所在的东海岸存在时差,我心生疑惑,究竟是谁会在这个时候给我打电话呢?
我拿起手机,看到屏幕上显示着一个长号码,我不认识这个号码的区号和国家代码。随后,电话那头传出一个声音,这个声音带有瑞典口音,他询问我是否是杰弗里·辛顿。紧接着,他告知我我获得了诺贝尔物理学奖。
我的第一反应是,且慢。我研究的并非物理学呀?这或许会是一个恶作剧吧?然而随后,他所说的内容听上去极为可信。接着,又有其他带有瑞典口音的人参与到了通话中。就在这时,我才开始相信这是真的。
在之后的几天中,我依旧感觉仿佛在做梦。所以,我做了一些统计学方面的推理。我的推理过程如下:一个真心实意致力于探究大脑工作原理的心理学家,获得诺贝尔物理学奖的可能性有多大呢?倘若这个概率是二百万分之一,这已然是一个比较宽松的预估了。那么,要是这是一个梦,而我梦见自己获得了诺贝尔物理学奖,这个概率又是多少呢?假设为二分之一。进行这样的比较后,梦境的可能性比现实的可能性大百万倍。
因此,我感觉这或许如同小时候做过的那些能飞的梦那般——梦中我能够自由地飞翔,那种感觉美妙至极,然而醒来后才知晓那仅仅是一场梦。过了一个月,我再度做了一个会飞的梦。我记得之前做过会飞的梦,可那并非真实的,而此次却觉得这般真实。我当时就在思索,此次会不会也是这般情况呢?于是有那么几日,我始终处于一种等待醒来的状态。直到现在,我仍然没有醒来。
诺贝尔奖:在著名的研究人员家庭中长大是怎样的体验?
杰弗里·辛顿称,在学术方面面临着很大的成功压力。他从小便隐约察觉到,自己必须在学术领域取得成就,不然就会被(家族)当作是失败的。
诺贝尔奖:是什么让您对研究人工智能产生兴趣?
杰弗里·辛顿称,他在高中时有一位朋友,这位朋友一直比他聪明很多。大概在他们 16 岁或者 17 岁的时候,有一天这位朋友来到学校,接着开始谈论大脑里的记忆,以及记忆是如何如同全息图那样分布在大脑中的。
1965 年左右,全息图刚刚问世。他对心理学家拉什利提出的记忆是分散存储在许多神经元中的观点很感兴趣。我也对这个观点产生了浓厚兴趣,从那时起,我就一直在思考大脑的运作方式。
诺贝尔奖:人工智能带来的最大风险是什么?
杰弗里·辛顿:人工智能的风险大致可以分为两类:
一类是相对短期的风险,这些风险很重要且很紧迫。它们主要是因为人们对人工智能的误用而产生的。目前,人工智能依然受人类控制,然而却已被滥用。这些短期风险包含人工智能取代大量工作岗位以及加剧贫富差距。因为人工智能在提高生产力的同时,收益分配并不均衡。一部分人会失业,另一部分人则会变得更加富有。这对社会发展是不利的。这是一种风险,我们需要思考相应的对策,然而目前具体的应对方法还不清晰。
一种短期风险是虚假视频,这些视频有可能被用于干扰选举,并且这种情况已经开始显现。另外还有网络攻击的风险,部分不良分子或许会借助大型人工智能模型来谋划更为复杂的攻击,最初这种攻击可能仅仅是为了能更高效地实施网络钓鱼。去年到现在,网络钓鱼攻击事件呈现出大幅增长的态势,增长幅度达到了 1200%,这种情况很有可能与大语言模型的出现存在关联,原因在于大语言模型让网络钓鱼变得更具欺骗性了。
此外,人工智能有可能被用于设计生化武器,并且利用人工智能能更高效地完成此类设计。在不远的将来,设计这类武器或许会变得较为容易,这就意味着一个居心不良的人有可能制造出难以想象的混乱局面。若大模型的参数被公开,情况会愈发糟糕,因为他人能够轻易地获取这些大型模型,并对其进行微调。现在已经有人开始将大模型的参数进行公开。我觉得这种做法是很不明智的。
除了上述风险外,还有一些其他的短期风险,其中包括歧视和偏见。比如,当你训练一个人工智能模型,让其决定是否应该给予囚犯假释时,如果历史数据表显示白人囚犯更容易获得假释,而黑人囚犯并非如此。那么,用这些历史数据训练出来的人工智能模型,很有可能会得出与历史数据相同的结论。不过,我个人并没有像其他人那样对此过于担忧。人工智能模型方面,我们能够冻结其参数,也能量化其中的歧视程度,而这在人类身上是难以达成的。倘若我们尝试去衡量人类的歧视程度,人们就会察觉到自己正在被评估,进而产生“大众汽车效应”,也就是在被评估时他们的表现会与平时有所不同。
因此,我认为在人工智能系统中去衡量歧视和偏见,这比在人类行为中衡量要容易很多。并且,我认为我们的目标不应该是去创造完全不存在歧视和偏见的事物。我们的目标应当是创造出相较于现有的系统而言,歧视更少且偏见也更少的人工智能系统。
然而,在顶尖研究人员当中,对于这件事终将发生这一点几乎没有异议,除非人类自我毁灭。因此,问题是当创造出比我们更聪明的生物时会出现什么情况呢?我们对此毫无所知,因为之前从未有过这样的经历。那些断言一切都会好或者必然能掌控局面的人,是疯子。正因为如此,现在开展大量基础研究,去探索我们是否能够驾驭比我们更聪明的造物,就显得非常重要。
我们所知道的那种不够聪明的事物控制更聪明事物的例子并不多。我所知道的仅有的一个较好的例子是婴儿对母亲的控制,也就是说婴儿的需求以及哭闹会对母亲的行动和决策产生影响。然而,这两者之间的智力差距并不是很大,并且进化耗费了很长时间才使得这种情况得以形成。
现在,有些人觉得这不是问题,因为这些智能体是我们创造出来的,而且我们会以一种能始终掌控它们的方式去构建。然而,这些事物会极为聪明,它们会和我们一样,实际上,它们的工作方式与我们很相似。它们并非以计算机代码的方式运作——尽管人们有时把它们称作计算机程序,但它们绝非传统意义上的程序。你编写计算机程序是为了指导神经网络的学习,这里的神经网络是模拟的。然而,当神经网络开始学习后,它会从数据里提取结构,最终形成的系统是能从数据中自行构建结构的,而不是由人编写的固定程序。我们不清楚这种系统会怎样运作,并且它们会像我们一样具有自主性。
要让这些系统表现合理,就如同教育孩子一般。我们的主要控制手段是强化和训练,即奖励良好行为,惩罚不良行为。更关键的是,通过展示和示范良好行为来对它们进行训练,让它们观察并模仿。这些系统也是这样的情况。所以,对它们进行我们期望看到的行为类型的训练是非常重要的。目前,大型聊天机器人是依据它们所能获取的全部数据来进行训练的,其中包含了连环杀手日记等这类内容。你想想,在养育孩子的时候,你会让孩子通过阅读连环杀手的日记去学习吗?相信你肯定能意识到那是一个很糟糕的主意。
诺贝尔奖:在人工智能超越我们之前,我们还有多少时间?
杰弗里·辛顿称,他个人觉得在接下来的 5 到 20 年这段时间里,有很大可能,大概 50%的几率,能够创造出比人类更智能的人工智能。不过,这个时间或许会更久,也或许会稍短些。但他认为在 20 年之内,这种情况出现的可能性是比较大的。其他研究人员对于此的预测时间有长有短,而这只是他个人的一种猜测。这个预测与我一年前的猜测是一样的。因此,要是现在让我再次进行猜测的话,我或许会把时间范围改成 4 到 19 年。
诺贝尔奖:作为一名科学家,取得成功的重要个人品质是什么?
杰弗里·辛顿认为这要依据你所在的领域,还有你是否尝试在研究方向上与该领域的普遍标准不一样。对于神经网络领域来说,在很长一段时间内,它被当作是荒谬的,很多人都觉得它永远不会起作用。所以,要在这样一个领域获得成功,你得有自信,要坚信自己是正确的,即便所有人都认为你是错误的。
实际上,在我很小的时候经历了一些事,这些事对我的成长有帮助。一件事是,我的父母都是无神论者,然而在我七岁的时候,他们把我送进了一所基督教私立学校。在这所学校里,每个人都信仰上帝,像老师以及其他学生都是。但在我看来,这是完全没有根据的说法。事实后来也证明了,我是正确的。这种经历让我体会到,当周围所有人都相信某件事时,你却清楚知晓他们是错的。并且随着年龄的增长,你会发现越来越多的人也不再相信他们曾相信的。这是一种很有益的体验。
这对我坚持研究神经网络提供了很大的帮助。当时,几乎所有计算机科学领域的人都认为神经网络是无稽之谈,当然,不是所有人都这样认为,但几乎是所有计算机科学领域的人都持这种观点。
我有一个很少提及的经历。大概在我九岁左右,具体年龄记不清了。那时我听到了一个广播节目,我的父亲在节目里谈论大陆漂移学说。在当时,对于大陆是否会移动这个问题,存在着很大的争议。几乎所有的地质学家都觉得这完全是荒谬的。气候学家魏格纳最早在 1920 年左右提出了这个理论。他给出了很多证据,用以证明大陆是能够移动的。然而,他并非地质学家。正因如此,地质学家们都觉得他的理论完全是一派胡言,对其嗤之以鼻。比如,他们不肯将大陆漂移学说纳入教科书,觉得这会误导学生,纯粹是无中生有。
诺贝尔奖:您对年轻研究人员有什么建议?
杰弗里·辛顿表示:自己不确定是否适合给出建议。不过,他通常会给出这样的建议,那就是,倘若你有一个想法,并且觉得它是正确的,然而它却与大多数人的看法相违背,那么在你弄清楚它错在哪里之前,千万不要轻易地放弃。
大多数时候,你所拥有的这类独特想法通常是错误的。或许是你遗漏了某些因素,亦或是对某些问题的理解不够深刻。然而,在极少数情形下,你会碰到一个既与众不同又正确的想法。只有你坚守自己的信念,持续探索,直至找到它错误的缘由,才有可能发现那个正确的想法。并且,你应当对别人的质疑和否定予以忽略。我很擅长忽略别人的看法。
诺贝尔奖:科学家在社会中有什么责任?
杰弗里·辛顿认为,科学家对人工智能技术本质的理解比政治家和普通大众更深刻。同时,科学家之间存在分歧。有些科学家觉得这些大型聊天机器人并未真正理解它们所说的话,尽管有大量证据表明它们具备理解能力,但仍有一些科学家坚持认为这只是一种统计学技巧。
诺贝尔奖:回顾您的职业生涯,有什么可以做得不同的地方吗?
杰弗里·辛顿希望自己能更早地将注意力投向人工智能所带来的生存威胁。他过去始终觉得超级人工智能距离还很遥远,认为可以之后再去思索这个问题。而当时最为重要的任务是让这些人工智能变得更具智能。他真的很期望自己能更早地去思考这样一个问题,那就是人工智能发展到一定程度之后可能会引发什么。
回顾 20 世纪 50 年代初图灵的著作,他提及了创造比人类更智能的机器。他有这样一句话,意思大致是,倘若机器变得比我们更聪明,那我们就“完蛋”了。虽然他没有直接这样说,但他的话语隐含了这层意思。然而,大多数人是在问题即将来临之时才开始思考这个问题的,而现在这个问题已经十分临近了。所以我希望自己能更早地开始思考这个问题。
诺贝尔奖:您打算如何使用奖金?
杰弗里·辛顿将他个人获得奖金的一半捐赠给了加拿大的一个组织。这个组织致力于培训原住民社区的居民,让他们掌握安全饮用水生产技术。这样做的好处在于,接受培训的人们能够留在自己的社区,并且为社区提供安全的饮用水。加拿大是一个富裕的国家,像安大略省这样的地方,仍然有 20%的原住民社区无法获得安全的饮用水,这实在是让人难以相信。
我对这个问题感触很深。我曾在秘鲁收养过一个孩子,并且在那里生活了两个月。秘鲁的自来水不能直接饮用,是有毒的。所以,如何获得安全饮用水就成了生活中的头等大事。这给日常生活带来了巨大的额外负担。在加拿大,仍有人需要遭遇这样的困境,这是不应该的。因此,我把一半奖金捐给了这个组织。
至于另一半奖金,在 20 世纪 80 年代的时候,我曾和特里·塞诺夫斯基一同对玻尔兹曼机理论进行研究。特里其实是霍普菲尔德的学生。我们在玻尔兹曼机理论的研究方面贡献程度差不多。可以这样说,要是没有和他的交流,就不会有我的相关理论,反过来也是一样的。特里一开始是一名物理学家,之后转向了神经科学研究。我们当时认为,玻尔兹曼机一定揭示了大脑的工作原理。
它是一个精妙的学习算法,所以我们深信它与大脑的工作方式有关。我们还认为,或许会因发现大脑的工作原理而获得诺贝尔生理学或医学奖。20 世纪 80 年代我们曾有一个协议,若诺贝尔奖只颁发给我们中的一人,我们就平分奖金。所以,诺贝尔奖出乎意料地颁发给了我,其中获奖理由之一是玻尔兹曼机。我立即联系了特里,询问他希望我把属于他的一半奖金寄往何处。但他觉得接受这笔钱不合适,因为这次诺贝尔奖的表彰不只是因为玻尔兹曼机,还包括了其他他参与度较低的后续研究成果。
他拒绝接受这笔钱。最终我们达成了一个方案,我用自己那部分奖金的一半,设立一个奖项并以特里·塞诺夫斯基命名,用来奖励年轻研究人员,尤其那些对大脑工作原理提出类似我们当年那样“疯狂”理论的年轻研究人员,这个奖项会在我们研究领域的年度会议上颁发,我觉得这是个很好的折衷方案。我觉得特里完全具备成为诺贝尔奖第三位获奖者的资格,然而他最终未被选入。对此我并未有过怨言,但他确实拥有这样的资格。设立这个奖项,也是为了对他所作出的巨大贡献予以肯定。
采访视频链接:
本文源自微信公众号“AI 科技大本营”,其作者为诺贝尔奖官方,由王启隆进行编译,36 氪获得授权后予以发布。