在“经济蓝图”中,Openai描绘了AI给人类带来的未来:在不久的将来,普通人的生活将比现在最“固执的”有钱人更好。
但这真的是这样吗?
从这个角度来看,CS毕业生将来很难就业。他们的生活会比现在更好吗?
通用汽车人工智能(AGI)和超级智能(ASI)的预测是压倒性的。
这些专业的意思是什么?
尽管这个话题不是新鲜的,但这并不容易。
专注于AI和对生活的影响可以分为三个部分:
它将产生超级智能还是通用人工智能(AGI) - 超越人类智慧的实体,
它如何改善/破坏我们的生活,
我们现在可以做的事情来控制结果。
AGI/ASI方法
尽管这只是一个可能的预测,但纽曼对AGI的解释代表了大多数现场专家对下一代AI的看法。
与AGI相似,但是超级智力(ASI)更加关注科学发现中AI的促进。
AGI只有几年的路程,许多专家或AI巨头的首席执行官也提供了更具体的时间节点。
不列颠哥伦比亚大学的计算机科学教授杰夫·克莱恩(Jeff Clune)也同意欣顿的观点。
他说:“我认为超级情报有机会,这个机会并不苗条,这可能会在今年出现。我们已经按月进入了一个接近超级情报的时代。每个月,这种可能性都会增加。”
但是,专家警告不要低估AI的力量,无论它是好是坏。
超级智能风险
如果您失去对AI的控制,那么人类的未来可能不会太亮。
AI扩大了富人与穷人之间的差距
在最近的公开讨论中,杰弗里·欣顿(Geoffrey Hinton)预测,AI将加剧富人与穷人之间的差距,并使社会“更糟”。
在悠久的历史中,技术进步造成的“裁员”并不是什么新鲜事物。
随着全球工业化和现代化,一些传统的职业正在消失,一些行业甚至被彻底摧毁。
但是AI越来越强大,越来越强大,越来越多的工作正面临被淘汰的风险。
在最近的圆桌讨论中,欣顿预测,随着AI的发展,财富之间的差距将迅速扩大:
我们谈论的是生产力的巨大提高。因此,每个人都应该能够获得更多的商品和服务,每个人都应该变得更好,但实际上,情况并非如此。
如果无法正确处理,他说下一件事将发生:
生产力的巨大提高将为大公司和富人带来更多的钱,从而增加富人与失业者之间的差距。
这主要是因为失业者将失去收入,而控制AI的人(即生产产品和服务的人)将享有而无需劳动成本的财务特权。
许多富人和大公司都专注于AI。
很难相信它们不是为了未来的利润,而是所有人类的良好未来。
毕竟,即使Openai也即将成为“关闭”:。
网民还推测,财富将从公众中损失,并会导致社会失衡。
普通百姓变得微不足道
去年12月28日,L Rudolf L发布了“资本,AGI和人类野心”,强调了人工智能对社会价值的影响。
他的核心点如下:
可以取代劳动力的人工智能将迅速改变人类和非人类生产因素的相对重要性,这将减少社会关注的动机,并使现有权力更加合并。
现在,如果您想用金钱来实现自己的野心,最深的问题可能是不能招募招聘,因为招聘才能遇到了几个问题:
除非他们具有相当大的才能,否则通常很难判断他们的才能。否则,通常会错过真正的才能。
才华的稀缺性(甚至更多的才华脱颖而出和角落)。
即使您能找到最高的才能,最高才能通常也不比其他人那么容易购买。
可以取代劳动力的人工智能根本没有这些问题。
首先,尽管很难估计AI的“才华”,但可以复制AI。
每个人 - 至少足够的钱来燃烧GPU-可以带来突破性的AI。
人类与这种不同,不仅很难确认,而且很难复制。
此外,由于人工智能的成本将低于同一人工劳动力,因此人才的成本将大大下降。
而且,由于可以复制AI功能,因此竞争将更加激烈。
最大的资金瓶颈是才能,许多顶尖人才具有复杂的人类偏好。它们比AI更难购买。
顶级天才通常对学科或职业具有高度的奉献精神和使命,并认为“金钱是粪便”。
相比之下,AI的存在是出售它(至少在安全范围内)。
显然,人工智能没有“人性”。无论执行哪种类型的任务,它都比人类多得多。
工党后的世界被AI取代:
这意味着,当可以取代工党的人工智能时,拥有大量资本的人将具有永久的优势。
他们将拥有更多的力量,例如今天的富人:只要自由机构仍然很强大,他们可能不在人民之上,但至少它们在物质和精神上更强大。
而且没有新兴的力量击败他们,因为现在可以轻松地将资本转变为任何领域的“超人”劳动。
此外,在世界上拥有权力的机构将不再有动力关心人们维持或增加自己的权力,因为所有真正的权力都来自AI。
但是,政治机构可能会坚定捍卫自由的人文主义价值观。
如果每个人都有有意义的无条件基本收入(或类似措施),并且经济保留了以人为导向的零件,则它也可以维持人们的购买力。
过去,AI亿万富翁拥有几乎无限且无限的权力,它们是永久的贵族阶级。
阶级之间的权力差异可能会使现代人颤抖,就像现代人无法同意封建等级制度一样。
因为这是权力和金钱激励的方向。
聪明的诅咒
关于L Rudolf L的理论,AI治理专家Luke Drago进一步解释了AI的隐藏危险。他称其为:“聪明的诅咒”,也就是说,因为阿吉(Agi)负责人失去了对人民的投资。
他认为,AGI更像是煤炭或石油等资源,而不是犁,蒸汽机或计算机等工具。
就像煤炭和石油等自然资源一样:
尽管某些国家拥有丰富的自然资源,并且具有自然的收入来源,但经济发展模式是单身的,普通公民的生活尚未改善。
这称为“资源诅咒”。
有许多因素导致资源的诅咒,但是核心因素之一是创造激励措施,而不会关心人民的经济健康。
AI替换劳动力的权力权将面临类似的情况,但其后果更为严重。
因为他们的收入将来自“人类•工人情报”,而不是人类。
因此,只要他们继续投资于AI,他们可能会获得更多的收入。
最后,他们将不再需要为人们提供工资或福利,也不再提供社会保障,例如教育和医疗服务。
最后的结果是普通百姓无法维持生计。人类不使用武术,因此他们不会得到报酬。
这是智力的诅咒 - 一旦有权创造并实现一般情报,他们将失去投资人的灵感。
一旦AI系统比人更好,更便宜,更快,更可靠,那么智能诅咒就开始生效。在接下来的1到5年中,果实将出现。
此外,人类再也无法摆脱这种“诅咒”,但是预计“资源诅咒”将解决。
考虑到石油的气候影响和可再生能源的兴起,任何国家都可以产生能源。生产石油的国家被迫寻求新的收入来源,在此过程中,对人民,从而摆脱了“资源诅咒”。
AGI将不会产生这种影响 - 随后的模型将比上一代更强大,并且一些人将始终处于垄断地位。
Agi不会像油一样“筋疲力尽”。计算能力或现有能量可能会耗尽,但是随着时间的流逝,计算能力变得更便宜,能量变得越来越绿色。
如何控制AI
尽管对该技术的范围和时间框架的预测可能有所不同,但研究人员通常认为超级智能是不可避免的。
仍然不合理的问题是人类是否可以保持对AI的控制。
对于欣顿来说,答案是对当选对监督AI的重视的政客:“我们应该做的是鼓励政府迫使大型公司在开发这些技术时进行更多的研究并研究如何维持其安全性。”
但是,Google DeepMind的高级研究顾问Clune表示,许多领先的AI公司坚持正确的价值,并且“正在努力”。
“我更担心那些正在开发领先的AI模型的公司和组织,我更加担心那些试图赶上的国家和组织。它们和远离头脑的AI实验室一样多。 “
Clune提出的实用解决方案类似于核时代的实践,即邀请所有主要的AI参与者进行定期对话。
他认为,AI从业者应该合作,以确保它可以安全发展。
克莱恩说:“这是人类历史上最大的赌注,甚至比核武器更大。”建议世界各地的研究人员互相了解,以了解彼此的进步,并在需要时减慢研发的进度。
“投注非常高。如果我们做对的话,好处是很大。如果我们做错了,我们可能会讨论人类文明的终结。”
参考材料: