避免产生误导性或过度自信的陈述,尤其是创建有意识的AI。
公开信的签署人包括伦敦大学的安东尼·芬克尔斯坦(Anthony Finkelstein)等学者,以及来自亚马逊和WPP等公司的AI专家。
这封信与研究论文一起发表,该论文指出,有意识的AI系统可能会在不久的将来开发,或者至少表现出有意识的特征。
研究人员说:“可能会有大量有意识的系统受到影响。”如果强大的AI可以复制自己,那么“大量需要道德考虑的新生活形式”就可以诞生。
该论文由牛津大学的帕特里克·巴丁(Patrick Barthing)和雅典大学经济与商业大学的西奥多罗斯·拉帕斯(Theodoros Lapas)共同撰写,他强调,即使公司不故意开发有意识的AI系统,也应制定相应的准则来处理相应的准则具有“无意”的风险,即在其中创建有意识的实体。
该论文承认,学术界对AI是否有意识存在普遍的不确定性,但它认为这是一个不容忽视的问题。
该论文还建议,如果将AI系统定义为“道德患者”,即在道德上是“独立和值得关注的人”,那么破坏该系统是否等于杀死动物,值得一提。
本文发表在《人工智能研究》杂志上。它还警告说,错误地意识到AI系统已经有意识可能会导致浪费政治资源,并且将进行不现实的福利促进工作。
据IT Home称,一些高级学者去年预测,到2035年,某些AI系统具有意识并且具有“道德意义”的可能性是现实的。
2023年,Google AI项目负责人Demis Hassabis表示,当前的AI系统“绝对”没有感知能力,但将来很可能拥有它。
他在接受CBS采访时说:“尽管哲学界尚未就意识达成共识,但如果我们指的是自我意识之类的特征,那么我认为AI可能会在将来有。”