专题:聚焦AI
“现在,当我们谈论人工智能的使用带来的风险时,我们应该区分哪些风险是人类造成的,哪些风险是技术造成的。” 10月26日,在2024年全球顶尖科学家智能科学大会“永远为人类”“人工智能治理框架的持续发展和制定”主题论坛后,Verimag Labs创始人、2007年图灵奖获得者约瑟夫·希法基斯(Joseph Schifakis)获奖者在接受澎湃新闻采访时表示()。
图灵奖获得者约瑟夫·希法基斯在2024年世界顶尖科学家智能科学大会上发表演讲。
Joseph Shifa Keith 1946年出生于希腊,在法国完成硕士和博士学位,并成为法国格勒诺布尔阿尔卑斯大学VERIMAG实验室的创始人和科研主任。 2007年,希法·基思因在模型检查理论和应用方面的贡献为他赢得了计算机科学领域最高荣誉之一的图灵奖。
在本次主题为“为人类可持续发展制定人工智能治理框架”的论坛上,谈到当前人工智能发展带来的风险,约瑟夫·希法基思表示,现在,当我们谈论人工智能的使用带来的风险时,就人工智能而言,我们应该区分哪些风险是人类造成的,哪些风险是技术造成的。对于人工智能来说,很有可能区分哪些风险是人类使用该技术造成的,哪些是技术本身造成的。
Joseph Schifakith指出,前者包括算法需求的不完整、算法设计的缺陷以及算法部署时可能面临的外部环境威胁。后者分为两种。例如,当客户或投资者对人工智能系统提出可能违法或不道德的需求时,用户也可能利用该系统承担风险。对此,Joseph Schifakith认为,应该针对算法设计者和使用者的人为风险,以及算法设计和部署阶段的技术风险,制定相应的对策。
“为了避免这种风险,法规非常重要。目前的所有问题都是因为利益相关者没有给出明确的需求定义。技术可以适当提高标准。”约瑟夫·希法基斯说道。
Joseph Schifakis在会后接受澎湃科技()采访时指出,目前,太多人在谈论AI(人工智能),但什么是智能、如何真正实现其应用,这些人无法准确回答。他认为,虽然人类在人工智能研究方面取得了长足进步,迎来了生成式AI,但目前的应用还只是弱AI,以问答应用为主,并没有能够同步人工智能能力的技术。和法律。
澎湃科技注意到,2024年顶尖科技协会奖“智能科学奖”获得者、康奈尔大学计算机科学与信息科学讲座教授Jon Kleinberg也在本次论坛上指出了当前人工智能的发展。人类自身的排外偏见会导致算法固有的偏见,进而引发人类社会的一系列混乱。受经济激励的影响,人们在设计算法时容易陷入“单打独斗”的状态。此外,当人类面对超越人类的AI系统时,认知落后也会带来麻烦。当与此类人工智能系统合作时,控制权通常不在人类手中。但如果人工智能突然交出控制权,人类可能会犯严重错误,因为人工智能知道该怎么做,但人类可能不知道。
因此,Kleinberg认为“在进行人类判断和算法知识判断时,必须考虑风险偏差的问题”。设计的时候,我们不仅要追求算法的强大,还要注意保证事态发展不能失控。
海量信息、精准解读,尽在新浪财经APP