发展人工智能需要承担责任,这意味着人类开发者和部署者要肩负起责任。飞机和高铁能够实现无人驾驶,但驾驶员依然坚守在岗位上。尽管人工智能在快速发展,然而人类始终应当成为自己和 AI 的守护者。曾毅向记者表明,对于智能体的安全问题,必须让决策权力掌握在人类手中。
中国工程院院士、清华大学智能产业研究院院长张亚勤认为,就可能出现的风险来讲,设定 AI 技术的红线以及边界是很关键的。
AI 风险能够分解成两个层面,分别是可信度与可控性。在可信度方面,要求 AI 在执行任务的过程中,要遵循人类的期望、伦理规范以及国家法律,不能产生误导性、有害或者不公平的结果。而在可控性方面,要确保人类能够有效地对 AI 行为进行监控、干预和纠正,避免出现失控或者不可预测的后果。张亚勤表示。
值得一提的是,今年 3 月 14 日,国家网信办、工信部、公安部、国家广电总局共同发布了《人工智能生成合成内容标识办法》。该办法要求对生成合成内容添加显式标识,同时要对生成合成内容的传播活动进行规范。此办法自 9 月 1 日起开始施行。
藏在“冰山下”的风险
如何做到应用与治理的平衡推进,以使数据不再裸奔呢?目前,产业、学界以及监管各方依然有着不同的答案。然而,对于与会嘉宾而言,多方协作、进行动态治理、将伦理置于优先地位以及保持技术透明,这些是大家所达成的共识。
在产业实践里,不同行业所面临的 AI 问题是不一样的。拿手机行业来说,随着 AI 智能体开始“接管”手机屏幕,数据安全和隐私保护方面的问题正变得越发复杂。
比如,AI 智能体对原有操作系统的技术架构进行了打破。它产生了新的交互方式和行为。这其中涉及到权限管理和数据流转方面的根本性变革。并且需要重新对技术基线进行定义。鲁京辉向记者表明,商业企业一方面会看重技术的商业价值,另一方面会坚守底线与红线思维。在投入资源从内部多维度构建 AI 安全治理体系的同时,还会对外参与行业标准的制定,借助行业联盟来达成 AI 治理的效果。
他认为,手机厂商在 AI 治理与安全方面,从实施层面存在两个维度。其一为数据生命周期,在此期间需保证数据高质量,避免低质量或恶意数据对大模型造成污染,以确保数据安全;其二为业务生命周期。从业务生命周期来看,大模型自身需要考虑算法的安全性,要防范在训练过程中出现恶意攻击。在部署时,既要兼顾传统业务的防护手段,也要兼顾 AI 业务的防护手段,还要对大模型的不可解释性以及 AI 幻觉问题进行干预。
核心的底线在于做好数据安全与隐私保护。坦白而言,这种保护如同冰山下的部分,很多是难以察觉的。风险源自外部环境的变化,我们会尽力将灰犀牛事件的发生可能性降至最低。在内部组织方面,也会设立专门的攻防团队,以便在各个业务部门进行部署。
智能体被广泛运用,在张亚勤看来,这种原本“未知的、藏在冰山下”的 AI 风险正在快速提升。
智能体具有自我规划、学习、试点并达到自己目的的能力,是强大的技术工具。但在其运行过程中,存在很多未知因素,中间路径不可控。智能算法并不完全是黑盒子,很多东西的机理并不清楚,所以带来很大风险,张亚勤认为这种风险至少上升一倍。其中一种是可控风险,另一种是被坏人所利用的风险。使用智能体时需要制定一些标准,例如要限制智能体进行自我复制,这样做是为了降低失控的风险。
鲁京辉针对通过制定标准能否解决人工智能的安全性问题表明,安全性问题不能仅靠制定法律或规则来解决,并且全球对于“安全性”的定义目前还未统一。
欧洲注重合规,美国注重发展,中国追求平衡。到底哪一种是标准的答案呢?这还需要通过实践来进行证明。在他的观念里,安全不存在标准的答案,然而企业必须要有标准的行动。企业需要一种新的治理模式,这种模式能够更动态、更敏捷地在发展与安全之间取得平衡,既不能成为保守的防守者,也不能成为野蛮的开拓者。
(本文来自第一财经)