发布信息

Meta曾承诺公开AGI如今却可能限制高性能AI发布,背后原因

作者:软荐小编      2025-02-04 15:02:19     150

IT HOUSE 2月4日新闻,meta的首席执行官Mark Zuckerberg保证有一天将有一天人工智能(AGI),即可以完成人类可以完成的任何任务的人工智能,公开提供公开提供的任务,以公开提供公开提供的任务任何任务 - 公开提供的任何任务都会向公众公开。但是,根据meta发布的最新政策文件,该公司可能会限制在某些情况下开发的高性能人工智能系统的发布。

前沿项目是什么意思__对方认为违约金过高

该文件称为“ Frontier AI框架(Frontier人工智能框架)”,阐明了具有高风险的两种类型的AI系统:“高风险”系统和“关键风险”系统。根据meta的定义,这两个系统具有协助实施网络攻击,化学攻击和生物学攻击的能力。不同之处在于,“关键风险”系统可能会导致“在拟议的部署环境中无法缓解的灾难性后果”,而“尽管“高风险”系统可能会使攻击更容易实施,但它并不那么可靠或稳定为“关键风险”系统。

它注意到,梅塔(meta)在文件中列出了一些特定的攻击方案,例如“结束 - 终止自动入侵,遵循最佳实践保护的企业 - 级别环境”和“高元素生物武器的扩散”。梅塔(meta)承认,文件中列出的潜在灾难远非细节,但是这些事件是梅塔(meta)认为“最紧迫的”,最有可能直接触发强大的AI系统。

值得注意的是,在评估系统的风险时,meta不仅依赖于单个经验测试,而且还依赖内部和外部研究人员的意见,并由“高级决策者”进行审查。梅塔(meta)说,这是因为当前的评估科学“不足以提供确定系统风险的明确和定量指标”。

如果meta确定系统是“高风险”,则公司将限制系统的内部访问权限,并实施风险救济措施,以降低“中等水平”的风险,并且不会释放系统。如果将系统判断为“关键风险”,则元将采取毫无戒心的安全措施,以防止该系统被非法获得并暂停开发,直到可以降低系统为止。

梅塔说,随着人工智能领域的变化,其“切割 - 边缘人工智能框架”将继续发展。早些时候,meta承诺将在本月的法国人工智能行动峰会上提前发布该框架。该框架似乎是对对公司“开放”开发系统方法的批评的回应。 meta一直采用披露人工智能技术的策略(尽管在通常的意义上这不是开源),该战略与选择将系统置于API之类的OpenAI这样的公司进行了比较。

梅塔在文件中说:“我们相信,在考虑高级人工智能的发展和部署的利弊时,可以使用一种可以将技术保留给社会的好处并保持适当风险水平的方式向社会提供。

相关内容 查看全部