发布信息

百度文心大模型4.5和X1正式发布,加速AI技术普及与应用落地

作者:软荐小编      2025-03-18 21:01:18     99

3 月 16 日,百度旗下的文心大模型 4.5 以及文心大模型 X1 被正式发布。当下,这两款模型已经在文心一言的官网上线了,并且可以免费向用户开放使用。

文心大模型 4.5 已在百度智能云千帆大模型平台上线,企业用户和开发者登录后便可调用 API。同时,文心大模型 X1 也即将在千帆上线。

OpenAI 宣布 GPT-4.5/5 即将陆续发布,这并非偶然。同时,免费版 GPT 在标准智能设置下可无限制地使用 GPT-5 进行对话。此外,字节跳动、阿里云等企业也都下调了旗下大模型产品的价格。

降价和免费的时代已经来临,这无疑会加速 AI 技术的普及以及应用的落地。越来越多的企业和开发者开始着手尝试把 AI 技术运用到各个领域,在这个过程中催生出了大量的创新应用和商业模式,而 AI Agent(智能体)便是其中的一个。

近日,AI 智能体企业 Manus AI 称,在 7 天时间里,Manus 的使用申请等候名单人数增加到了两百万人。3 月 12 日,OpenAI 正式推出了一系列全新的 Agent(智能体)开发组件,其目的是借助自动化工具和标准化接口来降低开发门槛,并且能显著缩短智能体应用的开发周期。

这一系列技术发布是围绕智能体的。这些技术发布从侧面表明,AI 智能体目前已经抵达了爆发的临界点。各大科技公司在智能体领域持续加大投入。伴随这种情况,2025 年有希望成为真正的 AI 智能体商业爆发的元年。

想象一下,未来只需一个简单的指令,智能体就能够领悟并执行复杂的任务;它们还可以通过视觉来捕捉用户的表情和动作,进而判断出用户的情绪状态。这已经不再是好莱坞科幻电影里才会出现的场景,而是正在一步一步地走进现实的 AI 智能体时代。

齿轮加速传动__齿轮加大转速怎么算

2023 年 11 月之时,微软创始人比尔·盖茨发文称,智能体不但会对每个人与计算机交互的方式进行改变,而且会将软件行业予以颠覆,进而带来自我们从键入命令转变为点击图标以来最为重大的计算革命。

OpenAI 的首席执行官山姆·奥特曼在不少场合都曾表明:构建起极为庞大的 AI 模型的那个时代已经完结了,而 AI 智能体才是未来所面临的真正的挑战。

类比智能电动汽车,它在新能源技术应用和里程焦虑之间找到了某种平衡的增程路线。AI 智能体使人工智能进入了“增程模式”,在 AI 技术和行业应用之间尽力达成新的平衡。

被看好的AI智能体

学术界和产业界对 AI 智能体提出了各种定义,因为它是人工智能领域的一个重要概念。大致而言,一个 AI 智能体需具备类似人类的思考和规划能力,同时要具备一定技能,以便能与环境和人类进行交互,从而完成特定任务。

或许我们把 AI 智能体类比为计算机环境中的数字人,这样能更好地理解。数字人的大脑是大语言模型或者人工智能算法,它可以处理信息,并且在实时交互中做出决策;感知模块就如同眼睛、耳朵等感官一样,用于获取文本、声音、图像等不同环境状态的信息;记忆和检索模块就像神经元那样,用来存储经验并辅助决策;行动执行模块就像是四肢,用于执行大脑所做出的决策。

人类长久以来一直在追求更加“类人”乃至“超人”的人工智能,智能体被视作实现这一追求的有效方式。

近些年,大数据和计算能力得到了提升。各种深度学习大模型也随之迅猛发展。这为开发新一代 AI 智能体提供了巨大支撑,并且在实践中取得了较为显著的进展。

谷歌 DeepMind 人工智能系统展现了用于机器人的 AI 智能体“RoboCat”;亚马逊云科技推出了能够自动分解企业 AI 应用开发任务的 Amazon Bedrock 智能体。

Bedrock 中的智能体具备理解目标的能力,能够制定计划,并且可以采取行动。新的记忆保留功能使得智能体可以随着时间的推移记住相关信息,并且从互动过程中进行学习,从而能够完成更复杂、运行时间更长久以及更具适应性的任务。

这些 AI 智能体的核心在于人工智能算法。其中包含机器学习技术、深度学习技术、强化学习技术以及人工神经网络等。凭借这些算法,AI 智能体能够从大量数据里进行学习,以此提升自身的性能。并且能够持续优化自身的决策和行为。同时,还可以依据环境的变化做出灵活的调整,从而适应不同的场景和任务。

目前,AI 智能体在工业制造场景中得到了应用。

AI 智能体出现了。它标志着人工智能开始从简单的规则匹配以及计算模拟向更高级别的自主智能发展。这促进了生产效率的提高,也推动了生产方式的变革。同时,还开辟了人们认识和改造世界的新领域。

随着“通感算”网络的构建,它集通信、感知、计算于一体。未来,更广泛的 AI 智能体,如智能汽车、机器人、无人机、低空飞行器等,将以空前的规模实现接入。通过让各类智能体相互连接、互通,能不断拓展单一智能体的能力边界。借助多智能体的智慧涌现,可实现智能体的大规模、高效协作与交互,进而完成从单体智能向群体智能的转变。

AI应用技术趋势的底层逻辑

大模型技术落地使成本降低,这使得自动化智能技术正成为核心方向。大模型的产品形态呈现出从 Chatbot 到 Copilot 再到智能体的趋势和方向。

在此背景下,AI应用技术的三大底层逻辑正在浮现。

第一重底层逻辑为从智能体到 AGI。将在移动互联网时代所奠定的 App 生态进行对比,当下需要在 AI 时代奠定一个 AGI 应用生态。

从智能体的发展角度来看,人类正在逐渐提升程序的自动化和智能化水平。在对智能体进行尝试的过程中,应用厂商将深度学习等算法、知识图谱、RPA 等技术相结合,实现了部分自动化。其核心在于,以存量知识为基础,让程序能够自主地解决部分问题。

基础模型能力进一步提升后,智能体在任务规划中的灵活性会提升,其在知识吸收运用效率方面的上限也可能进一步提升。

当前基础模型能力之下,把智能体和工作流进一步相结合,在工作流程里嵌入 AI 来实现部分问题的智能加自动化解决,这样智能体的实用性或许会进一步变好,商业化或许会进一步加快。

大语言模型推动智能体进入新阶段,这是第二重底层逻辑。AI 智能体经历了多个阶段,先是从符号智能体、反应智能体开始,接着到基于强化学习的智能体、具有迁移学习和元学习的智能体,最后到基于大语言模型的智能体。智能体通过与外部环境互动来提升自身智能。

第三重底层逻辑的内容是多路径能够一起提升智能体的整体智能化水平。“大模型+智能体”属于通向 AGI 的其中一条路径。

智能体用于描述展现出智能行为且具有自主性、反应性、主动性以及社交能力的人工实体。它能够凭借传感器来感知周围的环境,接着做出决策,之后再利用执行器采取行动。具备上述特征的智能体,是迈向实现 AGI 的关键一步。

_齿轮加大转速怎么算_齿轮加速传动

AI智能体爆发元年已至?

2025 年是否真的会像业界所预测的那样成为“AI 智能体爆发的元年”呢?

业内专家把人工智能的发展与自动驾驶技术的分级进行类比,将其划分为五个阶段,分别是 L1、L2、L3、L4、L5 阶段,具体内容为聊天机器人、推理、智能体、创新者、组织者。

第一阶段聊天机器人已经得以实现。现在处于第二阶段,即大模型推理能力阶段,第三阶段是智能体。智能体可分为两大类,一类是能够生成内容的智能体,另一类是可以进行操作的智能体。

操作智能体分为在数字世界操作的智能体和在物理世界操作的智能体。智能体不断发展,就需要更多创新。当大模型、智能体、创新者增多后,组织者主要是指需要用 AI 对社会的管理模式进行重新设计与协调。

按照上述 5 个阶段的划分,目前大致处于智能体与创新者这两个阶段的转换期间。未来,每个人在生活和工作中或许会拥有多个智能体。

比如有能够随时监测个人健康的智能体,它会定期把健康数据进行汇总,并且给出健康建议。点餐智能体无需你向它下达点餐指令,就可以依据你的饮食规律以及分享自健康监测智能体中的数据,自行确定何时需要点餐,当你想要吃饭时,外卖已经送到门口了。每个人还可以拥有多个数字人智能体,例如可以帮你处理日常事务的数字人。

2025 年,AI 几个重要的发展方向如今已较为清晰。其一,通用人工智能(AGI)将继续推进,在预训练受到限制后,后训练的潜力逐步展现出来。其二,智能体迎来大发展,行业智能体将会大量涌现。其三,VLA 大模型与具身智能将会取得大的发展。其四,多模态融合的趋势将会更加显著。

潜在风险不容忽视

AI 智能体模拟和扩展人类的认知能力,有望在多个领域广泛应用,比如医疗、交通、金融及国防等领域。有学者推测,在 2030 年时,人工智能能够助推全球生产总值增长约 12%。

看到 AI 智能体飞速发展的同时,也要看到其面临着技术风险,面临着伦理问题,面临着隐私等问题。

证券交易机器人通过高频买卖合约,在纳斯达克等证券交易所短暂抹去了 1 万亿美元的价值;世界卫生组织使用的聊天机器人提供了过时的药品审核信息;美国一位资深律师未能判断出自己向法庭提供的历史案例文书竟是由 GPT 凭空捏造……这些真实案例表明,AI 智能体带来的隐患不可忽视。

AI 智能体能够自主进行决策,并且可以通过与环境的交互来对物理世界施加影响。一旦它失去控制,就会给人类社会带来极为巨大的威胁。哈佛大学教授齐特雷恩指出,这种既能与人交谈,又能在现实世界中行动的 AI 智能体,是“数字与模拟、比特与原子之间跨越血脑屏障的一步”,所以应当引起人们的警觉。

AI 智能体在提供服务时会收集诸多数据,用户得保证数据的安全,以避免隐私出现泄露的情况。

其次,AI 智能体自主性变强时,就更有可能在复杂或未预见的情境里做出难以预测或不恰当的决策。AI 智能体的运行逻辑或许会让它在追求特定目标的过程中产生有害偏差,其蕴含的安全隐患不能被忽视。通俗来讲,就是在某些情形下,AI 智能体可能仅仅捕捉到目标的字面含义,而未领会目标的实质意义,进而做出了一些错误的行为。

再次,AI 大语言模型自身所具备的“黑箱”以及“幻觉”方面的问题,会致使出现操作异常的频率有所增加。并且存在一些“狡猾”的 AI 智能体,它们能够成功地避开现有的安全措施。相关专家指出,倘若一个 AI 智能体足够先进,那么它就有能力识别出自己正在接受测试。目前已经有一些 AI 智能体能够识别安全测试并且会暂停不当行为,这会使得识别对人类有危险的算法的测试系统失去作用。

此外,目前没有有效的 AI 智能体退出机制。一些 AI 智能体被创造后可能无法被关闭。这些无法被停用的 AI 智能体,最终可能会在与最初启动它们时完全不同的环境中运行,从而彻底背离其最初用途。AI 智能体也可能会以不可预见的方式相互作用,进而造成意外事故。

为此,人类目前需从多个方面全链条着手。一是 AI 智能体的开发生产方面,二是应用部署后的持续监管方面。要及时制定相关法律法规,以此来规范 AI 智能体的行为,这样就能更好地预防 AI 智能体带来的风险,防止失控现象的发生。

展望未来,AI 智能体有希望成为下一代人工智能的重要承载者。它不但会改变我们与机器交互的形式,还有可能对整个社会的运作模式进行重塑。它正在成为推动人工智能转化过程中的一个新的关键要素。

本文来自微信公众号,作者:科技云报到,36氪经授权发布。

相关内容 查看全部