阿里宣布未来 3 年投资 3800 亿元用于 AI 和云计算的基础设施建设之后,有了新的 AI 传言。近期外媒报道,阿里 CEO 吴泳铭号召要在阿里现有的业务中全面达成“AI 化”,像淘宝和天猫这样的核心电商部门,也被鼓励运用更多的 AI 技术。
实际上,这并不意外。在最新的财报电话会上,吴泳铭阐述了阿里未来三年围绕 AI 的三大投入方向。一是 AI 和云计算的基础设施建设;二是 AI 基础模型平台以及 AI 原生应用;三是现有业务的 AI 转型升级。外媒口中的“全面 AI 化”,基本等同于“现有业务的 AI 转型升级”。
有知情人士透露,阿里正在研发一系列由 AI 驱动的原生应用,其中部分应用或许会在本年度推出。
近期全新的夸克上线了,这成为外界能够窥探阿里在 AI 原生应用方面思考的最新举动。值得注意的是,夸克已经成为阿里 AI 的旗舰应用。
字母榜(ID:wujicaijing)得知,阿里在内部对于基础设施建设、模型以及应用研发这几个方面采取了齐头并进的策略。
围绕 AI 这一领域,其未来大开大合的布局具有重要意义,这使得更多人开始重新审视阿里在过去多年中所制定的 AI 战略。
2023 年 9 月首次接任阿里 CEO 时,吴泳铭就对外表明“用户为先,AI 驱动”的集团战略。此后,阿里巴巴再度押注公有云,一直坚持“云+AI 一体化”策略,持续推出通义系列自研大模型。对于那些符合用户需求以及顺应 AI 驱动变革趋势的业务和产品,将其作为第一优先级进行重点投入。
高密度的 AI 投入与布局正成为推动阿里业务发展的新动力。在 2024 年 12 月 31 日的那一季度最新财报中,阿里云智能集团的收入增速重新回到了两位数的增长态势,AI 相关产品的收入连续六个季度都实现了三位数的同比增长。
阿里过去两年在 AI 领域进行了布局,凭借此布局,它已拥有云计算基础设施、自研大模型和 AI 应用等“全套 AI 装备”,因此成为这波中概股价值重估中受益较大的中国科技公司之一。从年初到现在,阿里的美股股价涨幅已约为 60%。
研究公司 Forrester 的副总裁兼首席分析师查理·戴进行了分析,他说:“大模型竞赛就像一场马拉松。这不但与大模型自身的表现有关,而且阿里云凭借着与合作伙伴构建的生态系统,在 AI 平台能力方面做到了全面涵盖。”
更重要的是,阿里一旦能够在 AI 时代重塑云业务作为 AI 基础设施的行业地位,就有可能真的把云建成电商之外的第二业务支柱。就像亚马逊那样,在电商领域之外,凭借云再打造出一个新的“亚马逊”。
做大算力底座这门“水电煤生意”无疑是当下稳赚不赔的选择。
DeepSeek 让外界重新看到了应用爆发和模型迭代的新希望,然而,笼罩在 AI 应用上空的乌云并未消散。关于模型应用如何实现商业化,以及超级应用如何扩大用户使用时长等问题的拷问,仍然没有得到有效的解答。
部分押注 C 端应用的大模型厂商,近期进行了策略调整,大幅削减了产品投放预算,并且重新对应用侧的推广策略进行了思考。
一些接入 DeepSeek 的 AI 基础设施企业此前开始暂停相应服务。潞晨科技创始人尤洋对“部署 DeepSeek 月亏 4 亿”的言论进行了解释,他说,与大厂的云服务相比,像他们这样的中小型企业如果强行烧钱,使用第三方开源模型来做 MaaS(模型即服务),肯定会面临巨额亏损。
原因在于当下大模型行业正处在发展的初期阶段。对于未来的商业模式以及模型未来的盈利方式,目前还没有人能够看明白。
但可以看清的是,给大模型产业链上的玩家提供“水电煤”服务,这已经是一条被验证过的商业路径。
即便模型的 API 服务向客户兜售暂时无法获利,云厂商仍可借此向客户交叉销售其他云产品。这是一个极好的交叉销售机会范例。所以,尽管 Qwen 自身不会带来大量收入,或许也不会带来大量收入,但它在我们整体云产品中极为重要,有助于推动整体云收入。阿里高管在财报会上如此表示。
如果把 AI 比作新时代的电力,那么云计算网络就如同输送电力的电网。随着 DeepSeek 爆火使得 AI 需求爆发,外界对电网的调用请求在不断显著增长。从春节开始,阿里云 60%到 70%的新增算力需求都集中在推理场景。
英伟达创始人黄仁勋在称赞 R1 是“出色的创新”之后,强调它和其他推理模型正在消耗更多计算能力。他指出推理模型能够消耗 100 倍以上的计算资源,并且未来的推理模型将消耗更多的计算资源。
当需要超越当前百倍的算力资源,且这些算力资源要靠像阿里云这样的电网传输到世界各地时,阿里 3800 亿的投资,无疑为它换来了一张在 AI 时代能够一往无前的底牌。
聚焦阿里公司本身,为什么要花费 3800 亿呢?便有了更具形象化的理由。因为要满足外界爆发的算力需求,确实需要砸下这么多钱。
AI 大模型浪潮开始兴起之后,中国工程院院士、阿里云的创始人王坚把云与 AI 的结合当作云计算的第三次浪潮。这波浪潮的兴起,又将科技大厂重新拉回到技术竞赛的阶段。
这场技术竞赛的底座是基础设施。由算力集群构建起来的一个个数据中心,是这一基础设施的重要部分。这些都需要阿里用 3800 亿的投资来支撑。
GPT 出现之前,由 GPU 构建而成的算力集群,一般只拥有几千个芯片。GPT 之后,GPU 集群的规模不断增大。
此前外界预估 GPT 3.5 运用了 1 万枚英伟达 A100 芯片,这一情况使得它成为外界判定搭建好 AI 大模型的算力门槛。据此粗略进行计算,若要构建一个由 1 万枚 A100 芯片组成的算力集群,其建设成本将会超过 50 亿元。
除此之外,算力集群需要消耗网络带宽,也需要消耗电力资源,还需要消耗人才资源。这些成本动辄以亿元为单位来计算。
更重要的是,万卡集群仅仅是一个开端。若要持续为大模型厂商提供服务,那些将自身定位为“水电煤”的云服务商还需要去购置更多的 GPU,并且搭建起规模更大的算力集群。
马斯克旗下的 AI 大模型创业公司 xAI,在推出 Grok 2 时所需的芯片数量是两万枚 H100。而到了 Grok 3 这一阶段,马斯克把芯片数量一下子提升到了二十万枚。
去年 9 月,为了满足不断增长的算力需求,xAI 建成了一个算力集群 Colossus,这个集群包含 10 万枚 H100,使其成为当时世界上最为强大的 AI 训练系统。
要打造一个 10 万卡规模的算力集群,一方面需要钱。更重要的是要设计好配套的网络解决方案。串联所有 GPU 的网络,必须保证有足够高的带宽,要有低延迟,还要有可靠性,这样才能让 10 万枚芯片像一台计算机那样协同工作。
这不是一道单纯的数学累加问题,它还需要有与之配套的相关内容,包括存储以及机房温度控制等。在存储系统的性能和稳定性方面,当面对 10 万 GPU 的海量计算需求时,阿里云推出了高性能文件存储解决方案 CPFS,为 GPU 提供了 20TB 级别的吞吐能力和 3 亿 IOPS 的最大性能,以此显著地提升了训练效率。
此外,中国大模型服务开始向海外拓展。这使得云服务商面临新的算力需求,即要把数据中心建设得尽量靠近服务人群。
微软的 CEO 纳德拉在近期的一次采访里提到,你得依据在世界各地都部署了推理集群这一情况,去为全世界提供服务。这就是他对于构建真正的超大规模集群的看法……他认为,在 AI 时代,分布式计算依然会是分布式的。
微软投入了 800 亿美元,其中很大一部分被投向了全球的 AI 数据中心建设。
阿里在全球数据中心建设方面表现出色。2 月份,阿里云的墨西哥数据中心正式投入使用,此数据中心是阿里云在拉美区域的首座。同时,它也是阿里云去年 5 月宣布扩建新一轮全球基础设施计划的一部分。到目前为止,阿里云在全球 29 个地域覆盖了 87 个可用区,是中国规模最大且在亚太地区位居第一的云服务提供商。
打好算力底座,一方面有利于服务外部大模型厂商的需求;另一方面,也有利于服务阿里内部的模型迭代和应用创新。
在这场 AI 竞赛里,阿里除了大力进行 AI 和云计算的基础设施建设扩张之外,还留存着自身应用商业化的机会。
吴泳铭对外宣布了未来三年的 AI 三大投入计划。其中一项是 AI 基础模型和 AI 原生应用,另一项是以 AI 改造现有业务。这些都与阿里在应用层争夺机会相关。
移动互联网时代的经验验证了:阿里打造出了全球领先的基础设施平台阿里云,同时也做出了淘宝天猫、高德地图、闲鱼、优酷等一众行业头部应用。
在当下的 AI 时代,阿里在 AI to C 领域,一方面有着夸克和通义等 AI 原生应用;另一方面,它还拥有淘宝、高德、钉钉、闲鱼等应用,这些应用先天就拥有 To C 应用生态,有着丰富的应用场景。
在推进基础设施扩建的时候,阿里内部对 AI to C 表现出了重视。去年 12 月底,阿里预感到 AI 应用即将爆发,于是开始调整策略,把通义 App 并入了阿里智能信息事业群,而智能信息正是夸克的业务范围。这被外界当作阿里加大“AI to C”力度的重要信号。
随着 Manus 催动的多智能体路径出现了,阿里在打造通用智能体的道路上加大了投入并跟紧步伐。近期,阿里宣告推出 AI 旗舰应用,也就是新夸克。凭借阿里通义领先的推理以及多模态大模型,新夸克整体上进行了升级,成为了一个没有边界的“AI 超级框”。
阿里巴巴集团副总裁吴嘉担任夸克 CEO ,他表示:此次升级的版本只是全新夸克的一个初始形态。随着未来模型能力持续地迭代升级,我们期望夸克 AI 超级框如同机器猫的口袋那般,能够让用户在此处进入 AI 世界。
这背后体现出了阿里对于如何做出 AI 超级应用的思考。吴嘉在朋友圈进行了点评,他说过去是人在进行搜索,而未来将是 AI 在使用搜索。并且更进一步,未来的 AI 能够自我思考、执行,还会在过程中进行互动调整,以完成最终的任务交付。“我们坚信这些都会在不久的将来全部得以实现,并且会诞生新的 AI 超级应用。”
外界不清楚超级智能体以及超级应用到底该是什么样子。然而,行业形成了一个新的共识,那就是在一个相对成熟的应用上更有可能成长起来。
长出来的前提之一离不开底座模型的能力加持。傅盛在近期一次采访中指出,应用爆发迹象的到来不会使大模型竞争减弱。“大模型就像核武器,大公司不管怎样都得拥有……要是模型能力有重大突破而你没跟上,那么你的用户就会被抢走。”
阿里成为了以模型和应用为驱动的典型。新夸克不仅是基于阿里通义领先的推理及多模态大模型而持续打造的。在未来,通义系列模型的最新成果将会在第一时间被接入夸克。
拥有强大的 AI 基建,模型方面突飞猛进,AI 原生应用稳步快速发展,现有业务全面实现 AI 化。正因如此,市场用脚进行投票,像大摩、高盛、瑞银等一众华尔街投行自春节以来都在提升对阿里的目标股价。这样的阿里,着实让人忍不住为之拍手称赞。