2024 年见证了大模型从科技前沿走向大众视野。2025 年最明显的变化是开源逐渐成为行业趋势。
今年 3 月至今,仅从不完全统计来看,OpenAI 发布了超 10 款开源大模型;谷歌也发布了超 10 款开源大模型;meta 同样发布了超 10 款开源大模型;英伟达也有超 10 款开源大模型发布;阿里发布了超 10 款开源大模型;DeepSeek 发布了超 10 款开源大模型;智谱 AI 发布了超 10 款开源大模型;群核科技发布了超 10 款开源大模型;阶跃星辰也发布了超 10 款开源大模型。这些全球 9 家科技巨头已密集进行了开源大模型的发布。并且,开源模型的性能在不断取得突破。全球最大的 AI 开源社区 Hugging Face 的模型榜单一直在持续被刷新……无论是科技领域的巨头,还是处于初创阶段的企业,都在加快速度去拥抱开源。
但需注意,当前市场里,闭源模式在商业化方面已开始展现出成效,并且已有厂商在企业端获得了数亿元的订单。那么,为何大模型巨头们还要纷纷转向开源呢?开源之后,新的商业模式将会怎样演进呢?
01 “开源派”加速开放,“闭源派”纷纷倒戈
实际上,去年大模型价格战以及市场竞争进入白热化阶段之后,大模型“开源”和“闭源”的交锋就已经逐渐变得激烈起来。
“闭源派”主张通过技术进行封闭,以此实现商业变现,同时保护知识产权,并且确保服务质量。这种路径能够把资源集中起来,从而优化模型的性能以及安全性,避免技术出现泄露的情况;而“开源派”则主张将模型的代码、数据和算法进行开放,以此推动技术的普惠,加快创新的步伐,并且构建协作的生态。这种路径有降低技术门槛的作用,能够吸引全球的开发者参与到改进当中,还能形成开发者社区,进而推动工具链和基础设施的发展。
长期以来,在商业化 AI 领域,闭源模式一直占据主导地位。企业借助技术封闭来实现商业变现,保障数据安全,同时维持自身的竞争优势。然而,2025 年成为了行业发展的关键转折点。随着 DeepSeek 等开源模型的兴起,全球 AI 行业迅速掀起了一场前所未有的浪潮,这场浪潮被称为“开源浪潮”。
首先,开源阵营近期的开源速度和技术迭代节奏明显加快。
3 月初,“DeepSeek 开源周”持续了五天后结束。开源领域的领跑者 DeepSeek 再次发布了 V3 模型的最新更新版本,即 V3 - 0324 模型。该模型在保持原有技术框架的同时,针对性能、用户体验和实用性进行了优化。
在 DeepSeek 引发开源浪潮之前,美国科技巨头 meta 一直处于领先地位,是开源模型的重要玩家和奠基者。GPT 问世之后仅过了 7 个多月,meta 就率先宣布将 Llama 2 开源,并且该模型可以免费用于商业用途。这一事件成为了大模型发展的重要分水岭,也是开源模型社区的历史性时刻。
4 月 6 日,meta 再度推出了开源人工智能模型 Llama 4。据悉,此模型当下存在 Scout 和 Maverick 这两个版本。它是 meta 到目前为止最为先进的模型,同时在同类产品里,它的多模态性也是最强的。
在中国,作为中国互联网三巨头 BAT 之一的阿里,是押注开源的典型代表。在 2022 年 11 月,阿里发布了名为“魔搭”(Model Scope)的中文 AI 大模型开源社区。2023 年 8 月,阿里云在 AI 模型社区魔搭 ModelScope 上开源了 Qwen-7B 和 Qwen-7B-Chat。这两个模型是阿里首批开源的大语言模型。随后,阿里开始逐步扩大开源规模,并且持续进行更新迭代。阿里先后开源和更新了 Qwen-14B、Qwen2 系列、Qwen2.5-Omni 等数十个参数版本的模型。
相比于阿里,腾讯的开源之路稍显滞后。不过,去年开始,腾讯的“混元大模型”陆续开源了文生图、视频生成、多专家混合(MoE)和 3D 内容生成等多款大模型。
近期,受开源趋势持续影响,众多一直坚持闭源策略的企业也开始陆续公布开源计划。
今年 2 月,百度一直坚持闭源,之后宣布文心一言从 4 月 1 日开始免费,并且 6 月 30 日正式开源;字节跳动方面,其核心模型豆包尚未开源,然而团队近日开源了一项名为 COMET 的 MoE 架构优化技术,此技术能将大模型训练效率提升 1.7 倍。论文表明,该技术已在字节的万卡集群训练中实际应用,达成了数百万 GPU 小时训练算力的节省。
在国际范围内,OpenAI 坚持闭源路线,凭借其 GPT 系列模型在商业 AI 领域处于主导地位。然而,如今它受到开源的冲击,其市场份额以及在行业中的影响力都面临着严峻的挑战。
DeepSeek 发布之后,OpenAI 的 CEO 山姆·奥特曼难得地有所松动,公开表明公司以往在开源策略方面“处在了历史错误的那一侧”。这一表态引发了连锁反应。今年 1 月,OpenAI 进行了“试水”开源的举动,向公众免费开放了轻量级推理模型 o3-Mini。4 月 1 日,公司再次宣布,在未来数月内将发布一款“具备强大推理能力的开放权重(open-weight)模型”,这将是 OpenAI 自 2019 年 GPT-2 以来的首个开源项目。
近期英伟达也在开源方面迈出重要一步。英伟达此前主要以闭源硬件和软件为主,构建了强大的生态系统。3 月 20 日,英伟达在 GTC 2025 大会上发布了全球第一个开源的人形机器人基础模型——GROOTN1,这成为推动具身智能发展的重要力量,之后开发者能够直接使用这个模型来改造机器人。
02 AI巨头们为何选择加速开源?
百度创始人李彦宏曾宣称“开源大模型会逐渐落后”。当时市场的判断依据在于,OpenAI 采用的是闭源模式,被视为黄金标准,而开源的成本并不低,并且技术会越来越跟不上。
DeepSeek 通过开源模式实现了技术突破和商业生态的双赢。这使得那些行业依据不再那么有效。同时,这也让中国企业第一次看到了开源模式的商业价值和影响力,看到了产业格局变化的可能性,看到了生态开放的冲击力。
开源从概念发展到如今成为巨头厂商们发展策略的必选项,背后主要有两方面的驱动力:一是技术层面的推动,二是市场需求的牵引。技术的不断进步使得开源技术更加成熟和稳定,为企业提供了更多的选择和可能性;而市场需求的变化则促使企业将开源纳入发展策略,以提高竞争力和降低成本。
一是技术发展趋势,二是市场需求。
FutureLabs 专家胡延平指出,从趋势方面来看,中国大模型开源的爆发是由四大驱动力所引起的,这四大驱动力就如同四股极为强大的浪潮一般,它们在不断推动着开源的巨轮持续向前行进。
第一波浪潮是端侧智能的崛起。如今,个人对本地化 AI 部署有需求,企业也有需求,这些需求就如同被点燃的火焰一样,越烧越旺。想象一下,你能够在自己的电脑上拥有一个智能助手,它可以根据你的需求迅速做出响应,并且不需要依赖网络连接到遥远的云端服务器,这是不是感觉非常酷?这就是端侧智能所具有的魅力。它兴起了,推动了模型的轻量化以及灵活性的升级。它就如同给模型穿上了一件轻便的运动装一样,使得模型能够在各种设备上自由地奔跑,进而发挥出最大的效能。
第二波浪潮为行业定制化需求。通用云端模型虽强大,却如同万能钥匙,难以打开每一扇特定的锁。金融、医疗等领域有着严格的隐私要求且有独特的场景化需求,通用模型难以满足这些“特殊客户”的需求。在此情形下,开源宛如神奇的魔法棒,成为企业进行差异化竞争的“秘密武器”。企业能够依据自身的需求,对开源模型展开定制化的开发工作,从而打造出只属于自己的独特之物,使其在激烈的市场竞争环境里能够突出显现出来。
第三波浪潮体现为生态化分工的加速。头部企业犹如技艺高超的大厨,把精力集中在基础模型的研发上,用心烹制出一道道美味的“基础模型大餐”。中小企业则如同各具特色的小吃摊主,以开源模型为基础构建细分应用,对这些“基础模型大餐”进行富有创意的加工,使之变成各种美味的小吃,以满足不同用户的口味需求。形成了一种“巨头搭台、百家唱戏”的热闹产业格局,整个 AI 生态系统变得丰富多样且充满活力。
第四波浪潮意味着技术跨越了临界点。模型的能力从“可用”的状态开始迈向“高可用”的状态,这就如同一个孩子从刚开始的蹒跚学步逐渐走向能够健步如飞的阶段。用户和应用进入了爆发的时期,开源成为了技术能够落地的“最短路径”。模型变得足够强大且好用后,人们非常急切地想把它应用到各个领域。开源为这种应用提供了最便利的途径,能让技术快速地走进每家每户,从而给人们的生活带来改变。
总结来看,有三点因素将大模型企业推向了开源化:
一是技术实现民主化:过去,从垄断状态到共同创造,闭源模式曾是大型厂商构建技术壁垒的关键手段。比如,百度的文心大模型长期处于闭源状态,凭借“闭源+公有云”的模式牢牢占据了 B 端市场。然而,DeepSeek 的开源举动证明了社区力量能够加快模型的迭代更新——它的开源模型 DeepSeek-R1 在发布之后吸引了 3000 万的月活用户,并且促使接入的企业数量急剧增加。开源带来的是代码共享,同时也是全球开发者的智慧聚合。这种“群体智能”使得技术突破不再仅仅依赖单一团队。
一是成本方面:开源能降低准入门槛。大模型训练成本通常极高,动辄数千万美元,然而开源模型允许企业对基座进行复用,只需针对垂直场景进行微调即可。比如,像医疗、法律这类数据敏感的行业,能够利用开源模型在本地进行部署,这样既能保障隐私,又能节省算力方面的开支。阿里通义千问以及腾讯混元等开源模型,它们通过降低技术门槛的方式,吸引了开发者来构建应用生态,而这种构建最终会反过来对核心业务起到滋养的作用。
三是政策与竞争方面:开源已成为国家战略。在中国,多地政府把开源写入了人工智能发展规划。像北京、上海、广东等地,通过采取政策补贴以及算力支持等措施,来推动大模型开源生态的建设。与此同时,国际上的一些巨头,例如 meta(其拥有的 Llama 系列)、xAI(旗下的 Grok)也在加快开源布局的步伐,这使得国产厂商不得不加入这场“开放竞赛”。
从需求方面来看,在这场开源浪潮的终极价值分配里,真正的受益者包含生态链末端的开发者以及中小企业。他们既是技术普惠最为直接的受惠者,同时也将会成为创新反哺的核心驱动力。
对于开发者和中小企业来说,以往构建 AI 模型需要大量的资金以及技术的积累,所以他们只得成为市场的“追随者”。开源大模型切实地改变了这样的游戏规则,它降低了技术门槛,使得 AI 技术能够通过开源而变得很容易接触到,开发者能够依据此基础进行快速的迭代,把自己的创意转化为实际的成果。数据表明,一家专注于电商服务的初创公司,借助通义千问开源模型来开发企业的智能客服系统。这样做使得成本降低了 80%,并且迭代周期缩短了一半,同时客户满意度也有了大幅提升。
开源模型正在重塑各个行业。例如,过去基层医疗机构因技术和资金短缺而受限,如今借助开源方案,成功部署了本地化病历分析系统。这些系统能够快速解析患者病历数据,为医生诊断提供精准辅助,使基层医疗服务质量显著提升。这一突破不但缩小了不同层级医疗机构的技术差距,还推动了基层医疗 AI 的普及。
03 开源=免费?商业化如何走通
开源模式给大模型的产业生态带来了诸多变化,这些影响在商业化方向上体现为:市场或许会认为开源且免费的模型必定能够节省投入。
但实际上并非如此。
智谱 AI 的张鹏在接受媒体采访时说:历史经验显示,像 MySQL 以及 RedHat 等情况,已经证明了开源并非完全免费,存在后期技术人员的投入以及维护成本,还有对如何将 DeepSeek 进行本地化的探索等,这些成本都不低。当然我们不知道未来的使用情况。当前的情况是,大家已经清醒过来了。大家都明白,开源免费并不等同于真的免费。这件事情是大家所达成的共识。
在开源模式下,怎样去平衡技术普惠和商业回报呢?部分领先的大模型厂商已经开始对商业化 2.0 方案进行探索。
一是“开源基础模型+商业API增值服务”
针对更高性能的闭源大模型接口、专属领域微调、企业级 SLA 保障等业务,提供付费的云端 API 服务。
DeepSeek 开源了 DeepSeek-R1 基础模型,同时还运营着收费的 DeepSeek-V3 API 服务。其中,商业 API 的推理速度比开源版快 3 倍。经测算,它的日营收峰值能够达到 56 万美元;智谱 AI 开源了 ChatGLM3 - 6B,然而企业客户要付费才能接入其 GLM - 130B 商业 API,并且该 API 支持私有化部署和定制微调。
二是“开源社区版+企业专属版”
这种模式的核心逻辑在于:利用功能存在差异的双版本策略来达成分层变现的目的。例如,社区版的功能有所限制,或许仅仅能够支持基础推理以及特定长度的上下文理解;而企业版具备量化加速、对长文本的支持以及多模态等增值功能。
阿里云千问开源 Qwen-72B 社区版是典型案例,企业需购买 Qwen-Max 以获得 100 万 token 超长上下文等服务;Red Hat 开源 Linux 社区版,企业需付费订阅 RHEL 才能获得安全补丁优先更新等服务。
三是“模型开源+云平台变现”
这种模式的核心逻辑在于:将开源模型当作入口,进而引导用户去使用关联的云服务。例如,开源完整的模型权重以及训练代码,借助托管式模型服务、配套的工具链、算力租赁等云服务来实现变现。
典型案例有 meta Llama 系列的开源 Llama 3、Llama 4 模型,然而企业若要获得托管式 API 端点服务、多模型编排管理工具、企业级数据加密管道等,就需使用 meta 云平台;Sealos 云原生平台开源了核心代码,而客户使用其云服务的话,能够实现一键部署大模型实例、自动弹性扩缩容、跨云集群管理等增值服务。
综合来看,API 增值模式适合技术领先型的厂商。双版本模式适合在垂直领域深入耕耘的厂商。云平台模式适合本身包含云服务业务的厂商。大模型开源商业化的核心是“开源引流,服务变现”,借助生态共建、行业定制、云算力绑定等方式来达成可持续盈利。
当前趋势表明,头部厂商正在迈向混合模式。企业需要平衡开源的趋势与进行商业变现。未来还需要更多地结合行业的具体场景。并且要通过 MaaS 模式来增强商业化的能力。
中国科学院院士梅宏称,大语言模型在未来需如互联网般走向开源,由全世界一同维护一个开放共享的基础模型,要尽力使它与人类知识保持同步。不然的话,任何一个机构所掌控的基础模型,都难以让其他机构用户安心地上传应用数据,也很难生成能满足各行各业业务需求的众多应用。
本文源自微信公众号“第一新声”,作者是琳玉,36 氪获得授权后进行了发布。