发布信息

博通股价飙升至万亿美元市值,成为AI时代新卖铲人

作者:软荐小编      2024-12-22 21:03:49     139

图片来源|土冲创意

在英伟达依靠通用GPU芯片赚得盆满钵满的同时,AI时代却出现了新的“铲子卖家”。

12月13日,美国半导体公司博通(AVGO.NDAQ)股价上涨逾24%,成为继苹果、微软、英伟达、亚马逊、特斯拉等之后第10家市值破万亿美元的美股公司。其他巨头。是继英伟达、台积电之后第三家市值突破万亿美元的半导体公司。

12月16日,博通股价再次大涨逾11%后,经历了一波回调,三个交易日股价下跌近13%。截至12月19日美股收盘,博通总市值为1.02万亿美元。

博通一直是WIFI芯片、射频前端芯片等通信芯片的全球领导者,以至于有说法“全球网络连接中99.9%的数据流都会经过至少一颗博通芯片”。 ”

然而,这一次股价却达到了新的高度。博通主要依托其AI定制芯片(ASIC)和AI网络连接业务的优势和潜力。

AI定制芯片潜力巨大

2024财年(截至2024年11月3日),博通营收为516亿美元,同比增长44%,创下历史新高。从具体业务来看,博通半导体业务收入约为301亿美元,同比增长7%;基础设施软件业务收入约215亿美元,同比增长181%。

博通首席执行官Hock Tan在第四季度财报电话会议上表示,博通半导体业务收入122亿美元来自AI相关收入。该公司2024年AI相关收入将同比飙升220%,主要得益于XPU(博通AI定制芯片的名称)和AI网络连接产品组合。

在博通财报电话会议上,XPU潜在的巨大市场价值也成为分析师关注的焦点。陈富阳表示,博通下一代XPU是3纳米芯片,预计在2025财年下半年向超大规模客户批量出货。

今年,博通多次上调人工智能相关营收预期。 3月份,博通预计人工智能今年将为其带来100亿美元的收入; 6月,博通将这一数字提高至110亿美元; 9月,博通进一步将预测上调至120亿美元。

这一增长与AI市场的持续繁荣有关。一些大型云服务提供商正在继续投资大型模型。他们需要 Broadcom 的定制 XPU 来训练更智能的模型。

与英伟达的服务不同,博通并不直接销售AI芯片,而是通过与各大厂商合作开发AI定制芯片来赚取收入。博通不仅参与芯片设计,还为客户提供关键知识产权(IP)和制造服务。

陈富阳表示,博通已与三个超大规模客户达成合作。他们制定了XPU路线图,预计未来三年内以不同速度部署100万卡XPU集群。预计2027财年,与AI(XPU和网络)相关的可服务市场规模将在600亿美元至900亿美元之间,博通有能力在其中占据领先的市场份额。这意味着博通的半导体业务收入将大幅增长甚至翻倍。

AI网联业务重要性凸显

目前,XPU尚未大规模量产,但AI网络连接产品已经为博通带来了大量的AI收入。陈富阳透露,2024财年,博通以以太网为代表的AI网络连接业务将同比增长四倍,增长趋势可能会持续到明年上半年。

从去年到今年,博通多次推出AI网络连接相关产品。例如,2024年3月,博通宣布向客户交付业界首款51.2Tbps(太比特每秒,数据传输速率单位)光电共封装(CPO)以太网交换机。博通光学系统部门副总裁兼总经理Near Margalit当时表示,该产品将使超大规模企业能够部署低功耗、经济高效的大规模AI和计算集群。

中环半导体科技有限公司董事长陈伟向经济观察报表示,以太网和交换机产品可以在大模型集群计算中发挥关键作用,而大模型集群计算是博通的强项业务。在大模型训练中,网络互联能力与训练芯片本身同样重要。 2019年,英伟达以69亿美元收购了拥有无限带宽技术(InfiniBand)的通信网络技术公司Melanox,为其芯片构建稳定的大模型计算集群奠定了关键基础。

现在,博通在AI网络连接方面的实力已经对英伟达产生了影响。一位关注博通的电子行业分析师表示,英伟达第三季度业绩的AI芯片出货量和其他业务都在增长,但其AI网络连接业务却因博通抢占市场份额而出现环比下滑。

陈富阳认为,AI网络连接可以在不同规模的AI芯片集群中产生不同的价值。在10万颗AI芯片的集群中,AI网络连接的价值约为5%-10%,但当云厂商将集群扩展到50万-100万个XPU或GPU集群时,价值将上升至15%-10%。 20%。建立更大规模的AI芯片集群也是海外云厂商共同的布局趋势。

基于对AI营收的良好预期,博通认为其AI半导体业务将迅速超过其非AI半导体业务,该公司将转而通过划分AI和非AI营收板块来引导其半导体业务。

这在博通2024财年第四季度财报中已经开始显现。其半导体业务第四季度AI营收同比增长150%至37亿美元,而非AI半导体营收同比下降23%同比增至45亿美元。 。

博通并购策略的变化

除上述半导体业务外,博通的基础设施软件业务在2024财年增长了181%,这主要来自于合并计算机虚拟化软件公司VMware完成收购后带来的收入。

陈富阳领导的博通以大规模的并购和出色的整合能力而闻名。在收购了存储芯片制造商LSI和融合网络解决方案公司Emulex等硬件公司目标后,博通以2017年年营收计算已成为全球第六大半导体公司。

2018年,博通试图以1300美元收购高通,以扩大其半导体业务。然而,该行动最终被美国政府以安全问题为由叫停。

此后,博通改变收购思路,开始向软件服务领域扩张。 2018年,博通以190亿美元收购了传统软件供应商CA Technologies。 2019年,博通以107亿美元收购了安全软件公司赛门铁克。

博通最大的一笔收购是2022年以610亿美元收购云计算公司VMware,进军服务器虚拟化市场。在美国科技史上,此次收购的价格仅次于微软收购动视暴雪和戴尔收购EMC。

对软件公司的收购为博通带来了更加多元化的收入,也提高了博通的盈利能力。其净利润率已从2017年的10%增至2022年的35%。去年11月合并VMware后,博通基础设施软件营收占2024财年的比重从去年的21%大幅提升至42%。 2024财年,博通营收同比增长44%。如果剔除来自VMware的收入,博通全年收入仅增长9%。

被博通收购后,VMware经历了一系列改革:收费模式从永久许可证转向定期付费的订阅模式;产品已从过去的 8,000 个最低库存单位 (SKU) 精简为四个核心产品组合。有分析师认为,博通的调整将使VMware更加专注于大客户。此外,VMware还在全球范围内进行了大规模裁员。今年6月,据媒体报道,VMware解雇了中国区所有销售和产品团队成员,并将国内业务交给唯一授权总代理伟仕嘉杰(00856.HK)。

收费模式的调整增加了VMware的收入,但也引起了部分客户的不满。例如,美国最大的电信服务提供商AT&T就直接对博通提起诉讼。

一位投资者向经济观察报表示,收费政策的变化确实在一定程度上导致VMware失去了客户,但是否会影响营收,还需要看明年的财报才能确认。投资者投资的服务提供商正在销售博通的云服务产品。

ASIC与GPU之战

今年以来,国内外多家ASIC公司股价大幅上涨。 8月以来,博通股价涨幅超过48%,拥有类似ASIC业务的Marvell(漫威科技集团有限公司)同期股价涨幅也超过59%。

在国内,被称为“AI芯片第一股”的寒武纪(688256.SH),其AI芯片也是ASIC。在经历了被美国列入实体清单的低谷后,今年以来该公司股价不断上涨。 8月份以来,股价涨幅超过140%。现在,寒武纪已经是A股排名第二的上市公司,仅次于贵州茅台(600519.SH)。

这些迹象表明,市场对ASIC的前景持乐观态度,在英伟达几乎垄断通用GPU芯片市场的情况下,ASIC有望打开AI芯片的新局面。

主要原因之一是英伟达的通用GPU芯片价格昂贵且供不应求,许多科技巨头希望探索更多样化的选择。

今年年初,meta公司创始人扎克伯格宣布,年底前将向英伟达采购35万颗H100 GPU芯片。按当时的市场价格计算,这些芯片的支出将达到约100亿美元,接近meta去年净利润的四分之一。

为了避免长期持续如此大的支出,meta和谷歌都在开发自己的ASIC芯片。这两家公司也是博通ASIC定制芯片的最大客户。有分析师预测,谷歌的TPU项目今年将为博通带来超过80亿美元的营收,同比增长125%。

有猜测称,博通的第三大客户是字节跳动。今年6月,有消息称字节跳动与博通合作开发ASIC,以降低采购成本,保证高端AI芯片的稳定供应。不过,字节跳动当时回应称,该消息不实。

摩根士丹利最新报告称,不少投资者认为台积电大部分AI半导体代工服务都是面向NVIDIA的,但预计到2025年,NVIDIA的通用GPU仅占台积电AI半导体营收的70%左右。到2027年,AIASIC将成为台积电AI营收更重要的贡献者,占比接近25%,而NVIDIA的通用GPU将占比65%左右。

同为芯片行业,陈伟也关注ASIC芯片的进展。他告诉经济观察报,相比之下,通用 GPU 比 ASIC 拥有更多用于通用计算的流式多处理器。优点是可以同时用于非AI计算,通用性更好,更适合训练和碎片化。面向计算场景。缺点是这些通用处理器增加了GPU的成本。

在陈巍看来,根据目前的市场情况,博通的ASIC芯片主要用于谷歌等大厂商的推理应用,以降低大型模型的推理成本。未来预计它们将用于对生态和通用性要求不高的计划推理。压缩场景中的GPU份额。

但陈伟也表示,到目前为止,博通披露的AI芯片相关技术主要是3.5D芯片设计和高速互连(包括CPO和交换机)。此外,其为谷歌设计TPU的经验也非常重要。不过,这些技术目前并没有构成足够高的壁垒,博通也没有透露AI生态系统的关键信息。博通是否有机会成为下一个NVIDIA,取决于博通及其合作伙伴是否会在生态系统中投入大量资源。这是一个长期烧钱的过程。从开始构建CUDA生态系统到实现大规模应用,NVIDIA持续投入了大约10年的时间。

结束

微信号|eeojjgcw

新浪微博|@经济观察报

相关内容 查看全部