发布信息

芝能智芯报道:Lightmatter光学互连技术突破,提升AI计算性能与效率

作者:软荐小编      2025-04-07 09:02:26     104

芝能智芯出品

从而提升了 AI 计算的性能和效率。

全球首款 3D 共封装光学(CPO)产品是 Passage L200,它提供 32 Tbps 和 64 Tbps 版本,能够把 AI 模型的训练时间缩短到原来的八分之一。

Passage M1000 是一个光子超级芯片参考平台,它能够支持超大规模的多芯片 AI 处理器设计。

去年年底,Lightmatter 完成了 4 亿美元的 D 轮融资。此次融资后,其总计融资金额达到 8.5 亿美元。公司的估值达到了 44 亿美元。并且,它与 GlobalFoundries、ASE 和 Amkor 等行业巨头展开了合作,以确保其产品能够在 2025 年和 2026 年上市。

AI 计算需求激增,Lightmatter 的技术提升了数据中心的性能,同时也为能效提供了全新解决方案,并且为可扩展性提供了全新解决方案。

Part 1

Lightmatter的光学互连技术:

突破传统限制的技术创新

Passage L200

Lightmatter 的 Passage L200 是全球最先推出的 3D 共封装光学(CPO)产品。它是专门为下一代的 XPU(处理器、加速器或 GPU)以及交换机硅而设计打造的。

这一技术把光学器件直接集成到芯片封装里,这样就消除了传统电信号 I/O 对芯片边缘(也就是“前沿”)的那种依赖,进而实现了“无边缘 I/O”的设计理念。

L200 有 32Tbps 和 64Tbps 这两个版本,其总 I/O 带宽能够达到 256Tbps,和现有的解决方案相比,性能提升了 5 倍到 10 倍。

Passage L200 运用 3D 堆叠架构,把 Alphawave 的 I/O 芯片和客户的 XPU 硅片并排放在一起,并且借助 Lightmatter 的 Passage 有源光学插入器来实现垂直通信。

I/O 芯片组使用标准晶圆上芯片工艺安装在 Passage 插入器上,XPU 芯片组也使用标准晶圆上芯片工艺安装在 Passage 插入器上。它们通过 UCIe 协议实现无缝通信,并且无需修改软件。

硅通孔(TSV)技术能够把电力从下方的电路板传输到上方的 XPU ,从而保证能够高效供电 。

每个 64Tbps 版本有四个 I/O 芯片。每根光纤能提供 1.6Tbps 带宽,这是基于每波长 112Gbps 且有 16 个波长。它比当前的 NVlink 技术快 18 倍,同时比传统可插拔光学器件快 2 倍。

Passage L200 具有高带宽和低延迟的特性,这使得它在 AI 计算中表现得很出色。比如,它的 64Tbps 版本能够为单个封装提供 256Tbps 的 I/O 带宽,这样就可以显著地缩短数据传输的时间,并且能让 AI 模型的训练速度提升到传统技术的 8 倍。

光学传输会比电信号产生更少的热量。这样一来,功耗得以降低,散热需求也随之减少。

Lightmatter 的首席执行官尼克·哈里斯称:“L200 会在 2026 年全面上市,L200X 也将在 2026 年全面上市。我们正在与客户进行芯片整合,以此来彻底改变 AI 计算的硬件架构。”

Passage M1000

Passage M1000 是 Lightmatter 推出的一个平台,这个平台是光子超级芯片的参考平台。它基于相同的 Passage 有源光学插入器技术,其目的是为超高性能多芯片 AI 处理器提供支持。

该平台利用固态光开关达成了可编程波导网络。其总光学带宽达到了 114 Tbps,并且每个封装都能够提供 1.5 kW 的电力供应。

Passage M1000 使用多光罩有源光子插入器,其面积达到了 4000 多平方毫米,在目前全球范围内,它是最大的 3D 封装芯片复合体。

它能够支持 256 根光纤进行边缘连接,每一根光纤的带宽达到 448 Gbps,并且在一个扩展域内能够连接数量多达 2000 个的 GPU。

哈里斯强调,M1000 是在理论上尺寸最小的高带宽封装。传统的 CPO 技术,由于其光学模块是外置的,所以存在体积庞大以及散热困难的问题。而 M1000 把光学器件集成在了芯片内部,这样就解决了上述这些问题。

Passage M1000 尤其适合那些需要大规模计算资源的 AI 任务,像是大型语言模型(LLM)的训练以及推理。

光学互连能够消除 I/O 前沿的限制,M1000 具备这样的能力,它允许计算芯片在封装内的任意位置布置 Serdes,从而实现了前所未有的灵活性和扩展性。因其具有这一特性,所以它成为构建百万节点 AI 计算集群的理想平台,并且将于 2025 年夏季上市。

5. 能够实现更高密度的互连。

光信号能够在更小的物理空间内传输更多数据。L200 的带宽远超传统技术,M1000 的带宽也远超传统技术。

低延迟:光速传输减少了数据延迟,提升了AI计算的实时性。

低能耗:光信号热损耗低,有效降低数据中心功耗。

光学互连能够支持计算资源的无缝扩展,并且可以适应 AI 需求的快速增长,这体现了它的高可扩展性。

Lightmatter 采取了将光学技术与计算单元深度整合的策略,这一策略完全打破了传统芯片互连所存在的局限性。

Part 2

市场影响

与Lightmatter的战略定位

生成式 AI 以及大型语言模型(像 GPT-4)兴起了,AI 计算需求在不断增长且呈指数级态势。训练这些模型,需要数千乃至上万的 GPU 协同进行工作。传统电信号互连技术在带宽和能耗方面,已经快要达到极限了。

NVIDIA 的 NVlink 最新平台即 NVL72,它能提供 7 Tbps 的芯片间传输速度,然而,即便如此,它仍无法完全满足未来 AI 集群的需求。

此外,电信号互连存在高延迟和能耗问题。这一问题进一步限制了计算集群的效率。Lightmatter 的光学互连技术随之产生。该技术的产品已将芯片互连速度提升至 30Tbps,并且还计划推出 100Tbps 版本。

Passage L200 提供 256 Tbps 的带宽,M1000 提供 114 Tbps 的带宽。它们不仅大幅提升了数据传输效率,还通过光信号降低了能耗,为 AI 数据中心提供了可持续发展的路径。

2024 年底,Lightmatter 完成了 4 亿美元的 D 轮融资。T. Rowe Price Associates 担任领投方,GV(Google Ventures)等现有的投资者参与了跟投。此次融资的总金额达到 8.5 亿美元,使得公司的估值上升到 44 亿美元。这一笔资金支持将会促使其产品研发以及市场化的进程加快。

Lightmatter 与行业领导者 GlobalFoundries、ASE 和 Amkor 展开合作,借助 GlobalFoundries 的 Fotonix 平台来生产硅光子芯片,同时通过 ASE 和 Amkor 完成封装工作,以此来确保产品的质量和量产能力。

哈里斯称:“我们参照台积电的商业模式,不会偏袒任何一位客户,而是给客户提供技术平台,以助力他们拓展市场。”这种开放合作的策略对 Lightmatter 在 AI 计算生态里建立广泛影响力是有帮助的。

Lightmatter 借助 Idiom 软件平台降低了技术采用的门槛。Idiom 能够让开发者把基于 PyTorch、TensorFlow 或者 onNX 的模型直接在 Lightmatter 的光子架构上运行,并且不需要修改代码。这种兼容性使得其产品的市场接受度得到了极大的提升。

此外,Idiom 具备模型优化工具,像压缩以及量化这类。这些工具能够帮助开发者在维持性能的情况下,将模型体积缩小,从而满足多样化的 AI 应用需求。

AI 计算需求在持续攀升,而光学互连技术被当作解决数据中心瓶颈的关键方向。Lightmatter 依靠其在硅光子学领域的技术积累以及先发优势,已然成为该领域的领军企业。

然而,竞争呈现出加剧的态势。像 Celestial AI 这样的公司也在对类似的光子计算技术进行探索。尽管如此,Lightmatter 通过与行业巨头展开合作,并且构建了全面的软硬件生态,从而巩固了自身的市场地位。

Passage M1000 会在 2025 年上市,L200 和 L200X 会在 2026 年上市。它们的推出,会进一步增强其在 AI 计算市场的领导地位。

小结

Lightmatter 的 Passage L200 代表了 AI 计算硬件领域的一次革命性突破。它将光信号应用于芯片互连和计算,打破了传统电信号的带宽瓶颈。同时,M1000 也代表了 AI 计算硬件领域的一次革命性突破。它通过将光信号应用于芯片互连和计算,打破了传统电信号的能耗瓶颈。这为 AI 数据中心提供了高效、可扩展的解决方案。

相关内容 查看全部