软件行业资讯
无问芯穹刘川林分享AI算力运营与Infra层趋势变革,助力中国AI市场创新应用破局
2025-04-26 14:01  浏览:189

各位领导、嘉宾,大家下午好!我非常荣幸能够受邀参与 36 氪的活动。我所在的无问芯穹,是专注于支撑 AI 超级应用的 AI 算力运营商与基础设施建造者。我们的技术能力涵盖了从算力优化、模型开发到算法调优的整个链条。我们致力于为中国的 AI 市场构建坚实的技术底座,帮助更多的创新应用突破困境并得以诞生。

力芯申购做什么的_力芯微董事长_

无问芯穹首席解决方案架构师刘川林

今天的分享将围绕三个核心展开。其一,Infra 层的趋势变革:对模型开发、训练、推理环节的技术演进进行探讨;其二,无问芯穹的实践路径:解析我们凭借技术创新培育 AI 超级应用生长土壤的方式;其三,未来展望:挖掘行业需求,促使跨时代 AI 原生应用诞生。

回顾人工智能的发展历程,每一次重大突破都由关键要素的升级所带来。GPT-3 出现之后,在 ScalingLaw 的作用下,算法有了很大的发展,算力也获得了空前的提升。随着公开可用的优质文本数据逐渐减少直至耗尽,Ilya 在去年曾预言,预训练时代即将走到尽头。

以 GPT 系列作为例子,GPT-4 到 GPT-5 的迭代周期明显变长了,预训练数据的稀缺性越发明显地展现了出来。DeepSeek 的出现,给我们带来了一种全新的技术范式,即通过 R1 强化学习,把训练、推理、对齐这三个环节连接成一个闭环,从而实现模型性能的再次大幅提升。闭环迭代:通过“训练 - 推理 - 对齐 - 再训练”这样的循环,持续对模型的表现进行优化。

其二在应用赋能方面,借助 Infra 的优化,促使 AI 应用达到更低的延迟、更高的效率以及更优的成本,进而提升商业价值(ROI)。

我们是清华电子系孵化的企业,依托软硬件联合优化的技术实力,构建了一个贯穿上下游的技术生态。在算力层,融合了多家国产芯片,通过异构计算来提供多样化的算力支持;在平台层(PaaS),打造出了高效且易用的算力管理平台,提升了资源的调度效率;在服务层(MaaS),提供了稳定的模型即服务,降低了应用的开发门槛。

在云端服务里,我们秉持“三位一体”的策略。其一,多元异构适配,能够兼容不同架构的芯片,从而保障算力可以弹性供给;其二,软硬协同优化,把硬件与软件进行深度整合,以此释放算力的潜能;其三,服务效能提升,借助智能化调度,确保资源能够高效利用。

中美技术博弈以及国产芯片的崛起产生影响,在未来 3 年,国产芯片会成为大模型训练与推理的重要载体。基于此,我们在上海等多地开展千卡级异构混训任务,把国产芯片兼容性难题攻克下来,构建起“国产算力 + 国产应用”的完整生态。借助统一调度框架,能够让不同芯片进行协同计算,使训练效率得到显著提升。

其三,实现动态资源分配,基于 MOE 模型的特性,做到对专家模型的智能调度以及 PD 分离,从而提升整体架构的灵活性。

以生数科技为例,我们为其提供多模态模型训练的一站式服务。其一,环境秒级启动,能够快速部署训练环境,从而缩短项目周期;其二,实现自动化容错,可实时监控训练过程,并自动处理异常情况;其三,进行推理效率优化,借助底层加速,提升模型部署后的响应速度。

我们目前已经在上海模速空间将算力生态服务平台落地了。同时,在浙江省打造了政企合作的标杆项目。通过技术方面的支撑,能够降低 AI 企业的创新成本。

在 AI 的应用场景里,推理效率会对用户体验以及商业价值产生直接的影响。我们针对大语言模型和文生图模型,推出了定制化的解决方案。比如以 DeepSeek R1 为例,它的 MOE 架构以及 FP8 精度,对部署所需的资源有着极高的要求。用户能够通过我们的平台一键调用 R1 服务,这样就大大降低了部署的门槛。

3. 提供多模态支持,整合视频、语音、图文等多种模态的能力,达成全产业链的无缝对接。实际案例表明,某电商生图企业在采用我们的服务之后,成本降低了,推理速度提升了,同时服务效能也得到了提升。

在 AI 技术快速迭代的过程中,要想抢占先机,就必须把握“变”与“不变”的平衡。“变”体现在技术架构、计算范式、模型形态持续演进;“不变”则是用户对高效、智能、个性化服务的核心需求始终存在。

我们期待和各行业的专家进行深入的交流,去挖掘真实场景的需求,一起推动 AI 原生应用实现创新突破。就像今天分享的嘉宾们所表现出来的那样,无论是在电商商拍方面,还是在教育赋能方面,亦或是具身智能方面,每一个细分的领域都蕴含着能够诞生超级应用的潜力。我们希望以算力基础设施作为船只,和合作伙伴一起努力,驶向 AI 产业的更深层次的区域,打造出跨越时代的 AI 原生 APP。

发表评论
0评