AC米兰技术文章

article

AC米兰官网-直击英伟达 GTC|汇正财经:推理算力闭环成型物理 AI 商业化提速这个板块将迎来爆发期

更新时间:2026-03-22点击次数:

  AC米兰·(中文)官方网站-Milan brand-

AC米兰官网-直击英伟达 GTC|汇正财经:推理算力闭环成型物理 AI 商业化提速这个板块将迎来爆发期

  英伟达GTC吸引全球科技产业从业者、顶尖创投机构专家、产学研精英等超3万人齐聚硅谷,共同研判人工智能技术迭代与产业落地的未来走向。

  近年来,全球AI技术驶入发展快车道,生成式AI、自动驾驶、智能制造等前沿领域的技术成果持续突破,从实验室研发加速走向规模化商用,逐步转化为可落地的现实商业应用。

  作为全球AI计算平台的核心推动者,英伟达凭借GPU技术领域的长期深耕,占据AI算力产业链主导地位。本届GTC大会上,英伟达创始人兼CEO黄仁勋重磅发布多款新一代芯片产品与全栈式AI解决方案,相关技术突破与商业规划引爆全球行业热议,成为资本市场与科技产业关注的焦点。

  汇正财经首席投资顾问范宣钦直言,整场大会突出“落地感”,彻底跳出纯技术宣讲的框架,致力于让虚拟世界的AI技术真正走进物理世界,贴合产业实际需求破解商业化难题。核心新品Vera Rubin通过芯片、软件、推理模块的深度整合,实现了极低的数字员工运营成本,直接破解了行业长期困扰的AI算力昂贵、部署门槛高、落地难度大等痛点。这一突破性进展意味着AI的商业闭环已经正式形成,彻底扫清了行业规模化应用的核心障碍,让AI技术从“能用”迈向“好用、易用、普惠用”。

  第一,英伟达给出明确业绩预期,预计到2027年芯片收入能够超过1万亿美元,这一数据十分亮眼。该预期较上一届大会公布的5000亿美元需求目标实现翻倍,直观反映出全球AI芯片需求极度旺盛、行业增速依旧迅猛,也给资本市场投资者吃下了一颗定心丸,印证了AI算力赛道的高景气度与长期成长价值。

  第二,全新发布的Vera Rubin平台实现重大技术创新,深度整合了英伟达去年耗资200亿美元收购的Groq公司LPU推理芯片。该方案以Rubin芯片负责高速数据吞吐,搭配Groq LPU高效完成推理结果输出,两者协同发力后,整体从数据吞吐到终端反馈的综合性能直接提升35倍。这不仅是AI算力技术层面的重大突破,更让此前的大额收购尽显前瞻性战略价值,实现技术与商业的双重共赢。

  第三,英伟达早已前瞻性布局下一代技术,面向2028年的Feynman(费曼)架构、Rosa(罗萨)CPU均已进入实质性研发阶段。其中Feynman作为全球首款1.6nm AI芯片,推理性能较现有产品大幅提升,提前锁定未来数年的技术领先身位,直接将竞争对手远远甩在身后,足以证明其在芯片领域的优势能够持续保持多年,行业龙头地位稳固。

  汇正财经投资顾问陈炜航表示,本届大会释放出明确信号:液冷技术将从AI服务器的可选方案升级为必选标配,结合Vera Rubin平台的量产进度,这一技术变革将快速引爆整个液冷产业链。据大会公布信息,Vera Rubin整体量产定于2026年三季度,届时液冷将正式成为平台标准配置,彻底改变行业传统冷却技术格局。

  陈炜航指出,对比上一代Blackwell平台,彼时风冷为主流冷却方案,液冷渗透率仅维持在20%-30%区间;而液冷成为Rubin平台标配后,行业液冷渗透率将跳升至60%-70%,实现几何倍数增长;后续Rubin Ultra版本推出后,液冷渗透率有望突破90%,全面迈入全液冷算力时代。

  基于这一行业趋势,陈炜航判断2026年到2027年就是液冷板块的整体爆发点,冷却系统也将从服务器附属附加件转变为核心部件。成本层面,风冷在服务器总成本中占比仅3%左右,液冷占比则高达15%-20%,行业整体价值迎来大幅提升。从国内产业链来看,液冷核心部件环节将最先受益,其中冷板、CDU密封件等核心组件,以及800伏HVDC电源等配套套件,都将借助液冷爆发实现长足发展,迎来业绩增长窗口期。

  汇正财经资深投资顾问朱杲怡分析,新一代Vera Rubin AI芯片推动推理算力形成完整闭环,直接带动AI产业链价值重新分配与重估。Rubin平台的设计逻辑彻底改变了原有AI芯片定位,以往AI芯片主要聚焦虚拟AI模型训练,为行业积累Token数据基础;而Rubin及后续Feynman架构,核心目标全面转向应用落地与推理输出,致力于把AI从网络、电脑端推向物理世界,打造真正能落地、可交互的物理AI。

  这一迭代升级带来了推理成本、延时双下降,运行效能持续提升,让原本无力承担高额Token成本的中小企业、初创团队迎来新机遇,AI Agent、AI智能机等前沿领域将迎来中小企业、个人投资者的商业化布局热潮。

  朱杲怡表示,以人形机器人、工业机器人等物理AI场景为例,Rubin搭配LPU芯片的优势十分突出:一是反馈延时小于0.1纳秒,与人类神经元响应速度基本一致,搭载机器人大脑后可实现实时流畅对话、精准指令响应;二是低功耗、低成本特性,能将机器人续航从2小时延长至8小时,大幅降低商业化部署门槛,加速机器人产业规模化落地;三是LPU作为语言类推理芯片,能精准优化机器人大脑模型,提升语言理解、行为识别、动作执行精度,让机器人实现听到、听懂、执行到位的跨阶段升级。

  整体来看,本次英伟达芯片从聚焦训练转向发力推理,是AI技术从幕后研发走向前台应用的关键一步,也标志着AI未来规模化落地进程将持续提速。