中意资讯网 中意资讯网

当前位置: 首页 » 前沿资讯 »

英伟达的“算力信仰”保卫战

文丨镜相工作室 彭杰克

编辑丨卢枕

短短一年时间,两次大会,台上的“AI教主”黄仁勋依旧穿着熟悉的皮衣,却多了些磕绊,少了些从容。

上一次GTC大会,正是英伟达如日中天的时候。各国科技公司对生成式AI进行不计回报的疯狂投入,将英伟达一步步推上神坛,一度成为全世界市值最大的公司。

但今年以来,英伟达的股价持续震荡。1月27日美股收盘,单日跌幅超过17%,创下公司历史上单日下跌最多的纪录;截至3月10日,远期市盈率从1月的45倍回落至28倍,低于五年均值37.6倍。

市盈率的回落,背后是一个残酷的现实:市场没那么看好英伟达的未来了,AI树立起来的“算力信仰”正在动摇。

因此,在一年一度、被誉为“科技春晚”的GTC大会上,老黄的使命变了——不再是让人们看到英伟达又搞出了多么牛逼的产品,而是让人们重新相信他们真的需要这些产品。

黄仁勋的AI路线图

站在英伟达的视角来看,这是一届需要打起精神来直面诸多挑战的GTC大会。

将英伟达芯片捧上神坛的AI算力市场正发生变化。Deepseek的开源以及长思维链技术路线,让生成式AI厂商的关注点从堆量训练走向推理,而逐渐渗透的ASIC架构芯片,其在AI推理场景中展现出的成本、能效优势,对英伟达在AI算力市场的份额构成直接威胁。

英伟达内部也面临压力。原计划去年第三季度量产、第四季度发货的Blackwell系列芯片,因设计缺陷问题,推迟至2025年第一季度才开始批量出货,间接导致2025财年第四季度的毛利率下降,且预计下个季度会进一步收缩。

在期待或怀疑之中,北京时间3月19日凌晨1点12分,英伟达创始人黄仁勋穿着熟悉的黑色皮衣姗姗来迟,一上来就开始讲述从生成式AI到代理式AI(Agentic AI)、Physical AI的变革,这背后意味着巨大的算力需求。

今年年初,Deepseek-R1模型的高效和开源,曾一度让市场判断,大多企业将不再需要英伟达昂贵的GPU来做大参数模型的预训练。这也被认为是英伟达股价受重挫的直接原因。

2月下旬,黄仁勋谈到Deepseek时说:“这是一项卓越的创新,但更为重要的是,它开源了一个世界级的推理AI模型。几乎每一位AI开发者都在应用R1或思维链以及像R1这样的强化学习技术来提升其模型的性能。”

GTC 2025上,黄仁勋仍然看好推理AI,巧妙地选择用长思维链(CoT)推理需要消耗的tokens来做比较。他向传统大语言模型(LLM)和推理模型提出了同一个问题:300人的婚礼上如何安排座位。LLM消耗439 tokens快速得出了一个错误答案,而推理模型消耗8559 tokens,经过较长时间的思考得出了一个得体的答案。

● 图源:直播截图

黄仁勋想说明的是,诸如Deepseek-R1这类推理模型,意味着更高的tokens消耗和更高的算力需求,只是这种算力需求从训练环节后置到了推理环节。

在黄仁勋看来,推理模型也不是AI的终点,当下我们所处的Agentic AI,AI要处理更多更复杂的任务,有大量的应用将会出现,带来算力需求的又一次爆发;而到了未来的Physical AI阶段,AI甚至会复刻物理世界,那代表了将会有无限的tokens需要被处理。

结论是,用预训练放缓来判断AI的未来,或者英伟达的未来,就有点短视了。黄仁勋给了一个简单粗暴的预判:“未来所需要的算力将是过去的100倍。”

那各大AI厂商要如何面对未来的AI新范式呢?没错,还是要买英伟达芯片,英伟达的护城河就在于无处不在——硬件上Blackwell系列芯片涵盖了从预训练、后训练到推理的整个AI市场,跨越云端到本地再到企业环境;软件上,CUDA仍然是绕不过去的高墙,黄仁勋强调说:“CUDA现在无处不在,它存在于每个云中,每个数据中心,可以从世界上的每家电脑公司买到,几乎无处不在。”在他口中,CUDA已不再是一个单纯的开发工具,而是成了“AI时代的英语”。

对于老黄的新故事,资本市场给出的反应是迟疑。演讲结束后,英伟达股价没有提振,反而一路向下,截至收盘,下跌3.43%。

英伟达把护城河又往深挖了挖

动摇英伟达“算力信仰”的,一度被认为是Deepseek创造出的效率神话。

Deepseek的天才工程师们,用自己的聪明绕过了英伟达芯片的一些限制,用算法和软件能力挖掘出了更多的性能,从而节省了大量成本。

现在,英伟达大开方便之门,推出了自己的官方版本的“后门”——Nvidia Dynamo。

这是英伟达在推理领域构建的新CUDA,专为推理、训练和跨整个数据中心加速而构建的开源软件。在现有Hopper架构上,Dynamo可让标准Llama模型性能翻倍。而对于DeepSeek等专门的推理模型,NVIDIA Dynamo的智能推理优化还能将每个GPU生成的token数量提升30倍以上。

当然,为了推销最新的Blackwell系列芯片,Dynamo在Blackwell上的效果更好。在同等功耗下,Blackwell的性能比Hopper高出4-5倍。在推理模型的测试里,Blackwell的性能大约是Hopper的40倍。

目前,Blackwell系列芯片,GB200和B200已全面投产。这些产品采用台积电4nm工艺制造,拥有高达2080亿个晶体管。黄仁勋透露,2024年,美国前四大云服务提供商(CSPs)购买了130万块Hopper架构芯片,2025年又购买了360万Blackwell架构芯片。

为了让Blackwell像苹果全家桶那样深入到每个场景,针对不同类型的客户,小到个人工作站,大到数据中心集群,英伟达推出了可以运行2000亿参数模型的AI PC产品DGX Spark,为“AI推理时代”专门定制的Blackwell Ultra NVL72机柜,和基于Blackwell Ultra、即插即用的DGX Super POD AI超算工厂等一系列产品,涵盖了AI时代大部分主流场景。

当然,作为“秀实力”的传统环节,黄仁勋公布了新一代AI芯片Rubin,以“证实暗物质存在”的女性科学先驱薇拉・鲁宾(Vera Rubin)命名。据介绍,Rubin系列芯片的性能可达Hopper的900倍,而Blackwell是Hopper的68倍。Vera Rubin NVL144将于2026年下半年推出,Rubin Ultra NVL576将于2027年下半年推出。

不管是Blackwell全家桶,还是像CUDA一样只能运行在英伟达GPU上的Dynamo,都是英伟达在硬件和软件层面上进一步挖深自己的护城河,在空间上做到无处不在,在时间上做到别人无法短时间内追上,英伟达就能继续维持“AI领导者”的地位。

卖铲子以外,英伟达也在讲一些新的故事。本届GTC,英伟达将主办首届“量子日(Quantum Day)”,黄仁勋将参加与量子计算行业业内人士的小组讨论。但主题演讲现场,黄仁勋并未提及相关细节。

颇为戏剧化的是,两个月前的CES展会期间,黄仁勋说:“如果你说15年内就能制造出非常有用的量子计算机,那可能有点早。如果你说30年,那可能已经晚了。如果你说20年,我想我们很多人都会相信。”该言论直接导致了美国量子计算概念股崩盘式下跌。

穷追猛打的竞争者们

长期来看,似乎英伟达的领先地位还能保持很久,但短期并非没有隐忧。

截至今年1月底的2025财年第四季度业绩报告显示,报告期内,英伟达数据中心收入为356亿美元,同比增长93%,较上季度环比增长16%,贡献了英伟达91%以上的营收,这个数字在去年同期和前年同期大约为80%与60%左右。这主要得益于Blackwell系列芯片,其在第四财季实现了110亿美元的销售额,创下了公司历史上产品最快的增长速度。

但Blackwell系列芯片量产初期的成本也给英伟达带去了不小的压力。截至今年1月底的2025财年第四季度,英伟达毛利率为73%,较上季度下降3个百分点,而根据最新的业绩指引,下季度英伟达的毛利率可能会进一步收缩至70.6%。

更大的威胁来自ASIC架构以及在这之下大力投入自研芯片的巨头客户们。

与广义上的GPU相比,ASIC架构芯片可以专为特定推理任务而定制,且整体晶体管利用率更高,在特定任务上更高效、成本更低,对于中小公司来说是性价比很高的选择。

同时,在英伟达GPU以高昂的价格一家独大之时,亚马逊、谷歌、微软等英伟达大客户们正奋力推进自研芯片流程,或是从英伟达的竞争对手AMD手中购买芯片。

根据智能涌现2024年中报道,用掉了世界上1/4算力的谷歌,“可能年底就不对外采购芯片了”。过去谷歌自研TPU更多基于成本考虑,比如担心英伟达随意涨价,或者供应不够稳定,如今谷歌的造芯策略更为激进——“几乎是不计代价和成本投入”。而微软已经采购上万片AMD的产品,特斯拉、Midjourney、美国国家实验室、韩国电信也都已批量提货。

不过,CUDA暂时还能挡一挡这些激烈的攻势,哪怕亚马逊的Trainium芯片能将成本压到GPU的1/3,但开发者需要为每一款ASIC重写代码的现实,依然让多数企业望而却步。

另一大潜在的风险是地缘政治变化带来的挑战,大洋彼岸的对手们正在抓紧机会蚕食英伟达的市场,目前英伟达也没有太好的解决办法来应对。

光靠“算力老仙,法力无边”,已经没法不管不顾地向前猛冲了。摆在黄仁勋面前的问题是,如何平衡短期毛利率压力与长期增长叙事。只有让现在的投资者赚到钱,英伟达才能有更广阔的未来。

参考资料

智能涌现:《围剿英伟达》

虎嗅:《英伟达仍未失守》

硅星人Pro:《卖393亿赚220亿,英伟达不会暴跌但也不再暴涨了》

未经允许不得转载: 中意资讯网 » 英伟达的“算力信仰”保卫战