当前位置:首页 > 创业 > 正文

英伟达高管解读Q4财报:很多创企涌现 技术成果为AI领域下一个突破提供机遇

  • 创业
  • 2025-02-27 09:32:05
  • 3

专题:DeepSeek冲击后,英伟达首份财报:营收净利同比增超70%

英伟达高管解读Q4财报:很多创企涌现 技术成果为AI领域下一个突破提供机遇

  北京时间2月27日,英伟达公布2025财年第四财季及全年财报:第四财季营收为393.31亿美元,同比增长78%,环比增长12%;净利润为220.91亿美元,同比增长80%,环比增长14%;不计入某些一次性项目(不按照美国通用会计准则),英伟达第四财季调整后净利润为220.66亿美元,同比增长72%,环比增长10%(注:英伟达财年与自然年不同步,2024年1月底至2025年1月底为2025财年)。

  英伟达2025财年第四财季营收和调整后每股收益均超出华尔街分析师此前预期,整个2025财年的业绩同样超出预期;对2026财年第一财季营收作出的展望也超出预期,从而推动其盘后股价上涨逾2%。

  财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官科莱特·克雷斯等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。 

  以下是分析是问答环节主要内容: 

  Cantor Fitzgerald分析师C.J. Muse:我们看到计算强化学习领域的前景非常广阔,也明显能看到训练和推理之间的界限日益模糊。这对未来专门用于推理的集群有何潜在影响?管理层如何看待其对客户的整体影响,尤其是在视频领域?

  黄仁勋:目前有多种扩展模式,首先,预训练扩展模式会持续发展,其涉及多模态领域,并且推理技术已经被用于新的预训练中,这是推理领域的新突破。第二种是利用强化学习进行的训练后扩展,比如通过人类反馈、人工智能反馈进行强化学习,还可以设定强化学习的具体奖励机制。

  实际上,训练后扩展阶段所使用的计算量比预训练阶段还要高,这是合理的。因为在使用强化学习时,可以生成大量合成数据或合成标记,人工智能模型从本质上说就是通过生成标记来训练其他模型。第三部分是你提到的测试时计算,或者说是推理扩展,围绕基本相同的理念进行不同的扩展。

  目前,推理所需的计算量已经是大语言模型最初单次示例和单次学习能力所需计算量的100倍,而这仅仅是个开始,我们预计下一代模型可能会基于模拟和搜索技术,计算量需求将是现在的数千倍,甚至有望达到数十万倍、数百万倍。有些模型是自回归模型,有些是基于扩散模型,各不相同。有时我们希望看到数据中心具备强大的综合推理能力,有时又需要其具备紧凑的特性,因此很难确定数据中心的最佳配置。

  这也就是为什么英伟达的架构如此受市场欢迎,因为我们能运行各种模型。如今,我们大部分计算资源其实都用于推理,而Blackwell架构更是将这一切提升到了新高度。我们在设计Blackwell时就考虑到了推理模型的需求,虽然训练能带来更高的性能提升,但真正惊人的是在长时间推理测试时的扩展能力,人工智能推理模型的性能提升可达10到25倍。

  所以,Blackwell在各方面都表现卓越。如果数据中心能让你根据当前的任务需求——无论是进行更多预训练、训练后扩展,还是扩展推理能力——来配置和使用,那么这种架构就是灵活且易于使用的。实际上,我们看到统一架构的集中度比以往任何时候都要高得多。

  摩根大通分析师Joseph Moore:我想问一个关于GB200芯片的问题,之前管理层提到过机架级系统的复杂性以及其面临的挑战。正如在前面发言中提到的,该产品已经有了广泛的可用性,我想知道其在产品推广方面进展如何?在系统层面是否还有其他瓶颈需要考虑?另外,管理层对于GB200平台的热情是否依旧?

  黄仁勋:我现在对GB200的热情比在消费电子展期间(CES)更高,原因是我们在GB200上投入了更多精力。每个Blackwell机架包含150万个组件,其制造由大约350工厂完成,技术极其复杂,上一季度,我们成功推出Grace Blackwell(GB)产品,带来了110亿美元的收入。由于需求旺盛,客户急切地希望获得Blackwell系统,我们还需要继续扩大生产规模。

  你可能在网上看到过很多关于GB系统上线的庆祝消息,我们自己的工程部门也安装了大量该系统。Open人工智能公司也开始使用,并且越来越多的系统正在上线。所以,针对你提出的问题,我认为我们所做的事情并不容易,但我们做得很好,所有合作伙伴也都表现出色。

  美银美林分析师Vivek Arya:我想知道第一季度的利润率是否为全年的最低点?另外,管理层是依据什么来判断强劲的需求能持续到明年?新出现的创新成果是否会改变这一预期?

  科莱特·克雷斯:目前,在Blackwell系统的增产过程中,利润率处于70%多一点的水平。我们正专注于加快生产速度,确保能尽快为客户提供产品。一旦Blackwell的增产目标完全实现,我们就能降低成本,提高利润率,预计今年晚些时候,利润率可能会达到75%左右的水平。你也听到了黄仁勋对当前系统复杂性的介绍,这些系统在某些情况下可以供客户定制,有多种网络选项,还具备液冷和水冷功能。所以未来有机会进一步提高利润率,但目前我们的重点是尽快将产品交付给客户。

  黄仁勋:关于第二个问题,我们对于一些情况有比较清晰的了解,比如我们大致了解数据中心的资本投资规模,也知道未来绝大多数软件将基于机器学习开发。因此,加速计算和通用人工智能推理将成为数据中心理想的架构类型,此外,我们还掌握主要合作伙伴的业绩预测和计划。

  并且,我们知道有许多创新型初创公司不断涌现,其推出的令人振奋的技术成果也为人工智能领域的下一个突破提供了新机遇,无论其产品和技术属于智能体人工智能、推理人工智能,还是用于实体经济领域的人工智能。初创公司的数量依然很多,它们都需要大量的计算基础设施。

  所以,我认为从近期来看,有各种预测和计划作为信号;从中期来看,基础设施的规模和资本支出与往年相比是一个重要信号;从长期来看,我们深知软件已经从在中央处理器(CPU)上运行的手工编码,转变为在图形处理器(GPU)和加速计算系统上运行的基于机器学习和人工智能的软件。我们很清楚这就是软件的未来走向。

  也许人工智能在搜索,部分消费级通用产品,以及广告推荐等领域的应用目前还只是软件发展的初期阶段,但接下来,企业级智能体人工智能、机器人领域的实体人工智能,以及不同地区构建的主权人工智能,还有用于各种操作系统的人工智能都将兴起。这些领域才刚刚起步,我们能够预见到它们的发展,英伟达显然处于这一发展的核心位置,能观察到各个领域的蓬勃发展,无论是近期、中期还是长期来看,这些发展必然会到来。

  摩根大通分析师Harlan Sur:你们的下一代产品Blackwell Ultra预计今年下半年推出,与团队的年度规划一致。考虑到你们目前仍在扩大当前一代Blackwell解决方案的生产规模,客户和供应链将如何同时应对这两款产品的推广?团队是否仍按计划在今年下半年推出Blackwell Ultra?

  黄仁勋:是的,Blackwell Ultra将于今年下半年推出。大家知道,第一代Blackwell在推出时遇到了一些小问题,导致推迟了几个月,但我们当然已经完全恢复,团队以及所有供应链合作伙伴都付出了巨大努力,很多人都帮助我们渡过了难关。现在我们已经成功扩大了Blackwell的生产规模,但产品研发的脚步不会停止,新产品的推出会遵循产品发布的年度节奏。

  Blackwell Ultra将配备新的网络、内存和处理器,目前我们已经与所有合作伙伴和客户沟通协调,他们掌握了必要信息,这次我们会和大家一起做好Blackwell到Blackwell Ultra的平稳过渡。两款产品的系统架构完全相同,而从Hopper架构过渡到Blackwell架构要困难得多,因为需要从基于NVLink 8的系统升级到了基于NVLink 72的系统,机箱、系统架构、硬件、电源供应等都需要改变,那是一次极具挑战性的过渡,但下一次过渡会很顺利,Grace Blackwell也能顺利接入。我们已经和所有合作伙伴进行了评估,并紧密合作推进后续工作,我们后续还会推出名为Rubin的下一代芯片。所有合作伙伴都在加快脚步,为这次过渡做准备。Blackwell Ultra将带来巨大的性能提升,在即将到来的英伟达人工智能技术大会(GTC)上,我们会详细介绍Blackwell Ultra、Rubin及其他新的计算、网络、推理人工智能和实体人工智能产品。

  瑞银分析师Timothy Arcuri:我们经常听到关于专用集成电路(ASIC)方面的消息,能否请管理层谈谈ASIC和通用GPU之间的平衡?我们听说一些前沿的超级集群同时使用GPU和ASIC,这是客户的规划方向吗?还是说这些基础设施会保持明显的区分?

  黄仁勋:在某些方面,我们的产品和ASIC有很大不同,甚至在一些领域完全不同。我们的架构有以下几个不同之处:其一,英伟达的架构是通用架构,针对自回归模型、扩散模型、视觉模型、多模态模型和文本模型等都进行了优化,在各个领域都表现出色。因为我们拥有丰富的软件堆栈和生态系统,这使我们成为大多数优秀创新和算法产品的首选目标。所以从定义上来说,我们的架构比ASIC更通用,应用范围更广。其二,从数据处理、训练数据整理、数据训练,到训练后使用强化学习,再到推理测试时扩展,我们的整个流程都表现出色。我们的架构通用且服务于端到端方面的需求,应用非常广泛,而且我们的产品不局限于某一个云平台,而是适用于各种云平台,既可以用于云端服务器,也可以用于机器人。对于任何一家初创公司来说,我们的架构更容易获取和使用,可以说是他们的理想选择。其三,我们产品的性能提升速度极快。要知道,数据中心的规模和功率通常是固定的,如果我们产品的性能每瓦特能提升2倍、4倍甚至8倍,而这并不罕见,就直接意味着成本的降低。比如有一个100兆瓦的数据中心,如果该数据中心的性能或产量量提高4倍或8倍,那么其收入也会相应提高。与过去的数据中心不同,如今的人工智能工厂可以基于标记生成量直接实现产生收入,所以英伟达架构在快速生成标记方面的优异表现,对于所有为了盈利而构建这些数据中心的公司来说都极具价值。

  另外,人工智能发展非常迅速,要在多个芯片上构建完整的生态系统并非易事。最后我想说,芯片设计出来并不意味着就能投入使用,这种情况屡见不鲜。到了实际应用阶段,需要做出商业决策,决定是否将新的引擎或处理器应用到规模、时间和产品线都有限的人工智能工厂中。我们的技术不仅越来越先进、性能越来越高,软件功能也更强大,更重要的是,我们的部署速度极快。大家都清楚这些优势,这就是我们表现出色、能够脱颖而出的原因。

  (持续更新中。。。)

有话要说...