Please ensure Javascript is enabled for purposes of website accessibility 最新市场评论: NVIDIA仍处于蓬勃而非减缓- 骏利亨德森投资 - 中国投资者(中文)
中国核准合格境内机构投资者专用

最新市场评论:NVIDIA仍处于蓬勃而非减缓

投资组合经理Richard Clode参加了NVIDIA的最新财报电话会议。他在本文中探讨了投资者对公司的主要关注点,以及整个生成式人工智能技术浪潮。

Richard Clode, CFA

投资组合经理


27 Feb 2025
3 分钟阅读

焦点分析

  • 短期来看,Blackwell(人工智能芯片)机架式系统复杂供应链搭建过程中所遇到的初期磨合问题似乎已成为过去。
  • 长期来看,NVIDIA所提出的测试期推理模型的指数级AI扩展定律以及杰文斯悖论将推动未来人工智能基础设施增长
  • 我们的团队将关注NVIDIA3月份召开的GTC大会,届时公司将发布新一代人工智能芯片系列及其他创新技术。

一如既往,NVIDIA创始人兼CEO黄仁勋非常清楚市场对于企业过度投资人工智能(AI)基础设施建设的担忧,并在财报电话会议上直接回应了这些问题。公司还计划在3月份召开的GTC大会(NVIDIA人工智能与技术大会)上,就其最新的芯片产品Blackwell Ultra、Rubin和Vera以及下一代路线图相关的其他一系列创新技术提供更多细节,届时公司股价有望突破已持续8个月的盘整期。

以下是我们总结的财报电话会议的四个核心要点:

1 Blackwell面临哪些供应问题?

在成功解决高度复杂的新一代机架式系统在增产初期遇到的重大问题后,公司的Blackwell系统在上个季度(截至2025年1月26日)实现了110亿美元的销售收入,远高于“数十亿美元”的指引。作为背景资料,每个Blackwell机架由350家工厂生产的150 万个组件构成。可以预见,2025年,公司将采取更激进的增产计划,以满足Blackwell“惊人”的市场需求。

2 新的人工智能扩展定律将进一步加速大语言模型的发展

测试时扩展(test time scaling)技术和推理模型的出现,是人工智能基础设施支出快速增长的一个重要的新方向。与标准的一次性推理相比,长思考推理的算力需求可能要高出百倍。这还仅是第一代模型,后续可能会出现更“深思熟虑”的推理模型,其算力需求可能会达到数十万乃至数百万倍。模型思考得越多,处理的计算量就越大,答案也就越准确聪明。

3 杰文斯悖论开始显现

NVIDIA在短短两年内就将推理成本降低了200倍。作为人工智能创新迭代的最新成果,DeepSeek将推动这项新技术的成本持续下降。杰文斯悖论(Jevon’s Paradox)意味着,人工智能基础设施的需求将不降反增,正如我们从个人电脑和互联网时代的技术成本曲线下降中所看到的一样。

4 NVIDIA在ASIC与GPU之争中位居领先

Broadcom的ASIC芯片专为执行单一任务设计,其成本低于NVIDIA的GPU;GPU属于通用型芯片,具有多任务并行处理能力(如人工智能训练、图像和视频渲染以及游戏等)。因此,NVIDIA GPU面临着来自ASIC的挑战。

NVIDIA 的CEO指出,数据中心的主要瓶颈在于电力供应,因此客户都希望最大限度地提升每个数据中心的收入潜力。在人工智能时代,实现这一目标的方法是最大限度地提高每瓦特的token数。目前,NVIDIA的token生成效率领先竞争对手2-8倍。NVIDIA的通用处理器可以执行多任务,包括运行人工智能软件,而运行人工智能软件复杂度大幅增加,需要克服同时操作多个底层硬件的难题。

我们认为,生成式人工智能不仅仅是风靡一时的主题。这场重大新兴科技浪潮的复杂程度以及“赢家通吃”的行业特性,要求我们运用由下而上的基本因素研究和主动型管理来发掘关键受益者,在当前高度创新和颠覆性的投资环境中,该类公司的盈利增长潜力往往被市场低估。

倘若英文版本与简体中文版本出现歧异,概以英文版为准。

注:NVIDIA所有业绩资料截至2025年2月26日,资料来源:https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-fourth-quarter-and-fiscal-2025。

Blackwell芯片:NVIDIA新一代Blackwell图形处理单元(GPU),可以在执行人工智能处理任务时大幅降低能耗和成本。

推理:指AI处理,机器学习和深度学习指训练神经网络,而AI推理是应用经过训练的神经网络模型的知识,从而推断结果。

杰文斯悖论:这一理论认为,当任何给定资源的利用效率提高时,可能会导致对该资源的需求增加。当这一理论应用于科技/人工智能芯片领域时,是指随着芯片技术和效率的提升,市场对芯片的总体需求实际上会增加而非减少。

LLM(大型語言模型): 一類專門的人工智能,利用大量文本進行訓練,以了解現有內容並生成原始內容。

长思考推理:这是一种考虑各种信息和潜在结果的深入的扩展推理过程,即通过分析多种视角、考虑长期影响、审慎权衡各种因素,然后得出结论。

一次性推理/提示:是指通过向模型提供单个示例或提示词来执行任务的方法。这种方法依赖精心设计的单个提示来实现预期的输出结果。

测试时扩展(test time scaling):一种通过增加测试阶段使用的算力资源来提升模型性能的语言建模方法。

词元(token):人工智能标记是大语言模型(LLM)在输入和输出过程中使用的基本构建单元。它们是大语言模型用来处理和生成有效文本/输出的最小数据单位。

 

任何对个别公司的参考,仅供说明用途,并不构成买入或卖出投资建议,法律或税务事项的忠告。