英伟达高管解读Q2财报:未来几个季度供应还在持续增长

[休闲] 时间:2024-04-26 13:40:02 来源:蓝影头条 作者:时尚 点击:193次
北京时间8月24日上午消息,英伟英伟达今日公布了该公司截至2023年7月30日的达高读2024财年第二财季财报。报告显示,管解供英伟达第二财季营收为135.07亿美元,财报长同比增长101%,季度环比增长88%,还持创下历史纪录;净利润为61.88亿美元,续增同比增长843%,英伟环比增长203%;不按照美国通用会计准则的达高读调整后净利润为67.40亿美元,同比增长422%,管解供环比增长148%(注:英伟达财年与自然年不同步,财报长2024年1月30日至2024年1月29日为2024财年)。季度英伟达第二财季调整后每股收益和营收远超华尔街分析师预期,还持对第三财季营收作出的续增展望也同样远超预期,从而推动其盘后股价大幅上涨逾8%,英伟突破52周最高价。详见: 英伟达第二财季营收135.07亿美元 净利润同比增长843%

财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官Colette Kress等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。

以下是分析是问答环节主要内容:

TD Cowen分析师Matt Ramsay:我们都注意到大型模型推断应用的迅速增长,投资者也都知道公司在机器学习训练领域牢不可破的市场地位。以往的小型模型推断方面的工作载荷都是在A6和CPU上完成的,随着包括GPT在内的大型模型的出现,推断方面的工作载荷出现了巨幅增长,我知道公司的Grace Hopper超级芯片和其他的一些产品也将满足这些需求,可否请管理层介绍一下如何划分小型模型推断和大型模型推断?公司的产品组合是怎样定位的?

黄仁勋:你提到的这些语言模型都是非常伟大的产品,具备很多核心功能,具有理解非结构化语言的能力,而其核心是对人类语言结构的理解,其中编入了它们所学习到的大量人类知识。

大型语言模型的创建都是求大的,然后才能衍生创建出各类较小型语言模型,本质上是一种类似教师-学生的模式,我们称之为“模型蒸馏”,我们所看到的小型语言模型,很可能都是从大型语言模型衍生,学习和蒸馏提炼而来。

未来的情况可能也是一样,大型语言模型具备一般性,通用型,或者“零样本学习”能力,具备训练应用程序的“神奇能力”,适用于各类计算设备,应用程序开发者就是要实现大型模型的向下“蒸馏”。

小型模型可能也具备某些领域独特的优秀能力,但归纳总结能力不及大型模型,不具备我们所说的“零样本学习”能力。

美银证券分析师Vivek Arya:第一个问题,公司明年增产的幅度大约是多少?因为管理层提到说每个财季都有增长。

第二个问题,公司在超级加速器方面的支出增长并不大,能否请管理层谈谈未来一两年生成式人工智能市场的需求稳定性情况?考虑到公司所暗示的对于第三财季数据中心业务营收120到130亿美元的展望,管理层预计目前已经有多少比例的服务器是人工智能加速器驱动的?未来一两年的需求增长是否可持续?

Colette Kress:我们的供应在未来几个季度到明年的时间里还将持续增长,具体增幅的数字我没有办法预测,因为这涉及到很多供应商,零件,以及包括HGX在内的众多即将发布的新产品,非常感谢供应商长时间以来对我们的支持。

黄仁勋:全球数据中心的总装机金额在1万亿美元上下,包括了云计算,企业和其他方面的用途,这些数据中心正处于向加速计算和生成式人工智能的过渡阶段,这也是目前最重要的两个平台转换。

加速计算是实现成本效益,能源效益和计算效益最大化的方式,而生成式人工智能也意外地推动加速计算的进展,让数据中心运营者更有理由开展平台转换,从一般性用途的计算到加速计算的转换,这是行业发展的长期趋势。

(持续更新中。。。)

责任编辑:刘明亮

(责任编辑:热点)

    相关内容
    精彩推荐
    热门点击
    友情链接