英伟达B200刚发布 Meta就摩拳擦掌:将用于训练最新AI模型

[知识] 时间:2024-04-16 12:42:16 来源:蓝影头条 作者:焦点 点击:112次


  在英伟达最新发布全新一代Blackwell架构人工智能GPU芯片B200之后,英伟用于英伟达的摩模型最大客户之一——Meta就迫不及待地宣布,公司预计将在今年晚些时候收到Blackwell新品,拳擦并将其快速将其应用于训练公司的掌将最新最新人工智能模型Llama。

  周二晚些时候,训练英伟达高管也对外透露,英伟用于这一产品预计将在今年晚些时候首批交付,摩模型售价预计在3万至4万之间。拳擦

  Meta:将使用B200训练AI模型

  美东时间周一,掌将最新英伟达在每年一度的训练GTC 2024大会上上宣布了全新一代Blackwell架构人工智能GPU芯片——B200。据英伟达CEO黄仁勋介绍,英伟用于B200芯片集成有2080亿个晶体管,摩模型是拳擦上一代芯片800亿个晶体管的2.6倍,在处理给聊天机器人提供答案等任务时,掌将最新B200芯片的训练速度比上一代芯片快30倍。

  随后,Facebook母公司Meta平台的一位发言人便表示,该公司预计将在今年晚些时候收到首批英伟达的Blackwell新品。

  社交媒体巨头Meta是英伟达最大的客户之一,此前该公司已经购买了数十万颗英伟达上一代芯片H100,以支持其升级内容推荐系统和生成式人工智能产品。

  今年1月,Meta首席执行官马克·扎克伯格曾透露,该公司计划在今年年底前储备约35万枚H100芯片。他补充说,与其他GPU相结合,到那时Meta将拥有相当于大约60万个H100的处理器。

  美东时间周一,在英伟达发布B200芯片后,扎克伯格发布声明称,Meta计划使用Blackwell产品来训练该公司的Llama模型

  Meta上周宣布,它拥有两个“数据中心级”的GPU集群,据称每个集群包含约24000个H100 GPU,Meta目前正在这两个GPU集群上训练第三代AI模型。

  Meta发言人表示,Meta计划继续使用这些集群来训练Llama 3,并将在未来几代AI模型的训练中使用Blackwell产品。

  英伟达B200预计年内发货定价3万至4万美元

  美东时间周二,英伟达首席财务官科莱特·克雷斯(Colette Kress)对投资者透露:“我们认为我们将在今年晚些时候首批交付”,但也表示,要等到2025年才会大批量供应。

  此外,英伟达CEO黄仁勋也在周二向媒体透露,Blackwell新品的售价将在3万美元至4万美元之间。他预计,英伟达在研发成本上花费了大约100亿美元。

  这意味着B200等新品可能将大受欢迎,因为其前代产品H100的定价约在2.5万-4万美元之间,而新产品的性能远超前代。

  黄仁勋昨日在GTC会议发表演讲时举例称,如果要训练一个1.8万亿参数量的GPT模型,需要8000张Hopper GPU,消耗15兆瓦的电力,连续跑上90天。但如果使用GB200 Blackwell GPU,只需要2000张,同样跑90天只消耗四分之一的电力。不只是训练,生成Token的成本也会随之显著降低。

(文章来源:财联社)

(责任编辑:热点)

    相关内容
    精彩推荐
    热门点击
    友情链接