亚马逊发力捍卫云地位,升级自研AI芯片,发布聊天机器人Q,抢先用英伟达新一代超级芯片

[娱乐] 时间:2024-04-28 02:59:09 来源:蓝影头条 作者:百科 点击:99次
来源:华尔街见闻

  通用芯片Graviton4的亚马用英计算性能较前代提高多达30%,AI芯片Trainium2的逊发芯片新代芯片速度比前代快四倍,可训练万亿参数级模型。力捍聊天亚马逊云AWS将是卫云伟达升级版Grace Hopper超级芯片的第一个大客户,AWS将提供第一个采用英伟达GH200 NVL32 的地位DGX云,英伟达和AWS在研发全球速度最快的升级GPU驱动AI超算,搭载超1.6万块GH200。自研亚马逊上线企业客户机器人Q预览版,发布可帮助写代码、机器审查业务指标、抢先在AWS上开发App。超级

  亚马逊发力捍卫在云计算领域的亚马用英领先地位,一边升级自研的逊发芯片新代芯片云芯片、推出亚马逊版的力捍聊天GPT——人工智能(AI)聊天机器人,一边深化同英伟达的卫云伟达合作,推出基于英伟达芯片的新服务、和英伟达共同研发超级计算机。

  AWS的副总裁Dave Brown表示,通过将自研芯片的设计重点放在对客户重要的实际工作负载上,AWS能为他们提供最先进的云基础设施。此次推出的Graviton4是五年内的第四代芯片产品,随着人们对生成式 AI 兴趣的高涨,第二代AI芯片Trainium2 将帮助客户以更低的成本和更高的能效更快地训练自己的机器学习模型。

  Graviton4计算性能较前代提高多达30%

  美东时间11月28日周二,亚马逊旗下云计算业务AWS宣布,推出新一代的AWS自研芯片。其中,通用芯片Graviton4的计算性能较前代Graviton3提高多达30%,内核增加50%,内存带宽提升75%,从而在亚马逊云服务器托管服务Amazon Elastic Compute Cloud(EC2)上提供最高性价比和能源利用效果。

  Graviton4还通过对所有高速物理硬件接口进行完全加密提高安全性。AWS称,Graviton4 将应用于内存优化的Amazon EC2 R8g 实例,让客户能改进高性能数据库、内存缓存和大数据分析工作负载的执行。R8g 实例提供更大的实例大小,比前代 R7g实例的 vCPU 高最多三倍的,内存高三倍。

  应用Graitons4的电脑将在未来数月内上市。AWS称,启动Garviton项目约五年来,已生产超过200万个Garviton处理器,AWS EC2的前100位用户都选择使用Graviton。

  Trainium2速度提高四倍 训练万亿参数级模型

  AWS的另一款新品——新一代AI芯片Trainium2速度比前代Trainium1快四倍,将能在EC2 UltraCluster中部署多达10万个芯片,让用户能在很短的时间内训练数以万亿参数的基础模型(PM)和大语言模型 (LLM),同时能源利用率较前代提高多达两倍。

  Trainium2 将用于Amazon EC2 Trn2 实例,单个实例中包含16 个Trainium 芯片。Trn2 实例旨在帮助客户在下一代 EC2 UltraCluster中扩展芯片应用数量至多达10万个Trainium2 芯片,联通AWS Elastic Fabric Adapter (EFA) petabit级网络,提供高达 65 exaflops 的算力。

  AWS称,Trainium2将从明年开始用于支持新的服务。

  升级版Grace Hopper的首家大客户 DGX云采用GH200 NVL32  速度最快GPU驱动AI超算

  除了自研芯片,AWS周二还在年度大会re:Invent期间同英伟达共同宣布,扩大战略合作,提供最先进的基础设施、软件和服务,助力客户的生成式AI创新。

  AWS 将成为第一家在云上采用全新多节点NVLink技术英伟达H200 Grace Hopper超级芯片的云服务商,也就是说,AWS将是升级版Grace Hopper的第一个大客户。

  英伟达的H200 NVL32 多节点平台将 32 个 Grace Hopper芯片与 NVLink 和 NVSwitch 技术共同用于一个实例。该平台将用于与亚马逊网络EFA连接的Amazon EC2实例,并由高级虚拟化 (AWS Nitro System) 和超大规模集群 (Amazon EC2 UltraClusters) 提供支持,使亚马逊和英伟达共同的客户能够扩展部署数以千计的H200芯片。

  英伟达和AWS将共同在AWS上托管英伟达的AI 训练即服务DGX Cloud,它将是第一个采用GH200 NVL32 的 DGX 云,能为开发人员提供单个实例中最大的共享内存。AWS 的DGX云将提高尖端生成式AI 和超过1万亿参数的大语言模型的训练。

  英伟达和AWS 正在共同研发名为Ceiba 的项目,设计世界上速度最快的GPU驱动AI 超级计算机,这是一个采用 GH200 NVL32 和 Amazon EFA 互连的大规模系统。它是搭载1.6384万块GH200超级芯片的超级计算机 ,AI处理能力达65 exaflops。英伟达将用它推动下一波生成式AI 创新。

  企业客户机器人亚马逊Q预览版上线 帮助在AWS上开发App

  除了芯片和云服务,AWS还推出了自己的AI聊天机器人预览版,名为亚马逊Q。它是生成式AI技术支持的新型数字助手,可根据企业客户的业务进行工作,帮助企业客户搜索信息、编写代码和审查业务指标。

  Q接受了AWS内部有关代码和文档的部分培训,可供AWS云的开发者使用。

  开发者可以用Q在AWS上创建App、研究最佳实践、改正错误、获得为App编写新功能的帮助。用户可以通过对话式的问答功能与Q进行交互,学习新知识、研究最佳实践以及了解如何在AWS上构建App,无需将注意力从 AWS 控制台上移开。

  Q还将被添加到亚马逊的企业智能软件、呼叫中心工作人员和物流管理的程序。 AWS表示,客户可以根据公司的数据或个人资料,对Q进行定制。

  Q 对话式问答功能目前在所有提供企业AWS的地区提供预览版。

责任编辑:周唯

(责任编辑:知识)

    相关内容
    精彩推荐
    热门点击
    友情链接