cha

速度快10倍,成本降一个数量级!英伟达发布ChatGPT专用GPU

  K图 NVDA_0

  “AI的iPhone时刻已经到来。”

  北京时间3月21日晚,图形芯片巨头(Nvidia)召开2023年GTC大会,其创始人兼CEO黄仁勋穿着标志性皮夹克发表主题演讲,介绍了在(AI)领域的多款产品,包括为大型语言模型设计的新款GPU(图形处理器)、针对AI()视频的芯片L4,以及AI超级计算服务DGX Cloud等。

  在演讲中,黄仁勋多次重复道,AI的iPhone时刻已经到来,并表示“生成式AI将重塑几乎所有行业”。

  “生成式AI让企业产生重新思考其产品设计、商业模式,大家都希望成为推动变革的一方,而不是被变革淘汰的一方。”黄仁勋说道。

  3月21日美股收盘,涨1.15%,报收261.99美元/股,盘后微跌0.09%,相比英伟达股价的波澜不惊,22日上午,A股ChatGPT、算力、CPO、芯片、电商活跃,截至午盘,寒武纪(688256)涨超10%,(601138)涨超8%,青云科技(688316)涨停。

  H100 NVL:速度快10倍,成本降低一个数量级

  去年11月,OpenAI推出基于大型语言模型(LLM)的聊天ChatGPT,这一技术引发各界关注,随后、谷歌等科技公司在AI领域展开角逐。

  在演讲中,黄仁勋也着重介绍了英伟达在这一领域的布局,透露道针对算力需求巨大的大型语言模型(LLM),英伟达推出新款GPU——NVIDIA H100 NVL。

  H100基于英伟达的Hopper架构,采用Transformer引擎。其具有94GB内存,并配备了双GPU NVLINK的PCIE H100 GPU,能处理含1750亿参数的GPT-3。

  与用于处理ChatGPT的HGX A100相比,搭载四对H100和双NVLINK的标准服务器的处理速度最高可达10倍。黄仁勋称,它能将大语言模型的处理成本降低一个数量级。

  “加速计算并非易事。”黄仁勋举例,2012年计算机视觉模型AlexNet动用了GeForce GTX 580,每秒可处理262 PetaFLOPS,该模型引发了AI技术的爆炸。而十年之后,随着Transformer的出现,GPT-3动用323 ZettaFLOPS的算力,是AlexNet的100万倍。

  此外,针对AI视频英伟达还推出了芯片L4,在视频解码和转码、视频内容审核、视频通话等功能上进行优化。英伟达称,相比传统的CPU,L4能够提供高出120倍的AI视频性能,同时能效提高99%。

  在芯片制造工艺方面,英伟达还宣布推出计算光刻库cuLitho,并与ASML、等巨头展开合作。据介绍,cuLitho可将计算光刻加速40倍以上,使2nm及更先进芯片的生产成为可能。

  “计算光刻是芯片设计和制造领域中最大的计算工作负载,每年需要消耗数百亿CPU小时。”黄仁勋说道,该软件正被集成到全球最大的代工芯片制造商的设计系统中,将于6月开始对cuLitho进行生产资格认证。

  DGX Cloud:每月3.7万美元,让任何企业都能构建AI能力

  在主题演讲中,黄仁勋还介绍了英伟达在生成式AI方面的另一个布局——AI超级计算服务DGX Cloud。

  黄仁勋透露,英伟达已经与多家云服务供应商合作,推出云端DGX Cloud,未来企业可以按月租、通过浏览器使用DGX Cloud集群,快速轻松地扩展大型多节点AI训练。DGX Cloud起价为每个实例每月36999美元。

  “这种合作关系将英伟达的生态系统带到云服务商手中,还扩大了英伟达的市场规模和覆盖面。”黄仁勋说道。

  据介绍,每个DGX Cloud实例具有八个H100或A100 80GB Tensor Core GPU,每个节点共有640GB GPU内存。NVIDIA Networkin 构建的高性能、低延迟结构确保工作负载可以跨互连系统集群扩展,允许多个实例充当巨大的GPU,以满足高级AI训练的性能要求。

  目前英伟达已经与展开合作,预计Azure在下个季度将会开始托管DGX Cloud,未来谷歌云也将加入托管行列。

  值得注意的是,早在2016年,黄仁勋便向OpenAI交付了第一台NVIDIA DGX超级计算机。黄仁勋透露,目前DGX已经被企业广泛用于优化数据和处理 AI,《财富》100强企业中有一半安装了DGX.黄仁勋称,DGX是超级计算机是现代AI工厂。

  对于英伟达带来的产品,金融机构Rosenblatt Securities的Hans Mosesmann表示,这些产品“比竞争对手领先很多年。”该分析师认为,“英伟达在AI软件方面的领导地位不仅具有里程碑意义,而且还在加速发展。”


您可能还会对下面的文章感兴趣:

登录 注册 退出