串联数千个Nvidia GPU,微软打造ChatGPT的超级计算机
微软斥资数亿美元打造一台大型超级计算机,串联数千个Nvidia GPU,为OpenAI的聊天机器人ChatGPT提供运算动力。
微软2019年向OpenAI投资10亿美元起,同意为这家AI创业公司构建一台大型超级计算机。它将数千个Nvidia A100 GPU和Azure云计算平台串联在一起,这些GPU用于高性能计算,以NVIDIA Quantum InfiniBand架构为基础,能以高吞吐量、低延迟网络连接在一起。这让OpenAI训练AI模型能获取大量数据并学习参数,开发具AI功能的新工具如ChatGPT。
利用OpenAI训练AI模型的同一套资源,微软也用来训练自己的大型AI模型,包括上个月推出的新版Bing搜索引擎。如此一来,任何想要训练大型AI模型的企业能以同一套资源操作、改进,Azure成为能够广泛应用的AI云。
“微软在OpenAI的项目上可能花费数亿美元”,负责云计算和AI业务的微软副总裁Scott Guthrie向《彭博社》透露,虽然这对于近期延长对OpenAI多年、数十亿美元投资的微软来说,似乎是九牛一毛,而微软就是愿意在AI领域砸钱投资。
此外,微软13日也为Azure宣布功能强大且能大规模扩展的虚拟机,集成最新的NVIDIA H100 Tensor核心GPU和NVIDIA Quantum 2 InfiniBand架构,可以根据客户的AI任务规模进行扩展。微软指出,这允许OpenAI和其他依赖Azure的公司训练更大、更复杂的AI模型,并加速推出生成式AI应用。
微软亲手构建大型超级计算机为ChatGPT提供AI运算动力,更能将计算资源以定制化方式提供不同客户运用,扩大Azure AI云的应用范畴。
(首图来源:微软)