cha

中国智能计算产业联盟秘书长安静:火爆全球的ChatGPT离不开算力算法支撑

  文/安静

  全球火热的ChatGPT引爆了“人工智能+”,它对未来更多不规则、非线性、复杂场景大数据运算及边缘计算软硬件整合提出了新要求,从而导致芯片和算法的关系逐步走向相互定制融合。研究学者很早就提出,人工智能三大要素:主要包括数据,算法,以及算力。ChatGPT引爆“人工智能+”火爆程度引人注目的同时,也催生了对算力基础设施建设的更高要求,很多企业都在更新对于未来算力预期所对应的基础设施预算。我国《新型数据中心发展三年行动计划(2021-2023年)》对算力和服务器性能的提升都提出了具体的要求。

  中国智能计算产业联盟秘书长安静

  高性能计算成为ChatGPT发展基石

  深度学习算法需要高性能的芯片支持,这也给国内的AI芯片设计带来新的推动力。实际上,ChatGPT并非技术的颠覆式创新,但该应用为何如此“出圈”?归根结底,是支撑这套人工智能技术训练语言模型的底层技术正变得越来越成熟,能够通过对话,交互的方式让普通人和人工智能产生沟通,进而发现、了解到人工智能已经如此出色,从而引发持续话题关注。

  在理论层面,要完成如ChatGPT乃至更高级的人机交互,背后需要对来自互联网的大量信息和数据的分析及训练,这首先需要云计算基础设施作为算力底座;其次,云计算数据中心还需要包括服务器、芯片、光模块等硬件的支持,这其中AI芯片则是算力最重要的硬件基石之一。

  催热算力与存储需求

  除了AI芯片之外,算力是ChatGPT正常运行的基础支撑,是AI模型的发动机。深度学习算法需要大规模的计算和存储资源,这需要庞大的数据中心设施来支持。目前中国的数据中心设施数量和规模正在稳步提升,满足深度学习算法需要提供更高的算力存储基础设施。

  人工智能是数据的消耗大户,对存储有针对性的需求。人工智能训练需要访问海量存储文件,训练模型的精准程度依赖于数据集的大小。样本数据集越大,就为模型更精确提供了数据基础。通常,训练任务需要的文件数量都在几亿,十几亿的量级,对存储的要求是能够承载几十亿甚至上百亿的文件数量。

  海量数据存储,需要多个硬盘数据的堆积,同时也意味着硬盘需要更低的功耗,能够显著降低集群硬盘的发热量,另一方面,低功耗带来更低的电力成本。新算力基于云计算的智能AI业务,对于实时响应有着更高需求,这就意味着在整个业务链条上,对存储需求提出更高性能,高效的整合、传递数据,以满足全业务的快速响应。

  智能算力需求旺盛 算力需求未来可期

  ChatGPT对算力的要求主要还是聚焦在智能算力上,在这方面我国近年来已经取得了不错的成绩,未来在新的应用需求推动下,智能算力需求将持续增加。目前我国AI服务器市场增速较快,算力市场也保持持续增长。AI服务器方面,2022年全年中国AI服务器市场规模达350.3亿元,同比增长68.6%。

  算力方面, 2022年我国计算设备算力总规模达到202 EFlops,增速约50%,高于全球增速。新算力时代已经到来,算力将是未来拉动数字经济镶嵌发展的新动能,新引擎。另一方面,算力正在成为影响国家综合治理和国际话语权的关键要素,国与国的核心竞争力正在聚焦于以计算速度,计算方法,通信能力,存储能力为代表的算力,未来谁能掌握先进的算力,谁就能掌握了发展的主动权,不用介意未来是AI的世界,还是人机结合的世界,未来一定是算力为王的世界。


您可能还会对下面的文章感兴趣:

登录 注册 退出