ChatGPT引爆AI赛道,入局者如何应对高算力需求难题?
飞象网讯 近日,ChatGPT横空出世,上线即引爆全球,仅2个月用户就破亿,成为用户增长速度最快的消费级应用程序。那么,到底什么是ChatGPT?它的大热对AI领域将产生什么影响?行业后来者在推出类ChatGPT产品时要面临哪些难题呢?
ChatGPT究竟是什么?
ChatGPT是由美国人工智能研究实验室OpenAI发布的人工智能技术驱动的自然语言处理工具,是基于ChatGPT模型包装的问答SaaS服务。它拥有语言理解和文本生成能力,能通过学习和理解人类的语言进行对话,还能根据聊天的上下文进行互动,甚至能完成撰写邮件、论文、代码等任务。
AI赛道玩家要面临哪些难题?
人工智能的细分领域均围绕算法、算力、数据方向展开,ChatGPT的惊艳表现也正是得益于强大的算力和新颖的算法的强力支撑。相关数据显示,ChatGPT的总算力消耗约为每天3640P,以国内一个投资超30亿、算力500P的数据中心为例,想确保ChatGPT的正常运行,需要7-8个这样的数据中心同时支撑。
同时,保证ChatGPT运行的算力需求投入成本也是巨大的。ChatGPT需要基于大量模型训练,其大模型GPT经历了三次迭代,参数量一度从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,训练的单次成本就高达460万美元,整体运行所需的投入更是以百亿计。
ChatGPT的出圈走红,使国内众多科技公司摩拳擦掌,也进一步增加了对ChatGPT所使用的AIGC技术在数据、算法、算力、内容生成、线上部署等方面的需求。但规模如此庞大的算力需求、投入成本,以及平台技术与运维管理的高难度,却不是随便一家科技公司可以支撑与满足的。
联通云AI算力平台引领新算力时代
面对ChatGPT爆红掀起的AI应用推广热潮,各科技大厂也陆续宣布跟进发布类ChatGPT的AI应用。而更快地打造下一个AI“爆款”应用,离不开一个能快速上手并获取弹性算力资源的开发平台。
作为云计算国家队、数字化转型算力引擎,联通云早在2022年就洞察到了这一发展趋势,升级联通云7版本,率先完成新一代算力平台的研发,推出AI算力平台,为科技领域客户提供从满足AI开发全流程需求、降低智能算力建设成本、算力集群支持,到云边端深度融合的全栈解决方案。
联通云AI算力平台是基于联通云“云原生+虚拟化”双引擎基座打造的一站式AI工作流管理平台,支持数据集管理、训练任务管理和推理任务管理等功能模块,兼容支持多种深度学习算法框架,满足AI应用的全流程开发需求。同时提供弹性的GPU算力资源,开箱即用;客户无需预置智能算力资产、搭建和维护平台环境,实现以云的使用方式轻松获取昂贵的智能算力资源和服务。
联通云智能算力普惠各行各业
以目前智算中心建设的标准,在不考虑机房、运维、平台开发等成本的基础下,每100P(FP16)的智能算力的建设成本约为1.5亿,这意味着如果客户需要获取1P(FP16)的智能算力,需要一次性投入超150万的成本。而联通云提供的智能算力,配套一站式开发平台服务,获取1P(FP16)智能算力只需要每月5万的投入,极大地降低了智能算力的获取门槛,将智能算力普惠到各行各业。
因此,联通云AI算力平台不仅满足AI开发全流程,还帮客户解决了成本高、搭建难的问题。面对AI作为核心驱动力为各行各业带来的巨大转变,联通云在这一契机下帮行业客户实现了智慧化转型,以大规模、低时延、高性能的AI算力,助力远程驾驶、数字金融、智能制造、智慧城市、数字孪生等领域客户的业务发展。
同时,AI应用的训练并非唯一需要大规模算力的地方,AI应用的发布上线也需要庞大的算力支持。训练所需的算力是大规模的和高性能的,而应用部署需要的算力则是分布式和低时延的。
联通云以打造“云-边-端”一体的AI算力平台为目标,联通云7版本对算网融合服务进行了升级,实现云边端的深度协同。联通云AI算力平台联动自身的分布式容器服务,将训练好的AI应用服务一键下发到全国200个地市资源池上,为模型提供全国各地超200万核的推理算力,将联通云“一市一池”的资源优势赋能给客户的AI应用,用更低的时延提升AI应用的访问体验。“云-边-端”一体的AI算力平台,也正是联通云对“算力网络”中智能算力的部署和实践,将智能算力赋能于车联网、安防、云游戏、元宇宙等应用场景。
算力已成为数字经济时代的关键生产力要素,联通云将持续打造性能极致的AI基础软硬件平台,夯实算力底座,赋能千行百业,促进各行业数智化转型升级,共创算力数智新时代。(撰稿 杨淼 付心怡)