cha

ChatGPT“狂飙”赚吆喝,真赚钱还得看算力厂商

  作者 | 葛覃

  赚吆喝,不赚买卖,可能是ChatGPT目前最大的难题。

  这个由OpenAI用GPT-3 大模型制作的聊天机器人,在短时间内成为现象级产品火爆全球,热度远远超过人工智能产业之外,它被学生用来写论文(后被学校禁止),被微软用来彻底改变搜索引擎Bing,被用来完成法律资格考试,等等用途,不一而足,俨然成为时代新宠。

  然而,ChatGPT还处于行业发展的早期,大家惊讶于其意料之外的效果,资本市场对“ChatGPT”概念估值水涨船高,人工智能产业对ChatGPT充满期待,但是ChatGPT本身的价值尚待兑现,这也是产业集体躁动想要找寻的答案。

  从另一方面看,ChatGPT是人工智能产业的一环,历次人工智能高潮中,有一类厂商稳稳赚钱,而且还赚得盆满钵满,他们就是以芯片、服务器和云服务商等为代表的算力厂商,其中又以英伟达为最。

  有多少“ChatGPT”,就有成倍的算力需求

  “ChatGPT崩了”。当ChatGPT风靡全球之后,便经常出现这样的抱怨,有限的算力无法应对海量的并发,OpenAI也不可能无限储备算力资源,“崩了”也就成为经常性事件。

  随后OpenAI 宣布推出付费版本 ChatGPT Plus,每月收费20美元,与免费版本相比,付费版本提供了高峰时段优先访问通道,更快的响应时间,以及优先使用新功能,当下仅限于美国地区用户。

  20美元乘以ChatGPT潜在付费用户数,是一笔不小的收益,业内人士认为,OpenAI 收费是为了缓解算力负担和收回部分成本的双重考虑。

  据FierceElectronics报道,ChatGPT使用了一万块GPU 进行训练,自从它获得公众关注以来,该系统一直不堪重负,无法满足庞大用户群的需求。

  训练大型语言模型 (LLM) 时,通常需要考虑两组成本,一是训练成本,有行业人士测算,在公有云中训练GPT-3“仅”需花费约140万美元,比起传统自己采买硬件服务器来训练已经省下不少钱。即使是像PaLM这样最先进的模型也只需花费约1120万美元,对于国内想要从零开始研究ChatGPT的公司来说,训练成本就足以淘汰掉大部分入局者。

  二是推理成本,据估算,单个答案的成本需要1美分,运行ChatGPT的成本要综合其使用次数,规模越大花费的成本也呈指数级别上升。譬如谷歌如果要把每一次查询都融入ChatGPT,那就是一笔远超训练成本的天文数字。

  中国信通院云计算与大数据研究所所长何宝宏接受媒体采访时表示,ChatGPT训练一次成本约为460万美元,此外,ChatGPT运营成本高昂,若按照百万级别用户量计算,每月运行成本约为300万美元。

  外媒指出,如果将类似于 ChatGPT 的 LLM (大型语言模型)部署到谷歌全量搜索中,这意味着谷歌的 300 亿美元利润将直接转移到算力厂商手中。

  值得一提的是,随着时间推移,大模型的训练和推理成本下降很快,在GPT-3发布的两年半时间里,大模型的训练和推理成本就大约下降了约80%,这也是目前OpenAI等公司努力的方向。

  英伟达首当其冲,算力厂商的一次集体狂欢

  姑且不论ChatGPT能造就多少家上市公司,产生多少价值,算力公司始终稳赚不赔。

  英伟达CEO黄仁勋将ChatGPT称为人工智能的 「iPhone时刻」,并表示ChatGPT基本上实现了计算的民主化,称这是人工智能和计算行业有史以来最伟大的事情。

  英伟达当然有理由这么说,毕竟英伟达是AIGC产业链目前最受益的厂商之一,近期英伟达股票就上涨了40%左右,短期内英伟达GPU已经供不应求。Nvidia 控制着 90% 以上的数据中心 GPU 市场,其余大部分由 AMD掌握。

  用于训练和运行 ChatGPT 的特定硬件和供应商可能会因实施而异,目前基本上全部运行在英伟达GPU 上,除了硬件性能之外,英伟达CUDA(并行计算平台和编程模型) 被广泛用于深度学习,能够实现更高的性价比,也是英伟达受青睐的原因。

  此外,AWS、GCP 和 Azure 等一些云计算平台提供了训练和运行大型深度学习模型(如 ChatGPT)的基础设施。

  摩尔学院院长李丰也表示,芯片厂商可能是吃到AIGC这一波大红利的厂商。因为他们是基础设施的提供者,几乎所有的AIGC算力,现在都是GPU在提供,尤其是在训练方面。另外一类,比如说云厂商,同样作为基础设施提供者,会推出大量的GPU云,以降低GPU部署的门槛。相对产业链其他厂商来说,这两类厂商商业模式比较清晰。

  一些服务器厂商的GPU算力也被抢购一空。据了解,截止2月12日,曙光智算公司提供用于AI训练与推理计算的试用资源,在开放使用后一周内已被抢注一空,通常情况下,这些计算资源要三个月左右才能被用户注册并使用。目前,曙光智算正协调多个计算中心,提供更多算力资源满足用户需求。

  也有服务器厂商紧抓机会谋求新的利益点,浪潮信息推出了AI算力服务产品,包括支持国际和国内4种AI算力产品、经“源”清洗验证过的语言或多模态的大模型数据集的2种数据产品、由浪潮“源”专家团队提供的语言或多模态的大模型训练支持的2种算法产品以及AI训练推理资源管理调度的1种平台产品,显然也是不希望仅仅靠算力中间商身份,赚取薄薄的一层差价。

  硬件或成人工智能产业瓶颈

  计算能力正在成为人工智能发展的瓶颈,ChatGPT以及其背后的大模型火热,加剧了这一矛盾。

  百度昆仑芯方面对外表示,以ChatGPT为代表的大模型应用是AI发展过程中出现的新的关键场景。就大模型而言,昆仑芯在产品定义上已经做了布局,昆仑芯2代芯片相较第一代产品大幅优化了算力、互联和通用性,在百度内外部的大模型场景中都有切实的落地,而在研的下一代产品将提供更佳的性能体验。

  算力、互联和通用性也是人工智能算力的三大典型问题。

  此前用于AI训练的算力增长符合摩尔定律,大约每20个月翻一番;深度学习的出现加速了性能的扩展,用于AI训练的算力大约每6个月翻一番;而目前大规模模型出现,其训练算力是原来的10到100倍。

  即便GPU算力也不可能实现这么快速的增长,增加数量并行计算是通用的解决方法,而并行计算有其局限性,当GPU超过一定数量规模,每个GPU的批处理变得太小,增加数量也就没有太大效果,而且成本会继续增加。

  互联也是大问题, GPU和系统之间的互联速度不够快。在一个 GPU 上训练了一个数据子集后,将数据返回、共享并在所有 GPU 上进行另一次训练,这会占用大量网络带宽并耗费 GPU的算力。

  在这场算力狂欢中,国内AI芯片厂商的存在感较弱,他们的芯片通用性不强是原因之一,人工智能的训练、推理,科学计算和仿真,以及难以预期的复杂AI新业务,英伟达GPU的通用性较好,国产GPU能够在一些特定领域实现不错的水平,但通过通用性带来的规模和生态效应,要显著落后于英伟达。

  算力厂商收割了ChatGPT的第一波红利,在可预期的未来,ChatGPT和人工智能产业愈是火爆,算力厂商也就愈发站在行业发展的上风处。

  The End


您可能还会对下面的文章感兴趣:

登录 注册 退出