ChatGPT爆火背后:国产GPU芯片,与美国差距超过10年
2023年开年,全球AI领域最“出圈”的产品莫过于ChatGPT了。
作为一个具备问答、文章撰写等多重能力的对话式机器人,ChatGPT的强大“超能力”,让大家看到了未来AI的无限可能性。
所以目前不管是海外巨头,还是国内巨头,都在摩拳擦掌,纷纷想打造出自己的ChatGPT,特别是一些国内的厂商,更是希望自己借类似的产品,能够一飞冲天。
不过,在ChatGPT爆火背后,我们也要看清一个现实,那就是ChatGPT大量需要的GPU芯片,目前我们与美国或有10年差距。
表现上看,ChatGPT只是一个聊天机器,但背后是天量的训练数据与庞大的模型,而更背后的则是算力。
按照媒体的报道称,ChatGPT背后,至少购入了Nvidia一万张高端GPU显卡,另外还购入了至少28.5万个CPU。后续随着ChatGPT的扩容,以及基础模型的升级,需要的CPU、GPU会更多。
CPU大家都清楚的,目前intel、AMD称王,在个人PC市场,借助苹果Mac的影响,ARM攻下了13%左右的份额。而在服务器市场,ARM其实只攻下了一小块市场,不到5%。
而国产CPU,不管是在个人PC,还是在服务器市场,基本没什么竞争力,份额非常低,完全不是X86的对手。
而GPU市场,则表现更不好,全球基本上都被三大巨头垄断,这三大巨头分别是intel、amd、nvidia。
据机构的数据,从2021年的市场来看,这三大厂商占了全球98%以上的GPU市场,另外的所有厂商合计起来不到2%。
而从整体实力来看,美国凭借英伟达、AMD、英特尔三巨头霸占全球GPU芯片研发领域的主导地位,intel在集显方面领先,nvida则在独显方面领先。
而欧盟、日本、韩国靠着材料、设备、工艺等处于第二梯队,而以中国为代表的发展中国家还在努力追赶中,处于第三梯队,机构认为,中国与美国在GPU方面的差距,至少是10年以上。
目前,云计算、物联网、人工智能、5G等等真实、多样应用场景,对算力的要求越来越高,所以CPU、GPU的重要性越来越凸显,可以说是算力的增强真正驱动了数字经济的增长。
要想这些行业发展好,迫切需要不断提升CPU、GPU的性能,以实现高算力、强性能和低成本,如果这一块落后了,就很难在这些应用场景中真正领先。
所以,我们在CPU、GPU上必须努力,否则后续在类似的产品上,我们还会落后,而落后就人挨打,这个大家都懂的。