半导体最复杂的投资时代来临,ChatGPT会再次强化Chiplet的逻辑
2023年Q1开始,半导体最复杂的投资时代来临了,踏准节奏,能很快10倍,踏不准节奏,可能刀山火海,2023年会是一个科技大年,敬请期待!友情提示,没有手艺的勿入。
提示一下,找细分机会,设备的弹性目前已经基本差不多了,材料还有,设计公司要看下游行业的发展和产品的接受度,另外就是新技术的突破或者替代性。算力时代来临,会间接带动不少细分的。
之前一篇文章写了CPO,CPO光芯片和光模块的结合,提高传输速度,只是提高高算力下的传输速度,仅仅是海量数据AI处理和智能模型运算的一方面,CPO不是提高运算能力,运算能力还是需要浮点计算能力,还是得看CPU GPU NPU。
ChatGPT会再次强化Chiplet的逻辑
我认为,在半导体行业中,ChatGPT的风靡所带动的算力需求,再一次加强了Chiplet的逻辑。
1. 构建 OpenAI 的 GPT 模型需要大量的计算资源和数据。具体而言,GPT-3 是一个多层的 Transformer 模型,拥有 175 层和超过 10^11 的参数。
2. 模型的训练需要数以千计的GPU或TPU芯片的运算能力,以及几十个 TB 的硬盘存储空间。根据 OpenAI 的官方数据,GPT-3 的训练耗费了数千万美元的成本,以及数月的时间。
3.由于GPT-3模型非常庞大,其训练所需的时间和资源是非常巨大的。单单以RTX3090的算力,完成GPT-3模型的训练仍然是非常困难的。必须应用专业加速卡。在实际应用中,OpenAI使用了大量的分布式硬件资源来完成GPT-3的训练。
4. ChatGPT表示,目前市面上高性能的GPU包括Nvidia的A100和Tesla V100,以及AMD的Instinct MI100等。这些GPU都具有高达几千TFLOPS的算力,以及数GB的显存容量,适合用于训练需要大量计算资源的深度学习模型。它虽然不肯公开它使用了那些型号的GPU来训练,但基于前文的GPU和TPU,以及最近的新闻,可以推测可能使用了最先进的英伟达H100(GPU)和谷歌的张量计算单元(TPU)。
这些,美西方国家肯卖给我们吗?
2022年8月,英伟达和AMD被告知停止向中国出口部分高性能GPU芯片,其中包括英伟达A100芯片、H100芯片以及AMD M1250芯片等多款高性能显卡。
10月,美国对我国出口芯片产品的限制以算力做划分,4800TOPS以上算力受到限制。AMD的MI100/MI200和英伟达的H100都已经暂停向我国出口。英伟达A100暂时逃过一劫。
欧盟内部市场执行委员布雷顿表示:“我们完全同意剥夺中国最先进芯片的策略,我们不能让中国获得最先进的技术。在限制中国获得微芯片、量子计算和人工智能等技术方面,欧盟和美国有非常强烈的一致性。”
在国内,由于没有同性能的替代品,几乎所有的云服务提供商和超算都采用英伟达的芯片来支持其AI计算,包括BAT在内的众多科技公司和科研院所都是英伟达的客户。
国内的ChatGPT,在算法、高质量数据集、算力都还有一定差距,前两者还好,后者算力的基础在于高性能的运算芯片。这部分,从消费电子到5G基站,到ChatGPT,我们一直被老美卡得死死的。
对于人工智能来说,算力的规模极大地影响了模型训练迭代的效率,其中,高性能的计算集群则是形成算力规模的关键。美国对于我国芯片的限制一直是那三点,一,限制制程发展,不给造先进制程芯片。二,限制人才交流,不造你也不能研究。三,算力线以上的高性能芯片不出口中国,无法形成算力规模优势。
现在,一场关于算力的AI军备竞赛已经开始了。
近几年,AI 模型的参数正呈指数级增长,参数量从几十上百亿发展到了破万亿。“训练这些巨型模型仍然需要几个月的时间,减少这种训练时间的一个关键是数据中心中的 GPU 质量,”英伟达产品管理高级总监帕雷什·卡里亚(Paresh Kharya)说,“新的 Hopper 架构将有助于改善这些困难,而且,H100 上的 Transformer 模型的训练速度比上一代芯片快 6 倍。”
可以说,中国能不能诞生出自己的ChatGPT,中文世界的ChatGPT是否能赶上国外的水平,除了高质量的数据集,最重要是看能不能造出自主可控的高性能运算芯片,形成自身的算力优势。
目前,国内壁仞科技推出首款面向云端人工智能(AI)训练及推理的7nm通用GPU算力产品BR100系列,应用了Chiplet,使其旗舰产品的峰值算力超过了英伟达目前在售的旗舰计算产品A100 GPU的3倍,达到了国际领先水平。不久美国要求台积电禁止代工,后来壁仞据理力争,证明了 BR100 在美国限制线以下,所以仍然可以生产。
但未来,英伟达和AMD停止向我国出售最新一代的加速卡已经是板上钉钉,国内无法制造先进制程的加速卡产品,成熟制程即使不够用必须担起重任。
在此逻辑下,扩大晶体管密度和规模的办法只有一个,那就是在没有严格的功耗限制下拼命叠Chiplet,与此同时等待国内先进制程的突破,两者配合提高性能。
Chiplet技术:中国算力的希望
未来,是一个算力为赢的时代。半导体先进制程面临物理极限,摩尔定律产生的经济效益边际逐渐失效,客户更多从系统层面,而非单纯从芯片角度提出产品需求。
以Chiplet为核心技术的异构堆叠,通过把大芯片分成面积更小的单元模块,选择最适合的半导体制程工艺,从而实现媲美乃至超越传统SOC的性能和各项表现。
例如当下席卷全球的AIGC对话模型需要大量的训练数据模型和算法,耗费大量的算力。
国内Chiplet主要规划采用什么制程?28nm堆叠能达到14nm性能吗?
目前阶段开始有同构集成。国际上已经有异构集成CPU+GPU+NPU的Chiplet,其他功能芯片则采用次先进工艺制程的芯粒,感存算一体属于3DIC的Chiplet这样的方案可以灵活堆出算力高达200tops。
以目前产业界的设计方案为例,如高速运动相机需要近100tops算力,又要小型化;自动驾驶根据场景不同从150t到2000t算力。同构或异构堆叠在硬件效率上可以做到内核数及效率成倍提升。
同构
异构
异构芯片堆叠之后的散热问题怎样?
发热主要是因为大规模数据搬运和运算。以前数据进来,要做大量的数据搬运,并且用相同的算力单元去处理它,效率特别低,就开始发热了。
Chiplet能更好的支持数据调度的算法,就是用最合适的单元去处理数据,处理数据的部分才发热,不产生多余的热量。以前大规模SOC是同构的,很难做到分类处理。
Chiplet是基于异构方案加上数据调度的算法,这样发热少且提高了运算的效率。异构堆叠包含了数据转换、传输、计算和内存使用,Chiplet能够更好地支持数据在传感、存储和计算芯片之间的调度和使用,最合适的单元去处理数据。异构堆叠加上数据调度的算法,能够提高运算的效率。
什么样的行业和产品应用会需要用到Chiplet设计?
应用很广泛,AI,智慧城市、自动驾驶、智慧家居中的服务机器人。
在市场和技术发展的早期,Chiplet的好处是在通用方案上关于客户的需求做堆叠。
比如新能源车的自动驾驶,需要OTA的更新,就是一个通用的平台。
算力可以不断堆叠,根据客户需求更新迭代软件。
Chiplet在高算力芯片的应用?
服务器芯片已经广泛使用了Chiplet。例如AMD 96核产品,就是12颗die,每颗8个核,都是6nm。而国内连7nm都没法做,只能做14nm。这样的高算力场景必须用Chiplet才能满足需求。
Chiplet两个方式,一个同构扩展,一个模块化。
同构:例如4个7nm,单颗算力30个tops,4个一堆120tops,是同构。最多4个,超过只有系统性能会急剧下降。模块化:4个7nm,中间一个IO Die是14nm,外接4个DDR,类似这里有AMD的Zen架构。
不同的模块不需要都用到先进制程,可以采用最合适的制程生产。芯片面积做小,高算力芯片做便宜。除了硬件算力,数据调度和内存使用是关键,核心是软件部分。目前是场景应用的软件比较难适配,方案比较重要。
根据芯原股份和Yole的数据,到2035年大部分的芯片交付将采用Chiplet。今年开始有两位数的CAGR的增长。
算力相关标的分析
我国发展ChatGPT的关键之一是算力,先进芯片被卡脖子,所以算力被卡脖子,无法形成算力优势。因此,自主可控的高性能计算芯片是未来发展ChatGPT乃至更多元的人工智能的绝对关键,通过Chiplet将是制造高性能计算芯片的最优解,对于我国的半导体现状来说也是唯一解。
对于世界而言,在先进制程不断逼近硅基芯片物理极限,摩尔定律放缓甚至失效的大背景下,Chiplet仍然能够延续摩尔定律,并且是解决芯片算力瓶颈的关键,目前相关产品已经陆续推出,将在数年内持续放量,未来值得期待,整理重点标的如下:
GPU:景嘉微,寒武纪-U
GPU IP:芯原股份-U(GPU IP占IP收入超30%)
CPU:海光信息,龙芯中科
FPGA:安路科技-U,紫光同创
Chiplet载板:兴森科技
PCB:沪电股份,胜宏科技,奥士康
我会在公众号:海涵财经每天更新最新的医疗新基建、一体化压铸、 汽车智能化,激光雷达,HUD,车规芯片,空气悬挂、L3级智能驾驶、PET铜箔,纳电池,800V高压,光伏HJT、TOPCON、钙钛矿、光伏XBC、BIPV、IGBT芯片、碳化硅SIC、CTP/CTC/CTB电池、4680电池、工业母机、海风柔直高压、新能源车高压快充、高镍三元、碳纤维、PET铝箔、PET铜箔、空气源热泵、新材料、中药创新药、中药配方颗粒、乡村振兴、锂矿、钒液流电池、钠离子电池、分布式储能、集中式储能、抗原检测等最新题材热点挖掘,未来属于高预期差的结构性市场,把握核心赛道以及个股的内在价值逻辑预期差才是根本所在。
先赞后看,养成习惯
免责声明:图片、数据来源于网络,转载仅用做交流学习,如有版权问题请联系作者删除