2024年中国半导体投资深度分析与展望

市场表现

2023年全球经济减速、终端消费疲软,“去库存”成为半导体产业2023年至今的主旋律。A股33家有代表性的半导体设计公司的库存中位数从2023年Q1的9.5个月峰值回落到2024年Q1的6.7个月,库存逐步回归合理水平。2023年半导体上市公司市值持续波动,2024年Q1伴随AI等新应用落地和下游需求缓慢复苏,半导体市值逐步回归,半导体行业走出低谷,正式步入周期上行通道。

2023年半导体行业投资进一步收紧,据企名片数据,2023年半导体行业完成约650起投融资交易,融资规模约545.6亿元人民币。2024年Q1融资数量及金额同环比均下降,剔除长鑫科技108亿元大额融资极值影响,共计完成融资52.81亿元人民币,同比下降24%。

AI大模型在2023年飞速发展,截止2023年底国内大模型已经超过300个,拥有10亿参数规模以上大模型的厂商及高校院所超过250家,AI大模型已成为推动国内半导体行业成长的重要动力。与此同时,大模型参数量及训练数据量的指数级增长对算力、存力和运力提出更高要求,先进封装作为后摩尔时代提升芯片性能的重要手段,受益于AI大模型迎来发展机遇,需求大幅增加,产能持续紧张。

2023年美日荷联手加大对中国先进制程设备及先进计算芯片的出口管制,试图阻止中国先进制程芯片的崛起。7月,日本针对23个品类半导体制造设备实施出口管制省令正式生效,涉及清洗、薄膜沉积、热处理、光刻、刻蚀、测试设备;9月,荷兰政府宣布自2024年1月起,阿斯麦向中国大陆客户销售先进型号的浸没式DUV需获得许可;10月,美国商务部工业安全局发布新的先进计算芯片、半导体制造设备出口管制规则,并将壁仞科技、摩尔线程列入实体清单;2024年4月,美国对华半导体出口管制新规生效,新增管制EUV掩膜基板、更新中国澳门等特地地区出口政策、明确技术关键参数、补充整机产品限制并增加逐案审查政策。

总结来看,2024年半导体投资要关注三个热点:

AI硬件基础设施,AI大模型及其应用的发展需要算力、存力、运力、功率半导体的强力支撑;

先进封装,先进封装技术将深度受益于AI领域算力芯片的旺盛需求,将实现高速增长;

半导体制造、设备与材料,国际形势加剧恶化,半导体管制范围不断扩大,国内半导体产业强链、补链需求迫在眉睫。

AI硬件基础设施篇

(一)算力

AI大模型正在向多模态支持、拓宽上下文长度等方向深层次发展,对算力需求呈指数级增长,如何进行大规模数据的高效处理和存储是当前算力设施面临的两大挑战。

2024年3月英伟达发布GB200,该芯片由2个B200和1个Grace CPU合封而成,大大提升AI场景CPU价值量占比。ARM架构服务器CPU得益于低功耗的特点,近年来越来越受到全球各大云服务厂商青睐,亚马逊、英伟达、微软、华为等大厂纷纷布局自研AI芯片+ARM服务器CPU方案,预计2025年ARM CPU在数据中心占比将提升至22%

2023年RISC-V在架构、生态、应用的发展远超预期。根据SHD的数据显示,RISC-V基金会在2023年底已有会员4037家,各大巨头包括Meta、谷歌、英特尔、高通、阿里、三星等纷纷投身其中,并将更多的注意力放在了RISC-V与AI的深度融合上。2023年至少有16家研发RISC-V芯片的国内创企获得新一轮融资,2023年RISC-V北美峰会预测在2030年RISC-V将占领各主流市场近30%的份额。

相较性能更为优异的DSA架构,GPU架构在通用性上的突出优势使其能快速兼容各类模型、场景,通过大规模落地量产平摊研发成本。此外,GPU架构于性能端也存在软件优化空间,CUDA平台已形成软件生态壁垒,助力AI各类场景应用硬件加速。2023年英伟达在全球AI服务器市场占有率达到65%,保持*的龙头地位。

2022年10月,美国商务部工业与安全局(BIS)公布了《对向中国出口的先进计算和半导体制造物项实施新的出口管制》,禁售了英伟达的高性能H100、A100芯片。为了应对政策制裁,英伟达推出了中国*版H800、A800芯片,在单卡算力不变的基础上削弱了卡间互联能力,阻碍多机多卡算力集群的构建。2023年10月美国商务部宣布禁令升级,*版H800、A800芯片成为历史,英伟达只好再次推出性能更低的A20、L20芯片,算力遭到大幅削减。在英伟达高性能芯片获取困难的背景下,国内高性能GPU芯片预计将长期处于供不应求阶段,因此我们认为国产GPU应首先解决有无问题,国产替代的投资机会预计将集中于硬件性能接近A100/H100,软件兼容CUDA生态的GPU芯片创业公司

AI实时、局部数据处理和推理任务主要在边缘侧,边缘AI芯片的优势在于保护数据安全、在网络连接差的场合仍然可用、降低功耗、低延迟数据传输、低成本部署等。混合式AI时代要求“云-边-端”紧密协同,从商用成熟的节奏上,云端模型训练和推理先行,然后是边缘端的算力升级,但是边缘端最终算力需求更大,带动缘AI芯片需求增长,并对其单位算力、功耗和成本提出更高要求。

当前计算能力与数据搬运之间的鸿沟以每年50%的速率扩大,大模型时代数据访存在整个计算周期里的占比达95%以上,“存储墙”问题亟待解决。存算一体是AI时代数据搬运最根本的解决方案,能大幅提升计算效率并降低功耗。受到AI旺盛需求拉动,存算一体将迎来商业化转折点,小算力和大算力场景先后爆发,预计2025/2030年基于存算一体技术的芯片市场规模将分别达到125/1,136亿元

(二)存力

存储芯片属于强周期行业,以3-4年为一个周期。2024年开始,下游智能手机、PC等市场的复苏以及AI技术的兴起拉动了对存储芯片的需求,存力需求逐步复苏,推动存储行业进入新一轮上行周期

在AI服务器市场,随着AI应用的快速发展,对高容量和高速存储的需求急剧增加,推动更高性能的DDR5市场渗透率进一步提升,预计2025年达到80%,HBM市场有望从58亿美元增长至近百亿美元,高性能产品驱动存储行业未来增长。

随着模型规模的不断飙升,海量数据的处理、访存对GPU计算单元、存储子系统提出更高的要求。对于GPU架构而言,算力单元堆叠已不是难事,单元数量、性能密度均随制程提升不断提高

当前GPU性能瓶颈为存储容量、带宽不足。大型模型训推中大部分时间都在等待数据到达计算资源,如何将数据高效的通过存储子系统供给算力单元成为性能提升方向。离计算单元越近,存储容量越小、访存带宽越高,数据传输越高效,目前突破存储子系统性能提升方向有三个:提高SRAM容量、提高DRAM带宽、提高SSD带宽

HBM通过将DRAM芯片层叠在一起,形成一个垂直的结构,具备高带宽、高容量、低延时和低功耗优势,能够突破内存容量与带宽瓶颈,目前已逐步成为AI服务器中GPU的搭载标配。英伟达推出的多款用于AI训练的芯片A100、H100和H200,都采用了HBM显存。

随着HBM需求的激增,产能紧张的问题也日益凸显。SK海力士、美光科技、三星等国际存储芯片大厂纷纷加大产能扩张力度。2024年伊始,SK海力士、美光已宣布HBM产能全部售罄。

全球存储芯片市场高度集中,中国存储器市场国产化率较低,传统存储器先进技术掌握在美国、韩国和日本手中。NAND Flash市场主要被三星、铠侠、闪迪、美光和海力士垄断,NOR Flash市场的国产化进程相对较快。

3D NAND 持续高堆叠,各大晶圆厂继续向300层更高堆叠产品推进,长江存储等国产厂商加速赶超。在3D NAND实现商业化并加速渗透背景下,NOR也在制程限制、密度要求以及降本需求等因素推动下走向3D,但仍处于起步阶段,存在国产方案的发展机遇

进入高性能计算时代,新兴应用场景推动新型存储市场增长,AI、智能汽车等新兴应用对数据存储在速度、功耗、容量、可靠性等层面提出了更高要求。新兴的存储技术旨在集成SRAM的开关速度和DRAM的高密度特性,并具有Flash的非易失特性,具备千亿市场空间。在ReRAM等新型存储器的发展上,中国与其他国家站在同一起跑线,有机会出现下一个三星和海力士。

(三)运力

AI大模型的持续快速迭代推动分布式AI集群算力几何式增长,目前大模型训练对算力的需求约每3个月翻1倍。但同时网络通信能力的增长显著滞后于算力,网络通信能力成为制约分布式AI集群的整体计算效率重要因素,大模型时代的AI基础设施亟需更高性能的网络互联芯片

网络互联主要包括服务器间通信互联和片间通信互联,交换机、光模块、PCIe Retimer、NVSwitch等都属于数据中心中网络互联器件,目前都在往更高数据传输速率方向演进。国外以英伟达、博通、Astera Labs等为代表的网络互联厂商都显著受益于AI发展的浪潮,国产中高端网络互联芯片仍较为稀缺,有待更多国产芯片供应商突破封锁垄断。

交换机作为各种类型网络终端互联互通的关键设备,广泛应用于消费级市场、企业级市场、工业市场和云服务商市场,在数据中心IT设备投入中,交换机价值量占比约为11%,2023年全球市场空间为461亿美金。随着AI算力需求的爆发,数据中心互联需求爆发,节点间每秒数据交换速率需求加倍增长,带动交换机需求增加和迭代升级。

交换芯片是交换机的核心部件之一,负责交换机底层数据包的交换转发。交换芯片由海外厂商*主导,2020年中国商用以太网交换芯片市场中CR3厂商均为境外品牌,大陆厂商盛科通信市占率为1.6%。中长期来看中高端交换芯片如以太网交换芯片仍有大量国产替代发展空间,国内初创企业大有可为。


行业新闻

距离开展 -
立即拨打电话