1、算力成为衡量国家实力关键指标,我国算力规模居全球第二。分为通算、智算、超算,分别由不同芯片及设备提供,满足基础、智能、超级计算需求。
2、算力国产化时代来临,服务器核心芯片国产化进程受关注,国产CPU取得进展,AI算力芯片国产化时机成熟。数字化的经济下算力体现在数字产业化和产业数字化,算力产业属生产制造业,形成中科院系、华为系、中电子系等体系。
3、ChatGPT发布后,AI大模型发展迅速,“大”算力刚需凸显。推理算力需求量开始上涨,模型日均Token量达数万亿,推理优化成关键,应用端扩张加速推理侧算力需求,预计2026年推理占比达62.2%。
4、主流存储芯片包括DRAM、NANDFlash等,市场规模大,行业垄断,中国厂商崛起,技术有进展但与国外有差距。模组厂商产业链协同,市场占有率有望提升。
在数字化浪潮汹涌、席卷全球的当下,算力俨然已跃升为衡量国家科学技术实力与经济发展的潜在能力的关键指标。人工智能技术日新月异,特别是大语言模型异军突起,让算力需求呈爆发式增长态势。
本文将深度剖析国产算力行业,从探究驱动其发展的因素,到探寻破局路径,再到解析产业链布局,全方位梳理行业发展的关键节点,并着重对相关企业的核心竞争力展开分析。通过对算力产业链的深度钻研,我们期望能为读者呈上有价值的参考,携手共同见证国产算力行业的崛起与蓬勃发展。
在数字化浪潮奔涌向前的当下,“算力即国力”已成为广泛共识,算力作为数字时代的新质生产力,正深刻重塑着社会持续健康发展的轨迹。算力,本质上是数据处理能力,其核心实现高度依赖中央处理器(CPU)、图形处理器(GPU)、专业集成电路(ASIC)等各类芯片。
这些芯片搭载于计算机、服务器、高性能计算集群以及各类智能终端之中,借助云计算、边缘计算等前沿技术,对海量数字应用和数据展开高效加工与处理。如今,算力已然跃升为推动社会进步的关键引擎,更是支撑国家发展、提升人民生活质量的重要基石。截至2023年末,我国算力总规模雄踞全球第二,彰显出强大的发展实力与潜力。
从功能维度剖析,算力可清晰划分为通算、智算、超算三大类别,分别对应基础计算、智能计算和超级计算这三种计算模式。
基础算力:由基于CPU芯片的服务器担当供给主力,主要服务于基础通用计算场景,像移动计算、物联网等领域皆为其用武之地。平常频繁提及的云计算、边缘计算等,均隶属于基础算力范畴。
智能算力:也就是AI算力,依托基于GPU(图像处理器)、FPGA(现场可编程逻辑门阵列)、ASIC(专用集成电路)等AI芯片构建的加速计算平台来提供。其核心应用聚焦于AI的训练与推理计算,例如语音识别、图像分析、视频处理等智能任务。
超算算力:由超级计算机等高性能计算集群全力输出,主要投身于尖端科学领域的复杂计算,诸如行星模拟、药物分子设计、基因分析等前沿科研项目。
当下,算力全面国产化的崭新时代已提前强势来临。服务器作为算力的基本承载平台,其核心部件CPU和GPU等计算芯片的国产化进程备受瞩目。历经多年技术深耕与市场磨砺,我国国产CPU成功跨越从“可用”迈向“好用”的关键阶段。随着新一轮AI算力升级浪潮汹涌袭来,加之国际局势风云变幻,AI算力芯片国产化的历史节点已然成熟。
从宏观视角洞察,数字化的经济语境下的算力主要呈现于两大维度。一方面,在数字产业化推进过程中,需投入资金布局相关硬件,搭建起数据处理、分析等功能完备的数据中心,用以生产能够很好的满足海量数据计算需求的算力服务。
另一方面,在产业数字化转型进程里,各实体产业生产环节的算力诉求亟待满足。实体公司制作部门的算力需求,既涵盖硬件层面,比如借助通用服务器、AI加速服务器、存储设备等硬件设施,由实体企业自主搭建数据中心,将算力融入生产流程;也囊括服务层面,例如通过租赁公有云、算法服务、数据服务等算力服务,实现生产数据的大规模存储与高效计算功能。
在国内,算力产业整体归属于生产制造业。经过长期发展沉淀,上下游厂商间往往存在紧密的股权关联或业务往来,逐步形成以下几大体系。中科院系构建起以海光为核心芯片,以中科曙光及ODM为主要整机厂的×86信创服务器体系,该体系具备出色的兼容性。
华为系则打造出以鲲鹏+昇腾为核心芯片,依托华为硬件生态合作伙伴(四川长虹、高新发展、宝德、超聚变、神州数码、烽火通信、拓维信息等)作为主要整机厂的Arm信创服务器体系,自主可控程度更为突出。中电子系构建了以飞腾为核心芯片,以中国长城为主要整机厂的Arm信创服务器体系,在自主可控方面同样表现卓越。
自ChatGPT于2022年11月发布以来,AI大模型在全世界内掀起了规模空前的人工智能浪潮。进入2023年,海外厂商的大模型持续引领行业发展,OpenAI发布了GPT-4,Meta则开源了Llama2等。与此同时,国内大模型也在不断迭代升级,目前顶尖模型的部分通用能力已逐步逼近世界顶尖水平。由于大模型在性能表现上显著优于小模型,并且提升模型参数量已成为重要的技术发展路线之一,因此能明确,“大”算力的刚需属性日益凸显。
算力需求的重心正逐渐向推理方向倾斜,主流模型的日均Token量已达数万亿级别。大模型所需的算力大致上可以分为训练端和推理端两个部分。从技术层面来看,推理阶段的优化已成为下一个关键发力点。OpenAI联合创始人IlyaSutskever指出,单纯依靠增加数据和计算能力来提升预训练模型效果的方式已趋近瓶颈。
当下,OpenAI在o1模型中采用了“测试时计算”(test-timecompute)技术,该技术允许模型在推理阶段进行多步推理,类似于人类的思考过程。其他AI厂商,如Anthropic、xAI和GoogleDeepMind等,也在积极开发类似技术,通过对推理阶段的优化来提升模型性能。从AI应用端的情况去看,随着大模型在应用侧的规模化部署,算力需求已明显向推理端转移。
在2024年12月18日举办的火山引擎FORCE大会上,火山引擎CEO谭待表示,截至目前,豆包大模型的日均tokens使用量超过4万亿,相较于5月发布时增长了超过33倍。tokens使用量直接反映了模型的广泛应用程度和市场需求,这表明大模型应用正加速向各行各业渗透。
自2024年9月至12月,豆包大模型在信息处理场景的调用量增长了39倍,客服与销售场景增长16倍,硬件终端场景增长13倍,AI工具场景增长9倍,学习教育等场景也均有大幅度增长。海外的AI应用同样呈现出加速扩张的态势,例如软件厂商SAP将生成式AI智能副驾Joule置于商业模式的核心位置;AppLovin推出AI广告引擎模型Axon2.0以提高广告匹配效率等。
AI应用端的大规模扩张将显著加速模型推理侧的算力需求。根据IDC此前的预测数据,云端推理在算力中所占的比重将逐步提升,预计到2026年,推理占比将达到62.2%,而训练占比为37.8%。
DeepSeek携三款创新模型强势进入市场,以卓越的成就掀起了行业变革的浪潮。2024年底之后,DeepSeek接连发布了V3、R1和Janus-Pro模型,这些模型在多项评测中表现出色,胜过主流开源模型,并且具有非常明显的成本优势。其中,V3模型通过创新架构提升了推理效率,降低了训练成本,同时性能卓越;R1模型专注于提升推理能力,在多个领域表现优异,其蒸馏模型也取得了良好效果;Janus-Pro模型则在架构、策略、数据和规模等方面做了改进,多模态与视觉生成能力突出。
DeepSeek的出现推动了AI大模型的成本降低,其低成本、高性能的表现有望推动大模型领域的革新,促使AI服务更加普及和实惠。这将吸引更多厂商入局推理端大模型的布局,进而提升后续AI模型的需求,加速AI应用的爆发。从长久来看,这或将大幅度的提高推理侧的算力需求,从而带动总算力需求的显著增长,为国产算力芯片带来新的发展机遇。目前,国内的10家云计算巨头以及12家独立云及智算企业均已部署接入DeepSeek大模型。
我国格外的重视AI在现代化产业体系发展中的及其重要的作用,自上而下出台了一系列政策,全力支持算力基础设施建设。在此背景下,地方政府也将改变以往“各自为战”的模式,积极投身于智算中心的投资建设,这将加速算力国产化的进程。
2023年10月,工信部等六部门联合发布了《算力基础设施高水平质量的发展行动计划》,明白准确地提出到2025年,全国算力目标要超过300EFLOPS,其中智能算力(智算)目标为105EFLOPS,占比35%。2023年12月,发改委等五部门发布的《关于深入实施“东数西算”工程加快构建全国一体化算力网的实施建议》指出,“到2025年底,要初步构建普惠易用、绿色安全的综合算力基础设施体系,逐步完善东西部算力协同调度机制,加速集聚通用算力、智能算力、超级算力等多元算力”。
在地方层面,支持国产算力发展的政策频繁出台。多地先后印发算力发展规划,这些举措对于提升我国在全球算力竞争中的地位、推动数字化的经济与实体经济的深层次地融合、实现经济社会的高水平质量的发展具有重大意义。
在财政方面,2025年1月10日,财政部副部长廖岷表示,积极的财政政策在未来值得期待。2025年财政政策方向明确,既最大限度地考虑了加大逆周期调节的需求,展现出积极的态度;同时,也兼顾了财政中长期的可持续性。此外,围绕加快发展新质生产力,财政将加大对教育人才、科技攻关、乡村振兴、绿色低碳等领域的支持力度。在应对国际国内形势变化时,将密切跟踪,适时进行科学设计和动态调整,梯次推出政策“后手”,为经济社会持续健康发展提供有力支撑。自主可控、人工智能、国产算力等作为新质生产力的重要方向,未来有望获得更多的政策支持。
在全球科技竞争日益激烈的当下,自主可控的重要性愈发凸显。随着AI技术的迅猛发展,其对于多元异构算力的需求呈爆发式增长,这为AI芯片市场带来了前所未有的机遇。AI的繁荣发展极大地拉动了GPGPU、TPU、NPU等各类AI芯片的需求。近年来,中国国产AI芯片产业取得了令人瞩目的进展,国内大模型的蓬勃发展更是为国产替代注入了新的强劲动力。
国内涌现出一批领先的AI芯片厂商,如华为海思、寒武纪、海光信息、壁仞科技、燧原科技、沐曦集成电路、摩尔线程、天数智芯等。这一些企业的部分旗舰产品在算力性能上已逐步接近甚至对标国际顶尖水平。
华为推出的高性能AI处理器昇腾310和910非常关注。昇腾310具备高能效、灵活可编程的特性。在典型配置下,其半精度(FP16)算力可达16TFLOPS,整数精度(INT8)算力为8TOPS,而功耗仅8W。
该芯片采用华为自研的达芬奇架构,集成了丰富的计算单元,极大地提升了AI计算的完备度与效率,进而拓宽了芯片的应用场景范围。它能够加速全AI业务流程,明显提升AI全系统性能,大大降低部署成本。昇腾910则是业界算力最为强劲的AI处理器,基于自研的达芬奇架构3DCube技术,实现了业界领先的AI性能与能效,其架构具备灵活伸缩性,支持云边端全栈全场景应用。
与以往“国内算力芯片厂商与英伟达激烈竞争,国产算力逐步渗透”的发展模式不同,当前国内算力的底层驱动模式已转变为“在国家引导下进行超前算力建设,在较为完善的算力基础设施上培育算力产业生态”。
运营商在云市场的份额不断攀升,大模型时代下正加速向智能云演进。天翼云稳居国内第三大云商之位,移动云超越AWS,首次跻身国内TOP5云商行列,份额持续增长。此外,大模型驱动的高频次算力需求给云计算产业带来了变革,要求云服务商具备强大的异构计算服务能力和海量存储空间,因此运营商云向智能云演进成为必然趋势。
通信产业网多个方面数据显示,通信行业资本开支进入下行期,但结构上向算力倾斜。2024年,三大运营商投资总额为3340亿元,同比下降5.4%,这是自2018年以来的首次下降,预计2025年将稳中略降,总投资规模可能在3200亿元左右。从结构上看,运营商投资向算力方向倾斜,算力投入保持适度超前。2024年,中国移动算力开支达475亿元,增长21.5%,中国电信云/算力资本预算为180亿元,中国联通算网数智投资适度超前并加快布局。2025年,运营商将继续加大AI智算投入,如构建万卡智算集群、扩大400G算力网络覆盖、加速AI大模型训练迭代等,总投资规模可能超过千亿元,占资本开支总额的三分之一。
地方智算中心加速落地,有力推动国产算力发展。各省对智算建设规划明确,算力规模、算网能力、能耗指标将持续提升。各省市对于智能算力建设的规划更加清晰,不仅明确了具体的算力规模,还在网络时延、利用率以及能耗指标等方面给出了详细规划。
四部门联合印发的《数据中心绿色低碳发展专项计划》明确了新建及改扩建数据中心的服务器能效要求。该计划要求新建及改扩建数据中心的服务器应采用节能水平及以上的服务器产品,这有望引导算力芯片的发展趋势,国产算力芯片有望从中受益。
在AI蒸蒸日上的新时代,算力体系中的计算(涵盖GPU、HBM、服务器等)、传输(包含网络连接、交换机等)、存储(涉及存储服务器、NAND、SSD控制芯片等)环节,均成为支撑AI发展的核心支柱,重要性不分伯仲。对于国产算力而言,要在全球竞争中崭露头角,必须从系统架构的宏观视角进行谋划。
从芯片研发的芯侧,到设备应用的端侧,再到集群部署的群侧,每个层面都潜藏着巨大的优化空间与实现弯道超车的可能性,特别是先进封装3DIC、AI存储等前沿领域,已成为实现突破的关键赛道。在国内科技公司方阵中,华为以其卓越的技术前瞻性与深厚的研发底蕴,走在行业前列,也最早遭遇技术瓶颈的挑战。而华为在翻越这些科技壁垒过程中所构建的系统性解决方案,无疑为中国科技发展提供了极具价值的参考范式。
随着半导体技术的演进,摩尔定律逐渐逼近极限。芯片算力与晶体管数量紧密相关,可简化为晶体管密度与芯片面积的乘积。但当下,晶体管密度增长步伐趋缓,同时受最大光刻面积(reticlelimit)制约,单芯片面积难以无限制扩大。当芯片面积超858mm²时,单次光刻无法覆盖整片芯片,需多次拼接曝光,这极大提升了工艺难度,致使芯片良率显著下降。在此背景下,单纯依靠传统摩尔定律已难以提升芯片性能,先进封装技术,如Chiplet、3DIC等,成为延续芯片性能提升的关键路径。
3DIC技术作为新型集成电路技术,将多个芯片垂直堆叠并实现互联。相较于传统二维封装,其最大优点是能在芯片横向面积不变的情况下,提升整体晶体管密度。同时,TSV通孔缩短了互连距离,实现了更快的数据传输速度与更高的互连密度。
目前,台积电、英特尔、三星等国际半导体巨头纷纷布局3D封装产线,并推出一系列相关这类的产品,如AMD3DV-Cache、Mi300算力芯片、英特尔MeteorLake系列CPU以及高带宽存储(HBM)等。随着算力需求与摩尔定律失效之间的矛盾日益尖锐,未来有望涌现更多采用3D封装的创新产品,例如SRAMonCPU/GPU形式的手机或算力芯片。
在AI迅猛发展的推动下,硅光集成凭借高速率、低功耗特性,有望成为数据中心互连的重要解决方案。当前数据中心组网多采用高速铜缆或光模块,但前者存在信号损失,仅适用于短距传输;后者因转换环节多,能耗较高。而光学共封装可实现信号无损高效传输,它将光学引擎与芯片直接集成在载板或硅中介板上,大幅度降低电子传输能耗。博通近期推出的3.5DXDSiP平台,作为业界首个3.5D面对面(Face-to-Face,F2F)封装技术,采用台积电CoWoS-L封装技术,提供约5.5倍光罩尺寸的封装面积,达4,719平方毫米,可整合逻辑IC、最多12个HBM3/HBM4堆叠及其他I/O芯片。这种大面积芯片封装方案,极大提高了系统集成度,配合创新互连方案,提升了片内互连带宽与能效,成为未来高性能处理器发展的重要方向。
全球范围内,受摩尔定律放缓影响,芯片算力提升受限,而国内由于先进制程技术瓶颈,芯片迭代更是困难重重。未来大规模集群发展,不再单纯依赖先进算力芯片,而是需要计算、传输、存储等多方面协同共进,通过提升整个算力系统的综合性能,以满足AI快速地增长的需求。英伟达AI产品已覆盖计算芯片及各类连接芯片(NVLink、Switch芯片、网卡芯片等),华为同样积极布局,推出计算(昇腾&Atlas)、传输(星河网络)、存储(Oceanstor)三大领域系列新产品,致力于为客户提供全方位AI解决方案。
HPC通过高性能网络将大量服务器与存储设备互联,构建大规模计算集群,各计算节点协同并行处理子任务。完整的HPC组网架构包括管理区和核心区,核心区又细分为HPC计算区和分布式存储区,通过带外管理网络、业务管理网络、高速计算网络和存储后端网络实现高效互连。当下,AI大模型运行至少需要千卡以上网络集群,因此实现各网络间高速互联,成为制约大模型规模拓展的关键因素。
当前AI智算中心建设存在两大明显问题:一是建设前对算力可供应性的担忧,二是建设后对算力可用度的困扰。据不完全统计,全球各大算力平台在千卡以上规模时,算力可用度均低于50%,即超半数算力在实际使用中处于闲置等待状态。同时,超大规模算力集群故障率攀升,严重影响大模型训练效率,增加算力等待时间与算力中心资本开支。究其根源,AI大模型训练过程涉及数据集准备加载、训练中CKPT(checkpoint,检查点)多次读写、训练中断等待、故障诊断及CKPT重新加载等阶段,均与算力中心存储配置相关。华为通过搭建高效存储服务中心,有效缩短算力卡等待时间,提升算力可用度。
华为采用高性能、高可靠的OceanStorA系列存储集群,官方测算显示有望缩短30%大模型训练时长。在存算网协同加速训练阶段,数据集加载时间可从30分钟缩至分钟级;CKPT读写保存从10分钟级缩至秒级;快速并发加载CKPT可将小时级等待缩至秒级;与本地盘、OBS存储等相比,可靠性提升百倍,断点续训次数大幅减少。
此外,华为基于大模型工作流,构建外挂向量知识库,将企业海量思域数据处理成多维向量,为大模型提供全面最新信息,解决时效性与长期记忆问题。通过构建HBM-SSR-SSD三层缓存机制,配合以查代算算法,解决记忆缺失导致的交互不连贯问题,实现复杂任务高效处理。
以华为为代表的中国科技公司,通过计算、传输、存储协同创新,打造算传存协同的算力基础设施。以存代算提升大模型逻辑思考与推理能力,减少相关成本;算传协同助力AI算力高效释放;传存协同实现超大规模智算集群节点与存储节点全连接,为全球AI发展提供了全新的中国方案。
华为作为中国科技的领军企业,在芯片持续迭代中面临国内大芯片制造经验不足、良率低以及先进制程推进受限等问题。但华为凭借前瞻性技术布局与创新思维,为中国科技突围提供了宝贵借鉴。例如,针对AI芯片面积逼近光罩尺寸极限、国内晶圆厂大芯片制造良率低的问题,华为采用将大芯片拆分为小芯片提升良率,再通过Chiplet技术拼接的策略。其乐高式芯片设计理念,通过分别设计CPU、GPU、IO、Wireless-ACC、NIC-IO等多种die并独立迭代,再组合形成不同功能芯片,如鲲鹏芯片在服务器和PC版本上的差异化die组合,推动了产品体系持续发展。
在先进制程推进受限的情况下,华为通过增加芯片面积延续性能提升。当芯片面积受光刻限制无法继续增加时,华为借鉴3D封装技术,通过垂直堆叠提升芯片晶体管密度。华为早在2019年HotChips大会上就提出利用3DSRAM提高片上LLC容量,突破内存墙,降低内存访问能耗成本。
未来,随着3D封装技术发展,预计华为下一代昇腾训练芯片和终端麒麟芯片有望采用3D封装技术。鉴于苹果将于2025年推出采用TSMC的SoIC(3D封装技术之一)技术的M5芯片,2025年有望成为3D封装技术全面普及的元年,华为也将借此东风,在芯片技术创新上持续发力,为中国科技发展注入新动力。
在政策的大力推动下,算力上下游产业链正加速协同发展,涵盖芯片、服务器、数据中心、液冷技术、光模块等关键环节,逐步构建起完整的生态闭环。这一趋势不仅顺应了数字化的经济时代对算力的强劲需求,更为相关产业带来了全新的发展机遇与挑战。
服务器成本构成中,芯片和存储占据主要部分。其硬件涵盖处理器、芯片组、内存、硬盘、I/O(RAID卡、网卡、HBA卡)以及机箱(电源、风扇)等组件。以一台普通服务器的生产所带来的成本为例,根据美科安防科技(2022年8月29日)的数据,CPU及芯片组、内存、外存占比分别约为50%、15%、10%,其他硬件约占25%。
AI服务器与普通服务器相比,在AI芯片和内存带宽方面有显著提升,价值量随之增加,其他配套组件也有所升级。据统计,在基础型服务器中,芯片(AI芯片+CPU)成本约占总成本的32%;而在高性能或更强性能的服务器中,芯片成本占比高达50%-83%。不过,中国厂商在研发实力上与国外厂商存在一定差距,且前期开发成本较高。
我国算力发展面临着供需品种错位问题,虽然算力规模持续扩大,但面向人工智能、高性能计算等高端应用的算力缺口依然较大。2023年,中国智能算力需求达到123.6EFLOPS,而供给规模仅为57.9EFLOPS,供需失衡明显。与此同时,中国AI服务器市场规模增速远超全球中等水准。IDC预计,中国AI服务器市场规模将从2022年的47亿美元增长至2026年的119亿美元,年复合增长率达26.1%。
全球AI服务器市场采购主体主要为云计算及互联网厂商。在全球服务器行业格局中,主要参与者包括ODM厂(如工业富联)及品牌商(如戴尔、HPE、联想、浪潮等)。IDC多个方面数据显示,2023年第三季度,全球服务器市场占有率前五的厂商分别是戴尔(11%)、浪潮(9%)、HPE(7%)、超微(6%)、联想(4%)。
其中,戴尔和HPE份额同比下降明显,分别下降5.0和3.3个百分点,而浪潮份额同比提升幅度最大,达1.6%。此外,H3C、超聚变等国产厂商份额基本稳定,且已超越IBM,彰显出国产服务商厂商地位的逐步提升。浪潮在全球AI服务器份额方面截至2021年已连续多年位居第一,在加速计算市场的龙头地位显著。
国内服务器整机市场目前以国内品牌为主导。我国服务器行业发展初期主要依赖国外品牌引入,随着国产品牌的崛起,逐渐实现对外资品牌的替代。从厂商销售额来看,2024年上半年,浪潮、新华三、宁畅位列前三,占据了超过70%的市场占有率。未来,华为、联想以及戴尔等厂商的销售份额有望进一步提升。
目前,服务器CPU主要是采用X86架构。按照CPU指令集架构划分,主流架构包括X86、ARM、MIPS、RISC-V等,其中X86架构在全球服务器CPU市场中占据主导地位。华经产业研究院数据显示,2014-2020年,全球X86架构服务器市场占有率持续保持在90%以上。这主要得益于X86处理器起步早,在生态环境方面有着非常明显优势。不过,近年来X86架构的占比呈下降趋势,别的类型架构发展迅速。
CPU研发具有极高的技术壁垒,Intel、AMD、ARM公司凭借对X86和ARM指令集的专利,在CPU市场形成垄断。在X86架构CPU市场中,Intel市场占有率领先,AMD份额逐步提升。
我国CPU厂商积极地推进自主化研发,最重要的包含海思、飞腾、龙芯、申威、海光、兆芯等。这些厂商大多采用授权+自研相结合的方式。其中,龙芯和申威分别在MIPS和Alpha指令集基础上,自主开发指令集架构,国产化程度较高,在党政军、超算等国家安全领域占了重要市场占有率;海思半导体的鲲鹏处理器和天津飞腾处理器兼容ARM指令集,与众多软硬件厂商完成了大量适配工作,但受ARM架构授权限制,面临无法持续迭代的发展瓶颈;海光和上海兆芯的产品兼容X86指令集,生态良好,应用迁移转换成本较低,海光基于从AMD获得的技术授权并独立开展研发工作,但同样面临授权技术不能持续迭代的风险。
GPU(图形处理器)作为计算机显卡核心,早期主要使用在于图形、视频处理及游戏运行等图形图像渲染计算。由于其擅长密集数据的并行处理,随着深度学习、科学计算等计算密集型任务的发展,如今GPU在高性能计算等领域得到普遍应用,并衍生出适用于数据中心等通用计算场景的通用GPU(GPGPU)。目前,全球GPU市场被英伟达、英特尔和AMD三家企业垄断。Statista多个方面数据显示,全球GPU市场规模2024年预计达653亿美元,2029年有望增长至2742亿美元,期间年复合增长率约为33.2%。其中,英伟达市场占有率增长显著,JPR多个方面数据显示,英伟达在2024年第一季度占据近90%的市场占有率(2014年第二季度约为62%)。
国内AIGPU厂商如华为、寒武纪、海光信息、天数智芯等加速追赶,芯片性能和出货量明显提升。IDC多个方面数据显示,2023年我国本土AI芯片品牌出货量已超过20万张,约占整个市场占有率的14%。随着国产芯片性能提升和生态完善,国产替代进程有望加速。
ASIC(专用集成电路)是一种针对特定需求的全定制不可编辑芯片,常见类型包括NPU(神经网络计算芯片)、TPU(Tensor计算芯片)等。ASIC芯片针对特定领域的算力和能效比优于通用芯片(CPU、GPU),但其开发周期长、流片成本高、开发风险大,不适用于AI训练早期的高速迭代,一般适用于谷歌等大厂的AI推理阶段。
当前,海外云厂商加速布局ASIC芯片,国产AI芯片厂商有望在推理领域实现快速追赶。云厂商自研芯片时,通常与博通、Marvell、英伟达、联发科等厂商合作设计芯片,并通过台积电等代工厂完成制造,目前博通客户量产节奏领先。华为昇腾、寒武纪、燧原科技等厂商产品均基于ASIC架构,国产公司后续有望逐步缩小差距。
Marvell预测,2023年定制芯片仅占数据中心加速计算芯片的16%,规模约66亿美元。随着AI计算需求量开始上涨以及定制芯片占比提升至25%,预计2028年数据中心定制计算芯片市场规模将达到429亿美元。
尽管国内部分观点认为ASIC芯片作为AI专用芯片,在相同半导体制程下具有更强的理论性能,是实现制程限制下算力“弯道超车”的理想选择。但从当前客户的真实需求和全球ASIC芯片开发进程来看,未来2-3年内,GPGPU仍将凭借“能用”与“易用”的优势,成为国产算力的主流选择。
与GPGPU相比,当下AIASIC主流路线虽然纸面效率较高,但在编译器和生态软件方面与国内客户的真实需求适配度较低。随着国内大模型应用如“豆包”的加速放量,各厂商更需要能快速部署、抢占业务入口和用户的通用型算力,即GPGPU。对于运营商与地方智算建设者而言,通用算力意味着更好的用户接受度和投资回报率。从长久来看,随着中国AI模型竞争格局逐渐清晰,头部玩家业务规模逐步扩大,AIASIC也将在中国找到比较合适的应用场景。
AI的蓬勃发展极大地刺激了数据中心市场的需求,促使交换机加速向高速率产品迭代更新。从全世界来看,交换机市场在AI的推动下正经历着快速变革。根据IDC数据,2023年全球交换机市场收入达到442亿美元,较上一年增长了20%。其中,数据中心市场收入占比42%,同比增长14%。具体到产品层面,高速率交换机增长势头强劲,数据中心的200/400G以太网交换机同比增长幅度高达69%,100G以太网交换机在2023年全年也实现了6%的同比增长。
将目光聚焦到中国市场,2023年我国交换机市场收入同比增长0.7%。其中,数据中心交换机同比增长2.2%。进一步剖析,企业网数据中心因互联网行业持续的投资疲软而面临很多压力,但运营商数据中心自2022年起便掀起建设热潮,发展势头迅猛。随着AI技术的深入发展,数据中心超大规模组网需求日益凸显,对网络速率的要求也水涨船高。预计自2024年起,400Gbps端换机出货量将继续上扬,51.2Tbps芯片的成熟商用也将为400G产品的广泛应用提供有力支撑。反观园区交换机,受宏观经济波动影响,企业项目部署有所延迟,2023年同比下滑0.5%。
交换机整机:行业集中度显著,国内商用市场本土厂商占据主导,工业市场国产替代空间广阔
当前,以太网交换机在交换机市场中占据主流地位。若按应用场景划分,可分为数据中心交换机和非数据中心交换机(园区和分支机构),数据中心用交换机通常对速率有着更高的要求;从使用场景差异上,又可分为商用交换机和工业交换机。工业交换机需满足工业控制现场诸如防水、防爆、抗干扰等严苛环境条件,以及通信稳定性、网络安全性等多方面需求,这使得其在设计和元器件选用上比普通商业交换机更为严格。此外,从产品类型角度,交换机还可分为品牌交换机、白盒交换机、裸机交换机。
行业集中度颇高,在全球市场,依据IDC数据,2023年全球排名前三的厂商依次为思科、华为、Arista、HPE。而在中国市场,根据观研报告网数据,2022年我国以太网交换机市场中,华为、新华三、锐捷网络分别占据40%、36%、12%的主要份额,CR3超过88%,本土厂商在国内商用市场占据主导地位。
在国内以太网工业交换机市场,长期以来主要由思科、赫斯曼、摩莎、罗杰康等国际大品牌主导,这一些品牌凭借悠久的发展历史、完善的集成产品和全球供应链体系,享有较高的品牌溢价。不过近年来,国产厂商凭借成本优势和技术的逐渐完备,发展形态趋势良好,与头部国际大品牌的差距正逐步缩小,工业市场存在巨大的国产替代空间。
以太网交换芯片:交换机的核心组件,持续向更高速率演进,商用市场国产化程度较低
芯片在交换机成本构成中占比最高。交换机主要由交换芯片、CPU、光电芯片、PCB和电子元器件、光模块、操作系统等部分构成。根据中商产业研究院数据,截至2024年3月,芯片在交换机成本中占比达32%。其中,交换芯片作为交换机的主处理芯片,专门用于处理海量数据及报文转发,起着关键作用。
随着AI的发展以及大型数据中心集群的建设,对以太网交换芯片的性能提出了更加高的要求,支持更高的速率和更大的容量成为必然趋势,向400G、800G等高速率演进已成为行业发展方向。
交换机主芯片由于存在较高的技术和资金壁垒,行业集中度较高,大致上可以分为自用和商用两种模式。在自用方面,一些厂商将自研芯片用于自家的交换机产品,并不对外销售。依据盛科通信招股说明书,2020年我国自研以太网交换芯片市场中,华为和思科占据主要份额,市占率分别为88%和11%。
在商用领域,2020年我国商用以太网交换芯片市场中,博通、美满、瑞昱位列前三,市占率分别为62%、20%、16%,而我国厂商目前在商用市场的参与度较低,其中盛科通信以2%的市占率在整个市场中排名第四,在本土厂商中位居首位,商用市场国产化程度较低。
PHY芯片在以太网交换机中主要负责处理物理层信号,是实现以太网传输的基础。只要是涉及以太网通信的终端设备,都能应用到PHY芯片,因此其应用场景极为广泛,涵盖通信、汽车电子、消费电子、工控等众多行业领域。一方面,通信网络技术的持续升级促使以太网设备带宽要一直提升;另一方面,AI和物联网的快速发展,带来了大量终端设备的联网需求以及海量数据处理需求,有力推动了以太网端口性能的持续优化,以太网物理层芯片未来发展前景广阔。目前,以太网PHY芯片市场集中度较高,仍然由海外巨头主导市场。
我国数据中心产业发展态势迅猛。2024年,中国数据中心市场规模有望突破3000亿元。中国数据中心机架及算力总规模目前已位居全球第二。在新基建、数字化转型以及数字中国愿景目标等国家政策的大力推动下,我国数据中心市场规模持续高速增长。
据中商产业研究院数据,2023年中国数据中心市场规模约为2407亿元,同比增长26.68%,预计2024年将达到3048亿元。工信部数据显示,截至2024年6月,全国在用算力中心机架总规模超过830万标准机架,算力总规模达246EFLOPS,位居全球第二。
2023年中国智算中心市场投资规模达879亿元,同比增长超过90%。预计2024年随着国产化芯片产能的提升,智算算力供给瓶颈将逐步得到缓解。未来,随着AI大模型应用场景的不断丰富以及商用进程的加快,根据中国通信工业协会数据中心委员会《中国智算中心产业发展白皮书(2024年)》,预计2028年中国智算中心市场投资规模有望达到2886亿元。
我国IDC竞争市场已形成了基础电信运营商与众多第三方IDC厂商共同提供数据中心服务的市场格局。基础电信运营商以中国电信、中国联通、中国移动为代表,这些企业拥有丰富的通信网络资源,在政企关系、发展时间以及业务规模方面具备一定优势,长期在市场中占据主导地位。第三方数据中心服务商则专门提供数据中心机柜租用、带宽租用、服务器托管、代理运维等服务,其多元化的经营与合作模式为数据中心市场注入了新的活力。
根据IDC数据,2023年三大运营商依旧在市场中占据主导地位。在第三方数据中心服务商中,排名前5的服务商凭借核心地段资源优势以及更为出色的经营能力,市场份额从2022年的48.8%提升至2023年的51.3%。
需求驱动与供给导向共同推动数据中心朝着集群化方向发展,超大型数据中心成为未来供给端的主要发展趋势。根据IDC预测,超大规模数据中心市场增长率预计将是其他细分市场的1.5倍。
行业发展大致可分为三个阶段:第一阶段,主要需求来源于中小企业,此时数据中心主要作为零售托管+网络服务商;第二阶段,主要需求来自大型企业和云服务,数据中心转变为批发托管商;第三阶段,随着互联网的持续发展,以及AR/VR、人工智能、物联网和Web3.0等新兴技术的兴起,有望进一步激发数据需求,超大规模数据中心模式有望延续并不断发展。
园区级数据中心具备显著优势:其一,建设及运营成本较低,凭借规模优势能够有效降低并摊薄固定资产折旧等成本;其二,可扩容性强,能够支持大客户数据驱动业务的持续增长,及时满足其即时扩容需求;其三,在批发型模式下,客户上架速度较快。
运载力是算力基础设施中不可或缺的重要部分,承担着数据中心内部以及数据中心之间的数据网络传输任务,它综合体现了算力设施的数据传输能力,涵盖网络架构、网络带宽、传输时延、智能化管理与调度等多个维度。2023年10月,工业和信息化部、中央网信办等六部门联合发布《算力基础设施高质量发展行动计划》,从计算力、运载力、存储力以及应用赋能四个方面制定了到2025年的发展量化指标。在运载力方面,我国明确提出国家枢纽节点数据中心集群间要实现不高于理论时延1.5倍的直连网络传输,重点应用场所光传送网(OTN)覆盖率达到80%,骨干网、城域网全面支持IPv6,SRv6等新技术使用占比达到40%的目标。
数据依靠通信网进行传输,通信网包含交换网、传输网与支撑网。其中,传输网作为传送通道网络,架构在交换网和支撑网之下,主要用于提供信号传送和转换服务,是其他各网络的基础。
传输网形成了省际干线、省内干线、本地传输网三级架构,本地网又可细分为核心层、汇聚层、综合业务接入层,各层级之间通过1-2个节点进行衔接。从逻辑分层角度来看,每一层级都可分为光缆层、传输系统层、业务层,传输系统层又包括光层和电层。
我国传输网建设正稳步推进。截至2024年6月,我国光缆线万公里,新型超低损耗光纤的部署规模逐步扩大。骨干传输网络持续扩容,200G传输系统已大规模部署,400G超高速、超大容量传输系统也在部分骨干场景中得以应用。同时,我国通信设备在全球市场占据重要份额,光传输设备、光接入设备的全球市场份额分别达到43.7%和64.8%。展望未来,算力运载力发展前景良好,传送网将加速从200G向400G及更大容量进行扩容,以满足海量数据稳定传输以及算力跨区域调度等需求,预计在2025年将开启短距离传输试点应用。
运载力的支撑来源涵盖基站天线、电线电缆及光纤光缆等。其中,光纤光缆作为一种通信电缆,由两个或多个玻璃或塑料光纤芯组成,这些光纤芯位于保护性覆层内,并由塑料PVC外部套管包裹,内部光纤一般利用红外线进行信号传输。光纤光缆类型多样,包括突变型、渐变型、单模光纤、玻璃光纤、包层光纤、塑料光纤、被覆光纤等。
光缆作为光纤光缆行业的最终产成品,通常直接销售给中国移动、中国联通和中国电信等三大国有电信运营商等终端客户,用于通信线路建设。依据通信网络范围大小,通过光缆敷设的通信网络一般可分为广域网、城域网和局域网等;按照线路连接区域,又可分为一级干线和二级干线等。
众多行业领军企业纷纷加大在光纤光缆产业领域的布局力度。运营商光纤光缆部署主要分为长途光缆、中继光缆和接入光缆三类。相关数据显示,2022年我国接入网光缆线路、本地网中继光缆线路和长途光缆线.1%、36.0%、1.8%。
我国光缆线路总长度持续增长。据中商产业研究院数据,2022年新建光缆线万公里,全国光缆线月末,全国光缆线-2022年中国光缆产量从2.46亿芯千米增长至2.99亿芯千米,2023年中国光缆产量为2.82亿芯千米。
固网宽带改造升级、5G基站部署、数据中心改造扩容以及运营商需求回暖等因素共同推动了光纤光缆需求的增长。我国光纤渗透率已接近饱和,但从百兆升级到千兆仍有提升空间。
当前,5G基站部署工作正开展得如火如荼,预计到2026年,我国将新建成538万个5G基站,随之而来的是5G小基站需求的释放,预计市场规模将达数千万量级。此外,数据中心改造扩容也在加速推进,机架数量持续增长,大型数据中心数据传输采用AOC光模块,进一步刺激了光纤光缆需求。预计到2026年,中国数据中心市场规模有望达到3866亿元,CAGR仍能维持在26.7%。
自2022年以来,5G和千兆光网的快速发展带动了运营商招投标需求回升,集采量价齐升,为光纤光缆行业的景气度回升和市场繁荣奠定了坚实基础。从采购量来看,据财联社数据,在2021-2022年三大运营商中,中国移动的集采规模最大,集采普通光缆规模达447.05万皮长公里,折合1.432亿芯公里,相比2020年提升20%,相比2019年提升了36%。
光模块作为光纤通信中的关键组成部分,是实现光信号传输过程中光电转换和电光转换功能的光电子器件。光模块工作于OSI模型的物理层,是光纤通信系统的核心器件之一。它主要由光电子器件(光发射器、光接收器)、功能电路和光接口等部分构成,主要功能便是在光纤通信中完成光电转换和电光转换。
在AI大模型的驱动下,光模块市场增长中枢得以提升。回顾过去3年,随着海外上云渗透率逐渐趋于饱和,以及受到宏观经济波动的影响,云商云业务增速有所放缓,光模块行业CAGR逐步稳定在15-20%。
自2023年以来,在AI大模型的拉动下,光模块行业迎来了新一轮由大流量应用驱动的上行周期,短期内CAGR或超过50%,从中长期维度来看,CAGR中枢有望提升至30%。预计2023/2024/2025年数通100G+模块市场规模同比分别增长14%/152%/60%。从结构上看,2024年400G主升浪尚未到达顶点,800G周期加速发展,1.6T有望在2025年实现规模放量。
目前,光模块市场格局较为稳定,国产化替代已顺利完成。中国龙头厂商在市场份额排名中位居前列,具备强大的国际竞争力。在光模块领域,中国厂商优势明显,市占率持续攀升。
依据Lightcounting数据,2023年中际旭创光模块出货量已超越Coheren,独占行业鳌头。华为、光迅科技、海信宽带、新易盛、华工科技、索尔思光电分别位列第3、5、6、7、8、9位;前十大厂商中中国厂商数量从2010年的1家(WTD武汉电信器件有限公司)增加至2023年的7家,光通信领域中国企业的竞争优势不断凸显,市场份额持续扩大。
1、海光信息:作为中国CPU与GPU双核心领域的领军企业,海光信息专注于通用处理器(CPU)及协处理器(DCU)的研发、设计与销售。其产品体系涵盖海光CPU系列以及深算DCU系列,其中CPU与x86指令集兼容,DCU基于GPGPU架构打造,可兼容“类CUDA”环境,广泛应用于服务器、工作站等计算、存储设备。
营收表现:公司营收呈快速增长态势,这主要得益于行业的蓬勃发展以及产品的规模化出货。2020年至2021年,随着海光二号和深算一号实现规模化供应市场,公司营收实现翻倍增长。2022年,凭借产品竞争力的不断的提高、产业的持续发展以及众多行业对国产服务器需求的大幅上扬,营收再度翻倍。到2023年,公司实现营收60.12亿元,同比增长17.30%。
2、寒武纪:作为智能芯片领域全球知名的新兴企业,寒武纪致力于提供云边端一体、软硬件协同、训练推理融合且具备统一生态的系列化智能芯片产品与平台化基础系统软件。