新闻中心

专业从事电子元器件代理、贸易及相关集成电路研发服务的高新科技公司

网络芯片是一个广义而多维的概念。它并非只有

作者:旋乐吧  日期:2025-12-16  浏览:  来源:旋乐吧网站

网络芯片是一个广义而多维的概念。它并非只有单一产品,而是覆盖在不同领域、不同设备、不同应用场景、不同通信方式、不同互联协议,以及不同下游客户之间的各种实现。由于概念本身贴近行业实际,常被误解为“并不高深”,但深入看它其实包含了服务器网卡、智能网卡、数据处理单元等一整套演进与生态。

一、服务器端的演进:从网卡到DPU

在大型计算中心,存在服务器、交换机、路由器等多类设备,行业内统称为ICT,涵盖信息、通信、技术等核心要素。ICT的上游是各类芯片与电子元器件,核心包括网络芯片、计算芯片、存储芯片、内存芯片,以及电源管理、PCB、被动元件等。中游是IT基础设备与其制造商,如服务器、海量存储、交换机、路由器、网关、防火墙、基站等,以及相关代工厂。下游则是运营维护服务商,例如数据中心服务商、云服务商、IaaS运营商、电信运营商等。终端客户涵盖政府、金融、互联网企业、企业级用户及个人用户。

随着中国经济与信息化建设的推进,ICT技术市场规模持续扩大。2017年至2022年间,中国ICT市场规模从约4.4万亿增加至约5万亿,年增速保持在一个较低的水平区间内。

服务器端方面,硬件结构与个人计算机相似,包含大量CPU、GPU、GPGPU、推理与AI算力单元,以及主板、北桥/南桥、外围电源管理IC等。最关键的通信接口来自网卡芯片。过去以太网网卡adi为主,速率从千兆、万兆逐步提升,现今高端已转向光模块,速率覆盖25G、40G、100G,甚至400G;未来还可能出现800G及更高速率。网卡最初被称为NIC(网络接口控制器)或以太网控制器,因价格低廉、以太网标准广泛而应用极广。

传统网卡以太网控制器在国内形成约80–100亿级别的市场,且与国内服务器市场的增长同步。随着公有云虚拟化与软件定义网络(SDN)兴起,对端系统协议栈提出更高要求,传统高性能网卡已难以满足需要,因此智能网卡(Smart NIC)应运而生。智能网卡在保持高性能网络数据处理能力的同时,具备一定的可编程性,能够在网卡上实现定制化处理逻辑,进一步减轻CPU负担。

智能网卡与传统网卡的差别在于:硬件层对部分传输与路由处理逻辑进行卸载,例如对校验和计算、分段重组等进行硬件加速,RDMA网卡甚至将整个传输层处理迁移到网卡上,极大地解放了CPU资源。根据加速负载不同,智能网卡可分为基本连接型NIC、面向网络加速的智能网卡、以及面向存储加速的智能网卡等多种形态。其内部结构也有多种实现路径,如多CPU组合的ASIC、基于FPGA的方案,或FPGA+ASIC的混合方案。

在智能网卡的基础上,下一代变成了广受关注的DPU(Data Processing Unit,数据处理单元)。DPU与CPU、GPU/GPGPU的定位不同,专门为数据中心的网络信息处理进行优化。海量数据在数据中心不断传输,主机在收发数据时需要处理大量网络协议。若完全由CPU处理,线速处理10G网络大约需要4个英特尔的核心数,网络协议处理会占据相当大的CPU资源,难以支撑更高的网络速率(40G、100G、400G,乃至800G、1.6T)。因此,将网络处理从CPU卸载到智能网卡并进一步到DPU,成为提升系统性能的关键路径。

AWS在2015年率先采用智能网卡并收购Annapurna Labs,2017年推出Nitro系统。同年阿里云也推出了类似的架构。2019年,英伟达以69亿美元收购Mellanox,2020年正式推出BlueField-2/BlueField-2X DPU,标志着DPU元年的到来。国内也随之涌现出多家DPU相关初创与布局企业。

本质上,DPU是在智能网卡的基础上扩展能力,将存储、安全、虚拟化等工作从CPU卸载并放到DPU上处理,从而实现计算的隔离、性能提升和CPU负载降低。DPU因此常被视为大型服务器三大核心单元之一(CPU、GPU/GPGPU、DPU)。

对DPU的定位与未来前景,行业观点普遍认为,2025年前后DPU市场有望达到120亿美元级别的规模。英特尔、英伟达(Mellanox)、博通等厂商长期处于领先位置,微软、亚马逊等云厂商在生态层也起着重要作用,国内也在加速布局。

从服务器端看,网卡经历了从普通NIC到Smart NIC、再到DPU的演变,连接方式也已从传统网线转向以光模块为主的光纤连接,速率不断攀升。

二、网络设备端:路由、交换与无线设备的核心地位

网络设备包括路由器、交换机以及无线设备,是整个网络的核心硬件,通过数据包交换实现数据在网络中的传输和转发。在现阶段,交换机的市场份额与容量规模居高,成为网络建设的核心点。

全球交换机市场中,Cisco、Arista、惠普/HP等厂商长期占据领先地位,国内市场以华为、华三(新华三)、锐捷等为主,份额占据显著优势。路由器领域则以思科与华为为寡头格局,联合占据较高市场份额。无线领域分为两大板块:基站端(华为、诺基亚、爱立信、中兴等传统设备商)与Wi-Fi端(企业级为思科、华为、锐捷、中兴等,消费端有如 TP-Link、D-Link、Netgear 等)。

随着AI和数据中心的发展,交换机在数据中心中的地位愈发重要。市场研究显示,2023年全球以太网交换机市场收入同比增长约38%,达到约118亿美元。数据中心场景的“东西向”流量增加促使骨干网络向更高带宽与更高端的架构演进,Fat-Tree等架构逐步成为主流,推动交换机数量与性能双向提升。

三、交换机核心:交换芯片(Switch Chip)的关键性

交换机芯片是交换设备的“心脏”。以太网交换设备遵循OSI七层模型,早期以太网交换机主要工作在物理层和数据链路层,而路由器则主力网络层与传输层。如今,数据中心的网络构成更趋复杂,很多交换机被赋予路由能力,甚至内嵌路由芯片,使得组网成本下降,功能更强大旋乐吧spin8

交换芯片通常搭配CPU、PHY、接口等组件,形成一个系统级芯片(SoC)或多芯片组合的架构。高端交换机芯片需要同时提供大量端口、低延迟、高吞吐以及较低功耗。当前高端需求推动100G、400G乃至未来的800G/1.6T等速率的交换芯片逐步成为主流。

在全球产业格局中,部分厂商选择自研交换芯片以用于自家产品;另一些则以外购的以太网交换芯片为基础,搭配自家系统和OS平台开展白盒化、ODM/原厂机型生产。国内市场在华为、新华三、锐捷等企业的推动下,已具备相当规模,但在高端自研芯片与全球龙头相比仍存在差距。与此同时,全球范围内博通、Marvell、Innovium、Barefoot、Intel 等依然占据重要地位,国内也在通过与合作伙伴的协同逐步提升自研能力和自主可控程度。

交换机中的CPU、存储、PHY等辅助组件也至关重要。CPU多由英特尔、AMD等主流厂商提供,但国内在ARM、RISC-V、FPGA等架构上也在积极探索与布局。存储组件包括各类DRAM、NOR Flash等,用以提升缓存与数据处理能力。PHY芯片则承担物理层与介质之间的信号转换,是把数据从交换芯片接入物理介质(光纤或铜缆)的连接桥梁。

关于光模块,光传输仍是高端网络的主力。光模块将电信号转换为光信号,并通过光纤实现远距离传输,常见速率从10G、25G、100G、400G逐步提升,甚至向800G、1.6T发展。光模块的核心在于光发射与光接收芯片,以及与之配套的放大、驱动、调制、时钟恢复等电路。光发射芯片材料通常为InP、GaAs、GaN等化合物半导体,接收端以PIN、APD等探测芯片为主。不同封装与传输距离(如100米到数十公里)对方案与生态产生深远影响。当前国内光模块厂商多以封装方案商为主,前端发射/接收芯片及驱动等核心芯片仍高度依赖国外厂商,国内在封装设计、方案创新方面有较强成长空间。

四、存算分离与存算一体:两种高性能计算路径

传统冯·诺依曼计算架构将存储与计算分离,数据在内存(DRAM/缓存)与外存(固态硬盘)之间来回传输,导致数据搬运成本高、能耗高、瓶颈在于“存储墙”。神经网络和大规模AI模型使得数据规模激增,数据搬运往往成为耗能和时间成本的主导因素,传统架构难以高效支撑。

为打破这一瓶颈,出现了两种思路:

- 存算一体(Compute-In-MMemory/Chiplet等思路):把高带宽内存(HBM)与计算单元封装在同一芯片或同一模块内,降低数据在不同模块之间搬运的距离与延迟,从而显著提升吞吐与能效。这一方向推动了“芯片级”甚至“模块级”的异构计算架构发展。

- 存算分离(CPU+HBM分离+高带宽总线直连存储与计算节点):在主机/服务器架构中,利用高速总线或高带宽光连接,将存储服务器与计算服务器直接相连,减少中间缓存与总线的负载。DPU在这种架构中扮演关键角色,承担网络、存储与安全等加速任务,帮助打破存储与计算之间的“瓶颈”。

在DPU的1.0阶段,其核心在于分担网络通信相关的处理工作;到了2.0阶段,DPU开始承载更多与存储分离后数据预处理、加速相关的工作,向存算一体的目标迈进。未来,DPU不仅要解放CPU在网络处理上的负担,还要在数据预处理、存储访问、虚拟化安全等方面实现更全面的加速与隔离。

在三大U(CPU、GPU/GPGPU、DPU)的框架中,DPU的作用愈发重要:它通过专用算力对多租户云生态的网络、存储、安全和管理服务进行加速和隔离,提升数据中心整体效率与灵活性。结合高速网络与分布式存储的发展,DPU将成为数据中心架构的重要支撑点。

五、对行业格局的展望与要点总结

- 服务器端:从网卡到智能网卡,再到DPU的演进,核心在于把与网络、存储、虚拟化等相关的工作从CPU卸载到专门的加速硬件上执行,提高吞吐、降低延迟、减轻CPU压力。

- 网络设备端:交换机、路由器以及无线设备共同构成企业级与数据中心网络的骨架。交换芯片的高性能、低功耗和高密度端口能力,是未来网络设备竞争的核心。品牌机、裸机机型、白盒机等不同商业模式并存,国产厂商在中高端领域持续发力。

- 光模块与光传输:高端网络的传输距离和带宽需求推动光模块向更高速率与更低功耗发展。国内厂商在封装与方案层有较大成长空间,核心芯片仍高度依赖国外厂商,国产化率和自主创新仍是重点破题方向。

- 存算架构的新生:存算分离与存算一体各有优劣,结合DPU在网络、存储与安全方面的加速能力,未来数据中心有望实现更高的能效比和更低的时延。DPU的发展将直接影响云原生架构、容器化、虚拟化安全与大规模模型训练部署的效率。

- 投资与应用前景:DPU与相关网络加速技术在全球范围内均获得广泛关注,拥有较高的增长潜力。国内在基础硬件与生态建设上持续追赶国际巨头,同时也在通过本地化设计、供应链安全与国产替代实现更强的自主可控。

通过对服务器端、网络设备端、以及存算架构演化的梳理,可以看出网络芯片不仅仅是一个单一组件,而是一个跨硬件、跨软件、跨生态的综合体系。未来的技术路线将以更高性能的网卡/DPU、更智能的交换芯片、以及更高效的存储-计算协同为核心,推动数据中心在AI时代的算力、带宽与能效方面实现突破性提升。

上一篇:01 电源芯片概览 下一篇:当前国内半导体产业正处于周期性回暖阶段,A

网站地图