近期,华为推出的CloudEngine XH9330-128EO数据中心交换机,以“业界首款100T盒式以太交换机”的定位,为智算网络树立了新的性能标杆。
这款产品通过高密端口、独家负载均衡算法与超高可用性设计,致力于解决大规模AI训练中的网络拥塞与算力释放难题。
根据图片信息,CloudEngine XH9330-128EO的核心突破在于其惊人的密度与吞吐能力。
作为业界首款支持100转发容量的盒式交换机,它提供了128个800GE高速以太端口,能够在仅1U的空间内实现海量数据交换。
在组网能力上,该产品实现了二层盒盘组网规模达到业界4倍:华为凭借自研技术可支持高达64K个800GE节点的大规模组网,而业界现有方案通常仅支持16K节点。这一突破意味着在构建同等规模AI集群时,所需的交换机数量大幅减少,网络层级简化,从而降低延迟与功耗。
对于AI训练而言,网络负载均衡能力直接影响GPU/NPU集群的计算效率。华为CloudEngine XH9330-128EO搭载了独家NPLB(网络负载均衡)算法,可实现全网吞吐>98%。
大规模AI集群对网络稳定性提出严苛要求。华为为XH9330-128EO引入了独家光模块通道抗损技术,可在光模块性能劣化时实现“降速不断训”,避免训练任务中断。
同时,iFlashboot闪启2.0技术将交换机重启时间压缩至5秒以内,远低于业界设备常见的12秒以上重启耗时。
该交换机主要面向智算场景,包括AI风险预测、气象预测、自然语言处理、自动驾驶、生成式AI等对网络吞吐与延迟要求极高的应用。其目标客户覆盖互联网、政府、金融、运营商等行业。



