公开信息显示,瑞斯康达子公司瑞斯数科在 2024 年初发布 400G 算力交换机并启动 800G 预研,同期产业链报道即提到其“配合谷歌”开发 800G OCS 光交换机,并已进入量产交付。因此,双方的合作大概率于 2024 年第一季度 正式开始,并延续至 2025 年的 800G 规模部署。

【华为发布Flex:ai AI容器技术 实现单卡同时承载多个AI工作负载】《科创板日报》21日讯,华为今日发布Flex:ai AI容器软件,通过算力切分技术,将单张GPU/NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%,实现了单卡同时承载多个AI工作负载,并可聚合集群内各节点的空闲XPU算力聚合形成“共享算力池”。据悉,Flex:ai将在发布后同步开源在魔擎社区中。
这里的Flex AI实际是华为2025年11月21日发布并开源的Flex:ai AI容器技术,瑞斯康达作为其合作方,双方基于Kubernetes生态形成协同,依托瑞斯康达的硬件与传输优势,搭配Flex:ai的算力调度能力。

瑞斯康达的边缘算力调度依托自身硬件设备与边缘平台优势,和华为 Flex:ai 在 Kubernetes 生态基础上,从资源适配、调度执行、数据传输到模型迭代形成全流程协同,既发挥了 Flex:ai 在算力调度上的精细化软件能力,又借助瑞斯康达的硬件与边缘管理能力解决了落地中的网络和设备管控问题,具体协同方式如下:
底层生态同源,筑牢协同调度基础
两者均基于 Kubernetes 生态构建相关能力,为协同提供了天然的技术基础。Flex:ai 本身是基于 Kubernetes 构建的 XPU 池化与调度软件,而瑞斯康达已落地应用华为开源的 KubeEdge 边缘扩展平台,该平台可实现云边协同的设备管理与应用部署。这种同源生态让瑞斯康达的边缘设备能无缝接入 Flex:ai 的调度体系,Flex:ai 生成的算力调度指令可直接通过 Kubernetes 相关接口下发至瑞斯康达的边缘节点,无需额外进行复杂的适配改造,保障了调度指令传输的兼容性和稳定性。
算力供需精准匹配,提升边缘资源利用率
Flex:ai 的细粒度算力切分与动态调度能力,和瑞斯康达的边缘算力供给形成精准互补。一方面,Flex:ai 能将 GPU/NPU 算力切分粒度精准至 10%,还可感知边缘侧各任务的算力优先级与需求变化,比如将工业监控的低优先级推理任务分配较小虚拟算力单元,将车路协同的高优先级任务分配更多算力。另一方面,瑞斯康达通过边缘计算盒、AI 交换机等设备提供分布式边缘算力,其智能异构调度引擎还能配合 Flex:ai,把边缘侧分散的空闲算力整合起来。当 Flex:ai 检测到边缘某节点算力不足时,可调度瑞斯康达边缘节点间的空闲算力补充;若边缘算力有富余,也能通过 Flex:ai 纳入共享算力池,实现边缘算力的最大化利用。
传输与调度联动,保障低时延调度执行
瑞斯康达的高速光传输技术为 Flex:ai 的边缘 “拉远虚拟化” 调度提供了关键支撑。Flex:ai 的 “拉远虚拟化” 技术可让边缘通用服务器将 AI 工作负载转发到远端共享算力池执行,但这对数据传输的时延和带宽要求极高。而瑞斯康达的 DCI - BOX 产品能实现智算中心与边缘节点的光纤直联,RoCE 无损算力交换机还能实现超低时延数据传输,其 FlexE Channel 切片技术更能将单光纤利用率提升至 98%。这使得 Flex:ai 在调度边缘跨节点或边缘与远端算力池的任务时,数据传输时延可控制在毫秒级,避免了调度过程中因网络卡顿导致的任务延迟,保障了边缘场景如自动驾驶算法测试、实时监控推理等对时延敏感任务的稳定运行。
云边协同迭代,打通模型与调度优化闭环
双方在模型部署与调度策略优化上形成协同循环。瑞斯康达的边缘设备借助 KubeEdge 平台,可将边缘侧的任务运行数据、算力使用状态等实时反馈给云端的 Flex:ai 调度系统。Flex:ai 基于这些数据,不仅能优化后续算力调度策略,还能结合自身触发数据飞轮的能力,在感知到边缘数据达到一定阈值时,推动云端模型进行增量训练。训练后的轻量化模型再通过 KubeEdge 平台下发至瑞斯康达的边缘设备,而瑞斯康达的边缘管理能力可保障模型快速加载运行。例如在工业智能监控场景中,该闭环能让模型持续适配边缘场景,同时 Flex:ai 的调度策略也能贴合模型迭代后的算力需求,形成良性协同。
