马上注册,结交更多好友,享用更多功能,让你轻松玩转社区
您需要 登录 才可以下载或查看,没有账号?立即注册
×
英伟达AI-RAN的“前世今生” 早在2023年,NVIDIA和日本软银提出创新性的AI-RAN概念,旨在将人工智能(AI)技术深度融合到无线接入网络(RAN)中,实现网络的智能化和自动化。 在2024年,NVIDIA已经提出了其AI-RAN解决方案,Aerial,一套用于设计、仿真和运营无线网络的加速计算平台、软件和服务解决方案,有关服务器即Aerial RAN Computer(简称 ARC)。 这一解决方案主要是面向集中式(Centeralized) RAN,搭载英伟达Grace Hopper 及其后继 Blackwell GPU:高端、大算力、面向云端数据中心集中式部署。 也许是为了应对之前的市场低迷反应,近期英伟达提出了最新的ARC‑Compact 解决方案,试图将业务重心从大型数据中心下沉至基站现场。 而在去年英伟达的C-RAN构想中,用户只需在数据中心附近安装强大的ARC,就能支撑成百上千个基站。
同时,NVIDIA联合部分联盟商大力宣称“AI‑RAN”的愿景,提出其GPU既可以负责AI的推理也可以支持Layer 1内联加速,将CPU留给轻量级任务。 AI概念淡化与算力诉求落差ARC‑Compact首先要将自身轻量化——仅配备基于Arm架构的Grace CPU+一颗L4 Tensor Core GPU,体积更小、成本更低,明确针对分布式RAN(D‑RAN)场景直接部署在基站机房。
NVIDIA在官方博客中称其“成本效益高、能耗低”,可支持“低时延AI任务和RAN加速”。
但业界有观点认为,其“简配版”中L4的算力仅能应付视频处理与简单推理,根本无力承担大型语言模型训练或重度AI推理。 NVIDIA此前热炒“AI‑RAN”,提出既用GPU负责AI推理也可以支持Layer 1加速。而如今的ARC‑Compact在“AI”标签上却并不突出,重点更多放在“RAN加速”和“低时延应用”上。
业内人士指出,真正需要GPU算力的并非大多数基站场景,更多依赖于FPGA/ASIC的前向纠错(FEC)等高密度计算。
ARC‑Compact 虽保留 L4 Tensor Core,却可能成了多余的“配角”,难以打动运营商的“买单”意愿。 CUDA生态推广受阻:三大供应商的“CPU阵营”当前全球三大(中国以外)RAN设备商——爱立信、三星与诺基亚——对NVIDIA的CUDA计算框架态度冷淡。
爱立信、三星偏好“lookaside”式虚拟RAN:为了硬件中立,绝大多数软件仍跑在CPU上,仅将FEC等最重度任务交给硬件加速;
爱立信在测试中已将原写给Intel x86的RAN代码,几乎无改动地移植到Arm架构的Grace CPU上,“未来即便要用GPU,也只限于FEC”;
三星也在Grace环境验证后,直接否认“内联加速”必要性,称“随着CPU性能提升,无需GPU也能满足需求”。 诺基亚则走“inline”内联路线,却选择了Marvell的L1加速器,而非NVIDIA GPU,并坦诚基于GPU重写代码的成本巨大。 诺基亚并非反对NVIDIA技术,但是更愿意在未来等运营商把RAN中的GPU作为主流AI推理需求时,再大动干戈的实现GPU加速。
边缘AI复兴:概念热度低于现实需求NVIDIA希望凭借ARC‑Compact重振“边缘计算”市场,让运营商在众多基站分散点位提供AI推理服务,以此抢占低时延赛道。
然而,Omdia调查显示,只有17%受访者认为未来通信运营商的AI推理会落在基站或枢纽站点,6%看好中心局端,而最多人(43%)仍选择终端设备。
电信边缘既无法与超大云商的规模经济抗衡,也未能形成足够差异化的业务场景,令ARC‑Compact的市场空间受限。 更糟糕的是,超大云商对边缘部署的兴趣也在下降——无论是与运营商的合作,还是自身PaaS化战略,都未能给边缘AI注入持续动力。
面对需求乏力,运营商更多将AI推理和大规模训练集中在超大数据中心,而非分散部署在基站。 CPU升维与GPU阵地的隐忧NVIDIA CEO黄仁勋曾多次批评RAN中服务器CPU“跟不上ASIC的工作负载”,力推GPU加速。
然而,随着Arm与x86 CPU架构持续升级,芯片性能大幅提升,不仅能胜任原本靠ASIC和GPU做的部分Layer 1、网络功能,甚至可以承担部分AI推理。
Omdia高级分析师Kerem Arsal指出:“(RAN场景中)AI处理的重点会从GPU向更强的CPU转移,模型也越来越小,终端或基站用CPU即可完成关键AI任务。” 换言之,NVIDIA一方面贬低CPU,一方面又不得不面对其性能进步对GPU市场的蚕食。
ARC‑Compact的出现,虽是防守策略,却也凸显了GPU在RAN市场的边缘地位:
当CPU足够强大时,运营商将更倾向于少换硬件、少改代码,继续在CPU平台上做迭代。 你会看好英伟达的AI-RAN方案吗?
|