英国芯片设计公司 Arm 近日宣布推出全新 Arm AGI CPU,首次以自有量产芯片的身份进入数据中心市场,瞄准新兴的“代理型”(agentic)人工智能工作负载,这标志着这家长期以授权 IP 为主营业务的企业在商业模式上的重大转向。 在过去三十多年里,Arm 一直只提供架构与内核设计,由合作伙伴代工生产,如今则以 AGI CPU 系列直接参与到高性能数据中心处理器的前线竞争中。

据介绍,Arm AGI CPU 基于 3 nm 制程工艺打造,单颗芯片最多集成 136 个 Neoverse V3 内核,整卡热设计功耗为 300 W,每个内核可获得 6 GB/s 的内存带宽,并将访问延迟控制在 100 ns 以内,可支持单芯片最高 6 TB 内存容量,并兼容 DDR5-8800 规格。 I/O 方面,该处理器提供 96 条 PCIe Gen 6 通道,同时集成 CXL 3.0 以及 AMBA CHI(Coherent Hub Interface)互连以支撑高带宽、低延迟的协同计算需求。 每个内核可独立处理一个程序线程,Arm 表示,此设计有助于在持续高负载场景下避免线程被挤占或长时间空转,提高整体资源利用率。

在数据中心高度关心的算力密度方面,Arm 公布的数字显示,在风冷系统下,单机架最多可部署 8,160 个内核,而采用液冷方案则可将这一数字提升至 45,000 个以上。 Arm 预计,为满足未来 AI 发展需求,数据中心每吉瓦电力所需的 CPU 算力将较当前水平提升四倍以上,其认为传统 x86 架构在这一新型工作负载上存在过多开销与复杂性,不利于性能与能效的进一步提升。 官方给出的对比数据显示,Arm 方案在每机架性能上可实现超过两倍于 x86 的表现,并有潜力在每吉瓦 AI 数据中心算力规模上带来最高 100 亿美元成本节约空间。

在生态与落地层面,Meta 是本次 AGI CPU 的核心合作伙伴与主要部署方,将把该处理器与其自研 MTIA 加速器结合,用于其平台上的大规模 AI 调度与编排。 除 Meta 外,已有包括 OpenAI、Cloudflare、Cerebras、Rebellions、SAP 与 SK Telecom 在内的多家企业确认采用这一平台。 硬件整机方面,ASRock Rack、联想、广达与超微(Supermicro)等厂商正围绕该平台推出服务器产品,首批系统已经提供给部分客户,预计在今年下半年实现更大范围供货。
Arm 表示,该产品背后有超过 50 家生态伙伴参与支持,其中包括 AWS、Google、微软、英伟达、三星、台积电与美光等云服务、芯片制造与存储厂商,形成覆盖设计、制造、硬件系统到云端部署的完整链条。 对于 Arm 而言,AGI CPU 的推出不仅是一次技术布局,更意味着其角色从“架构提供者”向“完整解决方案提供者”延伸,在新一轮 AI 数据中心基础设施竞争中争夺更高的话语权。