从 2025 年底开始,DDR5 和 SSD 价格一路往上飙,到现在都还没有要回头的意思。 原本以为2026年底应该会开始缓解,没想到可能还早,接下来将有第二波压力即将要进场:CPU。
根据韩国媒体SE Daily引述业界消息指出,由于代理式AI越来越火热,CPU厂正在规划让下一代AI CPU配上300 ~400GB的内存,意味着是现在96 ~256GB的4倍之多。 换句话说,过去主要是GPU在抢记忆体,未来连CPU也要进来参一脚,玩家想要买原价的内存可能还有得等了。

AI 代理把CPU推上存储器军备竞赛:单颗要塞400GB,DRAM缺到2027年
过去两年的 AI 浪潮主要着重在大型语言模型训练和推理,因此都吃 GPU 的运算能力,但随着模型够强,现在已经陆续进入到代理式 AI 的时代,不再是丢一个问题、给一个答案,而是让模型像个真正的代理人一样,会自动规划步骤、呼叫外部工具、查资料、读文件、改程式码、再回头修正自己。
而这整套流程里,更仰赖CPU来协调,不是GPU。 每一次工具呼叫、每一次API请求、每一次中间状态的暂存与决策逻辑,都得靠CPU跑,GPU只在真的要用模型推理时才出力。

Intel就曾说过,AI数据中心的GPU和CPU比例,已经从原本的8:1收敛到4:1,未来甚至有机会逼近1:1。 Arm 则估计,传统 AI 数据中心每 GW 大概需要 3,000 万个 CPU 核心,但到了代理式 AI 时代,需求会跳到 1.2 亿个核心,整整 4 倍。
而 CPU 要负责的不只是运算,还有 「context memory(上下文内存)」。
在连续执行任务时,会把对话纪录、工具回传结果、中间决策、可能要回头重试的状态通通暂存起来,这些都得放在CPU主内存里,所以容量需求自然就拉高。 原本一颗服务器CPU配96 ~256GBDRAM还算够用,到了代理式AI时代后会明显不够。
也因此,近日《SE Daily》就指出,CPU制造商目前正计划为其AI CPU配备300到400GB的存储器。
如果真的到400GB,那就有点夸张,比NVIDIA GB300、Vera Rubin和AMDMI350X的288GBHBM3E还多。
不过SE Daily没有提到400GB到底是指哪一种形式的内存,Wccftech推测,有一个可能是指直接整合在CPU封装内的高密度内存,也就是把HBM或正在发展中的HBF、ZAM等新标准直接做在CPU旁边,类似GPU上HBM的设计。
另一种则是简单暴力,单条DIMM内存容量达到400GB。 目前服务器CPU平台只要把标准DIMM插满,就能到4 ~8TB,未来如果单条都有400GB的话,那总内存容量会相当恐怖。