AI PC 的时代即将到来,即使在相对普通的系统上,你很快也可以选择在没有网络连接的情况下在畚箕运行一些 AI 功能。 然而,你可能没有意识到,尽管拥有 AI 加速器,这些电脑仍然需要大量的 RAM 和存储空间才能顺利提供本地 AI 功能。

AI PC 的到来将使接下来所有电脑规格有望提高
AI PC 具有本地处理能力
Microsoft 的 Copilot AI 功能是配备专用神经处理单元(NPU)的新一代电脑进入市场的主要原因之一,这也是为什么新的 Surface Pro 设备配备常见于手机中的 ARM Snapdragon 处理器的原因之一。 目前,Copilot AI PC 的最低要求是具有 40TOPS 的 NPU,而这正是这些新芯片所内置的功能。
需要本地 AI 功能的原因有很多。 它速度很快,你不会与其它用户竞争资源,而且无须支付超出硬件成本的费用。 为你的笔记本电脑提供与 ChatGPT 及其同时代产品相同的智能。

即使是小型 LLM 也很大
问题是,这些 AI 模型非常大。 最小且最高效的大型语言模型(LLM)可能需要 1 – 3GB 的内存,但并不是那么聪明,随着模型获得的参数变得更加强大,同样也会需要更多的空间。 你通过网络访问所使用的云端超级 LLM 大小可能有数百 GB,这些 AI 模型中拥有数十亿甚至在某些情况下超过一兆个参数,不适合包含家用计算机、笔记本这类小型设备上运作。
然后,这些 LLM 够小,可以在智能手机上运行,例如 phi-3-mini,这更符合这些 AI PC 上实际运作的运作。

模型必须存在于 RAM 中
虽然 AI 模型占用几 GB 的空间可能听起来没什么大不了,但你必须明白,整个模型必须存在 RAM 中才能发挥良好的性能。 这些NPU是专门的平行处理器,负责处理这些虚拟神经网络上的数字,同时具备有数十亿的参数。 如果模型不在 RAM 中,那么 NPU 就无法足够快地提供结果,它会影响到 LLM 回复的速度,或即时翻译、影像生成等功能。 因此,如果你希望按下按钮或简单地与计算机对话来使用 AI 功能,则该模型本质上需要保留所需的 RAM。

可以肯定的是,这些新PC都具有超快的SSD,可以快速地将数据移入和移出RAAM,但除了SSD的额外耗损外,它的速度还是不够快,无法让一切顺利运行,而且不要忘记你还是会想同时运行其他应用程序。 如果每次你想让 AI 做某件事时,你的电脑都必须将浏览器和其他应用程序从 RAM 转储到磁盘,那么将不是一个很好的体验。
16GB是绝对最低限度
虽然8GB RAM对用于一般生产力和媒体消费的现代办公室台式电脑或笔记本电脑来说仍然非常合适,可对于AI功能的Windows电脑根本无法在这么小的RAAM中好好运行,这就是为什么Microsoft将16GB作为Copilot PC的绝对最低配置。

虽然对于普通的非AI PC来说这是一个非常健康的RAAM容量,但总有一种感觉,对于一直在后台运行本机AI助理的PC,这将更像是8GB PC再附加AI,除非你禁用部分AI程序。
部分 AI PC 无法升级 RAM
如果你新买的 Windows AI PC 使用整合的系统单芯片或将其 RAM 永久焊接到主板上(就像许多轻薄笔记本的情况一样),那么无论系统配备多少 RAM 都会让你陷入窘迫。 这表示你必须从一开始就获取所需的 RAM,否则待 RAM 不足时你只能换一台新电脑。
当然,你是否关心本机 AI 功能才是真正重要的。 如果你并不在乎,那么这些 Copilot PC 将 RAM 最低设置为 16GB 就太好了,只需停用或忽略 AI 部分就可以。 事实上,除非你有一些具说服力的理由,否则完全跳过这些 AI PC 并坚持使用更主流的选择。
另一方面,如果你对本机 AI 功能感到兴奋,并且期待看到将来可以使用这些工具的多种方式,请不要止步于最低要求,除非你的设备允许你日后添加更多 RAM,否则从一开始就给自己留多一点充裕的 RAM 空间是最保险的做法。