image.png

structure|1️⃣ 三级笔记、思想框架

《Agentic AI Changes the CPU/GPU Equation》三级笔记

核心观点

AMD 的核心判断是:agentic AI 改变的不是单台 GPU 服务器里 CPU 数量的微调,而是整个 AI 数据中心架构的重分配。chatbot AI 主要是“提示词进入模型、模型返回答案”,因此天然推高 GPU-heavy rack;agentic AI 则要持续规划、调用工具、查数据库、跑应用、做权限检查、取回记忆、验证输出,并不断循环,因此会把大量生产负载转移到 CPU 密集型环节。

作者据此认为,企业不能再用“给 GPU 服务器多塞几个 CPU”的方式规划下一代 AI 基础设施,而要新增一个专门的 agentic CPU compute layer,与 GPU racks、网络、软件栈一起构成平衡的分布式系统。

一、问题从一个常见误解开始:CPU/GPU 比例变化不等于多加 CPU

1.1 基础设施会议里的直觉判断

1.2 AMD 给出的更大判断

1.3 市场规模判断也随之变化

二、第一波 chatbot AI:主要是模型响应,因此天然 GPU-centric

2.1 chatbot AI 的工作流很简单

2.2 这种模式推导出 GPU-centric design

2.3 旧比例背后的真实含义

三、agentic AI 不是“chat plus tools”:它改变了 workload 的形状

3.1 agentic AI 的任务不再是回答一个 prompt

3.2 这形成了完全不同的 infrastructure profile

3.3 CPU 在 agentic AI 中承担三类关键责任

四、CPU/GPU shift 的答案不是 add more CPUs,而是新增 CPU compute layer

4.1 比例变化:从 1:4-8 走向 1:1,甚至 CPU 侧更高

4.2 错误做法:把更多 CPU 撒进 GPU 盒子

4.3 正确形态:newly engineered CPU compute layer

五、balanced architecture 成为新瓶颈

5.1 CPU tier 不足会让 GPU 等待

5.2 网络不是附属问题

5.3 data path 和 orchestration layer 决定延迟与成本

六、AMD 的位置:用 EPYC CPU 填充 agentic CPU racks

6.1 AMD 把这个变化映射到 EPYC portfolio

6.2 roadmap 中的 Venice

6.3 AMD 的总体主张

七、给 IT leaders 的结论:把 agentic AI 当成数字劳动力,而不是 chatbot 插件

7.1 从 pilot 到 production, sizing 逻辑要改变

concepts|2️⃣ 关键概念、概念网络

agentic reading|3️⃣ 费曼 x3