
structure|1️⃣ 三级笔记、思想框架
《Agent 需求如何改变 AI 价值链判断》
核心观点 / 主旨
Ben Thompson 的核心判断是:Agent 正在改变 AI 的需求结构和价值链结构。过去判断 AI 泡沫时,很多人把需求看成“消费者是否愿意长期为聊天机器人付费”,把价值链看成“模型是否会快速商品化”。但 Agent 让这两个前提都变弱了:少数有主动性的人和企业就能驱动大量计算需求;真正的差异化也不只在模型本身,而在模型与 harness 的集成。
文章由此推出一个更强的结论:AI 基础设施投资未必只是投机性泡沫,Anthropic 和 OpenAI 这类把模型与 Agent 产品深度集成的公司,也可能比“模型终将商品化”的叙事里更有利润韧性。
一、作者先拆解三次 LLM 范式跃迁
1.1 ChatGPT:让世界看见 LLM,但也留下两个长期疑虑
- 第一次跃迁是 2022 年 11 月 ChatGPT 发布。Transformer 和 LLM 能力在此之前已经存在,但产品化和创业热情不足。
- ChatGPT 把 LLM 的可读性和可用性展示给大众,但也让两个缺陷深入人心:一是 LLM 会出错和幻觉;二是用户必须知道该拿它做什么,并主动检查结果。
- 这些缺陷构成了后续“AI 是泡沫”的心理基础:它看起来惊艳,但不一定可靠,也不一定能形成足够持久的需求。
1.2 o1:推理模型把 LLM 从“好用”推向“更可靠”
- 第二次跃迁是 OpenAI 在 2024 年 9 月发布 o1。到那时,基础模型和 post-training 已经让普通回答更稳定、更少幻觉。
- o1 的关键变化不是单纯输出更好的文本,而是在交付答案前先对答案进行推理和自我评估。
- 传统自回归 LLM 一旦沿某个路径生成,就会被路径依赖锁住;推理模型则会先尝试、检查、比较替代方案,再给出结果。
- 对用户体验来说,o1 减少了用户持续纠错和主动管理错误的负担,让 LLM 从“可读、可用”进一步变成“可靠、必要”。
1.3 Opus 4.5 / Codex:Agent 让模型开始完成可验证任务
- 第三次跃迁出现在 2025 年底到 2026 年初:Claude Code with Opus 4.5 和 GPT-5.2-Codex 开始真正完成以前难以完成的任务,有些任务甚至持续数小时。
- 作者强调,Agentic workload 的关键不只是模型,也不是像 o1 那样递归使用模型,而是 harness:控制模型、调用工具、管理任务流程的软件系统。
- 在编码场景里,第一范式是模型生成代码;第二范式是模型思考并迭代代码;第三范式是 Agent 指挥模型写代码、运行检查、失败后重试,整个过程不需要用户持续介入。
- 这让 ChatGPT 初代的主要缺陷被层层缓解:模型更可能第一次就对,推理模型提高正确率,Agent 再用工具验证结果。剩下的问题变成“人到底会不会主动使用它”。
二、Agent 改变了计算需求的判断方式
2.1 三个范式对应三种 compute 需求曲线
- 第一范式主要消耗训练算力,推理相对高效:用户问问题,模型直接吐出答案。
- 第二范式显著增加推理算力:推理过程本身需要更多 token;模型更有用也带来更多使用量。
- 第三范式进一步放大算力需求:一次 Agent 任务往往包含多次 reasoning model 调用;Agent 自身和工具调用也需要计算;Agent 的效用提升会带来新的使用场景和更高频使用。
- 因此,hyperscaler 的 capex 不一定是提前押注未来故事,而可能是在追赶已经超过供给的需求。
2.2 Agent 降低了“广泛人类主动采用”的必要性
- 过去 AI 使用有一个 agency 门槛:用户必须主动想到要用 AI,知道怎样把问题交给 AI,并愿意核验输出。
- 作者认为,Agent 虽然仍然需要人类 agency,但不需要很多人都有这种 agency 才能产生巨大影响。
- 关键原因是,一个有主动性的人可以控制多个 Agent。人类不再逐步管理模型,而是把目标交给 Agent,再由 Agent 管理模型与工具。
- 这意味着 compute 需求不再依赖全民高频使用聊天机器人。少数高 agency 用户和组织,就可以通过多 Agent 工作流显著放大计算使用量和经济产出。
2.3 Agent 让“泡沫判断”从消费订阅转向生产需求
- 如果 AI 的需求主要来自普通消费者订阅聊天机器人,泡沫质疑会很强,因为多数消费者不愿意长期为 AI 付费。
- 但如果主要需求来自企业生产力和 Agent 工作流,判断标准就不同:企业一直愿意为提升员工生产率的软件付费。
- 对企业高管来说,更吸引人的不是 AI 做一个更聪明的聊天助手,而是 AI 能把组织中难管理、难激励、成本高的人类齿轮替换成持续工作的 Agent。
三、企业经济动机让 Agent 需求更难逆转
3.1 企业比消费者更愿意为生产力付费
- 作者借 MacBook Neo 和 PC 市场讨论指出,多数消费者主要是内容消费型用户;真正愿意为生产力提升付费的,往往是企业。
- OpenAI 想把大比例消费者转为订阅者并不现实;广告模式很重要,但未必足以支付巨额基础设施成本。
- Anthropic 更集中押注企业市场,在作者看来更接近 AI 商业化的核心需求方:愿意付费购买生产力的软件组织。
3.2 Agent 放大少数价值驱动者,压缩组织协调成本
- 大公司里真正推动业务前进的人通常是少数;但他们的能量被庞大的组织装置过滤。
- 这个装置一方面让大规模影响成为可能,另一方面也带来巨大的协调成本、惰性和管理摩擦。
- Agent 更像纯粹的加速层:它能让那些真正驱动价值的人更直接地放大影响,而不是继续依赖层层人力协同。
- 作者并不把 AI 裁员简单看作借口。他认为 COVID 后过度招聘、薪酬结构调整确实存在,但 Agent 会把“合理规模”的判断点推向更小的组织。
3.3 AI 裁员会同时来自纠偏和前瞻性重组
- 企业会问两个问题:过去是不是为 pre-AI 世界雇太多人;未来是不是为 post-AI 世界仍然雇太多人。
- 更激进的公司可能会倾向于裁更多人,迫使留下的人用 Agent 重建规模。
- 否则,从一开始就以 AI 构建的小型竞争者会用更低成本结构和不断增强的能力逼近。
- 这会带来痛苦后果,但从经济动机看很难抵抗,并会继续推动计算需求增长。
四、Agent 改变了 AI 价值链利润归属的判断
4.1 旧判断:模型商品化,客户入口和分发更重要
- 作者引用 Horace Dediu 对 Apple 的判断:如果模型快速商品化,Apple 只需授权 Gemini 这类模型,并凭客户入口、分发和集成获胜。
- 在第一范式里,这个判断很有防守性。许多 base model 已经足够好,能满足做饭建议、基础医疗问答、陪伴、心理倾诉等普通消费场景。
- 如果模型质量足够、并且能本地运行,那么拥有设备、操作系统和高价值用户入口的 Apple 确实可能占据价值链上游。
4.2 推理范式先削弱本地推理,Agent 范式再削弱模型商品化
- 推理模型已经让本地推理叙事受损:它们需要快速计算、大量 token 和更大上下文窗口,而本地设备最大的限制正是内存和可持续计算能力。
- Apple 芯片和统一内存架构让基础推理更可行,但作者认为,短期内具备竞争力的推理模型不可能主要在本地运行。
- Agent 则进一步打击“模型只是商品”的判断:Agent 的效果不只取决于模型性能,还取决于模型与 harness 的集成程度。
4.3 利润流向集成处,而不是模块化处
- 作者用价值链理论重述:利润会从模块化、商品化的环节流走,流向集成、差异化的环节。
- Apple 本身就是这个逻辑的典型例子:硬件没有完全商品化,是因为它与软件深度集成,所以 Apple 能获得长期高利润。
- 如果 Agent 要求模型与 harness 深度集成,那么 Anthropic 和 OpenAI 这类同时掌握模型与 Agent 产品集成的公司,利润韧性会强于“模型公司终将被压价”的旧叙事。
五、Microsoft 是价值链变化的信号
5.1 Microsoft 曾想做模型无关的 AI 基础设施层
- Microsoft 原本把自己描述为集成 AI 提供商,强调与 OpenAI 的深度绑定会带来差异化基础设施。
- OpenAI 董事会危机之后,Microsoft 逐渐转向“模型是商品”的叙事,强调围绕可替换模型构建基础设施和 Core AI 策略。
5.2 Copilot Cowork 暗示真正的 Agent 不容易模型无关
- Microsoft 面对 seat-based 商业模式被 AI 冲击的问题,推出更高价的 E7 enterprise offering,并用 AI 证明更高单席价值。
- 其代表产品 Copilot Cowork 类似企业版 Claude Cowork:不是普通 Copilot chatbot,而是可以在组织数据、权限和访问策略下工作的 Agent。
- 关键点是:Cowork 不是 model agnostic。作为 Agent,它需要模型和 harness 两块集成在一起。
- 这意味着 Microsoft 至少暂时承认,要交付企业愿意高价购买的 Agent 产品,就不能完全坚持模型可替换的架构目标。
5.3 这反过来质疑 Apple 只授权 Gemini 的路线
- 如果 Microsoft 都无法通过“自己做 harness + 可替换模型”交付最强 Agent,Apple 能否仅授权 Gemini 再自建 Siri harness,就更值得怀疑。
- Apple 的缓冲在于消费者可能没那么在乎 Agent,只要“够好”即可;但在企业市场,客户会真正关心 Agent 是否可靠、是否提升生产力。
- 因此,Agent 使 Anthropic 和 OpenAI 成为价值链中的集成点,也让它们的估值和数据中心投资更难简单归入泡沫叙事。
六、文章的最终判断
6.1 作者承认“否认泡沫”本身带有反讽
- 作者开头说,最像泡沫的时刻往往是所有人都确信没有泡沫的时候。
- 他最终仍然判断:Agent 的兴起意味着当前 AI 不只是泡沫。capex 是有需求支撑的,Anthropic 和 OpenAI 也比过去看起来更 durable。
- 但他也保留反讽:如果他说“没有泡沫”本身就是泡沫信号,那也只能接受这个悖论。
关键概念 / 术语
- LLM paradigms:作者用来划分 AI 发展阶段的框架,依次是 ChatGPT、reasoning model、agentic workload。
- reasoning models:在输出前进行推理和自我评估的模型,代表是 o1。
- agentic workloads:由 Agent 管理模型、工具和验证过程的任务形态。
- harness:控制模型、调用工具、验证结果的软件层,是 Agent 产品差异化的关键。
- agency:人类主动设定目标并使用 AI 的能力;Agent 降低了这种能力的广泛普及要求。
- compute demand:由训练、推理、Agent 多轮调用、工具执行共同形成的计算需求。
- enterprise economic imperatives:企业用 AI 提高生产力、压缩组织成本、重组人力结构的经济压力。
- model commoditization:模型变成可替换组件、利润转移到分发和客户入口的判断。
- integration point:模型与 harness 深度结合、形成差异化利润的价值链位置。
concepts|2️⃣ 关键概念、概念网络
agentic reading|3️⃣ 费曼 x3