
structure|1️⃣ 三级笔记、思想框架
《Ben Thompson 访谈:算力短缺如何改变消费者 AI 与聚合理论》
核心观点/主旨
这场访谈的核心,是 Ben Thompson 用 AI 算力短缺重新审视 Stratechery 长期以来的几个基本框架:互联网公司的零边际成本、聚合理论、消费者产品与企业产品的分野,以及 Apple、Meta、Google、AWS 等公司的战略位置。AI 并没有简单复制过去的互联网经济学,因为推理和训练都被真实的物理算力、能源、选址、芯片产能和内存层级约束住了。但 Thompson 的判断不是“聚合理论失效”,而是需求控制者依然会把供给拉到自己身边,只是这个过程从纯软件世界进入了有摩擦的实体基础设施世界。
一、算力短缺改变了“零边际成本”的默认心智
1.1 互联网时代的零边际成本,本来就是一种管理心智
- Thompson 认为,过去说互联网业务是零边际成本,本来就带一点“作弊”:Google、Facebook 也要买数据中心和算力,并不是真的没有边际成本。
- 真正重要的是管理层心智:在传统互联网时代,管理者通常不会认真计算“多一个用户要花多少算力”,因为默认只要需要算力就能获得。
- 这种默认让互联网公司能够围绕规模、分发、需求聚合和网络效应做决策,算力供给没有进入核心战略约束。
1.2 AI 的关键变化不是电费更贵,而是全球算力总量有限
- AI 的新约束,不只是单次推理更耗电、芯片更贵,而是世界上可用算力本身是有限的。
- 当企业必须问“我们能不能拿到足够算力”时,战略决策会和过去完全不同。
- 这个约束会影响企业与消费者市场的付费能力分化:企业为生产力付费,消费者不一定为生产力付费,算力因此会被更高意愿付费的一侧优先吸走。
1.3 太空数据中心的意义,不只是便宜能源,而是绕开地面建设约束
- Thompson 认为,如果真正的问题是全球算力总量和地面基础设施供给,那么太空数据中心的理由反而更强。
- 地面数据中心面临电力、选址、分区规定、社区反对等限制;如果太空数据中心最终成立,那会反过来暴露人类在地面建造能力上的失败。
- 长期目标不是单纯降低能源成本,而是回到一种管理者不必先问“算力够不够”的世界。
二、聚合理论仍然成立,但从纯软件进入有摩擦的物理世界
2.1 Anthropic 的算力问题说明“需求控制者会吸引供给”
- Thompson 反对“OpenAI 会因为掌握算力而自然赢掉 Anthropic”的说法。
- 他的判断是:如果 Anthropic 有最强的付费意愿和付费能力,它最终就会拿到算力。
- 这正是聚合理论的延伸:控制需求的一方,最终会把供给拉到自己身边。
2.2 但 AI 时代的供给迁移有更多摩擦
- 软件世界里供给可以非常快地响应需求;AI 算力供给则牵涉实体数据中心、芯片产能、云服务商内部取舍和长期合同。
- 当 Google 把 TPU 产能或云算力卖给 Anthropic,本质是在做市场化选择:把有限供给卖给出价更高、回报更确定的一方。
- 因此聚合理论的方向仍然成立,但过程没有过去那么“干净”。
2.3 美国基础模型竞争不是简单两强格局
- Thompson 认为,美国的主要玩家至少包括 OpenAI、Anthropic、Google、Meta,同时还不能忽略中国开源模型。
- Google 的优势在基础设施:它可以通过 Google Cloud、TPU 和自有模型参与竞争,问题是利润会停留在基础设施层,还是上升到模型与应用层。
- Meta 的特殊性在于它没有云业务可以兜底,所以必须直接面向消费者产品找到 AI 的消费级价值。
三、从 answer inference 到 agentic inference:人是否在环路中,决定基础设施优先级
3.1 当前大部分 AI 仍是“回答式推理”
- Thompson 把今天的聊天机器人和很多编程工具都归入 answer inference:用户提出任务,等待模型返回结果。
- 只要人还在等待,延迟就是核心体验指标。
- 即便 coding agent 会自检、跑流程、生成 PR,人仍然在环路中,响应速度仍然重要。
3.2 真正的 agentic inference 会移除人的等待成本
- 在真正的 agentic future 中,agent 会自己决定何时启动、何时停止、何时完成事件驱动或长期任务。
- 如果人不再实时等待,慢一点的计算就不再是同一个问题;重要的是任务完成,而不是每秒返回速度。
- 访谈里用“睡前让任务跑,早上回来项目完成”作为过渡例子;未来更进一步,是 agent 自己发起这些任务。
3.3 agentic inference 会让内存层级比极限速度更重要
- Thompson 认为,如果未来最大增长来自没有人在环路中的 agentic workload,那么系统优先级会改变。
- 这类工作负载可能更依赖高容量、较慢但便宜的内存层级,而不是一味追求 HBM 和极高吞吐。
- 这会改变芯片竞争:训练和回答式推理仍然看重速度,但 agentic inference 可能推动更商品化、更分层的计算和内存体系。
四、消费者 AI 的核心不是生产力,而是娱乐与广告
4.1 OpenAI 的消费者问题是误读了消费者需求
- Thompson 认为 OpenAI 最大的消费者错误,是忘了普通消费者并不真正关心生产力。
- 企业愿意为生产力付费,因为生产力意味着资产产出增加;消费者更关心娱乐。
- 这也是很多硅谷公司反复要重新学习的一课:Dropbox 等公司想做消费者公司,最后发现自己真正适合企业需求。
4.2 OpenAI 作为“意外的消费者公司”,广告试验来得太晚
- Thompson 早期称 ChatGPT 是 accidental consumer company,并曾建议 OpenAI 尽早尝试广告。
- 如果 OpenAI 在 2023 年就开始试广告,它本可以更早知道 AI 场景适合搜索式广告、展示广告,还是内容型广告。
- 到 2026 年还不知道答案,就意味着它虽然拥有大量消费者注意力,却还没有把注意力转化为独特的变现引擎。
4.3 Meta 的优势是它天然理解消费者娱乐与广告
- Thompson 长期看好 Meta,因为 Meta 的真实身份是娱乐公司,而不是生产力公司。
- Meta 拥有世界级广告业务,并且它的应用里每一个像素都可能被商业化。
- Reels、Instagram 和 Facebook 的广告之所以强,是因为用户本来就在一种非生产性、娱乐性的心态中浏览内容;广告和内容之间的心理距离更小。
4.4 Meta 的风险和机会来自同一个事实:AI 对它是存在性问题
- Meta 是纯数字业务,因此必须投资 AI;不投,长期一定会出问题。
- 这也是短期看空的理由:它要花大量钱,但回报路径并不清晰。
- 也是看多的理由:它别无退路,必须在消费者市场里把 AI 找到正确位置,而消费者市场本来就是它最擅长的地方。
五、Apple 选择不成为基础模型公司,可能是认清自身能力边界
5.1 Apple 的 Gemini 路线意味着它不准备正面挑战 OpenAI
- Thompson 认为 Apple 选择以 Gemini 作为 Siri 的基础,实际上已经做出战略选择:不把自己定位成基础模型公司。
- Apple 仍会做小模型和端侧模型,但不会像 Meta 那样“不惜一切代价”留在大模型主战场。
- 他认为这可以是合理选择,因为 Apple 是物理设备公司,不是纯数字服务公司。
5.2 Apple 的强项是硬件,弱项是互联网服务的失败式迭代
- Apple 擅长有发货日期、必须完美交付的设备产品。
- 互联网服务的逻辑相反:变量无限,必须学会优雅失败、持续迭代、围绕故障设计系统。
- Google 的基础设施文化正是这种思路:默认硬件会坏,系统要绕开失败继续运转。这和 Apple 想要打造完美硬件的文化不同。
5.3 Apple 仍可把信任和隐私包装成品牌价值
- 即便 Siri 底层使用 Gemini,Apple 仍会把它呈现为 Apple Siri,用自己的品牌为体验背书。
- Apple 的隐私叙事对它是一种 strategy credit:因为商业模式来自卖设备,它天然可以把隐私作为优势表达。
- 但这种约束也可能限制数据获取和模型训练,因此同一事实可以被正面或负面解读。
六、消费者互联网不会轻易被“前门 agent”抹掉
6.1 Thompson 不相信完全自动化的消费者商业世界
- Thompson 和访谈者都怀疑消费者会很快进入“家里所有东西自动送到、不参与购买决策”的 agentic commerce 世界。
- 他的核心判断是,投资者和分析师太容易把自己的高生产力心智投射到普通消费者身上。
- 多数消费者并不是只想最快完成任务;他们也想看、比较、犹豫、被娱乐。
6.2 DoorDash 等公司有现实世界资产作为保护层
- 很多消费者互联网公司并不只是 app,它们连接了真实世界资产和供应网络。
- 如果无人机等新物理技术出现,它们更可能接入已有需求平台,而不是凭空摧毁平台。
- Thompson 用 Google Cloud 服务 Anthropic 的类比说明:新供给常常会服务已有需求聚合者。
七、企业软件、半导体与泡沫问题:长期方向清晰,路径会很颠簸
7.1 企业软件会比理论推演更顽固
- Thompson 用有线电视的长期韧性类比企业软件。
- 理论上人们很早就能看见流媒体方向,但体育、广告、大卖场和整个经济结构让有线电视束存在了更久。
- 企业软件也会有类似黏性:短期比想象中更持久,长期则面临 AI-native 公司重构需求侧的危险。
7.2 agentic inference 可能推动半导体商品化
- 如果大量推理工作不再要求人实时等待,HBM 和极限速度的重要性会相对下降。
- DRAM、较慢芯片和更便宜的分层架构可能获得更大空间。
- Thompson 认为这在长期上对中国是有利叙事,因为中国可以生产大量较低速但可用的组件,并参与商品化过程。
7.3 算力不再稀缺时,可能出现半导体超级下行周期
- 如果供给最终过剩,AI 也可能重复半导体行业熟悉的周期:固定成本巨大,产能过剩后价格下行。
- 这可能会成为“史诗级”的半导体下行周期。
- 但 Thompson 的长期判断仍然是:算力充裕后,真正的 AI 时代才会到来;泡沫和真实技术进步可以同时存在。
关键概念/术语
- 算力短缺:AI 时代的核心约束不是单次成本,而是全球可获得算力总量有限。
- 零边际成本心智:互联网管理层过去默认算力随时可得,因此不把多一个用户的计算成本放进核心决策。
- 聚合理论:控制需求的一方,会最终把供给吸引到自己身边;AI 时代仍成立,但被实体基础设施摩擦放慢。
- answer inference:人提出问题并等待模型回答的推理模式,延迟非常重要。
- agentic inference:agent 自主运行任务、人不实时等待的推理模式,完成度比速度更重要。
concepts|2️⃣ 关键概念、概念网络
agentic reading|3️⃣ 费曼 x3