
structure|1️⃣ 三级笔记、思想框架
concepts|2️⃣ 关键概念、概念网络
context:
We have signed a new agreement with Google and Broadcom for multiple gigawatts of next-generation TPU capacity that we expect to come online starting in 2027.
费曼一下:一吉瓦 = 十亿瓦特,够一个中型城市用电。「数吉瓦级算力」意味着 Anthropic 正在采购的不是「服务器」,而是「发电厂级别」的计算资源。这是 AI 算力竞赛进入基础设施级别的标志。
context:
The partnership deepens our existing work with Google Cloud—building on the increased TPU capacity we announced last October.
费曼一下:Google 自研的 AI 专用芯片,专为神经网络矩阵运算优化。与 NVIDIA GPU 的通用性不同,TPU 是 Google 生态专属的算力引擎。Anthropic 选择大规模采纳 TPU,说明其在特定工作负载上的性价比有竞争力。
context:
Our run-rate revenue has now surpassed $30 billion—up from approximately $9 billion at the end of 2025.
费曼一下:把当前月/季的收入乘以 12 或 4,折算成全年数字。不是实际已赚到的钱,而是当前增速的「快照」。从 90 亿到 300 亿,半年不到翻了三倍多——这个数字是 Anthropic 用来证明「我们确实需要数吉瓦级算力」的核心论据。
context:
Claude remains the only frontier AI model available to customers on all three of the world’s largest cloud platforms: Amazon Web Services (Bedrock), Google Cloud (Vertex AI), and Microsoft Azure (Foundry).
费曼一下:Anthropic 的竞争护城河。别的模型公司主要绑定单一云平台(如 OpenAI 主要绑 Azure),Claude 同时在 AWS、GCP、Azure 三家上架。这让企业客户无论用哪家云都能用 Claude,也让 Anthropic 不依赖任何单一云巨头。
context:
We train and run Claude on a range of AI hardware—AWS Trainium, Google TPUs, and NVIDIA GPUs—which means we can match workloads to the chips best suited for them.
费曼一下:不把所有算力赌注压在一种芯片上。不同训练/推理任务用不同芯片,既能优化性能,也降低了供应链风险。这是 Anthropic 在「芯片层」的多元化策略,与「云层」的多云策略互相补充。
context:
Amazon remains our primary cloud provider and training partner, and we continue to work closely with AWS on Project Rainier.
费曼一下:Anthropic 与 AWS 的深度合作项目,基于 AWS Trainium 芯片构建的大规模 AI 训练集群。在本文中,提及 Project Rainier 是为了强调:尽管与 Google 扩大了 TPU 合作,Amazon 仍然是「主力」——这是一种外交平衡术。
agentic reading|3️⃣ 费曼 x3