
structure|1️⃣ 三级笔记、思想框架
《“最大芯片 IPO”里的融资光环与风险折扣》
核心观点 / 主旨
本文把 Cerebras 的 IPO 故事拆成两层:技术与产品层面,WSE 是真实的工程突破,并在推理场景找到了高吞吐机会;招股书与商业层面,收入、利润、毛利率、客户结构和 OpenAI 大单都带有明显的会计与合同折扣。作者的中心判断是:Cerebras 不是没有技术含量的概念公司,但它的 IPO 光环背后,真正需要资本市场定价的是一组非常具体的风险。
一、Cerebras 的技术故事:一颗晶圆级大芯片
1.1 Wafer-Scale Engine 的核心差异
- Cerebras 的核心产品是 Wafer-Scale Engine(WSE),不是把一颗 die 切下来封装,而是把一整片 12 吋晶圆做成一颗芯片。
- 普通芯片受 Reticle 大小限制,单颗 die 面积有限;Cerebras 与 TSMC 通过 Cross-reticle stitching,让金属连线跨过 Scribe line,把多个 Reticle 版图拼成一整片晶圆级计算系统。
- WSE-3 约有 90 万颗核心和 44GB 片上 SRAM,这让它在片内计算与片内带宽上具有很强辨识度。
1.2 工程突破与良率口径的差异
- 作者承认 WSE 在版图设计、片上互联、缺陷绕行、PVT 一致性、散热、供电、封装等方面都啃下了硬骨头,是工程意义上的突破。
- Cerebras 对外宣称良率做到 100%,但作者认为它改变了良率的计算方式:不是看一颗 die 是否完整可用,而是看整片晶圆能否通过冗余核心和片上网络绕过缺陷,形成逻辑上完整的计算系统。
- 这不是简单偷换概念,因为大面积系统可用性本身很难;但它和传统 GPU 良率不在同一个度量衡里,不能直接横向比较。
1.3 “内快外慢”的结构性特点
- WSE 的片上 NoC 带宽达到 Pbps 量级,这是 Cerebras 多次强调的创新点。
- 但只要数据离开晶圆,就会面对其他 AI 芯片同样面对的片间与片外互连瓶颈;作者指出片内与片间互连的量级差约在 100 倍以上。
- 这种“内快外慢”决定了 Cerebras 后续从训练转向推理的产品故事。
二、训练梦碎:单芯片亮点无法替代系统能力
2.1 训练市场的真实约束
- Cerebras 最早瞄准训练,但大模型训练拼的不是单芯片算力,而是外部内存、外部互连和大规模系统搬运能力。
- 权重、梯度、optimizer state、activation 都要在系统中高效搬运,WSE 的短板恰好在片外 I/O 和互连。
- Nvidia 的壁垒不是单个 GPU,而是 GPU、CUDA、NCCL、NVLink、NVSwitch、HBM、服务器、云厂商部署和开发者生态构成的完整系统。
2.2 客户机会成本与非 Nvidia 训练芯片困境
- 训练场景客户主要是全球大模型头部玩家,他们的战略任务是留在牌桌上、追最快迭代。
- 在这种机会成本下,客户很难拿关键训练任务去赌一颗非 Nvidia 训练芯片。
- Cerebras 曾用 SwarmX 和 MemoryX 解决 WSE 外部内存与扩展问题,但这套配套在实际部署中没有真正成为主线。
2.3 稀疏路线没有成为模型演进主线
- Cerebras 曾押注非结构化权重稀疏,希望通过 8:1 任意稀疏获得接近 8 倍有效算力。
- 但大模型后来的主流方向是 MoE、低精度量化和 attention 优化,而不是 Cerebras 试图在硬件上泛化支持的任意稀疏。
- 作者由此强调,AI 芯片产品经理必须对模型演进有深刻理解和预判,否则产品定义会面临极高风险。
三、推理新机会:高吞吐路径成立,但必须挑客户
3.1 推理和训练的系统约束不同
- 推理场景与训练不同,计算模式更容易解耦,Cerebras 把推理任务做成流水线。
- 它把大模型按层切成几段,分别放到一片或多片 WSE 上;推理时数据像传送带一样逐片流动,每片只负责其中一段计算。
- 片与片之间主要传输中间结果 activation,而模型权重和 KV cache 被锁在每片 WSE 内部,避免反复跨片搬运。
3.2 这条路线绕开了 WSE 的最大短板
- WSE 最大短板是片外 I/O 不够快,推理流水线把真正吃内存的部分留在片内,从而绕开短板。
- 对追求高 token 吞吐的推理场景,这条路线具有真实工程意义;Cerebras Inference 在公开 benchmark 中跑出过约 15 倍于主流 GPU 方案的 token 速度。
- 但强泛化推理很难,模型大小、结构、KV cache 需求、SRAM 容量和片外 I/O 都会影响适配效果。
3.3 最优市场策略是少数大客户深度适配
- 作者认为 WSE 只能在“特定模型 + 特定适配”的场景下打出最强表现。
- 它的经济意义要求 Cerebras 找最通用的模型和量最大的 Hyperscaler 客户,针对客户计算系统做软硬件适配与优化。
- 因此,Cerebras 在技术上找到了推理市场机会,但这条路必须依赖少数大客户和深度适配才能走通。
四、OpenAI 大单的另一面:资金闭环与股权换订单
4.1 200 亿美元合同不是简单订单
- Cerebras 在 2026 年 1 月宣布与 OpenAI 的多年合同,金额超过 200 亿美元,部署 750MW 高速 AI 推理算力,并共同设计未来模型与硬件。
- 在 S-1 中,这个故事被拆成工作资本贷款、客户认股权证、共同设计义务和排他条款等多组条款。
- 作者认为,必须把这些条款拼在一起,才能看到商业实质。
4.2 OpenAI 的 10 亿美元贷款受控且可抵销
- OpenAI 向 Cerebras 提供 10 亿美元 secured promissory note,年利率 6%,到期日不晚于 2032 年 12 月。
- 这笔钱的账户由 OpenAI 控制,Cerebras 不能自由支配;若 MRA 因非 OpenAI 重大违约之外的原因终止,OpenAI 可冻结并要求立即偿还。
- Cerebras 可用现金,也可用算力、硬件或其他服务抵销本金和利息,这使贷款与未来服务收入形成闭环。
4.3 Warrant 把客户做成准股东
- Cerebras 向 OpenAI 发行 33,445,026 股 Class N 普通股认股权证,行权价几乎等于白送。
- 按 S-1 披露的授予日公允价值,这份 warrant 总价值约 27.4 亿美元,归属分为贷款到账、市值或付款里程碑、交付节奏和额外容量选项等多档。
- MRA 还包含一定排他性安排,意味着 Cerebras 在获得 OpenAI 大单的同时,让渡了部分潜在客户空间。
4.4 商业实质:算力期权 + 股权认购权
- 作者把这组安排概括为完整资金闭环:OpenAI 借出资金,Cerebras 用于采购、扩产和数据中心,之后把算力卖回给 OpenAI,OpenAI 可用应付货款抵销贷款本金。
- 结果是 OpenAI 的现金没有真正流出,Cerebras 的现金也没有真正留下;OpenAI 得到算力使用权和大额认股权证。
- 这是一笔被会计准则切成三张表的同一笔生意,本质是“算力期权 + 股权认购权”的打包交易。
4.5 Contra-revenue 会冲减未来收入
- S-1 Note 4 把客户 Warrant 按授予日公允价值作为合同交易价格扣减项,随商品或服务交付按比例冲减收入。
- 2025 年报表还没有受 OpenAI Warrant 影响;但公司预计从 2026 年 Q1 开始,warrant 对应的 contra-revenue 会让季度收入增长率较此前趋势放缓。
- 按 probable 判断,已归属及被认为 probable 的部分约 1900 万股,对应约 15.4 亿美元,将随 OpenAI 收入确认节奏冲减收入。
五、财务表象:盈利、毛利率和客户结构都需要折价理解
5.1 GAAP 盈利包含一次性会计重估
- S-1 披露 Cerebras 2025 年 GAAP 净利润为 2.378 亿美元,看上去已经盈利。
- 但作者指出其中包含 3.633 亿美元一次性会计重估;剔除这笔重估和股权激励后,Non-GAAP 净亏损为 7570 万美元,同比扩大约 5400 万美元。
- 2024 年经营现金流为正主要来自客户预付款,2025 年随着预付款消化转为负值。
5.2 39% 毛利率尚未扣除关键客户 warrant 影响
- Cerebras 毛利率从 2024 年的 42.3% 降到 2025 年的 39.0%,原因包括云业务占比上升和数据中心相关成本稀释毛利。
- 2026 年开始确认 OpenAI 和 AWS warrant 的收入冲减后,报告口径毛利率会进一步承压。
- 作者因此把 39% 毛利率视为需要打折理解的表象,而不是稳态盈利能力。
5.3 客户集中度极高
- S-1 Note 5 披露 G42 和 MBZUAI 在会计上被认定为相互关联方。
- 2024 和 2025 两年,Cerebras 几乎全部收入来自同一组阿布扎比实体;2025 年 86% 收入来自相互关联的阿联酋客户组合,其他客户约 14%。
- OpenAI 在 2025 年财报中尚未真正开始确认收入,所以 IPO 后收入故事高度依赖 OpenAI,而 OpenAI 故事又需要 warrant 作为配套条件。
六、资本市场需要回答的五个问号
6.1 真实毛利率是多少
- 第一个问题是剔除股权对价后的真实毛利率。
- 2025 年 39% 毛利率没有扣 OpenAI Warrant;probable 部分约 15.4 亿美元将从 2026 年 Q1 起按比例冲减收入。
- 如果 IPO 后股价继续上升,未来新增归属部分的公允价值更高,对收入拖累也可能更深。
6.2 OpenAI 订单到底锁定了多少
- 第二个问题是 200 亿美元 OpenAI 订单的下限。
- MRA 把按 SLA 砍单、Working Capital Loan 抽贷和 Additional Capacity 是否行使的权利交给 OpenAI。
- 如果 Cerebras 履约不达标,订单可以被部分或全部终止;如果额外容量不行使,合同金额和第三档 warrant 归属都会大幅缩水。
6.3 客户结构能否切换
- 第三个问题是 Cerebras 能否从“主权 AI 项目承包商”切换为“AI 推理基础设施公司”。
- 2024–2025 年收入高度依赖 G42 + MBZUAI 组合,这种集中度让估值锚不稳定。
- OpenAI 能否在 2026–2027 年真正稀释客户集中度,要看实际收入分布,而不是合同金额和市场叙事。
6.4 WSE-4 能否补齐架构短板
- 第四个问题是 WSE-4 能否补齐硬件架构短板。
- 作者列出 WSE-3 的缺口:低精度浮点支持不足、片外和片间互连带宽不足以支撑大模型 KV cache、核心粒度太小导致编译器和数据映射复杂。
- 如果 WSE-4 不能做数量级改善,超高速推理故事就不完整,毛利率改善也不能只靠软件优化。
6.5 Warrant 换订单能否被二级市场接受
- 第五个问题是客户认股权证换订单模式能否持续。
- AMD 与 Meta、AWS 与 Cerebras、OpenAI 与 Cerebras 都有类似安排,国内外 AI 芯片公司也在使用各自版本的客户股权激励换订单。
- Cerebras IPO 是这一模式在国际资本二级市场上的压力测试。
关键概念 / 术语
- Wafer-Scale Engine(WSE):Cerebras 把整片 12 吋晶圆做成一颗芯片的核心产品,是公司技术叙事的基础。
- Cross-reticle stitching:跨 Reticle 连接金属线,把多个曝光区域拼接成整片计算系统的关键工艺。
concepts|2️⃣ 关键概念、概念网络
agentic reading|3️⃣ 费曼 x3