ETO Markets 市场洞察|Cerebras 首日暴涨 68% ,晶圆级芯片挑战“一哥”英伟达
摘要:5 月 15 日,英伟达替代方案Cerebras Systems 正式登陆纳斯达克。公司 IPO 定价为每股 185 美元,首日开盘报 350 美元,盘中一度冲至 385 美元附近,收盘报 311.07 美元,较发行价上涨约 68% 。据 ETO Markets 观察,其 IPO 募资 55.5 亿美元,首日完全摊薄估值一度达到 1067.5 亿美元,成为 2026 年以来美股最大规模 IPO 之
5 月 15 日,英伟达替代方案Cerebras Systems 正式登陆纳斯达克。公司 IPO 定价为每股 185 美元,首日开盘报 350 美元,盘中一度冲至 385 美元附近,收盘报 311.07 美元,较发行价上涨约 68% 。
据 ETO Markets 观察,其 IPO 募资 55.5 亿美元,首日完全摊薄估值一度达到 1067.5 亿美元,成为 2026 年以来美股最大规模 IPO 之一。
Cerebras 的核心卖点,是用整片晶圆制造单颗超大芯片,把传统 GPU 集群中大量芯片互联、数据搬运和延迟问题,压缩到一颗晶圆级处理器内部。在英伟达一家独大、产能供不应求的背景下,云端服务商和大型企业都在急切寻找类似 Cerebras 这种的第二替代方案。
晶圆级破局
Cerebras 最核心的技术壁垒,是 Wafer-Scale Engine,也就是晶圆级芯片。公司最新 WSE-3 采用整片 300 毫米晶圆制造,面积达到 46,225 平方毫米,集成 4 万亿个晶体管、90 万个 AI 优化核心,并拥有 44 GB 片上 SRAM 。相比传统 GPU 依靠多颗芯片堆叠和高速互联,Cerebras 选择把计算、内存和通信尽量集中在单颗巨型芯片上。
这套架构解决的不是“峰值算力”一个问题,而是 AI 推理中的延迟问题。大模型在生成回答、写代码、执行智能体任务时,需要不断读取上下文、生成 token 、再进入下一轮推理。传统 GPU 集群虽然算力强,但数据在芯片、显存和网络之间反复移动,延迟和带宽会成为约束。
Cerebras 的逻辑更直接:把更多计算核心和片上内存放在一块超大芯片中,减少跨芯片通信,让模型输出更快。这也是为什么它最容易打动市场的场景,不是所有 AI 训练任务,而是低延迟推理、实时交互、代码生成和 AI Agent 这类对响应速度高度敏感的工作负载。
OpenAI 加持
当前,AI 行业正从“训练大模型”全面转向“高频使用模型”的新阶段。训练决定模型能力上限,推理决定商业化效率与成本。ChatGPT、AI 编程助手、企业智能体及实时多模态应用,均需持续响应海量用户请求,推理速度直接决定体验与单位经济模型。
OpenAI 与 Cerebras 达成深度绑定。未来三年 OpenAI 有望向 Cerebras 相关服务器投入超 200 亿美元,并通过权证获得少数股权。同时,OpenAI 将提供约 10 亿美元,支持 Cerebras 建设面向 AI 产品的数据中心。
OpenAI 官方公告显示,双方将部署 750 MW 的超低延迟 AI 算力,分阶段承接不同工作负载,核心目标是显著提升推理速度,为实时交互与高价值负载提供更强的可扩展基础。
这意味着 Cerebras 的价值并非简单替代英伟达,而是精准切入 AI 链条中最紧缺的低延迟推理算力。随着模型复杂度与用户调用频次持续攀升,推理成本将成为 AI 企业最核心的利润约束。行业下一阶段的算力竞争核心,在于降低延迟、提高吞吐,具备该能力的企业,将在 AI 基础设施领域掌握更高的行业议价权。
在高速发展的同时,企业仍存在明显的经营风险,核心问题为客户集中度偏高。
Cerebras 过往营收高度依赖阿联酋 AI 公司 G42,其早期 IPO 计划也因相关审查问题被迫延迟。目前企业虽已拓展 Amazon、OpenAI 等头部核心客户,但整体收入结构尚未实现有效分散,客户集中的隐患依旧存在。
云厂商入局
除了 OpenAI ,AWS 的合作让 Cerebras 获得了更大的商业通道。
Cerebras 与 AWS 在 3 月宣布合作,将把 Cerebras CS-3 系统部署在 AWS 数据中心,并通过 Amazon Bedrock 提供推理能力。方案采用 AWS Trainium 负责 prefill ,Cerebras CS-3 负责 decode ,再通过 Amazon EFA 网络连接两端,以提升生成式 AI 和大模型工作负载的推理速度。
AI 推理可以拆成两个阶段:先处理用户输入,也就是 prefill ;再逐个生成输出 token ,也就是 decode 。前者更适合并行计算,后者更依赖内存带宽和低延迟。AWS 与 Cerebras 的合作,本质上是在承认:未来 AI 推理不一定由单一芯片完成,而可能由不同架构按任务拆分协同。
如果这套模式跑通,Cerebras 就不只是卖硬件,而是通过云厂商进入企业客户的 AI 推理预算。相比直接向客户销售系统,进入 AWS Bedrock 能降低客户采用门槛,也能让 Cerebras 更快验证其推理速度优势。
估值明显抬高
Cerebras 当前的最大优势,是技术路线足够不同,客户背书足够强,市场叙事也足够清晰。但它的风险同样集中:第一,晶圆级芯片制造难度高,良率、成本和供应链稳定性都需要持续验证;第二,英伟达、AMD 、AWS Trainium 、Google TPU 等竞争路线仍在快速迭代;第三,IPO 首日估值已经大幅前置,后续需要收入兑现支撑。
有消息称,Cerebras 在 IPO 定价 185 美元时,部分机构认为按 2028 年销售额和 EBITDA 估值尚可接受;但在首日大涨后,估值已经明显抬高,市场开始关注其长期可持续性。
ETO Markets 提示,Cerebras 上市首日暴涨,反映市场正在寻找英伟达之外的第二条 AI 算力主线。随着 AI 应用从训练走向高频推理,芯片竞争将不再只看单卡算力,而会更重视延迟、带宽、系统架构、客户绑定和云端交付能力。
投资者后续需重点关注三条变量:一是 OpenAI 长约能否持续转化为收入;二是 AWS Bedrock 合作能否打开企业推理场景;三是 Cerebras 能否在高估值下证明其晶圆级架构具备规模化商业能力。若低延迟推理需求继续爆发,Cerebras 可能成为 AI 基建新周期的重要标的;但若订单兑现不及预期,首日暴涨后的估值波动也会更加剧烈。
免责声明:
本文所载信息仅供参考,不构成任何投资建议、要约或招揽。我们不对信息的准确性、完整性或时效性做出保证,对于因依赖此信息而造成的任何损失不承担责任。
免责声明:
本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性作出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任

