2026年5月14日,美国加州阳光依旧灿烂,但华尔街的热情比加州的天气还要滚烫。
这一天,AI芯片制造商Cerebras Systems以股票代码”CBRS”正式登陆纳斯达克。发行价每股185美元,经过三轮调价后最终敲定,募资总额达到55.5亿美元——这是2026年以来全球规模最大的IPO,也是近三年来美国科技股最大规模的上市交易。
开盘钟声响起的那一刻,Cerebras的股价如脱缰野马般狂奔。350美元、385美元——涨幅瞬间突破108%,触发熔断机制。交易恢复后,多空双方激烈交锋,最终收盘报311.07美元,日内涨幅68%。公司市值达到约950亿美元,按完全摊薄口径计算,估值已突破1000亿美元大关。
从”英伟达挑战者”到千亿市值的芯片新贵,Cerebras用一场完美的首秀,向华尔街讲完了它酝酿多年的故事。
一、整片晶圆做成一颗芯片:一场对计算本质的物理重构
要理解Cerebras为何能让资本如此疯狂,必须先读懂它的核心技术——WSE-3晶圆级引擎。
在传统芯片制造业,一片300毫米的硅晶圆会被切割成数百颗独立的小芯片。每颗芯片面积不过几百到上千平方毫米,比如英伟达最新的B200 GPU,核心面积约为1800平方毫米。这已经是业界顶尖水平,但放在Cerebras面前,不过是个零头。
WSE-3的选择是:不切割,直接把整片晶圆做成一颗芯片。
46,225平方毫米——这是WSE-3的面积,接近一张A4纸的三分之一,是英伟达B200的56倍。台积电5纳米工艺在这颗”巨无霸”上塞进了4万亿个晶体管、90万个AI优化计算核心,以及44GB的片上SRAM高速内存。
数字是枯燥的,但它们背后的技术逻辑才是真正让人着迷的地方。
想象一下,你正在用一台超级计算机训练AI模型。传统架构下,GPU芯片是”大脑”,HBM显存是”隔壁房间”,两者之间需要一条高速走廊(内存带宽)来传递数据。当模型大到参数塞不进显存时,系统不得不频繁去更远的”仓库”(主机内存甚至硬盘)调取数据,效率急剧下降。
这就是困扰所有传统计算架构的”存储墙”和”互联墙”问题。英伟达的解决方案是不断加宽走廊——提升HBM带宽、修更快的高速公路(NVLink),本质上,大脑和记忆库还是分离的。
Cerebras的解法简单到近乎疯狂:为什么不把整个大脑和它需要的所有记忆,都造在同一块物理材料上?
于是,WSE-3成为世界上第一颗真正实现”存算一体”的AI芯片。44GB片上SRAM是H100的880倍、是B200的250倍——这意味着数百亿参数的大模型,其全部权重可以一次性加载到芯片内部,紧挨着计算单元存放。数据搬运的延迟从”纳秒级往返”变为”零”。
Cerebras的创始人曾有一个绝妙的比喻:”想象一个玻璃杯就是内存,里面装的可乐是数据,而你的嘴巴代表算力。你能喝到可乐的速度,完全取决于吸管的粗细。英伟达GPU的根本问题,就在于这根吸管太细了。而我们的破局之道是——直接把吸管扔掉,端起杯子往嘴里倒。”
这不只是一颗芯片,更是对计算本质的一次物理重构。

二、推理速度革命:英伟达做不到的事
WSE-3的架构优势,在特定任务中带来了性能的指数级提升。
低延迟推理,是WSE-3的绝对主场。
在需要实时交互的场景——长文本对话、代码生成、AI Agent连续决策——传统GPU集群需要跨芯片传输数据,而WSE-3上90万个核心物理紧邻,通信就像在同一间办公室里喊话,延迟低到几乎可以忽略。
第三方实测数据显示:处理Llama 3.1 8B等小模型时,WSE-3速度可达英伟达B200的18-36倍;在生成长文本场景,速度可达B200的21倍;而在某些对延迟极度敏感的Agent任务中,优势甚至超过100倍。
OpenAI发布的GPT-5.3-Codex-Spark在WSE-3上运行时,推理速度达到1000 tokens/秒,较传统GPU集群快15倍。这意味着什么?用户在ChatGPT里打字,几乎感受不到”思考”的停顿,AI对话真正进入”实时”时代。
单芯片大模型训练,是另一个突破点。
得益于44GB的超大片上内存,WSE-3可以单芯片承载万亿参数模型的训练,而传统架构需要复杂的多卡集群切分。在700亿参数模型训练中,其速度可比传统GPU集群快30倍。
Cerebras的技术白皮书显示,WSE-3的片上互联带宽达到214 Pbit/s,是NVLink互联带宽的200倍以上。更关键的是,由于消除了绝大部分数据搬运的功耗,同算力下WSE-3的功耗比GPU方案降低30%以上,单位Token处理成本据称可降低80%。
这种优势,建立在为特定场景牺牲通用性的基础上。
英伟达的护城河从来不是硬件本身,而是CUDA软件生态。近20年的积累让它成为AI开发的事实标准——几乎所有主流框架(PyTorch、TensorFlow)都为其深度优化,全球90%的AI开发者工作流绑定CUDA。
Cerebras的SDK虽然支持主流框架,但在迁移成本和功能完整性上仍存在差距。它目前最擅长的,是”大模型推理”这个赛道——对延迟敏感、需要实时响应的场景,而非通用训练任务。
三、OpenAI的200亿美元赌注:客户的甜蜜与负担
资本市场愿意为Cerebras买单,离不开一份重磅合同的背书。
2026年1月,OpenAI与Cerebras签署了一份价值超过200亿美元的多年合作协议。OpenAI承诺采购750兆瓦的AI算力容量,合同可扩展至300亿美元。这相当于Cerebras 2025年全年营收的40倍,几乎锁定了未来数年的业绩确定性。
OpenAI CEO奥特曼毫不掩饰对Cerebras的青睐。他公开称赞Cerebras芯片是”目前世界上最好的高速推理产品”,并亲自出现在Cerebras的IPO宣传视频中。
不仅如此,OpenAI还向Cerebras提供了10亿美元贷款,并以每股0.00001美元的超低价格获得约3344.5万股认股权证。按上市后的估值计算,这笔股权价值超过40亿美元。
这种”客户即股东”的深度绑定,让外部投资者面临一个微妙的问题:Cerebras的高增长,有多少是真实市场需求,有多少是关联方安排的结果?
翻开招股书,2025年的客户结构依然让人捏一把汗:穆罕默德·本·扎耶德人工智能大学(MBZUAI)贡献营收占比62%,阿联酋人工智能公司G42占比24%,两者合计86%。
G42和MBZUAI都位于阿联酋,且存在业务关联。尽管Cerebras表示正在推进客户多元化,但新引入的”大客户”换了一个同样来自中东的关联方,本质上并没有分散风险。MBZUAI单一客户占应收账款的比例高达77.9%。
OpenAI的合同确实在改变这一结构,但新的大客户依赖风险已然形成: Cerebras的业绩高度绑定OpenAI的资本开支节奏,而OpenAI同时扮演客户、贷款人、即将到来的股东等多重角色。
四、账面盈利的真相:一场会计魔术
2025年,Cerebras交出了一份看起来很漂亮的财务成绩单:营收5.1亿美元,同比增长76%;净利润2.378亿美元,实现从2024年净亏损4.82亿美元到盈利的关键转折。
但仔细阅读招股书,这份”盈利”的含金量值得审视。
净利润中,有3.633亿美元来自一项一次性、非现金的会计调整——与G42相关的远期合同负债注销产生的账面收益。把这项剔除,再加上约4980万美元的股权激励成本,2025年实际non-GAAP净亏损约为7570万美元,比2024年的2180万美元亏损扩大了247%。
换句话说,市场看到的是”盈利+76%增长”的IPO金童,而招股书背后是”亏损在持续扩大的快速增长公司”。两个版本都不算错,区别在于你愿意相信哪一个。
另一个不可忽视的趋势是毛利率波动。2025年公司整体毛利率约39%,但硬件业务毛利率面临下行压力,受客户授予认股权、数据中心成本分摊等因素影响,公司预计短期内毛利率仍将下滑。
从成长性来看,Cerebras正在向AI云算力服务转型。云端服务及其他服务收入占比已接近30%,这是一个积极的信号——从卖硬件到卖服务,意味着更稳定的经常性收入。但能否成功转型,还要看AWS等云厂商的部署规模能否持续扩大。
五、资本盛宴:高估值背后的多空博弈
上市首日暴涨68%后,Cerebras的市值达到约950亿美元,对应市销率(P/S)接近186倍。作为对比,英伟达的前瞻市销率”仅”为约20倍。
这种极端的估值水平,意味着市场已经为Cerebras预支了未来多年乃至数年的增长预期。
乐观者的逻辑很清晰:AI推理需求正在爆发,预计将占企业AI预算的85%。随着AI应用从”训练”转向”推理”,Cerebras所在的赛道将成为下一个算力爆发点。OpenAI、AWS等巨头背书,提供了业绩可见度;晶圆级架构是真正的技术代差,英伟达在结构上难以复制。
悲观者则看到了更多风险:高估值需要高增长兑现,而Cerebras的软件生态成熟度不足,迁移适配预计需要3-5年;CUDA的护城河依然坚固;客户集中度问题尚未根本解决;更重要的是,IPO后180天(约2026年11月),员工及早期股东股份将解锁,历史数据显示高估值科技股在此阶段平均下跌8%-15%。
无论多空如何博弈,Cerebras的上市本身已经向一级市场投下了一个明确信号:华尔街正在全面押注AI基础设施建设。
六、芯片新格局:竞争与合作的新常态
Cerebras的崛起,折射出AI芯片赛道正在经历一场深刻变革。
传统的”英伟达通吃”格局正在松动。谷歌TPU、亚马逊Trainium、微软Maia、Meta自研芯片——超大规模厂商都在布局自己的AI芯片,Cerebras只是这场多元化浪潮中的一朵浪花。
但”替代”二字为时尚早。英伟达的护城河不只是硬件,更是CUDA生态、开发者社区、二十年的积累。AMD MI400已追到3200亿晶体管,Vera Rubin架构号称比Blackwell再强5倍——竞争者的追赶从未停止。
更可能出现的格局是:英伟达继续统治训练市场,而推理市场百花齐放。不同的架构针对不同的场景优化,各有各的地盘。
Cerebras CEO安德鲁·费尔德曼(Andrew Feldman)对此有清醒的认知。他在上市当天接受采访时表示:”我们不是在挑战英伟达,我们是在证明AI推理需要专门的架构。这是一个足够大的市场,容得下多家公司。”
这种务实定位,或许正是Cerebras能在资本市场上讲好自己故事的关键。
结语
从2016年成立,到2026年千亿市值敲钟上市,Cerebras用十年时间证明了”晶圆级芯片”不是痴人说梦,而是一项可以商业化量产的颠覆性技术。
它的故事还没有写完。高估值能否兑现,技术优势能否转化为市场优势,软件生态能否真正建立——这些问题都需要时间来回答。
但有一点可以确定:AI算力的战争,才刚刚开始。
本文综合自Cerebras招股书、每日经济新闻、券商中国、PANews等媒体报道,仅供参考,不构成投资建议。

发表回复