作者waitrop (嘴炮无双)
看板Stock
标题Re: [新闻] 告别GPU OpenAI推出极速晶圆引擎模型
时间Fri Feb 13 14:41:06 2026
※ 引述《h0103661 (单推人) 每日换婆 (1/1)》之铭言:
:
: 原文标题:
: Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras
:
: 原文连结:
: https://www.cerebras.ai/blog/openai-codexspark
:
: 发布时间:
: 2026-02-12
:
: 记者署名:
: James Wang
:
: 原文内容:
: Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b
: y Cerebras, is available in research preview. This marks the first release in ou
: r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti
: me software development where responsiveness matters as much as intelligence. Po
: wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli
: ng near-instant feedback in live coding environments.
: 今日,我们正式发布由 Cerebras 技术驱动的 OpenAI 全新模型 GPT-5.3-Codex-Spark,并
: 开放研究预览。这是 OpenAI 与 Cerebras 合作的首个里程碑。Codex-Spark 专为对响应速
: 度要求极高的即时软体开发而设计。凭藉 Cerebras 晶圆级引擎(Wafer-Scale Engine)的
: 强大效能,其执行速度突破每秒 1,000 个标记(tokens/s),为即时程式开发环境提供近
: 乎瞬时的回馈。
: Agentic coding has fundamentally changed software development. For the first tim
: e, machines can autonomously work for hours or days without human supervision. B
: ut this mode of interaction can also leave developers feeling out of the loop wi
: th long wait times and less opportunity to direct the work. As software developm
: ent is iterative, developers need to inject taste, direction, and sensibility al
: ong the way. Codex-Spark is designed for this kind of real-time, iterative work.
: It is fast, responsive, and steerable, putting the developer back in the driver
: ’s seat.
: Codex-Spark is a smaller version of Codex optimized for fast inference. On agent
: ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0,
: it produces more capable responses than GPT-5.1-Codex-mini while completing tas
: ks in a fraction of the time.
: Codex-Spark excels at making precise edits, revising plans, and answering contex
: tual questions about your codebase. It’s a fast way to visualize new layouts, r
: efine styling, and test new interface changes.
: 「代理型编码」(Agentic coding)已从根本上改变了软体开发,使机器能独立运作数小时
: 甚至数日。然而,这种模式也可能让开发者因漫长的等待而产生疏离感,减少了引导工作的
: 机会。由於软体开发本质上是反覆迭代的过程,开发者需要随时注入审美、方向感与判断力
: 。Codex-Spark 正是为此类即时、互动式工作而生;它反应迅速且易於引导,让开发者重新
: 掌握主导权。
: Codex-Spark 是针对快速推论(Inference)优化的 Codex 精简版本。在 SWE-Bench Pro
: 与 Terminal-Bench 2.0 等代理型软体工程基准测试中,它的表现优於 GPT-5.1-Codex-min
: i,且完成任务的时间仅需後者的一小部分。
: Codex-Spark 擅长进行精确编辑、修订计画,以及回答关於程式码库的脉络问题。对於视觉
: 化新布局、精炼样式及测试介面更动,它提供了一种极速的实现方式。
: "Cerebras has been a great engineering partner, and we’re excited about adding
: fast inference as a new platform capability. Bringing wafer-scale compute into p
: roduction gives us a new way to keep Codex responsive for latency-sensitive work
: , and we’re excited to learn from developer feedback on how to compose our comp
: ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria
: l Compute at OpenAI.
: OpenAI 工业运算负责人 Sachin Katti 表示:「Cerebras 是杰出的工程合作夥伴,我们很
: 高兴将『快速推论』纳入平台能力。将晶圆级运算导入生产环境,为维持 Codex 在延迟敏
: 感型任务中的响应速度提供了全新途径。我们期待透过开发者的回馈,学习如何将这些运算
: 能力整合进流畅的工作流中。」
: Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade
: r goal is to accelerate a wide spectrum of AI workloads across both real-time an
: d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg
: est on-chip memory of any AI processor, enabling high-speed inference at thousan
: ds of tokens per second per user. The architecture scales out to thousands of sy
: stems, extending fast memory capacity into the multi-terabyte domain to support
: trillion-parameter models for both training and inference. We expect to bring th
: is ultra-fast inference capability to the largest frontier models in 2026.
: Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th
: e Codex app, CLI, and VS Code extension, with API access rolling out to select d
: esign partners. Try Codex-Spark rolling out today.
: Codex-Spark 仅是 Cerebras 硬体潜力的初步展现。我们的长远目标是加速涵盖即时与异步
: (Asynchronous)情境的全方位 AI 工作负载。我们专为 AI 打造的晶圆级引擎拥有业界最
: 大的片上记忆体(On-chip memory),可支援每位使用者每秒数千个标记的极速推论。该架
: 构可扩展至数千台系统,将高速记忆体容量提升至多 TB 等级,足以支援兆级参数模型的训
: 练与推论。我们预计在 2026 年将此极速推论能力导入最强大的前沿模型中。
: Codex-Spark 研究预览版即日起向 ChatGPT Pro 用户推送,支援 Codex App、CLI 及 VS C
: ode 扩充功能;API 存取权限则将逐步开放给特定设计合作夥伴。欢迎今日立即体验 Codex
: -Spark。
:
:
: 心得/评论:
:
: 上个月我有发了两家合作的消息,
: 今天正式推出第一个合作产品,推理速度破千的GPT-5!
: 给大家一个比例尺:平常用的GPT-5速度不到一百。
:
: Cerebras的台积电5奈米晶圆引擎WSE-3是世界唯一的晶圆运算,
: 由於能直接载入整个AI模型到运算单元上,
: 速度是GPU的数十倍,
: 这是Cerebras成立以来第一个企业级应用,
: 或将冲击整个GPU市场。
:
:
我之前有分析过,
https://webptt.com/cn.aspx?n=bbs/Stock/M.1769589988.A.C87.html
Cerebras是用大力出奇蹟的方式,
晶片大小是其他GPU/TPU的百倍大小,
一片晶圆wafer 切出一颗,
这会导致良率极低
基本上,
Cerebras有两个问题: 1. 良率, 2. 相容性(CUDA)
以OpenAI的软体能力,
相信可以绕过CUDA 的相容性问题,
也就是说,
相信OpenAI 有能力可以把自己的模型移植到Cerebras晶片上运行,
所以对OpenAI+Cerebras而言,
最大的问题就是良率,
以Cerebras的良率跟体量,
不太可能可以吃下所有 ChatGPT Pro 用户,
1%? 10%? 20%?
不确定能吃下多少的用户量,
但是对NVDA 影响不大,
2nd solution 的AMD Intel可能就会受到影响
另外,
对於板上的大神与专家们的指教,
我回应几句话,
我只是用国小数学以及大一基本课本的内容做解释,
浅显易懂, 不去卖弄专业,
主要目的是让大家知道真相,
然後很多大神跟专家对我的提出的观点,
有很多的指教以及抓错,
其实,
我也不是笨蛋,
我当然知道我说法的问题,
只是主打一个浅显易懂, 大方向正确,
这样说吧!
要是良率可以用之前推文里说的各种方式解决提高良率,
那为何Intel 三星还在为良率的问题被台积电打趴,
各种提高良率的方式,
都只是小部分的改进,
大方向跟大数字是不会差太多的,
的确,
Cerebras 的良率可能不会到1%那麽惨,
但是绝对绝对是极低良率 极低产量,
要是Cerebras产量够大,
怎麽没有大量部署到各大CSP厂,
撇开CUDA相容问题,
就是产量不够,
而且这麽大的晶片一定是特殊机器特殊规格
然後,
因为Cerebras的良率问题,
所以Cerebras只能选择台积电,
一样用国小数学算一算就知道,
Cerebras面积这个大,
吃代工厂良率就更重
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 76.103.225.6 (美国)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1770964868.A.BB6.html
1F:→ komeko : 写那麽多小作文结果微软还是没反弹 02/13 14:44
???
我没有买微软, 我也没有推微软
※ 编辑: waitrop (76.103.225.6 美国), 02/13/2026 14:46:07
2F:推 lawy : 感谢W大持续分享,把复杂的事说的业外也看得懂 02/13 14:47
3F:推 madeinheaven: 最主要的问题是SRAM很贵 02/13 14:48
4F:推 madeinheaven: 会做成那麽大也是因为SRAM的关系 02/13 14:51
5F:→ chewthelife8: 1楼三小啦……. 02/13 14:51
6F:推 strlen : 老黄还是破不了200 02/13 14:52
7F:推 abc0922001 : 不管到时候用谁的GPU,或者用不用GPU,都是GG代工 02/13 14:54
8F:推 kira925 : 对AMD/Intel的"晶片"影响可能还没那麽大 02/13 14:59
9F:→ kira925 : 这有一定程度是打广告 02/13 14:59
10F:推 ztsc0304356 : 感谢W大的分享和用心解说 02/13 15:02
11F:推 madbele : qqq最近好惨,请问大神对qqq盘那麽久还没发动有什 02/13 15:05
12F:→ madbele : 麽看法吗QQ 02/13 15:05
13F:推 Coolno9 : 支持w大的方式 投资向来不保证懂最细最新的人赢 02/13 15:08
14F:推 fakelie : wait来啦 02/13 15:14
15F:推 wahaha99 : 这个大晶圆的不良是内部处理吧? 02/13 15:26
16F:→ wahaha99 : 把不良、故障的单元隔离掉就好 02/13 15:26
17F:→ wahaha99 : 良率应该是90%以上 只要达到出货标准就可以出货 02/13 15:26
18F:推 searchroy : Only GG 02/13 15:33
19F:嘘 ttmm : 呵呵 02/13 15:36
20F:→ ttmm : 以为2这麽简单阿 他们是软体公司ok 02/13 15:36
21F:→ niniko : 结论是不是买台积电就对了? 02/13 15:38
22F:推 QDR18 : 感谢分享 02/13 15:42
23F:推 speculator : 大概就是这东西对良率要求很高 也会很贵吧 02/13 15:50
24F:推 as6633208 : 嗯...基本上欧喷酱,近期操作本质都是一直试着找回 02/13 16:01
25F:→ as6633208 : 自己的主导权,但其实内心深处大家越不怕他,欧喷酱 02/13 16:01
26F:→ as6633208 : 心里越怕== 本来chatgpt 一哥,先被Gemini 压制,然 02/13 16:01
27F:→ as6633208 : 後又要被Anthropic追过,其实欧喷酱现在最怕的反而 02/13 16:01
28F:→ as6633208 : 是老黄跑去大力帮anthropic,唉,好可怜,欧喷酱科 02/13 16:01
29F:→ as6633208 : 技政客组局快极限了吗,唯一没有从0开始到千亿市值 02/13 16:01
30F:→ as6633208 : 的公司ceo,靠着科技政客组局和权力斗争看来快到极 02/13 16:01
31F:→ as6633208 : 限了,科技发明家从0开始,白手起家经营到七巨头的 02/13 16:01
32F:→ as6633208 : 企业,ceo的还是比较有料,看着犹太屁精这样真的觉 02/13 16:01
33F:→ as6633208 : 得有点可怜== 02/13 16:01
34F:→ appledick : GG:这谁能做啊? 02/13 16:04
35F:推 roseritter : 这颗就是拼超爆量小核,缺陷多到某个程度就不划算惹 02/13 16:04
36F:→ roseritter : ,能用核变的更少 02/13 16:04
37F:→ as6633208 : 他爬到了一个不属於他的高度,该均值回归了,跟 贾 02/13 16:05
38F:→ as6633208 : 伯斯 马斯克 祖克柏 黄仁勳这些从白手起家经营到现 02/13 16:05
39F:→ as6633208 : 在的ceo还是有点差距阿,anthropic 那个ceo达利欧还 02/13 16:05
40F:→ as6633208 : 比较像创业家,感觉奥特曼...胸口的光开始闪红灯快 02/13 16:05
41F:→ as6633208 : 要没光了 02/13 16:05
42F:→ roseritter : 反倒是一般的晶片,坏的部分遮蔽後还能当次货卖 02/13 16:06
43F:推 as6633208 : 看好他的犹太血统,但感觉同样是犹太人,怎麽神力好 02/13 16:09
44F:→ as6633208 : 像还是有差 02/13 16:09
45F:推 breathair : Cerebras 用备用核心避开单点故障整片报废的问题, 02/13 16:14
46F:→ breathair : 理论上良率不会差喔,而且他不用CoWoS封装,理论上 02/13 16:14
47F:→ breathair : 产能出的来喔,而且速度理论上会比机柜式solution 02/13 16:14
48F:→ breathair : 更好,当然,以上都是理论 02/13 16:14
49F:推 edison106 : 这篇说的正确 02/13 16:17
50F:→ edison106 : 除了良率 这麽大片光要测试都不知道要搞多久了 成 02/13 16:24
51F:→ edison106 : 本一定高到靠北 02/13 16:24
52F:推 b325019 : 都几年了还头铁搞超大晶片真的是不怕死 02/13 16:29
53F:推 uodam64402 : 一片晶圆只能产一片晶片,这种肯定要作损害控管分割 02/13 16:31
54F:→ uodam64402 : ,切分成数十到百多个区域来剔除不良区,以提升晶片 02/13 16:33
55F:→ uodam64402 : 可使用程度吧,这东西肯定比GB-200的晶圆总价贵不少 02/13 16:33
56F:推 as6633208 : 晶片设计这块啦 老黄的护城河包含设计技术、客户关 02/13 16:35
57F:→ as6633208 : 系、产业链关系,深不见底,看看全村希望amd 一项没 02/13 16:35
58F:→ as6633208 : 跟上财报就撑不住被华尔街看破手脚,另外自研的那些 02/13 16:36
59F:→ as6633208 : 笑话看看就好,孤狗买老黄晶片的力道还比谁都还用力 02/13 16:36
60F:→ as6633208 : ,想自己设计,先搞定好台积电产业关系吧== 连社交 02/13 16:36
61F:→ as6633208 : 都舍不得来台湾,台积产能当然老黄优先,大家都马知 02/13 16:36
62F:→ as6633208 : 道老黄垄断晶片业还抓到趋势,就希望他不要卖这麽贵 02/13 16:36
63F:→ as6633208 : 而已,至於台积电在这波的产能更是关键中的关键== 02/13 16:36
64F:→ wolver : 等孙正义那300亿烧完奥特曼就会没亮灯倒了 02/13 16:36
65F:推 gladopo : 我也是觉得晶片硬要这麽大头太铁,好处就是不用跟老 02/13 16:39
66F:→ gladopo : 黄抢先进封装 02/13 16:39
67F:推 as6633208 : 之前全村希望是什麽,各家自研晶片+博通+amd+intel 02/13 16:42
68F:→ as6633208 : ,取代老黄+台积电垄断,结果财报出来各各笑话冠军 02/13 16:42
69F:→ as6633208 : ,intel良率大问题,amd营收不理想,博通和amd全都 02/13 16:42
70F:→ as6633208 : 离不开台积电,硬要说台积成了这波大赢家,代工出奇 02/13 16:42
71F:→ as6633208 : 蹟 02/13 16:42
72F:推 misakiitoh : 感谢分享!! 02/13 16:44
73F:→ as6633208 : 喔至於老黄跟台积的关系相比其他笑话冠军的自研晶片 02/13 16:46
74F:→ as6633208 : ,不说了,ceo来台湾social没几次,产能是抢的赢老 02/13 16:46
75F:→ as6633208 : 黄有事没事就过来social的?然後更好笑七巨头嘴巴喊 02/13 16:46
76F:→ as6633208 : 自研晶片,身体买老黄晶片比谁都用力,资本支出一两 02/13 16:46
77F:→ as6633208 : 千亿砸,不是说自研省钱,省得钱?之前那波自研叙事 02/13 16:46
78F:→ as6633208 : 财报和指引一出来跟笑话没两样 02/13 16:46
79F:推 TameFoxx : 反正在这里讲错也没人在乎吧,就继续乱讲就好 02/13 16:56
80F:推 ProTrader : 这种产品类似超级电脑性质 用的起的厂商肯定超少 02/13 17:02
81F:→ ProTrader : 就算成功 产片量一定很低 因为没人用的起 02/13 17:03
82F:推 madeinheaven: 不会成功的 02/13 17:04
83F:→ ProTrader : 房市产品有套房二房三房四房...豪宅 02/13 17:04
84F:→ ProTrader : 这产品是造镇甚至建城的等级 02/13 17:05
85F:→ ProTrader : 然後不管怎样 台积电肯定是最大赢家 02/13 17:06
86F:推 josephpu : 老黄还是大领先,但矽晶片就是未来5~10年战略资源 02/13 17:08
87F:→ josephpu : 从设计到量产到供应链关系都是,巨头不愿意摆烂任 02/13 17:08
88F:→ josephpu : 由老黄宰他们。哪怕微软阿祖两家起步最晚的,都还 02/13 17:08
89F:→ josephpu : 在投入asic。概念其实有点类似中国现在一边走私, 02/13 17:08
90F:→ josephpu : 一边还是积极投入国内自产 02/13 17:08
91F:→ josephpu : openAi最大的问题是没有巨头的现金流却做着巨头在 02/13 17:12
92F:→ josephpu : 做的事,但它真的熬过去那就不一样了 02/13 17:12
93F:推 Gaujing : Amd 比较有影响 02/13 17:20
94F:→ edison106 : 良率 sram 测试 全部都是成本 02/13 17:25
95F:→ kivan00 : 机柜空间很贵 你能忍受几个人在一间公司整天睡觉不 02/13 17:35
96F:→ kivan00 : 做事 冷气还不能绕过他 02/13 17:35
97F:推 realskyer : 无话可说,感谢W大分享! 02/13 17:52
98F:→ realskyer : 推浅显易懂 02/13 17:52
100F:→ kamitengo : 前年去听了下,Cerebras表示他们的设计理念是你本 02/13 18:10
101F:→ kamitengo : 来就是要预设里面的device是fail的,里面设计了相 02/13 18:10
102F:→ kamitengo : 当多的redundancy,当然D0会影响每片的performance 02/13 18:10
103F:→ kamitengo : 有差,所以当场与会的主要问他你如何测试与sorting 02/13 18:10
104F:→ kamitengo : ?对於每片性能差异你如何建立business model让客 02/13 18:10
105F:→ kamitengo : 户买单?我自己判断他采用近存运算主要用途在推论 02/13 18:10
106F:→ kamitengo : 效率,所以你也不用担心他cuda相容。 02/13 18:10
107F:推 lane34 : CEREBRAS我一直很疑惑它们为何可以活这麽久 02/13 18:19
108F:推 myyalga : 难怪散热又喷~原来是cerebras 带起来的! 02/13 18:49
109F:推 hellomo : 好期待open酱被打下去,好兴奋 02/13 19:08
110F:推 sdbb : 谢谢,新年快乐 02/13 19:30
111F:推 myyalga : Cerebras感觉是比较大颗的cpu,跟CPU里面有快取、暂 02/13 19:31
112F:→ myyalga : 存,感觉不会是取代gpu,而是更专业算力分工! 02/13 19:31
113F:→ myyalga : — 02/13 19:31
114F:→ myyalga : 不过gpt 的思考模式倒是有感提升速度,从几分进化成 02/13 19:31
115F:→ myyalga : 几秒。 02/13 19:31
116F:推 myyalga : 这样的速度才爽,以前都等到快睡着 02/13 19:33
117F:推 ppuuppu : 99老黄 99狗狗 霸脱惹 02/13 19:38
118F:推 jiansu : 刚刚查了一下Gemini 这个推理训练都能用 初期建置 02/13 19:56
120F:→ jiansu : jpeg 直接和ai 然後再去验证避免幻觉吧讨论 02/13 19:56
121F:推 ckpetercheng: 老黄真的别买 gpu在ai的市场正在萎缩 02/13 19:58
122F:推 coke7 : 感谢TQ王的分享和苦口婆心解说 02/13 21:16
123F:推 kobebrian : 萎缩??成长趋缓=萎缩?我有看错吗 02/13 21:27
124F:→ kobebrian : 顶多没办法再每年喷80% 02/13 21:27
125F:→ as6633208 : 老黄的问题不是公司基本面,是股票市值太大,4.5万 02/13 21:38
126F:→ as6633208 : 亿的市值,喷10%大概要5000亿资金灌进去,资金这种 02/13 21:38
127F:→ as6633208 : 规模的资金灌给5000亿的中小盘股可以喷100%了 02/13 21:38
128F:推 kobebrian : 市值大是个问题 但营收开出来你不想买都不行 02/13 22:16
129F:→ kobebrian : 人家就是赚烂了啊 02/13 22:17
130F:→ kobebrian : 台积电之前盘了将近一年 最後还是喷 02/13 22:17
131F:推 ckpetercheng: 也没有不想买都不行啊 这半年以上好像都是死的 02/13 23:24
132F:推 ckpetercheng: 台积电没对手 现在gpu的对手已经在门口敲门了 02/13 23:26
133F:推 damnedfish : 一片晶圆切一颗晶片的良率我很怀疑这有人敢作 02/14 04:21
134F:嘘 rebel : 被打脸还找一堆藉口 要用浅显易懂的方式讲没问题 02/14 09:30
135F:→ rebel : 但浅显易懂到大方向全错那叫你完全搞错被打脸好吗 02/14 09:30
136F:→ rebel : 你讲的良率问题你以为分析师都没想过吗 这东西的问 02/14 09:30
137F:→ rebel : 题不在那 在散热 还有平均成本不见得比GPU 低 这就 02/14 09:30
138F:→ rebel : 是短跑选手 长途跑起来八成会输 但总有些赛道是短 02/14 09:30
139F:→ rebel : 跑的天下 02/14 09:30
140F:→ rebel : 照我的观察 TQQQ王就是讨厌一项事物时就会找一堆他 02/14 09:40
141F:→ rebel : 不好的消息来讲 但忽略掉那些讲它好的 俗称的手上 02/14 09:40
142F:→ rebel : 拿铁锤 看到的东西全是钉子 看文时不可不慎 02/14 09:40
143F:推 s1001326 : 99老黄 快死了 02/14 12:05
144F:→ edison106 : 那些号称xxx杀手的全部都坟头长草了 02/14 14:15
145F:推 Amulet1 : 老黄搞这个搞二十年了 其他人不可能追 02/14 16:53
146F:→ Amulet1 : 而且老黄遇过无数次倒闭危机 甚至现在都有危机感 02/14 16:54
147F:→ Amulet1 : 他跟贾伯斯基本上算是同类人 02/14 16:54