Re: [新聞] 告別GPU OpenAI推出極速晶圓引擎模型

看板Stock作者 (嘴砲無雙)時間2天前 (2026/02/13 14:41), 2天前編輯推噓46(48297)
留言147則, 47人參與, 1天前最新討論串2/2 (看更多)
※ 引述《h0103661 (單推人) 每日換婆 (1/1)》之銘言: : : 原文標題: : Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras : : 原文連結: : https://www.cerebras.ai/blog/openai-codexspark : : 發布時間: : 2026-02-12 : : 記者署名: : James Wang : : 原文內容: : Today, we’re announcing that OpenAI’s new GPT-5.3-Codex-Spark model, powered b : y Cerebras, is available in research preview. This marks the first release in ou : r collaboration between Cerebras and OpenAI. Codex-Spark is designed for real-ti : me software development where responsiveness matters as much as intelligence. Po : wered by the Cerebras Wafer-Scale Engine, it runs at over 1,000 tokens/s, enabli : ng near-instant feedback in live coding environments. : 今日,我們正式發布由 Cerebras 技術驅動的 OpenAI 全新模型 GPT-5.3-Codex-Spark,並 : 開放研究預覽。這是 OpenAI 與 Cerebras 合作的首個里程碑。Codex-Spark 專為對響應速 : 度要求極高的即時軟體開發而設計。憑藉 Cerebras 晶圓級引擎(Wafer-Scale Engine)的 : 強大效能,其執行速度突破每秒 1,000 個標記(tokens/s),為即時程式開發環境提供近 : 乎瞬時的回饋。 : Agentic coding has fundamentally changed software development. For the first tim : e, machines can autonomously work for hours or days without human supervision. B : ut this mode of interaction can also leave developers feeling out of the loop wi : th long wait times and less opportunity to direct the work. As software developm : ent is iterative, developers need to inject taste, direction, and sensibility al : ong the way. Codex-Spark is designed for this kind of real-time, iterative work. : It is fast, responsive, and steerable, putting the developer back in the driver : ’s seat. : Codex-Spark is a smaller version of Codex optimized for fast inference. On agent : ic software engineering benchmarks such as SWE-Bench Pro and Terminal-Bench 2.0, : it produces more capable responses than GPT-5.1-Codex-mini while completing tas : ks in a fraction of the time. : Codex-Spark excels at making precise edits, revising plans, and answering contex : tual questions about your codebase. It’s a fast way to visualize new layouts, r : efine styling, and test new interface changes. : 「代理型編碼」(Agentic coding)已從根本上改變了軟體開發,使機器能獨立運作數小時 : 甚至數日。然而,這種模式也可能讓開發者因漫長的等待而產生疏離感,減少了引導工作的 : 機會。由於軟體開發本質上是反覆迭代的過程,開發者需要隨時注入審美、方向感與判斷力 : 。Codex-Spark 正是為此類即時、互動式工作而生;它反應迅速且易於引導,讓開發者重新 : 掌握主導權。 : Codex-Spark 是針對快速推論(Inference)優化的 Codex 精簡版本。在 SWE-Bench Pro : 與 Terminal-Bench 2.0 等代理型軟體工程基準測試中,它的表現優於 GPT-5.1-Codex-min : i,且完成任務的時間僅需後者的一小部分。 : Codex-Spark 擅長進行精確編輯、修訂計畫,以及回答關於程式碼庫的脈絡問題。對於視覺 : 化新佈局、精煉樣式及測試介面更動,它提供了一種極速的實現方式。 : "Cerebras has been a great engineering partner, and we’re excited about adding : fast inference as a new platform capability. Bringing wafer-scale compute into p : roduction gives us a new way to keep Codex responsive for latency-sensitive work : , and we’re excited to learn from developer feedback on how to compose our comp : ute capabilities into one smooth workflow," said Sachin Katti, Head of Industria : l Compute at OpenAI. : OpenAI 工業運算負責人 Sachin Katti 表示:「Cerebras 是傑出的工程合作夥伴,我們很 : 高興將『快速推論』納入平台能力。將晶圓級運算導入生產環境,為維持 Codex 在延遲敏 : 感型任務中的響應速度提供了全新途徑。我們期待透過開發者的回饋,學習如何將這些運算 : 能力整合進流暢的工作流中。」 : Codex-Spark is just a taste of what’s possible on Cerebras hardware. Our broade : r goal is to accelerate a wide spectrum of AI workloads across both real-time an : d asynchronous use cases. Our purpose-built Wafer-Scale Engine features the larg : est on-chip memory of any AI processor, enabling high-speed inference at thousan : ds of tokens per second per user. The architecture scales out to thousands of sy : stems, extending fast memory capacity into the multi-terabyte domain to support : trillion-parameter models for both training and inference. We expect to bring th : is ultra-fast inference capability to the largest frontier models in 2026. : Codex-Spark is rolling out as a research preview for ChatGPT Pro users across th : e Codex app, CLI, and VS Code extension, with API access rolling out to select d : esign partners. Try Codex-Spark rolling out today. : Codex-Spark 僅是 Cerebras 硬體潛力的初步展現。我們的長遠目標是加速涵蓋即時與異步 : (Asynchronous)情境的全方位 AI 工作負載。我們專為 AI 打造的晶圓級引擎擁有業界最 : 大的片上記憶體(On-chip memory),可支援每位使用者每秒數千個標記的極速推論。該架 : 構可擴展至數千台系統,將高速記憶體容量提升至多 TB 等級,足以支援兆級參數模型的訓 : 練與推論。我們預計在 2026 年將此極速推論能力導入最強大的前沿模型中。 : Codex-Spark 研究預覽版即日起向 ChatGPT Pro 用戶推送,支援 Codex App、CLI 及 VS C : ode 擴充功能;API 存取權限則將逐步開放給特定設計合作夥伴。歡迎今日立即體驗 Codex : -Spark。 : : : 心得/評論: : : 上個月我有發了兩家合作的消息, : 今天正式推出第一個合作產品,推理速度破千的GPT-5! : 給大家一個比例尺:平常用的GPT-5速度不到一百。 : : Cerebras的台積電5奈米晶圓引擎WSE-3是世界唯一的晶圓運算, : 由於能直接載入整個AI模型到運算單元上, : 速度是GPU的數十倍, : 這是Cerebras成立以來第一個企業級應用, : 或將衝擊整個GPU市場。 : : 我之前有分析過, https://www.ptt.cc/bbs/Stock/M.1769589988.A.C87.html Cerebras是用大力出奇蹟的方式, 晶片大小是其他GPU/TPU的百倍大小, 一片晶圓wafer 切出一顆, 這會導致良率極低 基本上, Cerebras有兩個問題: 1. 良率, 2. 相容性(CUDA) 以OpenAI的軟體能力, 相信可以繞過CUDA 的相容性問題, 也就是說, 相信OpenAI 有能力可以把自己的模型移植到Cerebras晶片上運行, 所以對OpenAI+Cerebras而言, 最大的問題就是良率, 以Cerebras的良率跟體量, 不太可能可以吃下所有 ChatGPT Pro 用戶, 1%? 10%? 20%? 不確定能吃下多少的用戶量, 但是對NVDA 影響不大, 2nd solution 的AMD Intel可能就會受到影響 另外, 對於板上的大神與專家們的指教, 我回應幾句話, 我只是用國小數學以及大一基本課本的內容做解釋, 淺顯易懂, 不去賣弄專業, 主要目的是讓大家知道真相, 然後很多大神跟專家對我的提出的觀點, 有很多的指教以及抓錯, 其實, 我也不是笨蛋, 我當然知道我說法的問題, 只是主打一個淺顯易懂, 大方向正確, 這樣說吧! 要是良率可以用之前推文裡說的各種方式解決提高良率, 那為何Intel 三星還在為良率的問題被台積電打趴, 各種提高良率的方式, 都只是小部分的改進, 大方向跟大數字是不會差太多的, 的確, Cerebras 的良率可能不會到1%那麼慘, 但是絕對絕對是極低良率 極低產量, 要是Cerebras產量夠大, 怎麼沒有大量部署到各大CSP廠, 撇開CUDA相容問題, 就是產量不夠, 而且這麼大的晶片一定是特殊機器特殊規格 然後, 因為Cerebras的良率問題, 所以Cerebras只能選擇台積電, 一樣用國小數學算一算就知道, Cerebras面積這個大, 吃代工廠良率就更重 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.103.225.6 (美國) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1770964868.A.BB6.html

02/13 14:44, 2天前 , 1F
寫那麼多小作文結果微軟還是沒反彈
02/13 14:44, 1F
??? 我沒有買微軟, 我也沒有推微軟 ※ 編輯: waitrop (76.103.225.6 美國), 02/13/2026 14:46:07

02/13 14:47, 2天前 , 2F
感謝W大持續分享,把複雜的事說的業外也看得懂
02/13 14:47, 2F

02/13 14:48, 2天前 , 3F
最主要的問題是SRAM很貴
02/13 14:48, 3F

02/13 14:51, 2天前 , 4F
會做成那麼大也是因為SRAM的關係
02/13 14:51, 4F

02/13 14:51, 2天前 , 5F
1樓三小啦…….
02/13 14:51, 5F

02/13 14:52, 2天前 , 6F
老黃還是破不了200
02/13 14:52, 6F

02/13 14:54, 2天前 , 7F
不管到時候用誰的GPU,或者用不用GPU,都是GG代工
02/13 14:54, 7F

02/13 14:59, 2天前 , 8F
對AMD/Intel的"晶片"影響可能還沒那麼大
02/13 14:59, 8F

02/13 14:59, 2天前 , 9F
這有一定程度是打廣告
02/13 14:59, 9F

02/13 15:02, 2天前 , 10F
感謝W大的分享和用心解說
02/13 15:02, 10F

02/13 15:05, 2天前 , 11F
qqq最近好慘,請問大神對qqq盤那麼久還沒發動有什
02/13 15:05, 11F

02/13 15:05, 2天前 , 12F
麼看法嗎QQ
02/13 15:05, 12F

02/13 15:08, 2天前 , 13F
支持w大的方式 投資向來不保證懂最細最新的人贏
02/13 15:08, 13F

02/13 15:14, 2天前 , 14F
wait來啦
02/13 15:14, 14F

02/13 15:26, 2天前 , 15F
這個大晶圓的不良是內部處理吧?
02/13 15:26, 15F

02/13 15:26, 2天前 , 16F
把不良、故障的單元隔離掉就好
02/13 15:26, 16F

02/13 15:26, 2天前 , 17F
良率應該是90%以上 只要達到出貨標準就可以出貨
02/13 15:26, 17F

02/13 15:33, 2天前 , 18F
Only GG
02/13 15:33, 18F

02/13 15:36, 2天前 , 19F
呵呵
02/13 15:36, 19F

02/13 15:36, 2天前 , 20F
以為2這麼簡單阿 他們是軟體公司ok
02/13 15:36, 20F

02/13 15:38, 2天前 , 21F
結論是不是買台積電就對了?
02/13 15:38, 21F

02/13 15:42, 2天前 , 22F
感謝分享
02/13 15:42, 22F

02/13 15:50, 2天前 , 23F
大概就是這東西對良率要求很高 也會很貴吧
02/13 15:50, 23F

02/13 16:01, 2天前 , 24F
嗯...基本上歐噴醬,近期操作本質都是一直試著找回
02/13 16:01, 24F

02/13 16:01, 2天前 , 25F
自己的主導權,但其實內心深處大家越不怕他,歐噴醬
02/13 16:01, 25F

02/13 16:01, 2天前 , 26F
心裡越怕== 本來chatgpt 一哥,先被Gemini 壓制,然
02/13 16:01, 26F

02/13 16:01, 2天前 , 27F
後又要被Anthropic追過,其實歐噴醬現在最怕的反而
02/13 16:01, 27F

02/13 16:01, 2天前 , 28F
是老黃跑去大力幫anthropic,唉,好可憐,歐噴醬科
02/13 16:01, 28F

02/13 16:01, 2天前 , 29F
技政客組局快極限了嗎,唯一沒有從0開始到千億市值
02/13 16:01, 29F

02/13 16:01, 2天前 , 30F
的公司ceo,靠著科技政客組局和權力鬥爭看來快到極
02/13 16:01, 30F

02/13 16:01, 2天前 , 31F
限了,科技發明家從0開始,白手起家經營到七巨頭的
02/13 16:01, 31F

02/13 16:01, 2天前 , 32F
企業,ceo的還是比較有料,看著猶太屁精這樣真的覺
02/13 16:01, 32F

02/13 16:01, 2天前 , 33F
得有點可憐==
02/13 16:01, 33F

02/13 16:04, 2天前 , 34F
GG:這誰能做啊?
02/13 16:04, 34F

02/13 16:04, 2天前 , 35F
這顆就是拼超爆量小核,缺陷多到某個程度就不划算惹
02/13 16:04, 35F

02/13 16:04, 2天前 , 36F
,能用核變的更少
02/13 16:04, 36F

02/13 16:05, 2天前 , 37F
他爬到了一個不屬於他的高度,該均值回歸了,跟 賈
02/13 16:05, 37F

02/13 16:05, 2天前 , 38F
伯斯 馬斯克 祖克柏 黃仁勳這些從白手起家經營到現
02/13 16:05, 38F
還有 69 則推文
02/13 18:49, 1天前 , 108F
難怪散熱又噴~原來是cerebras 帶起來的!
02/13 18:49, 108F

02/13 19:08, 1天前 , 109F
好期待open醬被打下去,好興奮
02/13 19:08, 109F

02/13 19:30, 1天前 , 110F
謝謝,新年快樂
02/13 19:30, 110F

02/13 19:31, 1天前 , 111F
Cerebras感覺是比較大顆的cpu,跟CPU裡面有快取、暫
02/13 19:31, 111F

02/13 19:31, 1天前 , 112F
存,感覺不會是取代gpu,而是更專業算力分工!
02/13 19:31, 112F

02/13 19:31, 1天前 , 113F
02/13 19:31, 113F

02/13 19:31, 1天前 , 114F
不過gpt 的思考模式倒是有感提升速度,從幾分進化成
02/13 19:31, 114F

02/13 19:31, 1天前 , 115F
幾秒。
02/13 19:31, 115F

02/13 19:33, 1天前 , 116F
這樣的速度才爽,以前都等到快睡著
02/13 19:33, 116F

02/13 19:38, 1天前 , 117F
99老黃 99狗狗 霸脫惹
02/13 19:38, 117F

02/13 19:56, 1天前 , 118F
剛剛查了一下Gemini 這個推理訓練都能用 初期建置
02/13 19:56, 118F

02/13 19:56, 1天前 , 119F
風險過後 很有潛力 https://i.imgur.com/oregYIO.
02/13 19:56, 119F

02/13 19:56, 1天前 , 120F
jpeg 直接和ai 然後再去驗證避免幻覺吧討論
02/13 19:56, 120F

02/13 19:58, 1天前 , 121F
老黃真的別買 gpu在ai的市場正在萎縮
02/13 19:58, 121F

02/13 21:16, 1天前 , 122F
感謝TQ王的分享和苦口婆心解說
02/13 21:16, 122F

02/13 21:27, 1天前 , 123F
萎縮??成長趨緩=萎縮?我有看錯嗎
02/13 21:27, 123F

02/13 21:27, 1天前 , 124F
頂多沒辦法再每年噴80%
02/13 21:27, 124F

02/13 21:38, 1天前 , 125F
老黃的問題不是公司基本面,是股票市值太大,4.5萬
02/13 21:38, 125F

02/13 21:38, 1天前 , 126F
億的市值,噴10%大概要5000億資金灌進去,資金這種
02/13 21:38, 126F

02/13 21:38, 1天前 , 127F
規模的資金灌給5000億的中小盤股可以噴100%了
02/13 21:38, 127F

02/13 22:16, 1天前 , 128F
市值大是個問題 但營收開出來你不想買都不行
02/13 22:16, 128F

02/13 22:17, 1天前 , 129F
人家就是賺爛了啊
02/13 22:17, 129F

02/13 22:17, 1天前 , 130F
台積電之前盤了將近一年 最後還是噴
02/13 22:17, 130F

02/13 23:24, 1天前 , 131F
也沒有不想買都不行啊 這半年以上好像都是死的
02/13 23:24, 131F

02/13 23:26, 1天前 , 132F
台積電沒對手 現在gpu的對手已經在門口敲門了
02/13 23:26, 132F

02/14 04:21, 1天前 , 133F
一片晶圓切一顆晶片的良率我很懷疑這有人敢作
02/14 04:21, 133F

02/14 09:30, 1天前 , 134F
被打臉還找一堆藉口 要用淺顯易懂的方式講沒問題
02/14 09:30, 134F

02/14 09:30, 1天前 , 135F
但淺顯易懂到大方向全錯那叫你完全搞錯被打臉好嗎
02/14 09:30, 135F

02/14 09:30, 1天前 , 136F
你講的良率問題你以為分析師都沒想過嗎 這東西的問
02/14 09:30, 136F

02/14 09:30, 1天前 , 137F
題不在那 在散熱 還有平均成本不見得比GPU 低 這就
02/14 09:30, 137F

02/14 09:30, 1天前 , 138F
是短跑選手 長途跑起來八成會輸 但總有些賽道是短
02/14 09:30, 138F

02/14 09:30, 1天前 , 139F
跑的天下
02/14 09:30, 139F

02/14 09:40, 1天前 , 140F
照我的觀察 TQQQ王就是討厭一項事物時就會找一堆他
02/14 09:40, 140F

02/14 09:40, 1天前 , 141F
不好的消息來講 但忽略掉那些講它好的 俗稱的手上
02/14 09:40, 141F

02/14 09:40, 1天前 , 142F
拿鐵錘 看到的東西全是釘子 看文時不可不慎
02/14 09:40, 142F

02/14 12:05, 1天前 , 143F
99老黃 快死了
02/14 12:05, 143F

02/14 14:15, 1天前 , 144F
那些號稱xxx殺手的全部都墳頭長草了
02/14 14:15, 144F

02/14 16:53, 1天前 , 145F
老黃搞這個搞二十年了 其他人不可能追
02/14 16:53, 145F

02/14 16:54, 1天前 , 146F
而且老黃遇過無數次倒閉危機 甚至現在都有危機感
02/14 16:54, 146F

02/14 16:54, 1天前 , 147F
他跟賈伯斯基本上算是同類人
02/14 16:54, 147F
文章代碼(AID): #1fZiU4ks (Stock)
文章代碼(AID): #1fZiU4ks (Stock)