[新聞] 為何大語言模型是死胡同

看板Tech_Job作者 (大笨羊)時間2月前 (2025/10/02 19:48), 編輯推噓44(451143)
留言189則, 55人參與, 1月前最新討論串1/3 (看更多)
為何大語言模型是死胡同 ------------------------------------------------ 9月27日,2024年圖靈獎得主Richard Sutton教授接受海外播客主持人 Dwarkesh Patel的深度訪談。 訪談影片: https://youtu.be/21EYKqUsPfg?si=KiU-QldhIDecQ_Bl
文章來源: https://hao.cnyes.com/post/197594 <鉅亨號> 作者: RexAA 本次對話始於一個問題:當前最熱的大語言模型(LLM)究竟是通往AGI的大道, 還是最終會走進死胡同?Sutton教授從強化學習的“第一性原理”出發,系 統地闡述了為何他認為LLM範式缺少了智能最本質的幾個要素。 Sutton教授指出,LLM本質上只是在“模仿”擁有世界模型的人類, 其本身並不具備一個能預測客觀世界、並因“意外”而學習的真實 世界模型。它預測的是“下一個詞”,而非“下一件事”。 針對行業普遍認為“先用LLM模仿學習獲得基礎,再用強化學習微調” 的路線,Sutton指出,在一個沒有客觀“對錯”標準(即獎勵訊號)的 框架裡,知識和先驗無從談起。他認為,LLM試圖繞過“擁有目標”和 “區分好壞”這兩點,是從一開始就走錯了方向。 針對“人類主要通過模仿學習”的普遍看法, Sutton教授認為無論是動物還是嬰兒,其學習的核心 都是基於試錯和預測的“經驗範式”,模仿學習只是後期附加的 一小部分。因此,將AI的學習建立在模仿人類資料的范子上, 是對智能本質的誤解。 在談及AI的未來時,Sutton教授提出,在未來數字智能可以 無限複製和融合知識的時代,如何保證一個智能體在吸收外部 知識時不被“腐化”或“覆蓋”,將成為一個關乎“心智安全” 的重大挑戰。 ----------------------- 心得 感覺癥結點在於: DL或AIGC 他們的資料學習來自人類 無法透過自身的經驗去改進自己 也就是 "人類認為是甚麼 就是甚麼" 的模式去運作 這樣算不算AI還有待討論 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.44.42.10 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1759405717.A.AC7.html

10/02 19:53, 2月前 , 1F
滿低能的 人類也是一樣 他還以為人類就有
10/02 19:53, 1F

10/02 19:53, 2月前 , 2F
智能 人有什麼模仿學習來的 一堆迷信的 給
10/02 19:53, 2F

10/02 19:53, 2月前 , 3F
他什麼資料就學什麼
10/02 19:53, 3F

10/02 20:13, 2月前 , 4F
嗯嗯,圖靈獎得主是低能,哈哈
10/02 20:13, 4F

10/02 20:46, 2月前 , 5F
有我們奧特曼懂AI嗎?
10/02 20:46, 5F

10/02 20:56, 2月前 , 6F
就算不能成為agi又如何 能有新應用新
10/02 20:56, 6F

10/02 20:56, 2月前 , 7F
任務就行了
10/02 20:56, 7F

10/02 21:02, 2月前 , 8F
這是常識啊,不過顯然一樓不這麼認為,那到
10/02 21:02, 8F

10/02 21:02, 2月前 , 9F
底誰是低能?
10/02 21:02, 9F

10/02 21:18, 2月前 , 10F
或許不是AGI 但他可以學習「正確行為」
10/02 21:18, 10F

10/02 21:18, 2月前 , 11F
和正確知識
10/02 21:18, 11F

10/02 21:19, 2月前 , 12F
尤其在有正確答案的地方例如寫程式等等
10/02 21:19, 12F

10/02 21:19, 2月前 , 13F
開車 寫程式 寫文章等等 學習最優秀人
10/02 21:19, 13F

10/02 21:19, 2月前 , 14F
10/02 21:19, 14F

10/02 21:19, 2月前 , 15F
這樣就很好用了
10/02 21:19, 15F

10/02 21:23, 2月前 , 16F
光是管理層說的都不一樣了 呵呵XD
10/02 21:23, 16F

10/02 21:25, 2月前 , 17F
學者山頭的財富密碼阿。一個做學術的學者
10/02 21:25, 17F

10/02 21:25, 2月前 , 18F
說LLM好棒是正確的方向,而且業界做法已遠
10/02 21:25, 18F

10/02 21:25, 2月前 , 19F
超越學術界。這樣怎麼賺錢。
10/02 21:25, 19F

10/02 23:08, 2月前 , 20F
洗咧供啥
10/02 23:08, 20F

10/02 23:15, 2月前 , 21F
簡單來說LLM模型沒有真實世界的對照去分
10/02 23:15, 21F

10/02 23:15, 2月前 , 22F
辨一句話的真假。比如有人說:"外面天氣如
10/02 23:15, 22F

10/02 23:15, 2月前 , 23F
何"
10/02 23:15, 23F

10/02 23:15, 2月前 , 24F
真人可以觀察下雨來驗證這句話真假,來做
10/02 23:15, 24F

10/02 23:15, 2月前 , 25F
後續的反應,可以看到外面下雨說"正在下
10/02 23:15, 25F

10/02 23:15, 2月前 , 26F
雨"
10/02 23:15, 26F

10/02 23:15, 2月前 , 27F
但是對LLM來說"在下雨“與“沒在下雨“都
10/02 23:15, 27F

10/02 23:15, 2月前 , 28F
是可能出現的句子,但是LLM來說這兩句都
10/02 23:15, 28F

10/02 23:15, 2月前 , 29F
是等價的句子,都是可能會出現的對話。
10/02 23:15, 29F

10/02 23:15, 2月前 , 30F
可能情況是,有人看到外面下雨問天氣,AI
10/02 23:15, 30F

10/02 23:15, 2月前 , 31F
卻回沒在下雨,會讓人覺得矛盾。但LLM模
10/02 23:15, 31F

10/02 23:15, 2月前 , 32F
型不具備檢證真實世界真假的機制,只會覺
10/02 23:15, 32F

10/02 23:15, 2月前 , 33F
得這對話是合理的。
10/02 23:15, 33F

10/02 23:39, 2月前 , 34F
LLM沒有要取代神 它只需要取代你
10/02 23:39, 34F

10/03 00:08, 2月前 , 35F
人類對世界的理解有一定比例的信仰
10/03 00:08, 35F

10/03 00:08, 2月前 , 36F
。來自眼睛耳朵觸感所觀察世界的認
10/03 00:08, 36F

10/03 00:08, 2月前 , 37F
知,比如認為火就是熱的,你的觀察
10/03 00:08, 37F

10/03 00:08, 2月前 , 38F
能讓你不只學會什麼是火也學會什麼
10/03 00:08, 38F

10/03 00:08, 2月前 , 39F
是燙。但LLM目前不是透過這種信仰學
10/03 00:08, 39F
還有 110 則推文
10/03 14:27, 2月前 , 150F
本來就是了 只有套特曼整天在吹AGI
10/03 14:27, 150F

10/03 14:27, 2月前 , 151F
為了公司賺錢不擇手段
10/03 14:27, 151F

10/03 14:28, 2月前 , 152F
這年頭還能看到有人嘴圖靈講得主XD
10/03 14:28, 152F

10/03 15:34, 2月前 , 153F
1F應該是諾貝爾獎得主 這樣才能跟
10/03 15:34, 153F

10/03 15:34, 2月前 , 154F
圖靈獎的ok
10/03 15:34, 154F

10/03 15:39, 2月前 , 155F
學習人類已經等於是抄作業了,還嫌?
10/03 15:39, 155F

10/03 15:41, 2月前 , 156F
其實我還蠻擔心它學習到更高維度的智慧
10/03 15:41, 156F

10/03 16:19, 2月前 , 157F
你要解決的問題是客戶層級,還是人
10/03 16:19, 157F

10/03 16:19, 2月前 , 158F
類文明層級?你用文明走向層級的標
10/03 16:19, 158F

10/03 16:19, 2月前 , 159F
準要求AI當然沒可能,但解決客戶問
10/03 16:19, 159F

10/03 16:19, 2月前 , 160F
題AI還是很好用。
10/03 16:19, 160F

10/03 16:19, 2月前 , 161F
雖然我看不懂 但是我覺得滿屌的
10/03 16:19, 161F

10/03 16:47, 2月前 , 162F
每個在做AI的人都知道,但阻止不了他們
10/03 16:47, 162F

10/03 17:22, 2月前 , 163F
人類累積知識傳遞下去, 本質上就是模仿
10/03 17:22, 163F

10/03 17:22, 2月前 , 164F
小孩模仿大人,學生模仿學者
10/03 17:22, 164F

10/03 17:24, 2月前 , 165F
LLM 目前在於 他就像無窮的遞迴函數一樣
10/03 17:24, 165F

10/03 17:25, 2月前 , 166F
你讓他找到一個突破點, 他就跟洪水一樣
10/03 17:25, 166F

10/03 17:25, 2月前 , 167F
灌進去 瞬間完成學習過程 知識完備
10/03 17:25, 167F

10/03 18:16, 2月前 , 168F
我只在乎能不能做個智能飛機杯有擬真
10/03 18:16, 168F

10/03 18:16, 2月前 , 169F
溫度跟觸感智慧調節伸縮 最配vr
10/03 18:16, 169F

10/03 19:24, 2月前 , 170F
吹捧的時候就說是AI好厲害 簡單的
10/03 19:24, 170F

10/03 19:24, 2月前 , 171F
東西做錯就說是語言模型不能苛求
10/03 19:24, 171F

10/03 20:07, 2月前 , 172F
博大精深啊
10/03 20:07, 172F

10/03 20:07, 2月前 , 173F
需要新架構
10/03 20:07, 173F

10/03 20:08, 2月前 , 174F
格局決定未來
10/03 20:08, 174F

10/03 20:27, 2月前 , 175F
這樣對人類比較安全
10/03 20:27, 175F

10/04 04:03, 2月前 , 176F
圖靈獎有些可能是過譽的,但 Sutton 這
10/04 04:03, 176F

10/04 04:03, 2月前 , 177F
種是真的強,自己都能 solo 出一堆破千
10/04 04:03, 177F

10/04 04:03, 2月前 , 178F
引用的論文了還靠學生勒,不認識 Sutton
10/04 04:03, 178F

10/04 04:03, 2月前 , 179F
先去讀他的 RL 課本再嘴砲吧
10/04 04:03, 179F

10/04 06:02, 2月前 , 180F
套很大吧,OO沒什麼了不起但是自己做不
10/04 06:02, 180F

10/04 06:02, 2月前 , 181F
到的人的起手式
10/04 06:02, 181F

10/04 06:02, 2月前 , 182F
本來就是假AI但是拒絕承認
10/04 06:02, 182F

10/04 16:43, 2月前 , 183F
薩頓本意不是否定通用 AI, 是 LLM 這種
10/04 16:43, 183F

10/04 16:45, 2月前 , 184F
洪水般進食知識的方式,對於真正 AGI可能
10/04 16:45, 184F

10/04 16:45, 2月前 , 185F
會難以達成, 但現實就是這種方式能解決
10/04 16:45, 185F

10/04 16:46, 2月前 , 186F
9成9的人類問題,人類保留0.1的創新給自
10/04 16:46, 186F

10/04 18:06, 2月前 , 187F
沒辦法自己迭代 進化的意思嗎
10/04 18:06, 187F

10/06 10:27, 2月前 , 188F
但現在LLM就是能解決問題啊……
10/06 10:27, 188F

10/07 06:04, 1月前 , 189F
那個低能ID不是早就被黑單了嗎
10/07 06:04, 189F
文章代碼(AID): #1etcQLh7 (Tech_Job)
文章代碼(AID): #1etcQLh7 (Tech_Job)