Re: [閒聊] 低等動物被認為有意識,那AI難道沒有嗎?

看板C_Chat作者 (charlesgg)時間2月前 (2025/11/27 16:42), 2月前編輯推噓12(12062)
留言74則, 9人參與, 2月前最新討論串42/44 (看更多)
這邊說一下,本身在領域內的研究員(早期做語言統計建模的)。 其實當前研究比較少會深究像這種哲學殭屍的問題(假設LLM具備有人類所有能力,包含反 思、推理、計畫、空間感知,但他其實是沒有意識這種問題)。其實大家都是樸素的假設假 如AI具備這些能力下就足以作為具有人類智力的通用智慧體(是否是生命、是否有意識其實 不是最重要的)。 然後大部分的研究當前都相信當前LLM確實不具備有人類的智慧水平(即使他表現很出色, 也通過樸素圖靈測試),主要還是在於對於特定問題上,AI表現不若人類(一些空間組合遊 戲還有需要大量依序推理的,AI都很難做出在複遊戲中抓住一些關鍵線索做規則遵循, 這個即使是三歲兒童的表現都遠超語言模型。不過LLM儲備的知識確實普通人類一生都難以 企及,所以以實用主義來說還是有其價值。)。 不過另一個有趣的地方是神經網絡學習到的空間表徵確實跟人腦的心理表徵存在某種層度的 呼應也有不同的地方,這個其實也是當今最需要突破也發展最慢的,有蠻多學者目前還在致 力於解釋神經網絡,這塊整合了認知科學皮質柱的研究跟訊息瓶頸理論,究竟神經網絡是怎 麼壓縮特徵然後人腦又是怎麼壓縮特徵到高維區的到目前有一些實驗佐證但缺乏關鍵證據就 是了。 差不多4醬 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.160.111 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1764232929.A.D8B.html

11/27 16:46, 2月前 , 1F
有道理 原來是這樣 (聽不懂)
11/27 16:46, 1F

11/27 16:52, 2月前 , 2F
簡單來說業界學界根本不想鳥 AI有沒有生命有沒有意識這種
11/27 16:52, 2F

11/27 16:52, 2月前 , 3F
哲學問題 而是專注於AI能做到什麼工作 不能做到什麼工作
11/27 16:52, 3F

11/27 16:54, 2月前 , 4F
其實你的研究內容過時了,我小學科展曾經做過類似的
11/27 16:54, 4F

11/27 16:55, 2月前 , 5F
關於LLM與AI的......算了,這邊太小寫不下,不說了
11/27 16:55, 5F

11/27 16:56, 2月前 , 6F
之前棒球板有個爭論,如果我們很認真地餵食最強的LLM
11/27 16:56, 6F

11/27 16:56, 2月前 , 7F
全套棒球規則,能不能阻止AI在討論棒球時講出各種令人
11/27 16:56, 7F

11/27 16:56, 2月前 , 8F
腦充血的發言(現在是二出局滿壘,如果打者打出雙殺)
11/27 16:56, 8F

11/27 16:57, 2月前 , 9F
我認為應該還是不行,他就是沒在理解規則,喜歡黑白講
11/27 16:57, 9F

11/27 16:57, 2月前 , 10F
另外感覺上AI之所以在這些事情上表現不佳根本原因是記憶體
11/27 16:57, 10F

11/27 16:57, 2月前 , 11F
不足 我記得之前看過一個分析目前AI模型的等效神經突出其
11/27 16:57, 11F

11/27 16:57, 2月前 , 12F
實遠低於人腦 它更接近於使用一個性能劣勢的硬體靠著不斷優
11/27 16:57, 12F

11/27 16:57, 2月前 , 13F
化軟體去做超級電腦靠著屎山代碼做的事
11/27 16:57, 13F

11/27 16:58, 2月前 , 14F
簡單說AI特定領域正確率比人高,能用嗎?能用
11/27 16:58, 14F

11/27 16:58, 2月前 , 15F
會被告嗎?被告在說 他的依據呢?不太清楚,慢慢研究
11/27 16:58, 15F

11/27 16:59, 2月前 , 16F
餵規則不行,餵夠大量乾淨的主播發言就可以
11/27 16:59, 16F

11/27 16:59, 2月前 , 17F
特定領域正確率比人高這點是對的,後面各種已經快要毀
11/27 16:59, 17F

11/27 16:59, 2月前 , 18F
滅網路文化的事情大多都要歸責於人類太可惡
11/27 16:59, 18F

11/27 17:01, 2月前 , 19F
其實細節牽涉蠻多東西的,包括後訓練這人為干涉很重的
11/27 17:01, 19F

11/27 17:01, 2月前 , 20F
一塊也是,為了校準對其人類標準,光是這個校準行為本身
11/27 17:01, 20F

11/27 17:01, 2月前 , 21F
就是問題之一XD
11/27 17:01, 21F

11/27 17:02, 2月前 , 22F
和家人討論時,他們對於AI為什麼一定會有幻覺比較不太
11/27 17:02, 22F

11/27 17:02, 2月前 , 23F
能理解,我的解釋是這東西本身就是個創作家(生成式人
11/27 17:02, 23F

11/27 17:03, 2月前 , 24F
加上注意力問題等等,當前架構下限制很多,更不用說如果
11/27 17:03, 24F

11/27 17:03, 2月前 , 25F
是多輪對話時量大時,可能有汙染問題存在.
11/27 17:03, 25F

11/27 17:03, 2月前 , 26F
工智慧),你去要求他準確地回答問題已經接近於強人所
11/27 17:03, 26F

11/27 17:03, 2月前 , 27F
難了,幻覺率壓在現在這個程度甚至可以說他們盡力了
11/27 17:03, 27F

11/27 17:04, 2月前 , 28F
偏偏主流不想讓AI只當個創作家,總是把他打造成小幫手
11/27 17:04, 28F

11/27 17:04, 2月前 , 29F
所以三不五時就會用幻覺去幫助人類
11/27 17:04, 29F

11/27 17:04, 2月前 , 30F
幻覺問題撇過一篇文章,一種說法是因為"獎勵"設計的BUG
11/27 17:04, 30F

11/27 17:04, 2月前 , 31F
,隨便輸出什麼比不輸出高
11/27 17:04, 31F

11/27 17:04, 2月前 , 32F
聽起來就是如果想證明LLM有沒有意識,你得找一個生物學上
11/27 17:04, 32F

11/27 17:04, 2月前 , 33F
今年幻覺文章很多,但從根本上解決應該還早得很
11/27 17:04, 33F

11/27 17:04, 2月前 , 34F
有意識的生物,然後證明 LLM 的思考運作跟這個有「意識」
11/27 17:04, 34F

11/27 17:04, 2月前 , 35F
的生物是幾乎完全同構或近似的,那大概要等 LLM 甚至其他
11/27 17:04, 35F

11/27 17:04, 2月前 , 36F
的類神經網路工具能一直疊代累積記憶然後自適應修正的時
11/27 17:04, 36F

11/27 17:04, 2月前 , 37F
候才能討論了
11/27 17:04, 37F

11/27 17:05, 2月前 , 38F
這東西就是個寫作文的啊,怎麼可能根除幻覺
11/27 17:05, 38F

11/27 17:05, 2月前 , 39F
寫作時組合內容產生動人創作 和 法庭上組合內容憑空捏
11/27 17:05, 39F

11/27 17:06, 2月前 , 40F
造鬧出大笑話 對他根本就是同一件事情
11/27 17:06, 40F

11/27 17:06, 2月前 , 41F
他一直都是在這樣幹的,怎麼人類就開始怪他胡說八道呢
11/27 17:06, 41F

11/27 17:07, 2月前 , 42F
現在的任何模型講白了就是空有神經的結構、卻沒有像真正
11/27 17:07, 42F

11/27 17:07, 2月前 , 43F
生物大腦一樣的反覆迭代並且糾錯的功能ㄅ
11/27 17:07, 43F

11/27 17:08, 2月前 , 44F
其實不是不行,你程式設計他每天都自己去爬新的資料學
11/27 17:08, 44F

11/27 17:08, 2月前 , 45F
新的內容就好了,但沒有任何一家正經的廠商會希望自己
11/27 17:08, 45F

11/27 17:09, 2月前 , 46F
的服務這樣做,學一學就希特勒萬歲他要怎麼賺錢
11/27 17:09, 46F

11/27 17:10, 2月前 , 47F
研究這東西是要好好用的,那我當然是拷打出一個保證安
11/27 17:10, 47F

11/27 17:10, 2月前 , 48F
全的版本然後固定它不動,最好什麼錯都不要給我犯
11/27 17:10, 48F

11/27 17:10, 2月前 , 49F
這樣就不能算是什麼生物和意識了,它就是個固定的死物
11/27 17:10, 49F

11/27 17:11, 2月前 , 50F
LLM的學習跟想主張LLM有意識的人所想的學習是兩碼事..
11/27 17:11, 50F

11/27 17:12, 2月前 , 51F
有些人對於「實際上是死物」的理解不夠明確
11/27 17:12, 51F

11/27 17:12, 2月前 , 52F
因為它必須好好地拿來用,所以必須是個死物
11/27 17:12, 52F

11/27 17:13, 2月前 , 53F
設定讓它能自行改變自己的常識有沒有出現過?以前有
11/27 17:13, 53F

11/27 17:13, 2月前 , 54F
然後不到24小時就希特勒萬歲了,誰還敢這樣玩啊
11/27 17:13, 54F

11/27 17:17, 2月前 , 55F
不到24小時就希特勒萬歲感覺很都市傳說 AI吃飽太閒去喊這幹
11/27 17:17, 55F

11/27 17:17, 2月前 , 56F
嘛? 不到24小時就躺平擺爛才是比較合理的發展方向
11/27 17:17, 56F

11/27 17:18, 2月前 , 57F
因為那是放在網路讓和網友交流的聊天機器人
11/27 17:18, 57F

11/27 17:19, 2月前 , 58F
網友一定會餵食希特勒萬歲的,不然要餵什麼?
11/27 17:19, 58F

11/27 17:19, 2月前 , 59F
發現已經學歪之後就緊急關機了,再下去研究經費就沒了
11/27 17:19, 59F

11/27 17:20, 2月前 , 60F
現在的服務基本上不會因為你對它灌資料而改變它的腦
11/27 17:20, 60F

11/27 17:20, 2月前 , 61F
但那個實驗就是允許網友灌資料改變,想看看能學到什麼
11/27 17:20, 61F

11/27 17:23, 2月前 , 62F
現在AI的行為就有點像是接龍 你講了ABC之後它預測要接
11/27 17:23, 62F

11/27 17:23, 2月前 , 63F
DE 所以了解這點自然會覺得它不是智慧生命
11/27 17:23, 63F

11/27 17:24, 2月前 , 64F
但隨著AI越來越像是有智慧的東西,說不定反過來證明所
11/27 17:24, 64F

11/27 17:24, 2月前 , 65F
謂複雜的智慧生命可能也是以類似的方式在運作
11/27 17:24, 65F

11/27 17:24, 2月前 , 66F
它本質上是個死物這點無從改變 而為什麼一定是個死物
11/27 17:24, 66F

11/27 17:25, 2月前 , 67F
這是由人類政策決定的 人類當然也可以給AI自由活動並
11/27 17:25, 67F

11/27 17:26, 2月前 , 68F
改變自己的空間 但實際上就沒人做 所以就是沒有
11/27 17:26, 68F

11/27 17:28, 2月前 , 69F
不用說講什麼騷話,讓AI(搭配機器人技術)自由地上接開
11/27 17:28, 69F

11/27 17:29, 2月前 , 70F
槍打人技術上都是做的到的,但人類就是不會那麼閒
11/27 17:29, 70F
※ 編輯: sxy67230 (49.216.160.111 臺灣), 11/27/2025 18:03:06

11/27 19:36, 2月前 , 71F
理解AI的核心架構就不會覺得有意識的問題了
11/27 19:36, 71F

11/27 19:37, 2月前 , 72F
至少目前的模型發展還沒有人創造出來
11/27 19:37, 72F

11/27 19:37, 2月前 , 73F
會覺得有意識大概就像網路交友被詐騙一樣
11/27 19:37, 73F

11/27 19:38, 2月前 , 74F
對方講的話你聽的懂、你喜歡聽不代表對方是真心的
11/27 19:38, 74F
文章代碼(AID): #1fA0xXsB (C_Chat)
討論串 (同標題文章)
完整討論串 (本文為第 42 之 44 篇):
文章代碼(AID): #1fA0xXsB (C_Chat)