Re: [分享] 當佛法智慧遇見人工智慧

看板Buddhism作者 (RS)時間2月前 (2025/09/28 14:36), 編輯推噓1(1014)
留言15則, 2人參與, 2月前最新討論串3/4 (看更多)
※ 引述 《sutranet》 之銘言: : ## 5. 語言與 AI 的限制:能否理解「空」? : : 你說:「空」無法言說,而 AI 是基於語言訓練,是否能理解空? : : - 這很到位。佛教經常強調:「空不可言說,只能體證。」 : - 語言只是指月之指,不能代替月亮。 : - AI 可以模擬語言上的論述(比如我現在的回覆),但這不等於體悟。 : - 在佛法角度,體悟「空」需要轉化心識,不是演算法的產物。 : : 所以:AI 可以「解釋空」,但不能「證悟空」。 : 閒來無事動動腦寫寫文字 推一下原文作者的這一段 原作者觀察得很精準: 「用語言文字訓練出來的AI,是沒有能力處理超越語言文字(空性)的問題的」 最近讀碩,chatGPT真的幫了很大的忙 尤其是 5 ,真的海放 4o 在知識細節處理得很到味 恰恰好小弟最近在學人工智慧這一塊 想說可以做一點點有關人工智慧的小分享 讓大家知道chatGPT在幹嘛、局限性在哪 chatGPT本質是基於機器學習的大型語言模型 他會根據用戶輸入的字,自動選擇並輸出合理的文字 但機器學習是啥?顧名思義,機器自己會學習。 然而機器自己會學習又是什麼鬼? 這部分可以從AI發展的脈絡解釋 早期的AI是規則式AI 人類會先寫好所有的規則,讓機器自動根據人類寫好的規則運行 比方說早期的客服機器人: 接收到「關鍵字」,吐出「顧客姓名」+預先寫好的內容 然而這樣的限制在於:人類很難清楚定義所有的規則交給AI運作 像是前面的客服機器人,只要顧客說出來的東西跟「關鍵字」有一點點偏差,機器人就無法 順利回應 比方說 設定好的關鍵字是「謝謝」->機器人回應:「不客氣」 一旦顧客說「乾蝦」->機器人就不會回應了 只要人類沒有先寫好規則,機器人就無法回應 但是人類的語言如此複雜,怎麼可能先寫好所有的規則 所以是時候換機器學習上場了 那機器要怎麼學習? 簡單舉一個例子 假設我面前的桌子上,有隨機散落的100個硬幣 我現在要找一條直線,這條直線必須可以把這100個硬幣剛好切分開來,變成左邊50個硬幣 、右邊50個硬幣 因為桌子是平面的 我們可以把桌子的橫邊當成x,垂直邊當成y 同時我們也知道,直線的方程是 y=wx+b w跟b是未知數,假設為正數 現在我們只要把w跟b找出來就能解決這個問題 但是怎麼找? 答案是:先隨便找一個數字填進去w跟b 先隨便在桌上畫一條線 算算看左右兩邊的硬幣數量有沒有等於50 如果有,那這個就是正確答案 如果沒有,就算算看差距多少,如果左邊80個、右邊20個 代表我現在線太偏右邊,應該要整條往左邊移動 那我就把b的數字加大一點 —>整條線就會往左移 另外w則是決定整條線的斜率 也是要調調看,看怎樣可以讓硬幣分得更接近50、50 上面「調整數字」的過程就是交給機器自己去執行,直到機器自己找出最適合的數值,讓左 右兩邊的硬幣剛好等於50 50 這就是「機器學習」的過程 這是很簡化的例子,再具體一點,w跟b該變加大還是減小,其實都要透過人類寫好的函數來 去決定方向、大小,這就牽涉到Loss值的計算跟微分求導數的過程,這邊先不展開 總之,機器學習的過程就是像上面的方法,不斷地測試、校正、測試、校正 然後我們會發現一件事:機器學習的過程,玩的是統計,而不是因果(這邊的因果指的是像 規則式AI,或「若p則q,非q則非p」) 像是分硬幣的過程,很可能會有好幾條線都能剛好把硬幣分成50、50 或者是完全沒有線能把硬幣分得剛好50、50(比方說有硬幣不小心重疊了) 可能只能逼近,像是51、49 所以他找到的w跟b不會是唯一解、也不會是推理正解 機器學習的過程即是透過大量數據,去統計關聯性,以盡可能逼近我們要的答案 所以他注定無法做真正意義上的推理,因為他本質不是規則式AI 當然,現在chatGPT 5透過嚴格的訓練方法,可以很逼近真正的推理 (這邊補充一點點:機器在學習的過程中,可能有某些參數能達到「推理」,但基於目前機 器學習的不可解釋性,即便他學到了推理,我們也無法知道他是否真的學到了推理、還是只 是模仿了推理,所以這邊先視作無法推理。我也很期待這個說法被推翻的那一天到來) 以前我用chatGPT 4o 請他幫我搜尋並摘要報告 最近一週內的重大新聞,結果他搜出來「重 大新聞」,但是是兩個月前的新聞,原因在於他的注意力機制,把重點放在「重大新聞」, 而不是「一週內」 (現在同樣的問題丟給chatGPT 5 ,比較能同時注意「一週內」跟「重大新聞」,所以不會 抓到舊聞給我) 現在的大型語言模型,還沒辦法真正地了解人類所思所想、或邏輯推理,大型語言模型只是 根據機器學習,用學出來的東西去預測自己應該要講什麼,才能讓使用者滿意、最貼近真實 人類的回覆 這也是為什麼chatGPT 4o這麼擅長「稱讚人類」 因為這是人類想看到的:人類越想被稱讚,大型語言模型就越可能保留「稱讚人類」的參數 當然chatGPT 5有努力去解決這個問題 另外現在也有人提出符合因果的機器學習,但都還在很初期的階段(do模型) 結論是:目前的AI,距離真正理解人類知識還很遙遠,但是這並不代表不能用 相反地,其實AI特別好用,我當初考碩士時讀的書都還是請chatGPT推薦的 但也因為好用,更要小心用 了解他能做到什麼、不能做到什麼 就能在他最擅長的地方好好用他 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.72.152.89 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Buddhism/M.1759041383.A.799.html

09/28 18:52, 2月前 , 1F
不斷地測試、校正、測試、校正。有點類似修行的過程
09/28 18:52, 1F

09/28 18:53, 2月前 , 2F
了,修行過程不也……嚐試,改正,再嚐試,再改正。
09/28 18:53, 2F

09/29 01:21, 2月前 , 3F
有點類似,但最不一樣的地方在於:機器學習是基於
09/29 01:21, 3F

09/29 01:21, 2月前 , 4F
統計去找出最佳解,而人類是透過歸納去找出因果;
09/29 01:21, 4F

09/29 01:21, 2月前 , 5F
就康德的說法,人類天生具備因果觀;只是目前礙於
09/29 01:21, 5F

09/29 01:21, 2月前 , 6F
現實我們不得不採用統計的方式去找出事物彼此之間
09/29 01:21, 6F

09/29 01:21, 2月前 , 7F
的關聯性,就現在的成果可以看見,AI確實也可能找
09/29 01:21, 7F

09/29 01:21, 2月前 , 8F
出人類尚未發現的洞見(譬如alphaGo zero找出人類
09/29 01:21, 8F

09/29 01:21, 2月前 , 9F
尚未發現的定石),我也期待那一天的到來。但是就
09/29 01:21, 9F

09/29 01:21, 2月前 , 10F
現在而言,LLM還沒有踏出那一步。乃至於處理空性的
09/29 01:21, 10F

09/29 01:21, 2月前 , 11F
問題,可能又更遙遠了,那牽涉到整個身心的運作,
09/29 01:21, 11F

09/29 01:21, 2月前 , 12F
畢竟目前我們還沒有辦法賦予AI感受,也沒有辦法教
09/29 01:21, 12F

09/29 01:21, 2月前 , 13F
導AI入畢竟空;我想請AI解釋名相是可以的,畢竟是
09/29 01:21, 13F

09/29 01:21, 2月前 , 14F
他擅長的事情,但是我們不能停留在名相,否則會不
09/29 01:21, 14F

09/29 01:21, 2月前 , 15F
小心落到入海算沙徒自困的境地。
09/29 01:21, 15F
文章代碼(AID): #1esDTdUP (Buddhism)
文章代碼(AID): #1esDTdUP (Buddhism)