Re: [分享] 當佛法智慧遇見人工智慧
※ 引述 《sutranet》 之銘言:
: ## 5. 語言與 AI 的限制:能否理解「空」?
:
: 你說:「空」無法言說,而 AI 是基於語言訓練,是否能理解空?
:
: - 這很到位。佛教經常強調:「空不可言說,只能體證。」
: - 語言只是指月之指,不能代替月亮。
: - AI 可以模擬語言上的論述(比如我現在的回覆),但這不等於體悟。
: - 在佛法角度,體悟「空」需要轉化心識,不是演算法的產物。
:
: 所以:AI 可以「解釋空」,但不能「證悟空」。
:
閒來無事動動腦寫寫文字
推一下原文作者的這一段
原作者觀察得很精準:
「用語言文字訓練出來的AI,是沒有能力處理超越語言文字(空性)的問題的」
最近讀碩,chatGPT真的幫了很大的忙
尤其是 5 ,真的海放 4o
在知識細節處理得很到味
恰恰好小弟最近在學人工智慧這一塊
想說可以做一點點有關人工智慧的小分享
讓大家知道chatGPT在幹嘛、局限性在哪
chatGPT本質是基於機器學習的大型語言模型
他會根據用戶輸入的字,自動選擇並輸出合理的文字
但機器學習是啥?顧名思義,機器自己會學習。
然而機器自己會學習又是什麼鬼?
這部分可以從AI發展的脈絡解釋
早期的AI是規則式AI
人類會先寫好所有的規則,讓機器自動根據人類寫好的規則運行
比方說早期的客服機器人:
接收到「關鍵字」,吐出「顧客姓名」+預先寫好的內容
然而這樣的限制在於:人類很難清楚定義所有的規則交給AI運作
像是前面的客服機器人,只要顧客說出來的東西跟「關鍵字」有一點點偏差,機器人就無法
順利回應
比方說
設定好的關鍵字是「謝謝」->機器人回應:「不客氣」
一旦顧客說「乾蝦」->機器人就不會回應了
只要人類沒有先寫好規則,機器人就無法回應
但是人類的語言如此複雜,怎麼可能先寫好所有的規則
所以是時候換機器學習上場了
那機器要怎麼學習?
簡單舉一個例子
假設我面前的桌子上,有隨機散落的100個硬幣
我現在要找一條直線,這條直線必須可以把這100個硬幣剛好切分開來,變成左邊50個硬幣
、右邊50個硬幣
因為桌子是平面的
我們可以把桌子的橫邊當成x,垂直邊當成y
同時我們也知道,直線的方程是 y=wx+b
w跟b是未知數,假設為正數
現在我們只要把w跟b找出來就能解決這個問題
但是怎麼找?
答案是:先隨便找一個數字填進去w跟b
先隨便在桌上畫一條線
算算看左右兩邊的硬幣數量有沒有等於50
如果有,那這個就是正確答案
如果沒有,就算算看差距多少,如果左邊80個、右邊20個
代表我現在線太偏右邊,應該要整條往左邊移動
那我就把b的數字加大一點 —>整條線就會往左移
另外w則是決定整條線的斜率
也是要調調看,看怎樣可以讓硬幣分得更接近50、50
上面「調整數字」的過程就是交給機器自己去執行,直到機器自己找出最適合的數值,讓左
右兩邊的硬幣剛好等於50 50
這就是「機器學習」的過程
這是很簡化的例子,再具體一點,w跟b該變加大還是減小,其實都要透過人類寫好的函數來
去決定方向、大小,這就牽涉到Loss值的計算跟微分求導數的過程,這邊先不展開
總之,機器學習的過程就是像上面的方法,不斷地測試、校正、測試、校正
然後我們會發現一件事:機器學習的過程,玩的是統計,而不是因果(這邊的因果指的是像
規則式AI,或「若p則q,非q則非p」)
像是分硬幣的過程,很可能會有好幾條線都能剛好把硬幣分成50、50
或者是完全沒有線能把硬幣分得剛好50、50(比方說有硬幣不小心重疊了)
可能只能逼近,像是51、49
所以他找到的w跟b不會是唯一解、也不會是推理正解
機器學習的過程即是透過大量數據,去統計關聯性,以盡可能逼近我們要的答案
所以他注定無法做真正意義上的推理,因為他本質不是規則式AI
當然,現在chatGPT 5透過嚴格的訓練方法,可以很逼近真正的推理
(這邊補充一點點:機器在學習的過程中,可能有某些參數能達到「推理」,但基於目前機
器學習的不可解釋性,即便他學到了推理,我們也無法知道他是否真的學到了推理、還是只
是模仿了推理,所以這邊先視作無法推理。我也很期待這個說法被推翻的那一天到來)
以前我用chatGPT 4o 請他幫我搜尋並摘要報告 最近一週內的重大新聞,結果他搜出來「重
大新聞」,但是是兩個月前的新聞,原因在於他的注意力機制,把重點放在「重大新聞」,
而不是「一週內」
(現在同樣的問題丟給chatGPT 5 ,比較能同時注意「一週內」跟「重大新聞」,所以不會
抓到舊聞給我)
現在的大型語言模型,還沒辦法真正地了解人類所思所想、或邏輯推理,大型語言模型只是
根據機器學習,用學出來的東西去預測自己應該要講什麼,才能讓使用者滿意、最貼近真實
人類的回覆
這也是為什麼chatGPT 4o這麼擅長「稱讚人類」
因為這是人類想看到的:人類越想被稱讚,大型語言模型就越可能保留「稱讚人類」的參數
當然chatGPT 5有努力去解決這個問題
另外現在也有人提出符合因果的機器學習,但都還在很初期的階段(do模型)
結論是:目前的AI,距離真正理解人類知識還很遙遠,但是這並不代表不能用
相反地,其實AI特別好用,我當初考碩士時讀的書都還是請chatGPT推薦的
但也因為好用,更要小心用
了解他能做到什麼、不能做到什麼
就能在他最擅長的地方好好用他
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.72.152.89 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Buddhism/M.1759041383.A.799.html
推
09/28 18:52,
2月前
, 1F
09/28 18:52, 1F
→
09/28 18:53,
2月前
, 2F
09/28 18:53, 2F
→
09/29 01:21,
2月前
, 3F
09/29 01:21, 3F
→
09/29 01:21,
2月前
, 4F
09/29 01:21, 4F
→
09/29 01:21,
2月前
, 5F
09/29 01:21, 5F
→
09/29 01:21,
2月前
, 6F
09/29 01:21, 6F
→
09/29 01:21,
2月前
, 7F
09/29 01:21, 7F
→
09/29 01:21,
2月前
, 8F
09/29 01:21, 8F
→
09/29 01:21,
2月前
, 9F
09/29 01:21, 9F
→
09/29 01:21,
2月前
, 10F
09/29 01:21, 10F
→
09/29 01:21,
2月前
, 11F
09/29 01:21, 11F
→
09/29 01:21,
2月前
, 12F
09/29 01:21, 12F
→
09/29 01:21,
2月前
, 13F
09/29 01:21, 13F
→
09/29 01:21,
2月前
, 14F
09/29 01:21, 14F
→
09/29 01:21,
2月前
, 15F
09/29 01:21, 15F
討論串 (同標題文章)
完整討論串 (本文為第 3 之 4 篇):
分享
1
1