Re: [閒聊] 為啥vivy這次這麼聽話
推
05/03 15:51,
05/03 15:51
→
05/03 15:51,
05/03 15:51
→
05/03 15:51,
05/03 15:51
→
05/03 15:51,
05/03 15:51
→
05/03 15:51,
05/03 15:51
→
05/03 15:51,
05/03 15:51
→
05/03 15:51,
05/03 15:51
→
05/03 15:51,
05/03 15:51
不好意思...手癢回一下
現在的AI其實完全符合這位朋友的疑問
現在AI主流的基本技術叫做CNN, 摺積神經網路
反正你就想像成是用一種叫做摺積的數學運算去模擬人類大腦的神經網路
更具體來說, 是用大量的摺積運算配一個啟動函數來模擬一個神經元做了甚麼事情
神經元簡單來說, 就是上一個神經元A放電去電下一個神經元B, 藉此來傳遞訊息
只要A放電夠強, B就接收的到, 反之, A受到的刺激不夠放電不夠, B就不會有反應
我們就是用數學運算配合啟動函數來模擬這個A和B溝通的過程
然後
只有A跟B兩個神經元的時候我們還可以給出嚴謹的數學證明來說明中間發生了甚麼事
但現在隨便一個CNN都上萬個神經元在互相連動
訓練過程中到底發生了甚麼事~擲筊問媽祖還比較可靠
雖然各家實驗室跟研究人員都努力給出合理的解釋來說中間到底在幹嘛
但沒有一個解釋是可以用數學證明的
很弔詭吧~?
成千上萬的數學運算堆起來竟然不能用數學去證明跟預測結果會怎樣
這就是現在的AI
確實跟去火星探險發現遠古遺跡很像
然後現在這個人類無法預測的數學運算就安裝在你各位的特斯拉車子裡幫你開車
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.159.150.171 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1620050499.A.F16.html
推
05/03 22:03,
3年前
, 1F
05/03 22:03, 1F
→
05/03 22:03,
3年前
, 2F
05/03 22:03, 2F
→
05/03 22:03,
3年前
, 3F
05/03 22:03, 3F
軟體層面或硬體層面的差異不影響阿
如果你無法預測一堆碳原子堆起來會怎樣
跟你無法預測這個軟體遇到怎樣的情況會失控
兩個是一樣令人無法信任阿
但現實是
大家還是用得很開心XD
推
05/03 22:04,
3年前
, 4F
05/03 22:04, 4F
※ 編輯: vacuityhu (49.159.150.171 臺灣), 05/03/2021 22:07:15
→
05/03 22:05,
3年前
, 5F
05/03 22:05, 5F
→
05/03 22:05,
3年前
, 6F
05/03 22:05, 6F
推
05/03 22:06,
3年前
, 7F
05/03 22:06, 7F
→
05/03 22:06,
3年前
, 8F
05/03 22:06, 8F
跟劇中的差異在於
我們現在做的神經網路是可以複製的
因為就是一堆數學運算而已
但我們目前的AI跟劇中的AI也根本天差地別
大概就跟一顆精蟲和一個完整的人類這樣的差異一樣吧
推
05/03 22:06,
3年前
, 9F
05/03 22:06, 9F
→
05/03 22:07,
3年前
, 10F
05/03 22:07, 10F
※ 編輯: vacuityhu (49.159.150.171 臺灣), 05/03/2021 22:10:17
→
05/03 22:08,
3年前
, 11F
05/03 22:08, 11F
→
05/03 22:09,
3年前
, 12F
05/03 22:09, 12F
推
05/03 22:10,
3年前
, 13F
05/03 22:10, 13F
→
05/03 22:11,
3年前
, 14F
05/03 22:11, 14F
粗略來講確實是這樣沒錯
但那個隨機過程其實只是為了補足訓練資料的不足而已
你可以想成是為了處理一些更麻煩, 也更難取得訓練資料的任務
我們就用隨機產生的亂數充當訓練資料
然後把真的有幫助到訓練的隨機亂數存下來
追根究柢~其實只是訓練策略比較高明而已
不是神經網路的設計進步
※ 編輯: vacuityhu (49.159.150.171 臺灣), 05/03/2021 22:15:00
推
05/03 22:13,
3年前
, 15F
05/03 22:13, 15F
→
05/03 22:13,
3年前
, 16F
05/03 22:13, 16F
→
05/03 22:13,
3年前
, 17F
05/03 22:13, 17F
推
05/03 22:14,
3年前
, 18F
05/03 22:14, 18F
→
05/03 22:14,
3年前
, 19F
05/03 22:14, 19F
→
05/03 22:14,
3年前
, 20F
05/03 22:14, 20F
這個嘛...說實話~我沒接觸過NTK
不過我剛簡單看了一下2018那篇paper
這似乎最多只能說明我們的訓練方式是能收斂的而不會徒然浪費時間
因為我乍看之下證明過程中似乎沒考慮到訓練資料的差異
所以應該還沒辦法在訓練前就知道訓練效果如何吧
而且這個研究只考慮最原始的ANN
顯然還無法回答為什麼CNN會比ANN優異那麼多
然後一堆沒道理的skip connection為什麼會有幫助
不過我還沒有全部看完~
如果哪裡有錯~還請幫忙指正QQ
※ 編輯: vacuityhu (49.159.150.171 臺灣), 05/03/2021 22:28:44
→
05/03 22:28,
3年前
, 21F
05/03 22:28, 21F
支語警察認真如我~一定馬上回答你這個問題XD
https://zh.wikipedia.org/wiki/%E5%8D%B7%E7%A7%AF
※ 編輯: vacuityhu (49.159.150.171 臺灣), 05/03/2021 22:30:38
推
05/03 22:30,
3年前
, 22F
05/03 22:30, 22F
→
05/03 22:30,
3年前
, 23F
05/03 22:30, 23F
→
05/03 22:31,
3年前
, 24F
05/03 22:31, 24F
→
05/03 22:32,
3年前
, 25F
05/03 22:32, 25F
進度這麼快QQ
不過data independent不太合理吧?
實作上很明顯好的訓練資料跟差的訓練資料做起來就是有差啊
不然照這樣來說, 我只要有無限的時間跟計算資源
就算訓練資料全部丟隨機亂數下去跑~最後也能訓練出表現很好的NN嗎??
※ 編輯: vacuityhu (49.159.150.171 臺灣), 05/03/2021 22:34:36
→
05/03 22:33,
3年前
, 26F
05/03 22:33, 26F
→
05/03 22:34,
3年前
, 27F
05/03 22:34, 27F
→
05/03 22:34,
3年前
, 28F
05/03 22:34, 28F
→
05/03 22:35,
3年前
, 29F
05/03 22:35, 29F
→
05/03 22:36,
3年前
, 30F
05/03 22:36, 30F
→
05/03 22:36,
3年前
, 31F
05/03 22:36, 31F
→
05/03 22:36,
3年前
, 32F
05/03 22:36, 32F
→
05/03 22:37,
3年前
, 33F
05/03 22:37, 33F
→
05/03 22:38,
3年前
, 34F
05/03 22:38, 34F
→
05/03 22:39,
3年前
, 35F
05/03 22:39, 35F
已私~~
推
05/03 22:51,
3年前
, 36F
05/03 22:51, 36F
推
05/03 23:13,
3年前
, 37F
05/03 23:13, 37F
※ 編輯: vacuityhu (49.159.150.171 臺灣), 05/03/2021 23:49:03
推
05/04 01:35,
3年前
, 38F
05/04 01:35, 38F
推
05/04 01:55,
3年前
, 39F
05/04 01:55, 39F
推
05/04 02:05,
3年前
, 40F
05/04 02:05, 40F
推
05/04 02:51,
3年前
, 41F
05/04 02:51, 41F
推
05/04 05:22,
3年前
, 42F
05/04 05:22, 42F
推
05/04 10:05,
3年前
, 43F
05/04 10:05, 43F
→
05/04 10:05,
3年前
, 44F
05/04 10:05, 44F
噓
05/04 13:43,
3年前
, 45F
05/04 13:43, 45F
→
05/04 13:44,
3年前
, 46F
05/04 13:44, 46F
推
05/04 13:53,
3年前
, 47F
05/04 13:53, 47F
→
05/04 13:54,
3年前
, 48F
05/04 13:54, 48F
→
05/04 13:55,
3年前
, 49F
05/04 13:55, 49F
→
05/04 13:56,
3年前
, 50F
05/04 13:56, 50F
→
05/04 13:56,
3年前
, 51F
05/04 13:56, 51F
→
05/04 13:57,
3年前
, 52F
05/04 13:57, 52F
推
05/04 14:44,
3年前
, 53F
05/04 14:44, 53F
討論串 (同標題文章)