Re: [問卦] [理組請進]有沒有梯度下降法的八卦已回收

看板Gossiping作者 (你很記者你很腦殘)時間6年前 (2019/03/01 09:09), 6年前編輯推噓8(912)
留言12則, 12人參與, 6年前最新討論串3/4 (看更多)
因為你學的東西都是用倒傳遞宣傳法 (back propagada, BP) 來作到訓練參數的演算法 對 就是柯文哲說的 猶太人被屠殺是最大宣傳的 propaganda 而倒傳遞演算法的原理就是 1. 得到error --> 你的結果和你的目標結果不同產生的差異 error function的定義也是人工智慧裡的一個大問題 不同的應用要用不同的誤差函數 這樣才能有效訓練參數 2. 對error相對於各個參數作偏微分 --> 可以得到你的模型中各個參數對error的微分 --> 物理意義就是, 你這個參數的變化, 會相對造成error的多少變化(斜率的概念) 3. 反覆訓練 利用error的回授 propaganda 去讓權重可以在誤差回授過程慢慢地針對你的樣本調整收斂 以現在機器學習領域中很紅的深度學習網路來說 你的目標都是要訓練你的模型中的權重w 而深度學習 之所以可以達到深度 啊~~~ 再深一點~~~ 的原因 就是這個模式有一堆w 啊斯~~ 以一個簡單的imagenet這個網路來說 就有上萬個w要調校了 而你在訓練過程 這些上萬個權重就需要在訓練過程被調整 在深度學習領域中 前傳遞的基本算式是 f(x) = g(wx) + b 激發函數g(x) 就是 神經元激發的概念 當你被插了一下 你會 突然地嗯~~~ 啊~~~~ 地叫多大聲 就是這個激發函數的概念 不同於 你插小小力 我叫小小聲 你插中等力 我叫中等聲 你插好大力 我叫好大聲 的那種線性概念 | / | / | / | / |/ |________ 激發函數的概念是 你插小小力 ... 沒什麼反應 (死魚) 你插中等力... 反應也沒什麼 (死魚) 我就再大力一點 啊啊啊啊啊啊啊啊啊 再更大力 啊啊啊啊啊啊啊啊 然後再更大力也就這樣了... 啊啊啊啊啊啊啊啊啊 (我似乎想到某個......) 函數形狀比較像這樣 中間的斜率很大 | _____ | / | / | / |______/ |-----------------> 通常都是用 sigmoid函數 為什麼呢 因為 sigmoid函數的微分太漂亮啦~~~ 1 sigmoid g(x) = -------------------- 1+exp(-z) 自己微微看 不會微分的自己回去跟大一微積分老師下跪懺悔 g'(x) = g(x)(1-g(x)) 而倒傳遞的過程 就是 先定義誤差函數 以最常用的 E = 0.5 * [F-f(x)]^2 來說 F為你的目標輸出, 就是正確答案啦 f(x)是目前在你的參數下 你的輸入會輸出的答案 你針對其中一個權重對E的偏微分就是 -1 * f'(x) --> 以下面的 f(x) = g(wx)+b來算 針對每個w都去算 然後一個一個偏微分下去 你就可以得到誤差相對於每個權重的變化值 這就是梯度 (相對於每個參數的偏微分) 當你知道 你的參數的變大 會使得誤差變大 那你就把參數變小 這樣是不是就縮小誤差? 當你知道 你的參數變小 會使得誤差變大 那你就把參數變大嘛!!! 這樣是不是就縮小誤差了!! 一直作 一直作 一直作 一直作 一直作 一直作 一直玩 一直玩 一直玩 一直玩 一直玩 一直玩 一直睡 一直睡 一直睡 一直睡 一直睡 一直睡 作到誤差不會再變多少了 (當然誤差要在一定的量以下才能這麼說啦) 恭喜你 收斂了 好了~ 這就是你的模型了! 好的 這就是為什麼要學倒傳遞 還有梯度傳播法的概念 倒傳遞演算法 是深度學習 最大的宣傳 謝謝各位 ※ 引述《v0125kevin ()》之銘言: : 理組的各位今天過得好嗎 : 在機器學習領域中 : 不管是吳恩達大師或是李宏毅大師的課程 : 第一個講到的演算法剛好都是梯度下降法 (Gradient descent) : 為何都是從這個演算法開始教 : 是講好的嗎 : 有八卦否 -- 淺藍 無色媒體中立評論 吸獨吱吱挺貪腐 █████████████████████████████ 文匯報 聯合韓粉一日幕僚柯媽佩琪 公視原視客家電視 中評網 旺旺中時館長人渣文本TVBS 三立自由民視 人民日報 柯粉館粉時力粉 川普&美國國防部 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.195.47.122 ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1551402556.A.A1F.html ※ 編輯: schizophrena (123.195.47.122), 03/01/2019 09:10:59

03/01 09:11, 6年前 , 1F
是sigmoid,謝謝
03/01 09:11, 1F
奇怪 我都唸moid不知道為什麼一直壓到n... ※ 編輯: schizophrena (123.195.47.122), 03/01/2019 09:12:54

03/01 09:12, 6年前 , 2F
你太認真了 雖然我都看過了XD
03/01 09:12, 2F
※ 編輯: schizophrena (123.195.47.122), 03/01/2019 09:13:48

03/01 09:21, 6年前 , 3F
你是不是壓力很大
03/01 09:21, 3F

03/01 09:25, 6年前 , 4F
6666
03/01 09:25, 4F

03/01 09:26, 6年前 , 5F
只用BP會不會只造成得到local minimum的weights結果?
03/01 09:26, 5F
放心 一定會 但是 你現在幾乎所有在機器學習看到 而且你可以拿到code的演算法 都會喲 >_^* 不去解決 一定是代表 很難解決 所以不如去想訓練驗證程序 怎麼避免你的結果 或 避免不知道你的結果 是local minimum ※ 編輯: schizophrena (123.195.47.122), 03/01/2019 09:30:43

03/01 09:41, 6年前 , 6F
快推 不然被大家以為自己只是調參數仔
03/01 09:41, 6F
其實在機器學習領域 調參數變得很重要 聰明調參數是很重要的 你要說的是 被以為只會重新產生random再下去跑的那種調參數吧 XD ※ 編輯: schizophrena (123.195.47.122), 03/01/2019 09:45:07

03/01 09:50, 6年前 , 7F
這篇不錯 用很有趣的口吻XDXD HAHA我喜歡
03/01 09:50, 7F

03/01 09:57, 6年前 , 8F
高斯分佈 萬歲
03/01 09:57, 8F

03/01 10:18, 6年前 , 9F
專業推
03/01 10:18, 9F

03/01 11:37, 6年前 , 10F
propagation啦幹
03/01 11:37, 10F

03/01 12:13, 6年前 , 11F
XDDDD
03/01 12:13, 11F

03/01 13:31, 6年前 , 12F
啊啊啊啊啊啊
03/01 13:31, 12F
文章代碼(AID): #1SU8OyeV (Gossiping)
討論串 (同標題文章)
文章代碼(AID): #1SU8OyeV (Gossiping)