Re: [討論] 有沒有深度卷積神經網路的八卦?

看板NCTU_TALK作者 (一切重來就好了...)時間8年前 (2016/05/10 15:02), 編輯推噓2(315)
留言9則, 6人參與, 最新討論串4/4 (看更多)
無聊認真回個廢文 其實 CNN/DNN 這麼屌,還是有方法可以對付的 有興趣可以參考以下這個影片: https://www.youtube.com/watch?v=M2IebCN9Ht4
懶的看影片的我簡單說明一下 1. NN 可以拿來認圖片認物體,簡單來說就是替一張 bitmap 上 tags 加上信心度 2. 那將 NN 的結果如果疊上去人為的躁點或是無意義的 patterns NN 仍然會有機會將這張圖標上算法判斷結果的 tag 3. 以上 NN 的結果加上基因演算法,如果將高信心度的圖片做 crossover 那麼能在一定的程度下提高這個圖片家族,在 NN 辨識上的信心度 4. 重複以上步驟,有機會刻意的製造出一張圖,讓這張圖片含有某種額外的信號 這信號可能對人類來說是無意義的雜訊,或著是某個有意義的 pattern 但是如果將這張圖丟給 NN 去認的話,會得到完全不同的結果 並且信心度非常高 這研究可以來幹嘛呢? 當然就是欺騙 NN 的眼睛阿XD 白話來講就是可以做出一張對人類來說明明是 A 的但是 NN 確將他認成 B 剩下結果就自由發揮囉 lol 這個研究的重點在於結合 NN 和 genetic algorithm ,將 NN 認出的結果不斷的放大 達到高度提高辨識信心度的效果 研究網址: http://www.evolvingai.org/fooling 論文刊登在 arXiv.org 上 http://arxiv.org/abs/1412.1897 http://arxiv.org/pdf/1412.1897v4.pdf ※ 引述《lturtsamuel (港都都教授)》之銘言: : 幹,deep learning真是有夠恐怖的 : 連我這種半調子隨便用matlab建個model,手寫數字都能達到90%up的辨識率 : 我有cross validate,應該是沒有overfit : 完全沒有做任何預處理,直接整個點陣圖丟進去 : 用我的ASUS爛筆電跑也只要一分鐘,準確率高到嚇人 : 更可怕的是,我完全不用管內部發生了什麼事,人類對data的解讀根本就不重要了 : 反正nural network會幫你搞定,像黑魔法一樣 : 這樣人類到底是要怎麼跟電腦競爭啊…… : 幫人類QQ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.165.41.170 ※ 文章網址: https://www.ptt.cc/bbs/NCTU_TALK/M.1462863721.A.3AC.html

05/10 15:14, , 1F
J三小?
05/10 15:14, 1F

05/10 15:32, , 2F
我摸戒子這個動作,是我在最近五百副牌裡加進去的
05/10 15:32, 2F

05/10 16:42, , 3F
助教是你?!
05/10 16:42, 3F

05/10 18:16, , 4F
助教有女友ㄇ
05/10 18:16, 4F

05/10 19:32, , 5F
隱藏資訊啊 是說這樣資訊量疊加有上限嗎
05/10 19:32, 5F

05/11 04:49, , 6F
我不是助教,本肥宅已經離開學校有一陣子惹...
05/11 04:49, 6F

05/11 04:50, , 7F
我也只是看看論文發發廢文而已,沒研究過有沒有上限XD
05/11 04:50, 7F

05/11 04:50, , 8F
假如跑雜交的子代多一點的話,說不定可以作出對於不同 NN
05/11 04:50, 8F

05/11 04:51, , 9F
卻分別藏不同資訊的圖? XD
05/11 04:51, 9F
文章代碼(AID): #1NCOTfEi (NCTU_TALK)
討論串 (同標題文章)
文章代碼(AID): #1NCOTfEi (NCTU_TALK)