Re: [討論] 有沒有深度卷積神經網路的八卦?
無聊認真回個廢文
其實 CNN/DNN 這麼屌,還是有方法可以對付的
有興趣可以參考以下這個影片:
https://www.youtube.com/watch?v=M2IebCN9Ht4
懶的看影片的我簡單說明一下
1. NN 可以拿來認圖片認物體,簡單來說就是替一張 bitmap 上 tags 加上信心度
2. 那將 NN 的結果如果疊上去人為的躁點或是無意義的 patterns
NN 仍然會有機會將這張圖標上算法判斷結果的 tag
3. 以上 NN 的結果加上基因演算法,如果將高信心度的圖片做 crossover
那麼能在一定的程度下提高這個圖片家族,在 NN 辨識上的信心度
4. 重複以上步驟,有機會刻意的製造出一張圖,讓這張圖片含有某種額外的信號
這信號可能對人類來說是無意義的雜訊,或著是某個有意義的 pattern
但是如果將這張圖丟給 NN 去認的話,會得到完全不同的結果
並且信心度非常高
這研究可以來幹嘛呢? 當然就是欺騙 NN 的眼睛阿XD
白話來講就是可以做出一張對人類來說明明是 A 的但是 NN 確將他認成 B
剩下結果就自由發揮囉 lol
這個研究的重點在於結合 NN 和 genetic algorithm ,將 NN 認出的結果不斷的放大
達到高度提高辨識信心度的效果
研究網址:
http://www.evolvingai.org/fooling
論文刊登在 arXiv.org 上
http://arxiv.org/abs/1412.1897
http://arxiv.org/pdf/1412.1897v4.pdf
※ 引述《lturtsamuel (港都都教授)》之銘言:
: 幹,deep learning真是有夠恐怖的
: 連我這種半調子隨便用matlab建個model,手寫數字都能達到90%up的辨識率
: 我有cross validate,應該是沒有overfit
: 完全沒有做任何預處理,直接整個點陣圖丟進去
: 用我的ASUS爛筆電跑也只要一分鐘,準確率高到嚇人
: 更可怕的是,我完全不用管內部發生了什麼事,人類對data的解讀根本就不重要了
: 反正nural network會幫你搞定,像黑魔法一樣
: 這樣人類到底是要怎麼跟電腦競爭啊……
: 幫人類QQ
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.165.41.170
※ 文章網址: https://www.ptt.cc/bbs/NCTU_TALK/M.1462863721.A.3AC.html
推
05/10 15:14, , 1F
05/10 15:14, 1F
→
05/10 15:32, , 2F
05/10 15:32, 2F
推
05/10 16:42, , 3F
05/10 16:42, 3F
噓
05/10 18:16, , 4F
05/10 18:16, 4F
推
05/10 19:32, , 5F
05/10 19:32, 5F
→
05/11 04:49, , 6F
05/11 04:49, 6F
→
05/11 04:50, , 7F
05/11 04:50, 7F
→
05/11 04:50, , 8F
05/11 04:50, 8F
→
05/11 04:51, , 9F
05/11 04:51, 9F
討論串 (同標題文章)