[討論] 深度學習未來軟體可否寫軟體

看板Soft_Job作者 (perry tsai)時間8年前 (2016/05/23 02:53), 編輯推噓24(24031)
留言55則, 23人參與, 最新討論串1/3 (看更多)
深度學習透過讓機器大量的參與可以擁有歸納規則的能力, 設計模式中也只是透過大量遇到code常見的問題所歸納產生的解決方法。 換而言之,讓軟體大量觀察程式碼或許未來真的可以靠機器自己寫軟體? 人常說機器跟人差別的是創造的能力, 但事實上創造,多數情形下也是先透過學習不同的領域, 然後找出領域之中的可結合點, 創造出新的事物, 如果按照這個邏輯, 似乎機器學習寫程式碼是可行的。 記得以前練習過一個演算法叫Quine, 就是用程式語言print出自己的原始碼。 我相信這對機器學習來說寫出這東西應該不是難事, 也就是說,讓軟體寫出原始碼可行性應該是極高的。 但我們無法掌控的地方卻是, 如果機器可以自行產生程式碼, 那麼他會產生怎樣的程式碼? 他會創造出怎樣的功能? 這似乎變成難以預測的結果。 如果有一天機器能產生原始碼, 我想這後果似乎是比我們程式設計師失業還要來的恐怖吧。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.137.122.188 ※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1463943189.A.3F7.html

05/23 03:22, , 1F
能產生原始碼跟能自己創造演算法還有很大的距離
05/23 03:22, 1F

05/23 03:29, , 2F
其實我倒是認為演算法是整理歸納來的,而不是創造來
05/23 03:29, 2F

05/23 03:29, , 3F
的。白話一點就是透過觀察、整理歸納後所產生的計算
05/23 03:29, 3F

05/23 03:29, , 4F
公式。
05/23 03:29, 4F

05/23 04:21, , 5F
深度學習目前強項在"感知",牽涉計算&邏輯幾乎沒進步
05/23 04:21, 5F

05/23 04:24, , 6F
讓nn學語法很簡單 學語義就不太行
05/23 04:24, 6F

05/23 04:29, , 7F
mit有人在做
05/23 04:29, 7F

05/23 04:54, , 8F
Alphago 的計算跟邏輯貌似蠻強的?
05/23 04:54, 8F

05/23 05:00, , 9F
alphago的邏輯不是nn train出來的
05/23 05:00, 9F

05/23 05:48, , 10F
那alphago的訓練方式可以用來自動產生程式嗎?
05/23 05:48, 10F

05/23 06:13, , 11F
Alphago的訓練方式是在有限的情況下(圍棋棋盤)
05/23 06:13, 11F

05/23 06:14, , 12F
的方式去深度學習 而且深度學習的條件就是前人的棋譜
05/23 06:14, 12F

05/23 06:16, , 13F
簡單來說就是寫出現有的程式而且優化是可能的
05/23 06:16, 13F

05/23 06:16, , 14F
但是要能夠理解題目給出對應的solution 這才是困難之處
05/23 06:16, 14F

05/23 06:50, , 15F
深度學習有很多關於語義的研究唷~word2vec
05/23 06:50, 15F

05/23 10:21, , 16F
人腦就那麼小一塊 功耗也普普 電腦複雜度趕上遲早而已
05/23 10:21, 16F

05/23 10:37, , 17F
姑且不論word2vec到底算不算"深度學習",它目前帶來的
05/23 10:37, 17F

05/23 10:37, , 18F
效果遠不及nn在視覺/語音上的影響
05/23 10:37, 18F

05/23 10:40, , 19F
再說了,在code上做word2vec?太鑽牛角尖了吧
05/23 10:40, 19F

05/23 10:44, , 20F
word2vec沒有很深,但其實要多深才算deep也沒人定義
05/23 10:44, 20F

05/23 10:49, , 21F
是nn,是不是dnn就見仁見智
05/23 10:49, 21F

05/23 10:50, , 22F
說他不deep的原因除了它很shallow之外,它本質上做的是
05/23 10:50, 22F

05/23 10:51, , 23F
矩陣分解
05/23 10:51, 23F

05/23 10:57, , 24F
未來一定有提供機器人 clip copy 用的網站系統
05/23 10:57, 24F

05/23 10:57, , 25F
也就是工程師分享語法片段,讓開發者參考外
05/23 10:57, 25F

05/23 12:58, , 26F
只問一個問題 他怎麼知道他產出的code沒有bug
05/23 12:58, 26F

05/23 13:12, , 27F
所以會有智能學習測試程式
05/23 13:12, 27F

05/23 13:20, , 28F
W2v只能算pretraining
05/23 13:20, 28F

05/23 13:21, , 29F
如果要說跟deep learning的關係的話
05/23 13:21, 29F

05/23 15:05, , 30F
那一天一定會到來
05/23 15:05, 30F

05/23 16:08, , 31F
在台灣除了研究院外用的到嗎
05/23 16:08, 31F

05/23 18:12, , 32F
一定有辦法 只是時間問題
05/23 18:12, 32F

05/23 18:29, , 33F
做的出來人類就滅亡了
05/23 18:29, 33F

05/23 20:25, , 34F
機器學習的根本還停留在條件判斷 只是有大量資料去改變in
05/23 20:25, 34F

05/23 20:25, , 35F
put
05/23 20:25, 35F

05/23 20:25, , 36F
只要程式還是用if else寫出來的 就不可能跟生物一樣有思
05/23 20:25, 36F

05/23 20:25, , 37F
想 不確定性
05/23 20:25, 37F

05/23 20:26, , 38F
電腦要模擬人腦 硬體面都還差很遠
05/23 20:26, 38F

05/23 21:43, , 39F
機器學習可以不經提示下辨識圖片,換言之就是抽象化
05/23 21:43, 39F

05/23 21:44, , 40F
的能力,也就是透過大量的實例能夠讓機器抽象化出該展
05/23 21:44, 40F

05/23 21:44, , 41F
現的是怎樣的樣貌。雖然距離人類抽象化能力還差很遠,
05/23 21:44, 41F

05/23 21:44, , 42F
但是就原理上可行度很高。程式片段本身就是一個抽象
05/23 21:44, 42F

05/23 21:44, , 43F
化的展現,要把抽象化過的東西再做一次抽象難度自然是
05/23 21:44, 43F

05/23 21:44, , 44F
很高,有點類似要從圖片辨識出哺乳類的能力吧。
05/23 21:44, 44F

05/23 22:50, , 45F
現在圖形辨識可以unsupervised?!
05/23 22:50, 45F

05/23 23:16, , 46F

05/24 07:26, , 47F
早就行啦 DW拉框框不就自己產生程式碼?
05/24 07:26, 47F

05/24 11:42, , 48F
人的思考說不定也只是比較複雜的if else(?
05/24 11:42, 48F

05/24 19:44, , 49F
給樓上 不是
05/24 19:44, 49F

05/24 21:18, , 50F
請樓上解惑>< 我的想法是每個人的行為不也是自己一生經驗
05/24 21:18, 50F

05/24 21:18, , 51F
加上目前所有感官的接收 合併起來的結果嗎~
05/24 21:18, 51F

05/24 22:24, , 52F
基本上還遠的很 在人類真的了解大腦運作原理之前 不可能
05/24 22:24, 52F

05/25 11:56, , 53F
但有些人類科技的突破是靠直覺,但這部分如何產生似乎
05/25 11:56, 53F

05/25 11:56, , 54F
還是問號,這無法突破就難讓電腦學習
05/25 11:56, 54F

05/27 18:23, , 55F
deep learning
05/27 18:23, 55F
文章代碼(AID): #1NGW0LFt (Soft_Job)
討論串 (同標題文章)
文章代碼(AID): #1NGW0LFt (Soft_Job)