作者查詢 / kaneson
作者 kaneson 在 PTT [ Python ] 看板的留言(推文), 共20則
限定看板:Python
看板排序:
首頁
上一頁
1
下一頁
尾頁
8F推: 因為gradient descent 找 loss 的 local min 不是一次到11/19 22:32
9F→: 位, learning rate也是因素11/19 22:32
5F推: for...in 中a代表b中的成員, c=a+1 可以說是c代表了一個04/01 18:32
6F→: 由'+'新產生的東西, a=c 可以說是a改為代表這新東西,而a04/01 18:32
7F→: [:]=c 才是內容複制04/01 18:32
7F推: data有被readline() 切斷的現象基本上就要搭配while loop02/22 01:08
8F→: , readline本身就是設計給讀文字data專用的, 比較通用的02/22 01:08
9F→: 做法是while loop 加 read02/22 01:08
1F推: 可以去看看ctype的return types02/10 23:01
28F推: 10層dnn任一條x->y的路徑相當於乘了10次weight, 你的inpu09/22 02:38
29F→: t在0.7附近, 初始weights用random normal預設也在 0 附09/22 02:38
30F→: 近(-1,1), 這樣後面output應該都是0,所以我覺得train不09/22 02:38
31F→: 出東西來09/22 02:38
32F推: 所謂疊幾十上百層的是CNN,架構有其原理與作用,也有很多09/22 02:52
33F→: 不同技巧解決梯度消失的問題。其實最尾巴接上的full-conn09/22 02:52
34F→: ected layer與softmax組成的分類器也很少會超過二,三層09/22 02:52
35F→: 。09/22 02:52
36F推: 還有像樓上所說的剛開始建議先玩Keras, 一方面比較方便09/22 03:00
37F→: 拼接出不同典型model來比較看看,而且TF本身api很亂寫起09/22 03:00
38F→: 來也較不直覺。09/22 03:00
首頁
上一頁
1
下一頁
尾頁