[問題] sigmoid cross entropy

看板DataScience作者 (恩恩)時間6年前 (2018/04/25 15:40), 6年前編輯推噓2(203)
留言5則, 3人參與, 6年前最新討論串1/1
作業系統:(ex:mac,win10,win8,win7,linux,etc...) macos 問題類別:(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...) ML 使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...) tensorflow 問題內容: 請問tensorflow 中的sigmoid_cross_entropy_with_logits https://goo.gl/tRjS6j labels 在二分類上是要轉成one-hot vector 還是直接給0 or 1就可以了 不太懂網頁中這句話 Measures the probability error in discrete classification tasks in which each cl 在範例中也常常看到logits這個字 請問logits有什麼特別意思嗎? 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.229.5.50 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1524642039.A.196.html ※ 編輯: f422661 (36.229.5.50), 04/25/2018 15:42:50

04/25 19:15, 6年前 , 1F
是指最後一層未過softmax的值
04/25 19:15, 1F

04/25 19:16, 6年前 , 2F
應該是延用logistic regression的名稱吧
04/25 19:16, 2F

04/25 19:17, 6年前 , 3F
logistic regression的link function就是sigmoid
04/25 19:17, 3F
好的謝謝!! 不過還是不太懂是不是要用one-hot vector當label? ※ 編輯: f422661 (36.229.5.50), 04/25/2018 21:14:28

04/25 21:45, 6年前 , 4F
二分類裡0 1跟 onehot是一樣的阿
04/25 21:45, 4F

04/26 06:50, 6年前 , 5F
logit丟wiki就有了啊
04/26 06:50, 5F
謝謝各位前輩 ※ 編輯: f422661 (27.242.170.199), 04/26/2018 09:35:21
文章代碼(AID): #1Qu33t6M (DataScience)