討論串[姆咪] maximum likelihood
共 6 篇文章
首頁
上一頁
1
2
下一頁
尾頁

推噓0(0推 0噓 0→)留言0則,0人參與, 3年前最新作者PyTorch (無課北鑽帝麥)時間3年前 (2022/05/18 02:34), 編輯資訊
0
0
0
內容預覽:
飛天意神 的能力比起在計算理論的Oracle. 或者是在密碼學能發給你絕對亂數跟神秘簽證的神. 哪個比較屌?. 還是它門三個都是同一個神?. --. --. 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.30.37 (臺灣). 文章網址: https://www.ptt.

推噓1(1推 0噓 1→)留言2則,0人參與, 3年前最新作者siscon (e-diot)時間3年前 (2022/05/18 02:28), 編輯資訊
0
0
0
內容預覽:
不就是 誰能猜比較準就用誰嗎. 飛天義大利麵神 能猜嗎. 不能猜 這個神就沒路用. 參數有沒有overfitting 要不要砍參數. 或是 要用哪個distribution或network. 誰猜得準就用誰. 沒什麼道理. --. 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.230.

推噓0(0推 0噓 0→)留言0則,0人參與, 3年前最新作者PyTorch (無課北鑽帝麥)時間3年前 (2022/05/18 02:15), 編輯資訊
0
0
0
內容預覽:
ML不就是給定distribution跟未知參數. 然後你最佳化機率最高的參數就是最好的參數. 阿如果沒給定distribution就部會算了. 哈 這就是我小鎮做題家的極限了吧. --. --. 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.30.37 (臺灣). 文章

推噓2(2推 0噓 4→)留言6則,0人參與, 3年前最新作者int0x80 (夜に紛れ)時間3年前 (2022/05/18 01:50), 編輯資訊
0
1
0
內容預覽:
我其實對這種統計的東西只有在大學機率課的時候學過一點點. 不過我記得在教 MLE 的時候是說. 既然他們似乎沒有明顯哪一個比較好,那你就拿能夠有最大 likelihood 的. 然後這和 uniform prior 下的 MAP 會有一樣的結果. 可是如果因為用太多參數而 overfit 就限縮參數
(還有185個字)

推噓-1(0推 1噓 0→)留言1則,0人參與, 3年前最新作者std92050 (熊貓大學劣等生)時間3年前 (2022/05/18 01:12), 編輯資訊
0
0
0
內容預覽:
大概懂你的意思了,這個想法蠻有趣的,以前學的時候沒有想過. 舉例來說我有一個隨機變數 X mean和variance是未知的且隨時間變動. 所以隨時間取樣我就會有一串的時間序列. 這樣我每個時間的mean就估實驗的值 variance就估0. liklidhood保證100%,從這樣的角度來看實驗結
(還有94個字)
首頁
上一頁
1
2
下一頁
尾頁