Re: [姆咪] maximum likelihood已回收

看板Marginalman作者 (無課北鑽帝麥)時間3年前 (2022/05/18 02:15), 編輯推噓0(000)
留言0則, 0人參與, 3年前最新討論串4/6 (看更多)
※ 引述《int0x80 (夜に紛れ)》之銘言: : ※ 引述《std92050 (熊貓大學劣等生)》之銘言: : : 這樣看起來MLE很trivial,但這也是因為你一開始就用了太多參數overfitting了, : : 之後也沒辦法根據這個結果做預測 : 我其實對這種統計的東西只有在大學機率課的時候學過一點點 : 不過我記得在教 MLE 的時候是說 : 既然他們似乎沒有明顯哪一個比較好,那你就拿能夠有最大 likelihood 的 : 然後這和 uniform prior 下的 MAP 會有一樣的結果 : 可是如果因為用太多參數而 overfit 就限縮參數的範圍的話 : 感覺和把某些參數的 prior 設為 0 是一樣意思 : 那既然你可以假設某些 prior 是 0,那似乎就沒有設 uniform prior 的理由了 : 就是你既然能夠對什麼比較有可能有所假設(例如是飛天麵神的機率為零) : 那何不假設的仔細一點,而硬要直接拿 likelihood 呢 : 我當時是這麼想的,可能有點蠢,不過我的確不懂用 MLE 的理由 ML不就是給定distribution跟未知參數 然後你最佳化機率最高的參數就是最好的參數 阿如果沒給定distribution就部會算了 哈 這就是我小鎮做題家的極限了吧 --

04/13 01:21,
你可以每天拿菸燙我奶頭
04/13 01:21
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.30.37 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1652811341.A.0C0.html
文章代碼(AID): #1YW-PD30 (Marginalman)
討論串 (同標題文章)
文章代碼(AID): #1YW-PD30 (Marginalman)