作者查詢 / doom8199
作者 doom8199 在 PTT 全部看板的留言(推文), 共4789則
限定看板:全部
看板排序:
全部Grad-ProbAsk1850Math1304SENIORHIGH404tutor265trans_math263MATLAB203Physics129tetris112C_and_CPP58PushDoll39travian34graduate26puzzle17Perl7sex7Tech_Job3Hsinchu2KS98-3022TigerBlue2YZU_CN99A2Agronomy-991ASIA-uni1CGSH87th_3151CSMU-D971CSMU-HSA971CSMUdancepub1CSU1EEBaseball1FCU_EE97A1FCU_EE97B1FJU-Family1FJU-STAT95B1Gossiping1Hate1HCHS593051HCHS593141HCHS603121HCHS913111HCHS_ALUMNI1HSNU_11431Instant_Mess1KS95-3181KS98-3121Mathematica1MCU_Talk1NCCU02_Korea1NCCU08_Ethno1NCHU-Stat971NCHU-SWC1NCHU_AMpower1NCHU_ME1011NCKU_EARTH981NCUIM971NDHU_FIN991NTOU-AQUA981NTPU-STAT951NTUBIME-1021NTUEE_Lab4261NTUHistory981NTUot971NTUST-EE-B961NUTN_MS991Orzhong97cl1pccu_physics1PCSH96_3061Philosophy1Prob_Solve1RESIT1SCU_Japan96A1share1SSSH-16th-Fk1STDM-93-3031streetfight1study1tcfsh69th3201TCFSHvolley1Viator94Ding1WomenTalk1WuLing50-3021WuLing50-3061<< 收起看板(80)
13F→: 辛普森 + 插值法 就能直接寫答案了, 剩下只是整理04/07 14:59
43F→: 你說的model解法其實原理就是 monte carlo -> CLT04/07 19:35
44F→: 但 AlphaGo 會成功,是因為它使用多層類神經網路04/07 19:36
45F→: 以及大量的 training data04/07 19:37
49F推: 只有第二個 link開的起來; 這很明顯是 CNN/DNN 在強大04/14 21:39
50F→: 網路上一大堆方法目的都只是為了能有效的訓練04/14 21:40
51F→: 事實上 DNN 最有價值的地方就是每層類神經參數值04/14 21:42
5F→: 原po應該要去查 Mahalanobis distance04/06 21:06
6F→: 它雖和 2-norm 很像,但還是有點不太一樣04/06 21:06
7F→: 高中教的 std 公式是基於 data 發生機率相等下04/06 21:08
15F推: 竹科業界的長輩們也不少台清交出身, 所以校友怎麼03/30 20:14
16F→: 可能不了解 113eecs的好壞03/30 20:15
11F→: 統計量歸統計量,你還是要自己定義出何謂 "獲利穩定"03/25 12:36
12F→: 例如穩定的 index 可以是 sigma |a_(i) - a_(i-1)|03/25 12:36
16F推: 資料離散程度表示法非常多, 但沒有所謂的最好03/25 12:47
17F→: 只有適不適用的問題.03/25 12:49
18F→: 例如你一開始的問題,我個人不覺得標準差會是好的03/25 12:50
19F→: index, 因為沒有考慮到時間的因素03/25 12:50
27F推: 你的問題可能要分好幾個層面來看03/27 20:02
28F→: <1> 數學上並沒有定義"離散程度", 那只是一個籠統03/27 20:03
29F→: 的口語用詞. 所以你得先自行定義離散程度03/27 20:05
30F→: 然後你希望使用的地方, 具備何種性質03/27 20:06
31F→: 在嘗試將之模組/數學化03/27 20:07
32F→: <2> 假設你想要描述的問題是公司的獲利穩定度03/27 20:09
33F→: 一個直觀的想法就是 微/差分絕對值越小越好03/27 20:11
34F→: 根據此性質,如何寫出一個評量標準?03/27 20:13
35F→: <3> 若想考慮時間因素, 數學上其實就只是代表03/27 20:14
36F→: 一個序列 {a_n} 的順序是很重要03/27 20:15
3F→: 我覺得是這樣: 當每個人都發展自己的一套演算法03/24 21:25
4F→: 很自然你會被人家問: 你的演算法跟別人比起來如何?03/24 21:26
5F→: 例如 比計算量、收斂速度、分類效果、...等等03/24 21:27
6F→: 所以 證明 就只是這些問題的產物之一03/24 21:28
17F→: 眼睛方面有問題,做甚麼工作都會有障礙吧XD03/20 18:39
18F→: 另外EE課程規畫就是很多領域都碰一下, 反過來說03/20 18:41
19F→: 就是甚麼都不精, 除非你大學天賦異稟, 做了一些03/20 18:42
20F→: 讓學術/業界震驚的事. 不然研究所就是培養專長地方03/20 18:43
2F→: 沒有要幫w版友護航的意思,但不是很認同版主的回應03/20 13:28
3F→: 其他版友的推文帶有負面情緒,從第三者角度來看03/20 13:29
4F→: 也可視為EQ問題,怎麼會怪到w版友上?03/20 13:29
5F→: 整篇說的就像是他的錯比較大,可是卻沒提及違反版規03/20 13:29
6F→: 哪一條(例如是否違反重複發文,抑或是版主執行不力)03/20 13:29
7F→: 負面性言詞是否違反版規提及的挑釁、誹謗與引戰03/20 13:30
14F→: 所以w版友到底違反哪個版規?03/20 13:39
18F推: 所以表示些人不認同w版友的回文內容,那是否需03/20 13:48
20F→: 修改版規, 不然講難聽點只是看別人不爽回推文03/20 13:49
21F→: 無所謂對錯問題03/20 13:49
22F→: 其實導火線更前面就有了, 只是沒甚麼人注意03/20 13:51
69F→: 印象中交大的野狗比清大溫馴XD03/10 00:02
5F→: 這不就是證明常見的起手式 wlog XD03/05 19:17