作者查詢 / OnePiecePR
作者 OnePiecePR 在 PTT [ DataScience ] 看板的留言(推文), 共81則
限定看板:DataScience
看板排序:
全部Gossiping6436NBA2688Stock1430home-sale393KoreaDrama292movie213Road_Running126joke91DataScience81MobileComm66literature63Python36Baseball27HatePolitics22WomenTalk16book15C_Chat8Tech_Job8EAseries7MAC7Salary7Japandrama6Beauty5BLAZERS5CMWang5L_TalkandCha5Marginalman5Olympics_ISG5ONE_PIECE5Boy-Girl4car4Nuggets4ForeignEX3iOS3Jeremy_Lin3PingTung3StephenCurry3About_Life2AfterPhD2G-S-WARRIORS2Grizzlies2IA2LeBronJames2Raptors2Rent_apart2Spurs2StupidClown2Sub_DigiTech2Tainan2Teacher2WorldCup2AIR_JORDAN1Anti-ramp1Aves1Chi-Gong1CourtBasketB1CrossStrait1e-shopping1Examination1Golden-Award1Hawks1IVERSON1KoreaStar1KOTDFansClub1Lakers1marvel1Military1Militarylife1Notebook1NTU1Office1Option1PHX-Suns1PlayStation1popmusic1Programming1PublicIssue1rent-exp1sex1SP2_Basket1studyteacher1Thunder1UTAH-JAZZ1Wizards1YOLO1<< 收起看板(85)
18F推: 很像 word2vec12/12 15:39
1F推: ChatGPT 可能可以教會你04/10 13:56
12F推: 2. 基本上 self-attention,的輸入經過幾次網路轉成06/01 19:07
13F→: QKV,所有的參數都在形成 QKV 前發生了。所以所有的06/01 19:07
14F→: 輸入都要做 QKV 轉換。然後有了 QKV 後,我們會去做06/01 19:07
15F→: self-attention,這時候的 self-attention 都是數學06/01 19:07
16F→: 定義計算,沒有參數。如果一個 self-attention 沒有06/01 19:07
17F→: 全域 attent,而有 receptive field,這時候如果 rec06/01 19:07
18F→: eptive field 比較小,只是 self-attention 少一點計06/01 19:07
19F→: 算,這些都是關於計算量,跟參數無關。06/01 19:07
20F→: 1. CNN 的卷積功能參數是記錄在 filter 的內容,所以06/01 19:08
21F→: 只跟 receptive field 有關。我們常常說,參數量跟 r06/01 19:08
22F→: eceptive field 的大小平方成正比。正確來說是:與re06/01 19:08
23F→: ceptive field 的大小成正比。比如 filter 是 (3, 3)06/01 19:08
24F→: 就是守 3x3 的範圍,(5, 5) 就是守 5x5 的範圍。所06/01 19:08
25F→: 以是跟 “邊” 成平方比例,或尺寸 9、25 成正比。標06/01 19:08
26F→: 準 CNN 卷積層的參數量是 (輸入層數 x L x L x filt06/01 19:08
27F→: er 數量 N + filter 數量),當我們用了 (L, L)的06/01 19:08
28F→: filter.06/01 19:08
1F推: 兩三年前看過新聞、訓練 bert large 只要一個小時…02/09 08:37
2F→: 但是需要大約nvidia v100的1000 個gpu, 如果是一張 v02/09 08:37
3F→: 100有16個 gpu, 略估是60張, 一張 如果1000美金…02/09 08:37
4F→: 不過、我們應該不需要從頭開始訓練02/09 08:39
13F推: 線型想成旋轉+偏移(affine)、非線性想成擠壓10/12 06:51
3F推: theta1經歷的輸入很大,他只要一點點變化就相當于 th09/27 18:24
4F→: eta2 很大變化的效果.09/27 18:24
3F推: 同意二樓05/22 08:13
2F推: 10 -> RNN (3) -> DNN(2) 前面 42 個 fe, 後面8個 dr05/19 17:00
3F→: ? 我很淺05/19 17:00
15F推: 聽三樓的話,一起 train05/10 18:36
16F推: 資料太多,有 min batch 擋住,其他乖乖耐心等。05/10 18:37
19F推: 大金講得很清楚啊,就是資料灌進 變形金剛,用克漏字05/06 12:13
20F→: 、關聯推論加弱分類器把 encoder 的權位值調到很聰明05/06 12:13
21F→: 。你拿到後,直接接後段分類器,灌自己的資料,稍稍05/06 12:13
22F→: 調一下,就沒了。05/06 12:13
25F推: 一樓給code連結,可能有用。原po 三四樓說不知道怎麼05/06 16:39
26F→: 用啊,所以當然大家幫忙解釋了05/06 16:39