到底

看板Marginalman作者 (桐生キキョウ)時間4月前 (2025/07/15 15:34), 4月前編輯推噓0(000)
留言0則, 0人參與, 最新討論串49/51 (看更多)
我傳訊息說 你如果要自己train一個LLM 還是特定指定的最新最屌的模型款式 而不是那種github寫的超迷你模型 假設8B好了 那要幾千億tokens才train的起來捏 但是老闆堅持不要finetune啊 他覺得浪費一大堆時間自己train一個別人3年前水準的東西很牛逼啊 然後老闆跟我說要不同結構的data分門別類 我同事就說 這怎麼可能 一個模型搞這麼複雜 是把他當神了吧 又要低parameters又要少資料又要自己train 這樣跟我說可以跟投資者要到錢 == 然後還要自己上GPT生一串自己覺得很酷很炫的書籍list 覺得這個屌打huggingface上現有的general dataset -- https://i.imgur.com/iL2iIMB.jpeg
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.72.80.7 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1752564868.A.6BF.html ※ 編輯: caat0808 (42.72.80.7 臺灣), 07/15/2025 15:35:38
文章代碼(AID): #1eTWI4Q_ (Marginalman)
討論串 (同標題文章)
完整討論串 (本文為第 49 之 51 篇):
0
1
4月前, 08/02
0
1
0
2
6月前, 06/05
2
3
3
7
1
3
1年前, 03/14
文章代碼(AID): #1eTWI4Q_ (Marginalman)