看板
[ Stock ]
討論串[情報] 50美元訓練出媲美DeepSeek R1
共 8 篇文章
內容預覽:
我的信息源說是1000個樣本是通過gemini得到,但是又以通義千問為基底模型進行監督微調而來的神奇表現. 包括全球很多類似路綫都是藉鑒通義千問才能達到這樣的驚人效果,非李飛飛一家做到. 這才是最奇怪的。. 今日鼓點:大A乘風直上,就像哪吒2的票房. ~~~~~~~~~~~~~~~~~~~~~~~~
(還有137個字)
內容預覽:
這位大大 你真的很喜歡批評別人耶. 這篇示範的是synthetic dataset disillation概念. 為何叫做是dislillation是因為用大模型的知識去創作出的數據集. 還推說這是這篇作者自己捏造蒸留定義 學術圈沒人這樣做.... 這樣很不好耶...這明明就是一個正統的學術圈常用詞
(還有674個字)
內容預覽:
連結或內文,完全是錯的。. 根本是腦殘媒體在亂寫。與論文事實不符。. 先說論文結論:. 模型表現:. 經過不斷的做實驗試錯,. 終於從59000筆訓練資料中,. 找到一組1000筆AI訓練資料,. 可以在"部分考卷"上贏 OpenAI的一個很爛的模型,o1-preview。. 其他考卷考出來的分數,
(還有538個字)
內容預覽:
https://arxiv.org/abs/2501.19393. 讀完了 稍微整理一下這篇 這篇基本上就是#1dccCRfj 就是CoT synthetic dataset. 透過母體大模型去設計一連串思考問題(這邊是用Gemini) 來應對一個困難任務. 而此時新模型能更好地學會思考. 這篇文章
(還有1381個字)
內容預覽:
大家都被訓練成本給迷惑. 說穿了訓練AI就像培養人才. 真正重點是"教材內容正確性",以及"學習成果的評價回饋" (就是老師要改作業). 對應的是"輸入資料正確性",並且存在"有效的回饋機制來修正權重". 資料部分雖然OpeAI/Gemini基本已經將網際網路上公開資料爬完. 但還有許多真正有用的專
(還有741個字)