[閒聊] Llama 3

看板Marginalman作者 (史萊哲林的優等生)時間1周前 (2024/04/19 12:30), 編輯推噓2(209)
留言11則, 5人參與, 1周前最新討論串1/3 (看更多)
要自己架7B的LLM 10G VRAM夠嗎== 3080就是這種VRAM給得不甘願的狗屎東西 有沒有LLM大師救我 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 60.251.123.162 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1713501046.A.C4C.html

04/19 12:31, 1周前 , 1F
llama2就有7b惹
04/19 12:31, 1F

04/19 12:31, 1周前 , 2F
要量化才能
04/19 12:31, 2F

04/19 12:31, 1周前 , 3F
llama3剛出 想玩
04/19 12:31, 3F

04/19 12:31, 1周前 , 4F
7b尼就算沒quantization 14GB ram差不多惹
04/19 12:31, 4F

04/19 12:31, 1周前 , 5F
太苦了
04/19 12:31, 5F

04/19 12:31, 1周前 , 6F
可是要finetune應該會不夠
04/19 12:31, 6F

04/19 12:32, 1周前 , 7F
有沒有有錢把拔贊助我4090或16G的N家顯卡
04/19 12:32, 7F

04/19 12:33, 1周前 , 8F
fine tune不用想惹八
04/19 12:33, 8F

04/19 12:33, 1周前 , 9F
教主怎麼這也這麼懂 牛逼 :000000
04/19 12:33, 9F

04/19 12:42, 1周前 , 10F
教主牛逼
04/19 12:42, 10F

04/19 14:05, 1周前 , 11F
3060 12g 塞看看˙?
04/19 14:05, 11F
文章代碼(AID): #1c8VDsnC (Marginalman)
討論串 (同標題文章)
以下文章回應了本文
完整討論串 (本文為第 1 之 3 篇):
閒聊
2
11
文章代碼(AID): #1c8VDsnC (Marginalman)