PTT
網頁版
登入/註冊
新聞
熱門文章
熱門看板
看板列表
作者查詢
最新文章
我的收藏
最近瀏覽
看板名稱查詢
批踢踢 PTT 搜尋引擎
看板
[
Marginalman
]
討論串
Google TurboQuant 記憶體壓縮突
共 2 篇文章
排序:
最新先
|
最舊先
|
留言數
|
推文總分
內容預覽:
開啟
|
關閉
|
只限未讀
首頁
上一頁
1
下一頁
尾頁
#2
Re: Google TurboQuant 記憶體壓縮突
推噓
0
(0推
0噓 0→
)
留言
0則,0人
參與
,
最新
作者
h0103661
(單推人) 每日換婆 (1/1)
時間
1天前
發表
(2026/03/26 14:38)
,
編輯
資訊
0篇文章回應此文
0
內文有0個圖片
image
0
內文有0個連結
link
0
內容預覽:
※
引述《pchooooome
(千石ユノ的胎盤)》之銘言
. 這個是上下文量化. 先不談論這個量化損失度,畢竟這個得實測. 算一下理論上的記憶體使用量. 拿DeltaNet上下文架構的Qwen3.5為例. 8k 壓縮前: 0.26, 壓縮後: 0.03. 32k 壓縮前: 1.05, 壓縮後: 0.
(還有208個字)
#1
Google TurboQuant 記憶體壓縮突
推噓
7
(7推
0噓 8→
)
留言
15則,0人
參與
, 1天前
最新
作者
pchooooome
(千石ユノ的胎盤)
時間
1天前
發表
(2026/03/26 08:47)
,
編輯
資訊
0篇文章回應此文
0
內文有1個圖片
image
1
內文有0個連結
link
0
內容預覽:
Google TurboQuant 記憶體壓縮突. Google 推出新 AI 記憶體壓縮演算法 TurboQuant,可將 AI 的「工作記 憶體」壓縮高達6倍。. 哇靠真假,這樣本地跑超大模型,的日子是不是要來了. 挖苦挖苦. --.
https://imgur.com/ND9GK2l.gif.
首頁
上一頁
1
下一頁
尾頁