[新聞] Google DeepMind推出TranslateGemma 開源翻譯模型支援55種語言
備註請放最後面 違者新聞文章刪除
1.媒體來源:ET
※ 例如蘋果日報、自由時報(請參考版規下方的核准媒體名單)
※ Yahoo、MSN、LINE等非直接官方新聞連結不被允許
2.記者署名:
吳立言/綜合報導
※ 若新聞沒有記者名字或編輯名字,請勿張貼,否則會被水桶14天
※ 外電至少要有來源或編輯 如:法新社
3.完整新聞標題:
Google DeepMind推出TranslateGemma 開源翻譯模型支援55種語言
※ 標題沒有完整寫出來 ---> 依照板規刪除文章
4.完整新聞內文:
Google DeepMind 今(16日)正式推出全新開源翻譯模型系列 TranslateGemma,主打「高
效率、不犧牲品質」,鎖定行動裝置與邊緣運算場景。該模型建構於 Gemma 3 架構之上,
支援多達 55 種語言,並提供 4B、12B 與 27B 三種參數規模,讓開發者可依不同硬體環境
靈活部署。
Google DeepMind 執行長 Demis Hassabis 也在社群平台表示,TranslateGemma 是一套「
專為邊緣裝置打造的開源翻譯模型」,在多語言翻譯任務上的表現,甚至能超越參數量大上
一倍的模型,令人期待社群後續的應用與延伸開發。
主打效率:小模型也能有高品質翻譯
根據官方技術說明,TranslateGemma 的一大突破在於模型效率。以 12B 版本為例,在 WMT
24++ 基準測試中,使用 MetricX 評估時,其翻譯品質已超越 Gemma 3 的 27B 基準模型;
而 4B 版本的整體表現,則可與過去 12B 級模型相抗衡,特別適合行動裝置或本地端推論
使用。
訓練方法:承襲 Gemini 的「翻譯直覺」
TranslateGemma 採用兩階段微調流程。第一階段為監督式微調(SFT),結合人工翻譯資料
與來自 Gemini 系列模型的高品質合成語料,補足低資源語言的訓練缺口;第二階段則引入
強化學習(RL),透過多種評分機制(如 MetricX-QE、AutoMQM)引導模型生成更自然、符
合語境的翻譯結果。
語言涵蓋與延展性、保留多模態能力
目前 TranslateGemma 已針對 55 種語言完成嚴謹訓練與評估,涵蓋主流語言與多種低資源
語言。此外,研究團隊也同步針對近 500 組額外語言配對進行訓練,並在技術報告中完整
公開,作為研究社群進一步微調與探索的基礎。
官方指出,TranslateGemma 延續 Gemma 3 的多模態潛力。在影像文字翻譯測試(Vistra b
enchmark)中,即便未針對影像進行額外微調,模型仍展現出不錯的跨模態翻譯效果,顯示
其在實際應用場景中的彈性。
部署彈性:從手機到雲端
在實際部署上,4B 版本鎖定手機與邊緣裝置,12B 版本可於一般消費級筆電順暢運行,而
27B 版本則適合雲端環境,能在單張 H100 GPU 或 TPU 上執行,兼顧最高翻譯品質需求。
※ 社論特稿都不能貼!違者刪除(政治類水桶3個月),貼廣告也會被刪除喔!可詳看版規
5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體:
https://www.ettoday.net/news/20260116/3102223.htm
※ 當新聞連結過長時,需提供短網址方便網友點擊
6.備註:
google的翻譯系統會大升級嗎?
※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,請?
※ 備註請勿張貼三日內新聞(包含連結、標題等)
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 106.64.59.0 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1768636035.A.FFC.html
推
01/17 15:51,
1天前
, 1F
01/17 15:51, 1F
→
01/17 15:54,
1天前
, 2F
01/17 15:54, 2F
推
01/17 15:56,
1天前
, 3F
01/17 15:56, 3F
推
01/17 16:10,
1天前
, 4F
01/17 16:10, 4F
→
01/17 16:10,
1天前
, 5F
01/17 16:10, 5F
推
01/17 16:14,
1天前
, 6F
01/17 16:14, 6F
推
01/17 16:16,
1天前
, 7F
01/17 16:16, 7F