討論串[問卦] 中研院自己做的大型語言模型怎麼了?
共 7 篇文章
內容預覽:
支那china共和國republic 中研院. 官方英文名稱:Academia Sinica = 支那的 研究院. 成立於:1928年的支那上海. 本來從裏到外都是支那的形狀,使用china的語言數據庫也屬於天經地義吧。. 説句題外話,連基礎科研上還要講意識形態,也是沒誰了。. 繁體Chinese、
(還有47個字)
內容預覽:
阿肥外商碼農阿肥啦!. 昨天晚上都在跟獵人直播來不及趕上大型翻車現場,這邊中午看hugging face hub還. 可以進去,但現在已經進不去了。. 這邊阿肥就直接說,基本上現在所有中文開源語言模型除了少數像chatGLM這種中國比較早期做的自己完全從零訓練的語言模型外,大家都是從meta 的ll
(還有1694個字)
內容預覽:
整天在反西方文化跟反英語的國民黨義和團看過來. 用中文訓練ai成本比英文高3倍起跳啦. 訓練完後面還要不斷砸錢更新維護. GPT創辦人說拿來一部份微軟10億美元. GPT創辦人說微軟還要給100億美元. 也就是要玩這起碼要300億元. 後面還有3000億元. 我個人認為直接把反對英文的國小國中老師開
(還有356個字)
內容預覽:
這語言模型基礎是建構於Llama 2,meta提供的開源模型. 另外Atom 7b則是中文社群跟一間中國公司在Llama 2之上訓練成中文使用者適合的模型,也是開源且開放商用. 技術上也不用解釋太多,反正開源模型他本來就不會像GPT或百度的文心一言那樣限制某些爭議性回答. 如果你想獲得一個相反的答案
(還有53個字)