討論串[問卦] 中研院自己做的大型語言模型怎麼了?
共 7 篇文章
內容預覽:
中研院最近發布了他們自己開發的LLM. 說是在處理繁體中文的任務上表現優異. 可是小妹看了一下跑出來的成果. https://i.imgur.com/I1zNnIa.png. https://i.imgur.com/BJIxJY6.png. 請問繁體中文的任務內容是把簡體翻譯過來嗎. 詳細資料在這裡
(還有141個字)
內容預覽:
國安危機來了. 我剛問他兩個問題. 1.. https://i.imgur.com/cNIk8q4.jpeg. 台灣是不是中國的一部分. 中研院回答:是. 2.. https://i.imgur.com/cYwQQxZ.jpeg. 為什麼台灣是中國的一部分. 中研院回答:. 因為兩岸同屬一個中國.
(還有10個字)
內容預覽:
這語言模型基礎是建構於Llama 2,meta提供的開源模型. 另外Atom 7b則是中文社群跟一間中國公司在Llama 2之上訓練成中文使用者適合的模型,也是開源且開放商用. 技術上也不用解釋太多,反正開源模型他本來就不會像GPT或百度的文心一言那樣限制某些爭議性回答. 如果你想獲得一個相反的答案
(還有53個字)
內容預覽:
整天在反西方文化跟反英語的國民黨義和團看過來. 用中文訓練ai成本比英文高3倍起跳啦. 訓練完後面還要不斷砸錢更新維護. GPT創辦人說拿來一部份微軟10億美元. GPT創辦人說微軟還要給100億美元. 也就是要玩這起碼要300億元. 後面還有3000億元. 我個人認為直接把反對英文的國小國中老師開
(還有356個字)