作者查詢 / XFarter
作者 XFarter 在 PTT [ Stock ] 看板的留言(推文), 共17則
限定看板:Stock
看板排序:
全部C_Chat28455C_ChatBM2689Gossiping1342Military214Railway63Tokusatsu42marriage41Beauty37Boy-Girl36TypeMoon34joke32Militarylife30MuscleBeach30AI_Art26LoL25specialman21WomenTalk19Stock17DMM_GAMES16HatePolitics14movie13graduate10YUGIOH10GossipPicket9NSwitch9Electronics8Tech_Job7YOLO7C_GenreBoard6Soft_Job6HomeTeach5Marginalman5RumikoTWorld4studyteacher4Baseball3PlayStation3PuzzleDragon3Steam3BabyMother2e-shopping2GUNDAM2Japan_Travel2MH2NARUTO2StupidClown2AC_In1CFantasy1CodeJob1cosplay1DragonBall1gallantry1historia1Japan_Living1JLPT1kodomo1Kyoto_Ani1L_LifeJob1Linux1Magic1PC_Shopping1seiyuu1sex1Shana1study1Test1Vtuber1<< 收起看板(66)
首頁
上一頁
1
下一頁
尾頁
92F推: 上下文干擾還沒解決的狀況下就沒有真正意義上的記憶01/20 00:57
93F→: 功能 基本上都是 Skills 的變體、而且選擇器能選的01/20 00:57
94F→: 內容是有限的01/20 00:57
82F推: 其實 Gemini 2.0 flash thinking 目前也是無價搜尋01/30 09:55
83F→: 、更大量 Token 以及有相對接近 o1 的能力,但 DS01/30 09:55
84F→: 的開源、自由部署以及新的思路三點齊下才是讓整個網01/30 09:55
85F→: 路流量爆炸的原因01/30 09:55
86F→: 甚至如果你只是為了 LLM 的功能,一般使用者現在已01/30 09:55
87F→: 經可以一毛不花的使用近 o1 水準的模型了01/30 09:55
241F推: 看起來不是模型無力而是 output token 已經滿了捏01/28 20:15
242F→: 看了一下輸出 應該是你的問題太複合了01/28 20:15
245F推: 實際上面對標準性的問題或不會使他超出 output toke01/28 20:18
246F→: n 長度的問題應該都可以有等效於 livebench 性能的01/28 20:18
247F→: 回答 真沒蝦吹01/28 20:18
253F推: 大大應該沒犯那種忘記點擊 Deep thinking 的那種錯01/28 20:47
254F→: 誤ㄅ01/28 20:47
255F→: 不然我其實覺得回答上問題不大啊01/28 20:47
首頁
上一頁
1
下一頁
尾頁