作者查詢 / oopFoo
作者 oopFoo 在 PTT [ Soft_Job ] 看板的留言(推文), 共1064則
限定看板:Soft_Job
看板排序:
全部PC_Shopping4013home-sale1200Soft_Job1064Stock230GameDesign229Emulator217Steam102C_Chat32nb-shopping31Oversea_Job19Lifeismoney18nCoV201918MobileComm15Tech_Job15Military12cat11HatePolitics10TY_Research7WorkinChina7Printer3D6PlayStation5AI_Art4Gossiping4Old-Games3Test3DigiCurrency2TWSU2car1Digital_Art1Storage_Zone1<< 收起看板(30)
3F推: 我也覺的是這個方向,但關鍵字應該也是重要,但關鍵字如何05/16 07:56
4F→: 提取,應該是dl訓練出來的。我覺的這題關鍵是如何提取關鍵05/16 07:57
5F→: 字,不然有6小時的資料應該很容易預測24小時的愛心數。05/16 07:58
6F推: 而且給time series的資料,應該就是想用transformer05/16 08:02
11F推: 我猜現在所有人都在用bert/gpt,找intern應該也是想要延續05/16 13:01
12F→: 公司正在做的,transformer也許不是最適合這題,但可能是05/16 13:01
13F→: dcard想找的人。只是盲猜,提出來聊聊。面試,考題,機運05/16 13:03
14F→: 蠻重要的。05/16 13:03
15F推: 這種"標題"對"星星"的decoder應該很簡易訓練,反正資料少05/16 13:12
28F推: 這就是很詭異的地方,現在用LLMs,用少少的data fine tune05/18 08:49
29F→: 效果奇異的好。也許LLMs裡的"知識"夠多,adaptation效果05/18 08:50
30F→: 奇佳。在twitter上看到一些專研NLP的學者有點垂頭喪氣,說05/18 08:52
31F→: 以後不用研究了05/18 08:52
93F推: 推推,當初Antirez跟davidw在tcl.tk也蠻活躍的,我也玩玩05/11 12:40
94F→: tcl玩了一小段時間。可惜tcl不適合有結構的data。05/11 12:42
24F推: 看了影片,AutoGPT沒用。Copilot也沒用只boilerplate code04/17 13:33
25F→: 最後,自己讀論文學training,花了好幾天。這根本是標題04/17 13:34
26F→: 騙人。直接拿本Pytorch/TensorFlow的書,花的時間可能還04/17 13:35
27F→: 更少。看書看好,影片裡的overfitting,還有其它問題都可04/17 13:38
28F→: 已很簡單避免。就標題賺點閱而已。Leetcode繼續刷04/17 13:39
7F→: 整個專案怎麼吃?瀑布式開發法?光是改規格,跟AI whisper04/03 11:12
8F→: 就註定失敗了。更何況,GPT本質是sentence generator04/03 11:13
1F推: 推。早點進來是好事04/03 11:09
57F推: 日本遊戲界還是有想法在開發的,推。希望開發環境有改善04/03 09:50
7F→: 自駕還需要幾年?LLMs離真正理解code還要幾年?LLMs為何無03/29 12:13
8F→: 法解決"幻想"問題?真正能code的AI還很遙遠。03/29 12:13
9F→: 我覺得LLMs很好用,但現在寫code,代替search,方向錯了03/29 12:15
47F→: 現在的LLMs比較像"群體的智慧"。會是一個很好的另一個意見03/31 17:40
48F→: 但太多的"幻想",對不熟練的人,反而有害。03/31 17:42
53F→: OpenAI是一直在持續訓練Model,東西會更強。LLMs有很多04/01 11:17
54F→: 意想不到的功能,如有點邏輯,有點會算術。但這條路是有04/01 11:19
55F→: 極限的。像Llama好像有特地訓練算術的部份,就表現比GPT304/01 11:23
56F→: 好。但知識是無限的,現在這種訓練方式能達到AGI嗎?我是04/01 11:25
57F→: 持保留態度。就像自駕碰到瓶頸一樣,LLMs需要更多的研究與04/01 11:26
58F→: 發展。就目前而言LLMs是很有用的。但問錯方向,給垃圾答案04/01 11:30
59F→: 是很大的問題與研究課題。04/01 11:31
13F→: pc的效能不錯。RPI是10秒一個token,pc是秒內幾個token03/15 20:22
14F→: declarative的程式,LLM比較會處理。只要補餵正確的資料,03/15 20:23
15F→: android/gnu make都可以分析。最近看好多應用都蠻有趣的03/15 20:30
16F→: 當然沒有的功能,問LLM,它會幻想給你,但這是小問題03/15 20:33
32F→: Meta說LLaMA-13B可比GPT3的175B。03/16 15:35
33F→: 目前都是最簡單的CPU優化。剛開始Pixel6需要26秒/token03/16 15:38
34F→: 前幾天已經5token/秒。各家版本飛速進步中。03/16 15:39
35F→: LLMs的"幻想"是內建,目前沒辦法,只能後續查證。03/16 15:40
41F→: chatGPT是通用的chat,但自己的,如Alpaca你可以訓練特化03/18 10:16
42F→: 的instruction tuning。更適合自己的用途。03/18 10:17
43F→: https://github.com/antimatter15/alpaca.cpp03/18 21:56
44F→: windows可以玩,自己編譯7B版,13B版應該很快就來了。03/18 21:57
66F推: 為什麼要用docker?你的環境不能reproducible builds?02/19 20:40
67F→: docker解決的問題是什麼?真的適合你們的環境?用c++,02/19 20:42
68F→: 我會想先deterministic builds。我承認我是老人,有很多新02/19 20:43
70F→: 技術出來,我不會先用。docker出來時,我就想這不就是02/19 20:44
71F→: BSD的Jail?有時老人不是不用,但技術是有取捨的,不見得02/19 20:46
73F→: 在你的環境加分。我是會用docker或類似的東東,但也是某02/19 20:48
74F→: 些環境才用。不是拒絕採用就一定不對,老人也是被新技術02/19 20:49
75F→: 咬了很多次才保守的。02/19 20:49
18F推: 15萬鎂+應該不包含RSU。問題台灣Web賺錢有幾家?02/17 08:46