作者查詢 / peterturtle
作者 peterturtle 的總覽 (PTT發文,留言,暱稱)
發文數量: 316
收到的『推』: 3480 (36.1%)
收到的『→』: 6095 (63.2%)
收到的『噓』: 76 (0.8%)
留言數量: 50931
送出的『推』: 3810 (7.5%)
送出的『→』: 46833 (92.0%)
送出的『噓』: 288 (0.6%)
使用過的暱稱: 2
peterturtle 在 PTT 最新的發文, 共 316 篇
peterturtle 在 PTT 最新的留言, 共 50931 則
17F→: 設定上合理但擔心也合理+1 不過說實話怎麼做都會有問03/01 21:32
18F→: 題啦 XD03/01 21:32
19F→: 話說不是已經有吉兆了嗎?怎麼會對多種族有疑問 XD03/01 21:38
22F→: 特別周表示:03/01 21:42
23F→: 前期有辮子的馬娘蠻多的03/01 21:42
24F→: 比較正常的髮辮還有像荒漠英雄03/01 21:43
1F→: 我說啊,不存在也能畫出來不是很好嗎?什麼時候資料03/01 19:37
2F→: 點不存在是個問題了?畫不出來才是問題不是嗎?你那03/01 19:37
3F→: 個負空間的論點到底想證明什麼有用的東西?03/01 19:37
4F→: 更正支持集。03/01 19:37
5F→: 或是說你單純只是想把這個現象命名為負空間?03/01 19:38
6F→: 我感覺你很想證明只要沒有交叉資料擴散模型就會爆掉03/01 19:40
7F→: ,但實際上很多抽象瑟圖好像也沒有什麼交叉資料在,03/01 19:40
8F→: 還不是畫出來了03/01 19:40
9F→: 如果你很想證明「沒有交叉組合的資料就畫不出來」這03/01 19:46
10F→: 點,那你要說明的點與擴散模型原理關係關係不大,你03/01 19:46
11F→: 應該專注於證明沒有交叉組合的地方就是完全沒有有意03/01 19:46
12F→: 義的梯度場才對。可是你把你真正要證明的內容作為推03/01 19:46
13F→: 理的大前提然後寫了一堆擴散模型怎麼算出圖的內容出03/01 19:46
14F→: 來,那你講了老半天證明了啥?03/01 19:46
15F→: 我講到過擬合是為了證明非預期解高機率存在:假設你03/01 19:50
16F→: 預期的解有100個(這代表訓練的相關總圖數),但你去擬03/01 19:50
17F→: 合的參數有一萬個,那多餘的參數就可能擬合到某些你03/01 19:50
18F→: 不想要的解上。如果沒解決這東西就有可能變成收斂的03/01 19:50
19F→: 坑,不是你想的那種用法03/01 19:50
20F→: 我講的抽象不是 prompt 是形容詞,那我換個說法:「03/01 19:52
21F→: 非常小眾的複雜瑟圖」你最好別和我說非常、小眾與複03/01 19:52
22F→: 雜與瑟圖 AI 都認得,我不是那個意思03/01 19:52
23F→: 所以其實你就只是想說「從今天起這玩意兒就叫負空間03/01 19:56
24F→: 了」這樣?沒想解決什麼問題,也沒想進行什麼正確性03/01 19:56
25F→: 驗證,就只是出來介紹一個命題假設這樣?03/01 19:56
28F→: 我其實整串質疑的都只有一件事,就是這個負空間真的03/01 20:02
29F→: 能作為生成一些不相關的圖的原因嗎?這會不會單純就03/01 20:02
30F→: 是特徵向量沒有分割完美的問題而已?03/01 20:02
31F→: 我就不覺得你那個自我證明的負空間的假設是正確的好03/01 20:04
32F→: 麼?我提到的內容是為了解釋我的立論的。03/01 20:04
33F→: 你一個負空間總該強連結到什麼實際的東西上吧?你不03/01 20:07
34F→: 是來討論數學的嗎?倒不是說你不能用數學去證明什麼03/01 20:07
35F→: 藝術命題啦,但當我們質疑前提的正確性的時候請好好03/01 20:07
36F→: 面對理論好嗎?03/01 20:07
37F→: 不是,你沒證明啊,你只是說 chat gpt 能畫出來而已03/01 20:11
38F→: ,這後面連結不到支持集,不然你就要解釋為什麼能連03/01 20:11
39F→: 過去03/01 20:11
40F→: 除非你比較了 chat gpt 的訓練資料並證明裡面真的有03/01 20:12
41F→: 這種東西03/01 20:12
42F→: 不然你就該走一些數學證明或是去說明這是真的,而不03/01 20:13
43F→: 是某些可以 cherry pick 的例子03/01 20:13
44F→: 然後我就說過擬合是在解釋為什麼有副解的存在,與你03/01 20:15
45F→: 有什麼關係,你只是舉了個與我的推理過程八竿子不相03/01 20:15
46F→: 關的例子然後說我錯。你該不會覺得過擬合「這麼基礎03/01 20:15
47F→: 的統計問題」在整個擴散理論中只能和你舉的例子有關03/01 20:15
48F→: 吧?03/01 20:15
49F→: 你知道我為什麼質疑負空間嗎?因為我看不到你有詳細03/01 20:18
50F→: 解釋邏輯是怎麼連過去的啊。你只舉了個對你有利的例03/01 20:18
51F→: 子就想證明這件事正確,那與「我家門口的彩券行曾經03/01 20:18
52F→: 開出八百塊過所以下次也會顯著的開八百給我」有什麼03/01 20:18
53F→: 差別?03/01 20:18
54F→: 好吧我知道你在講啥了,你是說 p(x | c) 是零對嗎?03/01 20:23
55F→: 但實務上真的是這樣嗎?你這只是說如果我沒有某個關03/01 20:23
56F→: 鍵字那梯度就無從提起,但你其實是解 p(a 交集 b | c03/01 20:23
57F→: )03/01 20:23
59F→: 你已知 有一個 p(a | c) 與另一個 p(b | c),但你知03/01 20:27
60F→: 道 p(a 交集 b | c)是多少嗎?你要怎麼證明這個值是03/01 20:27
61F→: 零?因為沒訓練過?但在電子計算機學上你其實是沒有03/01 20:27
62F→: p(a 交集 b | c) 這東西的吧?你只有 a 與 b 的集合03/01 20:27
63F→: 你要證明的就是如果任兩個 prompt 不存在任何交錯項03/01 20:32
64F→: 樣本則彼此向量垂直03/01 20:32
65F→: 所以我前面不是說了嗎?有些不知道在幹啥的關鍵字組03/01 20:33
66F→: 合的瑟圖也被畫出來了。我覺得這件事沒那麼絕對的03/01 20:33
67F→: 因為實質上你是在處理 ill matrix 當然要證明了03/01 20:34
68F→: 唉好吧,我發現你在跟我說的是完全同一件事情。只是03/01 20:40
69F→: 我在說那各梯度場是怎麼延拓的。而你只不斷的在糾結03/01 20:40
70F→: 樣本本身的集合論內容而並不是工程學上怎麼實現03/01 20:40
71F→: 我在說的其實是你落實到矩陣後的 p(x | c)。而不是在03/01 20:43
72F→: 說你前面樣本採集了什麼標籤填什麼的問題03/01 20:43
73F→: 嗯,所以我叫你證明落實到實際矩陣後還能維持那個機03/01 20:46
74F→: 率為零啊,還是你覺得你資料集長甚麼樣子訓練出來就03/01 20:46
75F→: 會是什麼樣子?那我們幾年前跑一堆 reality image +03/01 20:46
76F→: extra leg + extra hand 跑辛酸的?03/01 20:46
77F→: 難道那就不是擴散模型了嗎?還是多餘手+兩手+真實人03/01 20:48
78F→: 類+單女孩這幾個關鍵字會同時出現?03/01 20:48
79F→: 所以你看,你舉的錯誤例子與我相同啊,所以我們就是03/01 20:49
80F→: 一個在講選圖相關一個在講訓練與實務不是?03/01 20:49
81F→: 你在說送進去前沒有的圖就是沒有,都是AI幻覺。我說03/01 20:51
82F→: 送進去後沒有的圖有了,是怎麼會有的,為什麼機率不03/01 20:51
83F→: 為零,為什麼能畫出看似合理的圖。03/01 20:51
84F→: 然後你不斷靠腰我沒有的圖為什麼會有,那當然會有差03/01 20:53
85F→: 別囉,你在講的只限於我怎麼歸類圖片,與實作下去能03/01 20:53
86F→: 不能成完全沒關係啊。03/01 20:53
87F→: 簡單來說啦,歸類時當然是機率為零的,但實務上做進03/01 20:57
88F→: 去就不一定為零。所以我會覺得沒什麼屌用,他就是說03/01 20:57
89F→: 支持集中會缺圖,AI自己會生出來然後未必內插外插的03/01 20:57
90F→: 比較好,所以實際上解決了什麼問題嗎?抱歉我這個人03/01 20:57
91F→: 比較工程師啊,最終不能落地的東西對我來說沒啥意義03/01 20:57
92F→: 的。03/01 20:57
93F→: 你的理論在實際世界的影響訓練成參數矩陣的瞬間就斷03/01 20:59
94F→: 了,聽上去單純就是某種多愁善感,我只對怎麼經濟的03/01 20:59
95F→: 補完這個缺口有興趣03/01 21:00
96F→: 我聽懂了,現在已經是你沒聽懂我聽懂了03/01 21:00
97F→: 總歸一句就是「負空間就是指某個你沒提供的東西AI只03/01 21:01
98F→: 能透過插值的概念做出來」03/01 21:01
99F→: 現在我只好奇為什麼不到二十字的觀念你能發那麼多篇03/01 21:06
100F→: 的03/01 21:06
101F→: 更正三十字03/01 21:07
102F→: 蛤?你到底怎麼推到這個結論的03/01 21:15
103F→: 我開始覺得和你討論負空間很……03/01 21:16
104F→: 你也不知道會在內插與過多參數產生的幻覺是啥,真生03/01 21:19
105F→: 成了你也無法辨識是不是真的,你還不如去買樂透有那03/01 21:19
106F→: 麼點建設性03/01 21:19
110F→: 你就是在假工程嘴砲,我講的是最基礎的數據回歸統計03/01 21:28
111F→: 概念耶,那東西大學一年級的普物實驗都該學到了,真03/01 21:28
112F→: 的沒啥好拆解的,你堆砌了那麼多名詞,就只是為了說03/01 21:28
113F→: 明它是分析後的插值而已,你好歹去證明個訊噪比呢都03/01 21:28
114F→: 比你幻想拆解數據有意義的多。唉算啦你愛去玩去玩,03/01 21:28
115F→: 浪費的時間又不是我的03/01 21:28
73F→: 了03/01 19:33
69F→: 道是什麼鬼,但我相信你討論的不是這個;另一種是其03/01 19:32
70F→: 實你想像中的吸子不是吸子而只是路徑途中,因為我們03/01 19:32
71F→: 不知道擴散模型的每個參數分別代表什麼洨所以這也是03/01 19:32
72F→: 有可能的。反正不會是一些聽上去玄乎玄乎的說法就是03/01 19:33
68F→: 當然還有幾種可能:比如你寫出來的東西你自己也不知03/01 19:32
2F→: 你第一區就已經很神秘了,不存在穩定的極大值的可能03/01 18:13
3F→: 性有多大?03/01 18:13
4F→: 而且你寫出來的公式本質上與N維的牛頓法就差一個微分03/01 18:15
5F→: 而已啊03/01 18:15
6F→: 說到底啊,擴散模型本質上就是假設每個特徵都指向在03/01 18:26
7F→: 某個空間中的一組特徵向量,並相信大量的訓練樣本會03/01 18:26
8F→: 平均掉其他部分向量。你如果真的希望沒有同時成立的03/01 18:26
9F→: 極值在,代表兩個特徵在向量上必須幾乎完全平行,除03/01 18:26
10F→: 了這其實不是很容易之外、一般收斂也會「擇一掉入」03/01 18:26
11F→: ,因為擴散模型只管你是不是局域解、並不管你這個解03/01 18:26
12F→: 有沒有包含所有的關鍵字(這也是生成時有可能會掉關鍵03/01 18:27
13F→: 字的原因)。回到前面的第二個假設,其實要徹底平均掉03/01 18:27
14F→: 其他解很難(拜統計的誤差所賜),所以如果梯度不夠那03/01 18:27
15F→: 還是有機會掉到這些解去的,所以你看到的很可能就只03/01 18:27
16F→: 是這些副解。03/01 18:27
17F→: 混沌理論參與的是後一步,你 prompt 就是決定那條曲03/01 18:30
18F→: 線要長怎樣,公式會變那是迭代前會變,開始迭代時你03/01 18:30
19F→: 的公式就不會變了啊。03/01 18:30
20F→: 我上面的解釋不是說了潛在對應意料之外圖片的關係的03/01 18:33
21F→: 不可避免性了03/01 18:33
22F→: 擴散模型不懂什麼是強迫,它就是個數學公式,會出現03/01 18:35
23F→: 一張你還能辨認出來的圖代表那邊肯定有一個解在哪裡03/01 18:35
24F→: ,只是這個解不一定是你要的03/01 18:35
27F→: 就說了「必不存在解」這句話你下的太武斷了,只是因03/01 18:39
28F→: 為你不知道有那個解存在而已,因為平時都會落入你要03/01 18:39
29F→: 求的解上。兩個很少同時出現的詞,只是失去了「有一03/01 18:39
30F→: 邊但沒另一邊」所以很難做到兩個特徵向量垂直而已03/01 18:39
31F→: 數學是不能靠「我覺得」就能作為推論基礎的03/01 18:41
32F→: 統計上不可控的系統誤差隨時可能炸了你看似完美的推03/01 18:42
33F→: 論03/01 18:42
34F→: 你整個推論過程完全基於「不存在解」這個假設上,但03/01 18:45
35F→: 你沒有去證明這個假設成立,你只是覺得它成立。讓我03/01 18:45
36F→: 告訴你一個好詞吧,那個詞叫 overfitting03/01 18:45
37F→: 不是耶,你講極大值講半天,我問你極值微分後是不是03/01 18:46
38F→: 代表梯度為零,那這是不是相當於解?03/01 18:46
39F→: SD 當然不知道什麼是狗+鬼,但它知道什麼可能是狗、03/01 18:55
40F→: 什麼可能是鬼,他的目的就只是想辦法從一組隨機數沿03/01 18:55
41F→: 著梯度收斂到某個解、好吧你說極值、上,反正最終它03/01 18:55
42F→: 在地圖上迷路了並沿著梯度掉到了一個 local maximum03/01 18:55
43F→: 裡面,而這個 local maximum 打從你下了 prompt 那一03/01 18:55
44F→: 刻起就存在,只是你平時可能不會看到它,可能代表你03/01 18:55
45F→: 運氣不好(就像平時畫圖缺 prompt 這樣,你也不是每次03/01 18:55
46F→: 都能畫出 prompt 一個不少的圖),或是說這僅代表這組03/01 18:55
47F→: prompt 生出來的場正確收斂區域沒想像中大這樣。03/01 18:55
48F→: 我大概知道你卡在哪了,你覺得混沌理論只有一條公式03/01 18:59
49F→: 、但擴散模型不同的prompt對應不同的場對吧?但實際03/01 18:59
50F→: 上碎形的生成公式也是數學家選的啊,你該不會以為多03/01 18:59
51F→: 次多項式的 factor 永遠就只有一組解吧?03/01 18:59
52F→: 你的 prompt 本質上是透過向量去把那條公式組出來而03/01 19:00
53F→: 已03/01 19:00
54F→: 先回答你第一個問題,那代表我前面講「擴散模型本質03/01 19:06
55F→: 上是假設每個特徵……」那段你沒有看03/01 19:06
56F→: 我們假設某個向量夠大代表有狗、另一個向量大代表有03/01 19:12
57F→: 鬼,但那不代表我們每次收斂都能成功讓每個 prompt03/01 19:12
58F→: 的內積結果都那麼大,所以不是每次收斂都能成功的。03/01 19:12
59F→: 反過來說,只要能夠收斂讓系統出不去,沒這兩樣也沒03/01 19:12
60F→: 關係,那代表這只是機率問題:因為你只要能想像出那03/01 19:12
61F→: 個組合結果就代表其實同時存在兩者的解存在,只是你03/01 19:12
62F→: 這次沒能掉進去而已。03/01 19:12
63F→: 而之所有有這個現象是因為擴散模型實質自由度遠超所03/01 19:16
64F→: 有 prompt 帶有的信息總數,所以我們得出來的公式在03/01 19:16
65F→: 系統偏差下很可能會有一些副解(非主要極值)存在而不03/01 19:16
66F→: 是一個蘿蔔一個坑,而這些副解就是讓你掉進去奇怪的03/01 19:16
67F→: 地方的梯度場來源。03/01 19:16
16F→: 你就想得太藝術家了。我會拿這本書出來講就是因為裡03/01 18:05
17F→: 面有幾乎一模一樣的簡化模型:擴散模型本質上就是一03/01 18:05
18F→: 種牛頓法。從牛頓法的角度來看,你關鍵字下去你就會03/01 18:05
19F→: 得到一條函數f,然後你做的事情就是從定義域的某個隨03/01 18:05
20F→: 機點出發經過一連串牛頓法迭代收斂到某個解上。而只03/01 18:05
21F→: 要有學過牛頓法求解的人都知道牛頓法很好用,但如果03/01 18:05
22F→: 起始值不太妙或函數不太對勁很容易噴去一些意料之外03/01 18:05
23F→: 的解上(有時候甚至不會收斂),這通常發生在起點剛好03/01 18:05
24F→: 落在變數梯度沒那麼明顯的位置,解就會亂噴、不會乖03/01 18:05
25F→: 乖落在預期的位置:因為雖然擴散模型的生成方式要求03/01 18:05
26F→: 指定的解存在、但沒有禁止不知道的解存在。所以現在03/01 18:05
27F→: 發生的事情單純就是噴去一個意料之外的局域解剛好收03/01 18:05
28F→: 斂了。03/01 18:05
462F→: 鎖螺絲不需要AI,那已經是上上個世紀的工業革命工藝03/01 01:11
463F→: 了 XD03/01 01:11
464F→: 話說回來AI都能畫圖了,你不覺得說品味是護城河有點03/01 01:11
465F→: 奇怪嗎?03/01 01:11
peterturtle 在 PTT 的暱稱紀錄, 共 2 個
暱稱:彼得龜
文章數量:285
暱稱:peter_turtle2000
文章數量:28