作者查詢 / peterturtle

總覽項目: 發文 | 留言 | 暱稱
作者 peterturtle 的總覽 (PTT發文,留言,暱稱)
發文數量: 316
收到的『推』: 3480 (36.1%)
收到的『→』: 6095 (63.2%)
收到的『噓』: 76 (0.8%)
留言數量: 50931
送出的『推』: 3810 (7.5%)
送出的『→』: 46833 (92.0%)
送出的『噓』: 288 (0.6%)
使用過的暱稱: 2
peterturtle 在 PTT 最新的發文, 共 316 篇
Re: [討論] 浪費幾十年時間不用核能 損失算誰的
[ HatePolitics ]31 留言, 推噓總分: 0
作者: peterturtle - 發表於 2026/02/15 18:46(2周前)
Re: [爆卦] 楊長鎮:社會住宅沒了、非核家園沒了 然
[ Gossiping ]17 留言, 推噓總分: +7
作者: peterturtle - 發表於 2026/02/12 15:41(2周前)
Re: [閒聊] AI繪圖讓繪師群生氣,碼農卻沒反應?
[ C_Chat ]8 留言, 推噓總分: +4
作者: peterturtle - 發表於 2026/01/29 15:26(1月前)
Re: [討論] 青鳥:就憑美國是世界霸權 想抓你就抓你
[ HatePolitics ]60 留言, 推噓總分: -3
作者: peterturtle - 發表於 2026/01/05 12:34(1月前)
Re: [新聞] 史上最擾民 SIM卡補發先跑警局
[ Gossiping ]19 留言, 推噓總分: +3
作者: peterturtle - 發表於 2026/01/02 12:50(1月前)
peterturtle 在 PTT 最新的留言, 共 50931 則
[情報] 《賽馬娘》新NPC「黑皮+髒辮」馬娘爭議
[ C_Chat ]44 留言, 推噓總分: +18
作者: Winux - 發表於 2026/03/01 20:33(16小時前)
17Fpeterturtle: 設定上合理但擔心也合理+1 不過說實話怎麼做都會有問03/01 21:32
18Fpeterturtle: 題啦 XD03/01 21:32
19Fpeterturtle: 話說不是已經有吉兆了嗎?怎麼會對多種族有疑問 XD03/01 21:38
22Fpeterturtle: 特別周表示:03/01 21:42
23Fpeterturtle: 前期有辮子的馬娘蠻多的03/01 21:42
24Fpeterturtle: 比較正常的髮辮還有像荒漠英雄03/01 21:43
Re: [閒聊] 負空間的由來
[ AI_Art ]180 留言, 推噓總分: +6
作者: treasurehill - 發表於 2026/03/01 19:34(17小時前)
1Fpeterturtle: 我說啊,不存在也能畫出來不是很好嗎?什麼時候資料03/01 19:37
2Fpeterturtle: 點不存在是個問題了?畫不出來才是問題不是嗎?你那03/01 19:37
3Fpeterturtle: 個負空間的論點到底想證明什麼有用的東西?03/01 19:37
4Fpeterturtle: 更正支持集。03/01 19:37
5Fpeterturtle: 或是說你單純只是想把這個現象命名為負空間?03/01 19:38
6Fpeterturtle: 我感覺你很想證明只要沒有交叉資料擴散模型就會爆掉03/01 19:40
7Fpeterturtle: ,但實際上很多抽象瑟圖好像也沒有什麼交叉資料在,03/01 19:40
8Fpeterturtle: 還不是畫出來了03/01 19:40
9Fpeterturtle: 如果你很想證明「沒有交叉組合的資料就畫不出來」這03/01 19:46
10Fpeterturtle: 點,那你要說明的點與擴散模型原理關係關係不大,你03/01 19:46
11Fpeterturtle: 應該專注於證明沒有交叉組合的地方就是完全沒有有意03/01 19:46
12Fpeterturtle: 義的梯度場才對。可是你把你真正要證明的內容作為推03/01 19:46
13Fpeterturtle: 理的大前提然後寫了一堆擴散模型怎麼算出圖的內容出03/01 19:46
14Fpeterturtle: 來,那你講了老半天證明了啥?03/01 19:46
15Fpeterturtle: 我講到過擬合是為了證明非預期解高機率存在:假設你03/01 19:50
16Fpeterturtle: 預期的解有100個(這代表訓練的相關總圖數),但你去擬03/01 19:50
17Fpeterturtle: 合的參數有一萬個,那多餘的參數就可能擬合到某些你03/01 19:50
18Fpeterturtle: 不想要的解上。如果沒解決這東西就有可能變成收斂的03/01 19:50
19Fpeterturtle: 坑,不是你想的那種用法03/01 19:50
20Fpeterturtle: 我講的抽象不是 prompt 是形容詞,那我換個說法:「03/01 19:52
21Fpeterturtle: 非常小眾的複雜瑟圖」你最好別和我說非常、小眾與複03/01 19:52
22Fpeterturtle: 雜與瑟圖 AI 都認得,我不是那個意思03/01 19:52
23Fpeterturtle: 所以其實你就只是想說「從今天起這玩意兒就叫負空間03/01 19:56
24Fpeterturtle: 了」這樣?沒想解決什麼問題,也沒想進行什麼正確性03/01 19:56
25Fpeterturtle: 驗證,就只是出來介紹一個命題假設這樣?03/01 19:56
28Fpeterturtle: 我其實整串質疑的都只有一件事,就是這個負空間真的03/01 20:02
29Fpeterturtle: 能作為生成一些不相關的圖的原因嗎?這會不會單純就03/01 20:02
30Fpeterturtle: 是特徵向量沒有分割完美的問題而已?03/01 20:02
31Fpeterturtle: 我就不覺得你那個自我證明的負空間的假設是正確的好03/01 20:04
32Fpeterturtle: 麼?我提到的內容是為了解釋我的立論的。03/01 20:04
33Fpeterturtle: 你一個負空間總該強連結到什麼實際的東西上吧?你不03/01 20:07
34Fpeterturtle: 是來討論數學的嗎?倒不是說你不能用數學去證明什麼03/01 20:07
35Fpeterturtle: 藝術命題啦,但當我們質疑前提的正確性的時候請好好03/01 20:07
36Fpeterturtle: 面對理論好嗎?03/01 20:07
37Fpeterturtle: 不是,你沒證明啊,你只是說 chat gpt 能畫出來而已03/01 20:11
38Fpeterturtle: ,這後面連結不到支持集,不然你就要解釋為什麼能連03/01 20:11
39Fpeterturtle: 過去03/01 20:11
40Fpeterturtle: 除非你比較了 chat gpt 的訓練資料並證明裡面真的有03/01 20:12
41Fpeterturtle: 這種東西03/01 20:12
42Fpeterturtle: 不然你就該走一些數學證明或是去說明這是真的,而不03/01 20:13
43Fpeterturtle: 是某些可以 cherry pick 的例子03/01 20:13
44Fpeterturtle: 然後我就說過擬合是在解釋為什麼有副解的存在,與你03/01 20:15
45Fpeterturtle: 有什麼關係,你只是舉了個與我的推理過程八竿子不相03/01 20:15
46Fpeterturtle: 關的例子然後說我錯。你該不會覺得過擬合「這麼基礎03/01 20:15
47Fpeterturtle: 的統計問題」在整個擴散理論中只能和你舉的例子有關03/01 20:15
48Fpeterturtle: 吧?03/01 20:15
49Fpeterturtle: 你知道我為什麼質疑負空間嗎?因為我看不到你有詳細03/01 20:18
50Fpeterturtle: 解釋邏輯是怎麼連過去的啊。你只舉了個對你有利的例03/01 20:18
51Fpeterturtle: 子就想證明這件事正確,那與「我家門口的彩券行曾經03/01 20:18
52Fpeterturtle: 開出八百塊過所以下次也會顯著的開八百給我」有什麼03/01 20:18
53Fpeterturtle: 差別?03/01 20:18
54Fpeterturtle: 好吧我知道你在講啥了,你是說 p(x | c) 是零對嗎?03/01 20:23
55Fpeterturtle: 但實務上真的是這樣嗎?你這只是說如果我沒有某個關03/01 20:23
56Fpeterturtle: 鍵字那梯度就無從提起,但你其實是解 p(a 交集 b | c03/01 20:23
57Fpeterturtle: )03/01 20:23
59Fpeterturtle: 你已知 有一個 p(a | c) 與另一個 p(b | c),但你知03/01 20:27
60Fpeterturtle: 道 p(a 交集 b | c)是多少嗎?你要怎麼證明這個值是03/01 20:27
61Fpeterturtle: 零?因為沒訓練過?但在電子計算機學上你其實是沒有03/01 20:27
62Fpeterturtle: p(a 交集 b | c) 這東西的吧?你只有 a 與 b 的集合03/01 20:27
63Fpeterturtle: 你要證明的就是如果任兩個 prompt 不存在任何交錯項03/01 20:32
64Fpeterturtle: 樣本則彼此向量垂直03/01 20:32
65Fpeterturtle: 所以我前面不是說了嗎?有些不知道在幹啥的關鍵字組03/01 20:33
66Fpeterturtle: 合的瑟圖也被畫出來了。我覺得這件事沒那麼絕對的03/01 20:33
67Fpeterturtle: 因為實質上你是在處理 ill matrix 當然要證明了03/01 20:34
68Fpeterturtle: 唉好吧,我發現你在跟我說的是完全同一件事情。只是03/01 20:40
69Fpeterturtle: 我在說那各梯度場是怎麼延拓的。而你只不斷的在糾結03/01 20:40
70Fpeterturtle: 樣本本身的集合論內容而並不是工程學上怎麼實現03/01 20:40
71Fpeterturtle: 我在說的其實是你落實到矩陣後的 p(x | c)。而不是在03/01 20:43
72Fpeterturtle: 說你前面樣本採集了什麼標籤填什麼的問題03/01 20:43
73Fpeterturtle: 嗯,所以我叫你證明落實到實際矩陣後還能維持那個機03/01 20:46
74Fpeterturtle: 率為零啊,還是你覺得你資料集長甚麼樣子訓練出來就03/01 20:46
75Fpeterturtle: 會是什麼樣子?那我們幾年前跑一堆 reality image +03/01 20:46
76Fpeterturtle: extra leg + extra hand 跑辛酸的?03/01 20:46
77Fpeterturtle: 難道那就不是擴散模型了嗎?還是多餘手+兩手+真實人03/01 20:48
78Fpeterturtle: 類+單女孩這幾個關鍵字會同時出現?03/01 20:48
79Fpeterturtle: 所以你看,你舉的錯誤例子與我相同啊,所以我們就是03/01 20:49
80Fpeterturtle: 一個在講選圖相關一個在講訓練與實務不是?03/01 20:49
81Fpeterturtle: 你在說送進去前沒有的圖就是沒有,都是AI幻覺。我說03/01 20:51
82Fpeterturtle: 送進去後沒有的圖有了,是怎麼會有的,為什麼機率不03/01 20:51
83Fpeterturtle: 為零,為什麼能畫出看似合理的圖。03/01 20:51
84Fpeterturtle: 然後你不斷靠腰我沒有的圖為什麼會有,那當然會有差03/01 20:53
85Fpeterturtle: 別囉,你在講的只限於我怎麼歸類圖片,與實作下去能03/01 20:53
86Fpeterturtle: 不能成完全沒關係啊。03/01 20:53
87Fpeterturtle: 簡單來說啦,歸類時當然是機率為零的,但實務上做進03/01 20:57
88Fpeterturtle: 去就不一定為零。所以我會覺得沒什麼屌用,他就是說03/01 20:57
89Fpeterturtle: 支持集中會缺圖,AI自己會生出來然後未必內插外插的03/01 20:57
90Fpeterturtle: 比較好,所以實際上解決了什麼問題嗎?抱歉我這個人03/01 20:57
91Fpeterturtle: 比較工程師啊,最終不能落地的東西對我來說沒啥意義03/01 20:57
92Fpeterturtle: 的。03/01 20:57
93Fpeterturtle: 你的理論在實際世界的影響訓練成參數矩陣的瞬間就斷03/01 20:59
94Fpeterturtle: 了,聽上去單純就是某種多愁善感,我只對怎麼經濟的03/01 20:59
95Fpeterturtle: 補完這個缺口有興趣03/01 21:00
96Fpeterturtle: 我聽懂了,現在已經是你沒聽懂我聽懂了03/01 21:00
97Fpeterturtle: 總歸一句就是「負空間就是指某個你沒提供的東西AI只03/01 21:01
98Fpeterturtle: 能透過插值的概念做出來」03/01 21:01
99Fpeterturtle: 現在我只好奇為什麼不到二十字的觀念你能發那麼多篇03/01 21:06
100Fpeterturtle: 的03/01 21:06
101Fpeterturtle: 更正三十字03/01 21:07
102Fpeterturtle: 蛤?你到底怎麼推到這個結論的03/01 21:15
103Fpeterturtle: 我開始覺得和你討論負空間很……03/01 21:16
104Fpeterturtle: 你也不知道會在內插與過多參數產生的幻覺是啥,真生03/01 21:19
105Fpeterturtle: 成了你也無法辨識是不是真的,你還不如去買樂透有那03/01 21:19
106Fpeterturtle: 麼點建設性03/01 21:19
110Fpeterturtle: 你就是在假工程嘴砲,我講的是最基礎的數據回歸統計03/01 21:28
111Fpeterturtle: 概念耶,那東西大學一年級的普物實驗都該學到了,真03/01 21:28
112Fpeterturtle: 的沒啥好拆解的,你堆砌了那麼多名詞,就只是為了說03/01 21:28
113Fpeterturtle: 明它是分析後的插值而已,你好歹去證明個訊噪比呢都03/01 21:28
114Fpeterturtle: 比你幻想拆解數據有意義的多。唉算啦你愛去玩去玩,03/01 21:28
115Fpeterturtle: 浪費的時間又不是我的03/01 21:28
Re: [閒聊] 負空間的由來
[ AI_Art ]73 留言, 推噓總分: +1
作者: treasurehill - 發表於 2026/03/01 18:09(18小時前)
73Fpeterturtle: 了03/01 19:33
69Fpeterturtle: 道是什麼鬼,但我相信你討論的不是這個;另一種是其03/01 19:32
70Fpeterturtle: 實你想像中的吸子不是吸子而只是路徑途中,因為我們03/01 19:32
71Fpeterturtle: 不知道擴散模型的每個參數分別代表什麼洨所以這也是03/01 19:32
72Fpeterturtle: 有可能的。反正不會是一些聽上去玄乎玄乎的說法就是03/01 19:33
68Fpeterturtle: 當然還有幾種可能:比如你寫出來的東西你自己也不知03/01 19:32
2Fpeterturtle: 你第一區就已經很神秘了,不存在穩定的極大值的可能03/01 18:13
3Fpeterturtle: 性有多大?03/01 18:13
4Fpeterturtle: 而且你寫出來的公式本質上與N維的牛頓法就差一個微分03/01 18:15
5Fpeterturtle: 而已啊03/01 18:15
6Fpeterturtle: 說到底啊,擴散模型本質上就是假設每個特徵都指向在03/01 18:26
7Fpeterturtle: 某個空間中的一組特徵向量,並相信大量的訓練樣本會03/01 18:26
8Fpeterturtle: 平均掉其他部分向量。你如果真的希望沒有同時成立的03/01 18:26
9Fpeterturtle: 極值在,代表兩個特徵在向量上必須幾乎完全平行,除03/01 18:26
10Fpeterturtle: 了這其實不是很容易之外、一般收斂也會「擇一掉入」03/01 18:26
11Fpeterturtle: ,因為擴散模型只管你是不是局域解、並不管你這個解03/01 18:26
12Fpeterturtle: 有沒有包含所有的關鍵字(這也是生成時有可能會掉關鍵03/01 18:27
13Fpeterturtle: 字的原因)。回到前面的第二個假設,其實要徹底平均掉03/01 18:27
14Fpeterturtle: 其他解很難(拜統計的誤差所賜),所以如果梯度不夠那03/01 18:27
15Fpeterturtle: 還是有機會掉到這些解去的,所以你看到的很可能就只03/01 18:27
16Fpeterturtle: 是這些副解。03/01 18:27
17Fpeterturtle: 混沌理論參與的是後一步,你 prompt 就是決定那條曲03/01 18:30
18Fpeterturtle: 線要長怎樣,公式會變那是迭代前會變,開始迭代時你03/01 18:30
19Fpeterturtle: 的公式就不會變了啊。03/01 18:30
20Fpeterturtle: 我上面的解釋不是說了潛在對應意料之外圖片的關係的03/01 18:33
21Fpeterturtle: 不可避免性了03/01 18:33
22Fpeterturtle: 擴散模型不懂什麼是強迫,它就是個數學公式,會出現03/01 18:35
23Fpeterturtle: 一張你還能辨認出來的圖代表那邊肯定有一個解在哪裡03/01 18:35
24Fpeterturtle: ,只是這個解不一定是你要的03/01 18:35
27Fpeterturtle: 就說了「必不存在解」這句話你下的太武斷了,只是因03/01 18:39
28Fpeterturtle: 為你不知道有那個解存在而已,因為平時都會落入你要03/01 18:39
29Fpeterturtle: 求的解上。兩個很少同時出現的詞,只是失去了「有一03/01 18:39
30Fpeterturtle: 邊但沒另一邊」所以很難做到兩個特徵向量垂直而已03/01 18:39
31Fpeterturtle: 數學是不能靠「我覺得」就能作為推論基礎的03/01 18:41
32Fpeterturtle: 統計上不可控的系統誤差隨時可能炸了你看似完美的推03/01 18:42
33Fpeterturtle: 論03/01 18:42
34Fpeterturtle: 你整個推論過程完全基於「不存在解」這個假設上,但03/01 18:45
35Fpeterturtle: 你沒有去證明這個假設成立,你只是覺得它成立。讓我03/01 18:45
36Fpeterturtle: 告訴你一個好詞吧,那個詞叫 overfitting03/01 18:45
37Fpeterturtle: 不是耶,你講極大值講半天,我問你極值微分後是不是03/01 18:46
38Fpeterturtle: 代表梯度為零,那這是不是相當於解?03/01 18:46
39Fpeterturtle: SD 當然不知道什麼是狗+鬼,但它知道什麼可能是狗、03/01 18:55
40Fpeterturtle: 什麼可能是鬼,他的目的就只是想辦法從一組隨機數沿03/01 18:55
41Fpeterturtle: 著梯度收斂到某個解、好吧你說極值、上,反正最終它03/01 18:55
42Fpeterturtle: 在地圖上迷路了並沿著梯度掉到了一個 local maximum03/01 18:55
43Fpeterturtle: 裡面,而這個 local maximum 打從你下了 prompt 那一03/01 18:55
44Fpeterturtle: 刻起就存在,只是你平時可能不會看到它,可能代表你03/01 18:55
45Fpeterturtle: 運氣不好(就像平時畫圖缺 prompt 這樣,你也不是每次03/01 18:55
46Fpeterturtle: 都能畫出 prompt 一個不少的圖),或是說這僅代表這組03/01 18:55
47Fpeterturtle: prompt 生出來的場正確收斂區域沒想像中大這樣。03/01 18:55
48Fpeterturtle: 我大概知道你卡在哪了,你覺得混沌理論只有一條公式03/01 18:59
49Fpeterturtle: 、但擴散模型不同的prompt對應不同的場對吧?但實際03/01 18:59
50Fpeterturtle: 上碎形的生成公式也是數學家選的啊,你該不會以為多03/01 18:59
51Fpeterturtle: 次多項式的 factor 永遠就只有一組解吧?03/01 18:59
52Fpeterturtle: 你的 prompt 本質上是透過向量去把那條公式組出來而03/01 19:00
53Fpeterturtle: 已03/01 19:00
54Fpeterturtle: 先回答你第一個問題,那代表我前面講「擴散模型本質03/01 19:06
55Fpeterturtle: 上是假設每個特徵……」那段你沒有看03/01 19:06
56Fpeterturtle: 我們假設某個向量夠大代表有狗、另一個向量大代表有03/01 19:12
57Fpeterturtle: 鬼,但那不代表我們每次收斂都能成功讓每個 prompt03/01 19:12
58Fpeterturtle: 的內積結果都那麼大,所以不是每次收斂都能成功的。03/01 19:12
59Fpeterturtle: 反過來說,只要能夠收斂讓系統出不去,沒這兩樣也沒03/01 19:12
60Fpeterturtle: 關係,那代表這只是機率問題:因為你只要能想像出那03/01 19:12
61Fpeterturtle: 個組合結果就代表其實同時存在兩者的解存在,只是你03/01 19:12
62Fpeterturtle: 這次沒能掉進去而已。03/01 19:12
63Fpeterturtle: 而之所有有這個現象是因為擴散模型實質自由度遠超所03/01 19:16
64Fpeterturtle: 有 prompt 帶有的信息總數,所以我們得出來的公式在03/01 19:16
65Fpeterturtle: 系統偏差下很可能會有一些副解(非主要極值)存在而不03/01 19:16
66Fpeterturtle: 是一個蘿蔔一個坑,而這些副解就是讓你掉進去奇怪的03/01 19:16
67Fpeterturtle: 地方的梯度場來源。03/01 19:16
Re: [閒聊] 負空間的由來
[ AI_Art ]28 留言, 推噓總分: +3
作者: treasurehill - 發表於 2026/03/01 16:36(19小時前)
16Fpeterturtle: 你就想得太藝術家了。我會拿這本書出來講就是因為裡03/01 18:05
17Fpeterturtle: 面有幾乎一模一樣的簡化模型:擴散模型本質上就是一03/01 18:05
18Fpeterturtle: 種牛頓法。從牛頓法的角度來看,你關鍵字下去你就會03/01 18:05
19Fpeterturtle: 得到一條函數f,然後你做的事情就是從定義域的某個隨03/01 18:05
20Fpeterturtle: 機點出發經過一連串牛頓法迭代收斂到某個解上。而只03/01 18:05
21Fpeterturtle: 要有學過牛頓法求解的人都知道牛頓法很好用,但如果03/01 18:05
22Fpeterturtle: 起始值不太妙或函數不太對勁很容易噴去一些意料之外03/01 18:05
23Fpeterturtle: 的解上(有時候甚至不會收斂),這通常發生在起點剛好03/01 18:05
24Fpeterturtle: 落在變數梯度沒那麼明顯的位置,解就會亂噴、不會乖03/01 18:05
25Fpeterturtle: 乖落在預期的位置:因為雖然擴散模型的生成方式要求03/01 18:05
26Fpeterturtle: 指定的解存在、但沒有禁止不知道的解存在。所以現在03/01 18:05
27Fpeterturtle: 發生的事情單純就是噴去一個意料之外的局域解剛好收03/01 18:05
28Fpeterturtle: 斂了。03/01 18:05
Re: [心得] 2028人類智力危機
[ Stock ]518 留言, 推噓總分: +87
作者: DarkerDuck - 發表於 2026/02/28 22:28(1天前)
462Fpeterturtle: 鎖螺絲不需要AI,那已經是上上個世紀的工業革命工藝03/01 01:11
463Fpeterturtle: 了 XD03/01 01:11
464Fpeterturtle: 話說回來AI都能畫圖了,你不覺得說品味是護城河有點03/01 01:11
465Fpeterturtle: 奇怪嗎?03/01 01:11
peterturtle 在 PTT 的暱稱紀錄, 共 2 個
暱稱:彼得龜
文章數量:285
暱稱:peter_turtle2000
文章數量:28