Re: [閒聊] AI畫圖是不是大數據拼圖?

看板C_Chat作者 (十年魔乃粉)時間1年前 (2022/10/07 00:04), 1年前編輯推噓42(43159)
留言103則, 50人參與, 1年前最新討論串10/11 (看更多)
最近回去念書了,念的programme名字有AI,應該可以發個言ㄅ 新科技需要熱衷的族群做推廣,有推廣才有funding,我才有薪水qq 不過這些族群不一定對科技有正確的認識 這幾天看到一些不精確又容易誤導的解釋真的會中風 想說做點簡單的科普(科普很難我知道qq) ※ 引述《newwu (說不定我一生涓滴廢文)》之銘言: : 見圖二 : 理解這個想法後 : 我們把圖像的高維空間畫成二維方便表示 : 以ACG圖為例 : 那被人類接受的ACG圖就是一個高維空間中的分佈 : 簡單理解就是一個範圍內的圖,會被視為可接受的ACG圖 : 在那個範圍外的空間包含相片 雜訊 古典藝術 支離破碎的圖 : 生成模型的目的,就是從範圍內的樣本(下圖紅點)建立一個模型 : 這個模型學習到這個範圍,而模型可以生成也只會生成在範圍內的點 : https://i.imgur.com/NfUyIAg.jpg
: 圖二 借用newwu的圖 目前大家在討論的AI,其實更精確地講,應該說是圖像的生成模型Generative Models(GM) GM有很多種 舉凡VAE, Autoregressive Models, GAN, Normalizing Flow, Denoising Diffusion都是 而一個被科學家普遍採用的假設是 真實世界資料的複雜分布(圖二),都對應到一個潛在空間latent space 而這個空間通常較具有可讀性(interpretable),例如某個維度代表某種面向 另外方便起見,現實資料這個潛在空間的分布會是個很簡單可操作的分布 大部分論文都用常態分布Gaussian,但我相信也有人用binomial分布之類 為甚麼要這麼設計? 因為如果假設為真,可以幫助我們去分析與理解現實的資料 科學研究本來就是要幫助人類進步,怎麼會搶繪師的飯碗 而大部分模型在做的事,就是學這個兩個空間的對應關係 訓練方式也很簡單,最大化資料在這兩個空間的可能性(likelihood) VAE的潛在分布在一個低維空間 GAN雖然理論基礎薄弱導致先天性缺陷一大堆,但也是在modeling低維的空間 Normalizing Flow和Diffusion比較特別,潛在空間的維度和原始資料一樣 Autoregressive Models直接模擬現實的分布,但不影響上述的假設 至於Diffusion Models的貢獻還有表現為甚麼這麼好,以至於瘋狂的流行起來 比之前的GAN熱潮有過而無不及,主要是因為訓練Diffusion Model和訓練VAE一樣 都是在最大化分佈的下限 maximium lower bound 然而卻沒有VAE的模糊問題,證明只要分佈設計的好 是可以同時保持VAE的好訓練特色和GAN一樣的高likelihood 也不是沒有缺點 如果把整個生成過程攤開來看,Diffusion model就是一個超~~極深的神經網路 比ResNet還深,導致生成非常耗時,加速生成過程也是一個熱門的研究方向 如果對diffusion models有興趣,想快速了解也不排斥讀論文 我推薦這篇近期的overview paper,對整個diffusion models的不同面向都有做講解 https://ar5iv.labs.arxiv.org/html/2208.11970 也可以看板上cybermeow的解說 另外這篇的結語也非常有趣 就是人在畫圖的時候,是否也是藉由不斷的去噪,提煉出一張圖的? diffusion實際上真的模擬的人類的創作過程嗎? 值得玩味 最後回答幾個常見的QA Q: AI畫圖都是從別人的圖找出來拼貼的。 A: 沒有這種事。 從以上以及前幾篇的講解,可以知道生成模型從頭到尾在做的 就只是機率統計而已。 給予離散的資料點,找出最能代表的連續函數,僅此而已。 因為有loss的關係,要生出完全一模一樣的圖幾乎不可能 (當然也有生出不完全相同,但人類感知上無法察覺不同的情況 Q: AI繪圖只能迎合大眾的喜好,無法有獨創性,提出新的概念。 A: 這是個無法說死的問題。 理想上,數個資料如有類似的屬性,不管是畫風、概念、構圖 在潛在空間應該會落在一個鄰近的區域(cluster) 如果我們有足夠的資料、足夠強的模型架構,能真的完全模擬現實資料的潛在分佈 那麼所謂的沒出現在訓練資料,具有獨特性的繪圖 也許只是某個能內差或外插出來的區域而已。 當然也有可能AI繪圖影響到人類繪圖的整體分佈,脫離原本的潛在空間。 Q: diffusion的訓練過程和GAN相比,會直接看到訓練過程所以較強(#1ZFbZ85b) A: Nonsense. diffusion強大的原因在前文已經解釋了。 GAN不可能沒用到原圖的資訊,你如果把discriminator和generator並在一起當作同一個 模型就知道了。 VAE的訓練也會直接看到原圖,效果卻一般。 Q: CNN的filter是找最常出現的pattern,所以有用到其他圖的資訊去拼貼! A: Also nonsense。 如果今天CNN只有一層,那還有一點道理。 但一到兩層以上,這些Hidden feature所在的空間和原本資料所在的空間已經是不同的了 要說拿圖去拼貼非常牽強。 大概醬,有問題可以直接推文,還得寫今天跟老闆的會議紀錄QQ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 31.205.105.234 (英國) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1665072277.A.6FA.html

10/07 00:06, 1年前 , 1F
不懂的還是繼續不懂
10/07 00:06, 1F

10/07 00:07, 1年前 , 2F
人類畫圖 確實就是去噪
10/07 00:07, 2F

10/07 00:08, 1年前 , 3F
這個原理就是人類畫圖 先打線稿 然後從線稿中追求理想
10/07 00:08, 3F

10/07 00:08, 1年前 , 4F
塗上某個色彩 然後又抹去部份 添加細節
10/07 00:08, 4F

10/07 00:09, 1年前 , 5F
嗯嗯嗯跟我想的差不多
10/07 00:09, 5F

10/07 00:10, 1年前 , 6F
重點是圖和照片界線越來越淡,以前大家希望保持細節,現
10/07 00:10, 6F

10/07 00:10, 1年前 , 7F
在照片,反而一堆人只想要"線條"和顏色。修圖修到最後,
10/07 00:10, 7F

10/07 00:10, 1年前 , 8F
細節都不見了,不過卻被說是"美的照片"
10/07 00:10, 8F

10/07 00:12, 1年前 , 9F
模糊的美學嘛 眼不見為淨 不然拍照也不會出遠景了
10/07 00:12, 9F

10/07 00:12, 1年前 , 10F
推科普
10/07 00:12, 10F

10/07 00:13, 1年前 , 11F
一堆專有名詞誰看的懂 不翻譯成人話也是枉然
10/07 00:13, 11F

10/07 00:13, 1年前 , 12F
先推 等睡不著在看overview paper XD
10/07 00:13, 12F

10/07 00:15, 1年前 , 13F
AI技術上本來就是沒有問題的,問題一直是用法跟目的
10/07 00:15, 13F

10/07 00:16, 1年前 , 14F
我會再加強解釋的功力qq
10/07 00:16, 14F

10/07 00:16, 1年前 , 15F
很多狀況根本是使用者本身希望能做到拿圖改圖的成果
10/07 00:16, 15F

10/07 00:18, 1年前 , 16F
難得看到有人認真介紹 推推
10/07 00:18, 16F

10/07 00:18, 1年前 , 17F
也就是藉由AI這個清白的工具,做些投機取巧的事
10/07 00:18, 17F

10/07 00:18, 1年前 , 18F
這才會有那麼多問題的
10/07 00:18, 18F

10/07 00:19, 1年前 , 19F
然後還要被一些不懂瞎搞的人說都是ai的錯 禁止ai學圖
10/07 00:19, 19F

10/07 00:20, 1年前 , 20F
即使NovelAI官方,肯定也沒有想為資料庫付錢的念頭
10/07 00:20, 20F

10/07 00:21, 1年前 , 21F
10/07 00:21, 21F

10/07 00:22, 1年前 , 22F
之前有個論文 是把成果再加上一個分類器
10/07 00:22, 22F

10/07 00:22, 1年前 , 23F
2樓被打臉了 還能堅持己見
10/07 00:22, 23F

10/07 00:24, 1年前 , 24F
@aa9012 二樓那裡被打臉了?
10/07 00:24, 24F

10/07 00:24, 1年前 , 25F
您是不是認錯人?
10/07 00:24, 25F

10/07 00:25, 1年前 , 26F
另外這篇文講得很好 但不懂的閱讀的人還是不懂啦...文章
10/07 00:25, 26F

10/07 00:25, 1年前 , 27F
太長或圖片不夠多的都入不了某些版友的法眼,我猜。
10/07 00:25, 27F

10/07 00:25, 1年前 , 28F
人類的去噪跟defusion 的不一樣吧
10/07 00:25, 28F

10/07 00:25, 1年前 , 29F
手法確實不一樣 人類比較擅長加法的去噪
10/07 00:25, 29F

10/07 00:26, 1年前 , 30F
有人看不懂這也不是文章太長還是沒圖的問題
10/07 00:26, 30F

10/07 00:28, 1年前 , 31F
人類對一張圖 做的去噪就是加法
10/07 00:28, 31F

10/07 00:28, 1年前 , 32F
光是那個likelihood
10/07 00:28, 32F

10/07 00:28, 1年前 , 33F
非相關的人不太會去碰到吧
10/07 00:28, 33F

10/07 00:28, 1年前 , 34F
加入無關的東西 減少畫面的雜訊(白區)
10/07 00:28, 34F

10/07 00:29, 1年前 , 35F
理想ai跟現在的ai效果終究是有差距的
10/07 00:29, 35F

10/07 00:29, 1年前 , 36F
感謝解說每次看到說拼貼的頭都很痛,另外想請問diffusi
10/07 00:29, 36F

10/07 00:29, 1年前 , 37F
on model中將原圖加上噪點後如何訓練denoise,像是NN就
10/07 00:29, 37F

10/07 00:29, 1年前 , 38F
是微分取導數求最快下降的梯度,那denoise的過程呢,如
10/07 00:29, 38F

10/07 00:29, 1年前 , 39F
果需要大量機率的背景知識或是大大懶得解釋就算了,謝
10/07 00:29, 39F
還有 24 則推文
還有 4 段內文
10/07 01:24, 1年前 , 64F
及和起點的距離等數據資料餵給電腦,找N個起點
10/07 01:24, 64F

10/07 01:24, 1年前 , 65F
、重複NN次,跑統計分析,電腦就能知道在設定的
10/07 01:24, 65F

10/07 01:24, 1年前 , 66F
那個起點周圍的點要用什麼色碼,才會符合人類的癖
10/07 01:24, 66F

10/07 01:24, 1年前 , 67F
好,就能畫出類似的圖。可以這樣說嗎
10/07 01:24, 67F

10/07 01:27, 1年前 , 68F
聽起來很像我之前看到有人說的黑洞理論,世界是黑洞表
10/07 01:27, 68F

10/07 01:27, 1年前 , 69F
面上的資訊投影,不過這樣為什麼會有之前被比對的肉眼
10/07 01:27, 69F

10/07 01:27, 1年前 , 70F
都可以看出來的描圖感呢
10/07 01:27, 70F

10/07 01:29, 1年前 , 71F
聽起來應該是隨機生成的噪點卻剛好跟某張圖一摸一樣,
10/07 01:29, 71F

10/07 01:29, 1年前 , 72F
去躁時才產生不一樣的點,算是機率問題嗎
10/07 01:29, 72F

10/07 01:36, 1年前 , 73F
長知識 推
10/07 01:36, 73F

10/07 01:37, 1年前 , 74F
你人真好 看到拼貼仔根本懶得跟他講
10/07 01:37, 74F

10/07 01:45, 1年前 , 75F
@purplemagic AI認知的方式是一組向量
10/07 01:45, 75F

10/07 01:50, 1年前 , 76F
可以說英文嗎
10/07 01:50, 76F

10/07 01:51, 1年前 , 77F
跟我想的一樣
10/07 01:51, 77F

10/07 02:08, 1年前 , 78F
那要如何決定採納他的資料來源,他的資料來源是否有
10/07 02:08, 78F

10/07 02:08, 1年前 , 79F
版權問題
10/07 02:08, 79F

10/07 02:15, 1年前 , 80F
感謝科普
10/07 02:15, 80F

10/07 02:17, 1年前 , 81F
人類畫圖不是去噪難道是創造嗎
10/07 02:17, 81F

10/07 02:17, 1年前 , 82F
那還取個屁材
10/07 02:17, 82F

10/07 02:17, 1年前 , 83F
坐在家冥想就好
10/07 02:17, 83F

10/07 02:23, 1年前 , 84F
描圖感有幾種可能啊 印象中有一種服務是你給圖然後它參照
10/07 02:23, 84F

10/07 02:23, 1年前 , 85F
再出圖的 那很相似也正常
10/07 02:23, 85F

10/07 02:24, 1年前 , 86F
另外一種就先射箭再畫把 拿一張常見動作的AI圖 直接去翻
10/07 02:24, 86F

10/07 02:24, 1年前 , 87F
一個動作像的再出來嘴砲就好
10/07 02:24, 87F

10/07 02:32, 1年前 , 88F
此生不碰deep learning
10/07 02:32, 88F

10/07 04:23, 1年前 , 89F
“像”是AI的目的,“但不完全像”這是AI合成過程中的必然
10/07 04:23, 89F

10/07 04:23, 1年前 , 90F
,所以基本上很難說是拼貼
10/07 04:23, 90F

10/07 04:26, 1年前 , 91F
“很像”的情形其實代表AI“學得不錯”,AI找出了一個能用
10/07 04:26, 91F

10/07 04:26, 1年前 , 92F
「向量」有效描述一張圖的方法
10/07 04:26, 92F

10/07 04:31, 1年前 , 93F
創作某方面也是一個“像,又不完全像”的概念,你當然有可
10/07 04:31, 93F

10/07 04:31, 1年前 , 94F
能AI生成的圖片中找到新的畫風,甚至要AI去學習那個畫風
10/07 04:31, 94F

10/07 07:22, 1年前 , 95F
我看到的推特那張圖的確是作者幾個月前就畫好的應該是
10/07 07:22, 95F

10/07 07:22, 1年前 , 96F
前者,所以應該是前者吧
10/07 07:22, 96F

10/07 07:59, 1年前 , 97F
阿法狗的蒙地卡羅算不算一種燥
10/07 07:59, 97F

10/07 08:01, 1年前 , 98F
所以現在AI是給它一堆圖,然後給他賽位置的意思?
10/07 08:01, 98F

10/07 08:47, 1年前 , 99F
謝謝你的講解,懂大概一點點
10/07 08:47, 99F

10/07 08:52, 1年前 , 100F
10/07 08:52, 100F

10/07 09:39, 1年前 , 101F
強者我朋友yoyololicon ><
10/07 09:39, 101F

10/07 15:50, 1年前 , 102F
跟我想的一樣.jpg
10/07 15:50, 102F

10/07 20:12, 1年前 , 103F
推推
10/07 20:12, 103F
文章代碼(AID): #1ZFloLRw (C_Chat)
討論串 (同標題文章)
本文引述了以下文章的的內容:
以下文章回應了本文
完整討論串 (本文為第 10 之 11 篇):
文章代碼(AID): #1ZFloLRw (C_Chat)