Re: [奶子] AI畫的婚紗大奶(圖多)已回收

看板C_Chat作者 (smart0eddie)時間3年前 (2022/10/01 18:18), 3年前編輯推噓1(1026)
留言27則, 4人參與, 3年前最新討論串3/8 (看更多)
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.25.90.235 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1664602340.A.C44.html

10/01 13:33,
AI很人性化 只注意到奶子
10/01 13:33

10/01 13:33,
人畫手都會看自己的手 所以....
10/01 13:33

10/01 13:34,
大家比較在意胸只能有兩顆 手比較隨意
10/01 13:34

10/01 13:35,
但手指形狀複雜,所以還沒學好
10/01 13:35

10/01 13:37,
手指大家不一定會細看 奶子大家一定看 而且也不會po
10/01 13:37

10/01 13:38,
有些人類是真的有6指啊
10/01 13:38

10/01 13:42,
角度不同,有的手指會被擋起來吧?猜的
10/01 13:42

10/01 13:42,
同時出現在畫面上的手指有0~10根,而奶子大多只有一對
10/01 13:42

10/01 13:42,
雖然也不能解釋為什麼有6789根手指的出現
10/01 13:42

10/01 13:44,
這不太需要解釋吧 訓練過程中我不覺得工程師會特別讓
10/01 13:44

10/01 13:44,
AI架構中有「人類手指10根才正常」的概念
10/01 13:44

10/01 13:45,
DeepLearning 會強有一個特質就是讓AI架構自己決定什麼
10/01 13:45

10/01 13:45,
特徵比較重要
10/01 13:45

10/01 14:06,
人的手指超複雜,比兩個胸部複雜百倍
10/01 14:06

10/01 14:07,
ai沒有立體的概念 不知道為什麼手指不同角度有不同數量
10/01 14:07

10/01 14:07,
學習起來就是有時候很多有時候很少 不知道為什麼
10/01 14:07

10/01 14:08,
不像眼睛 什麼角度看幾乎都兩顆
10/01 14:08

10/01 14:35,
AI 其實也不「知道」奶子有兩顆啊 你這個「知道」也未免
10/01 14:35

10/01 14:36,
給 AI 太多 credit 了吧
10/01 14:36

10/01 15:25,
你就知道可悲的人類餵了多少奶圖了
10/01 15:25

10/01 15:26,
餵食圖片中,奶子含量遠遠大於手手
10/01 15:26
那如果是要特化專門生成人類色圖的模型 除了目前的語言解析模型去分析輸入的文字 能不能額外加個人體生成模型 先讓AI生成人體的3D體態 再轉成2D圖 訓練3D人體的時候就可以額外告訴AI 一般人的體型骨架 也能讓AI學到立體的人體資訊 有沒有資工大神可以開示一下? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.171.17.111 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1664619495.A.4E2.html

10/01 18:20, 3年前 , 1F
可是有些我們覺得賞心悅目的2d圖透視並不是最正確的
10/01 18:20, 1F

10/01 18:27, 3年前 , 2F
先決定空間和3d人偶姿勢再上色這樣
10/01 18:27, 2F

10/01 18:41, 3年前 , 3F
我滿懷期待的點進來 啪 沒了
10/01 18:41, 3F

10/01 21:11, 3年前 , 4F
問題可能有幾個,一個是在3d空間中生成物件,包含材
10/01 21:11, 4F

10/01 21:11, 3年前 , 5F
質啊 形狀啊 光影渲染啊什麼的
10/01 21:11, 5F

10/01 21:12, 3年前 , 6F
然後要把這東西轉換成2d畫面,本身就是一門大學問
10/01 21:12, 6F

10/01 21:14, 3年前 , 7F
最後還得要球整個過程可導(微分)
10/01 21:14, 7F

10/01 21:17, 3年前 , 8F
難易度可想而知: totally bullshit
10/01 21:17, 8F

10/01 21:18, 3年前 , 9F
因此大概三五年前,試圖在2d圖片上融入了manifold le
10/01 21:18, 9F

10/01 21:18, 3年前 , 10F
arning 的概念
10/01 21:18, 10F

10/01 21:21, 3年前 , 11F
模型該學的是在高維度空間中的低維manifold
10/01 21:21, 11F

10/01 21:24, 3年前 , 12F
可以把它想成一輛關於車子的影片,車子的像素在整個
10/01 21:24, 12F

10/01 21:24, 3年前 , 13F
影片畫質1920x1080x3那麼高維度的空間中變化,但其實
10/01 21:24, 13F

10/01 21:24, 3年前 , 14F
車子的概念只在三個空間維度加一個旋轉和一個時間,
10/01 21:24, 14F

10/01 21:24, 3年前 , 15F
也就是五個維度上活動
10/01 21:24, 15F

10/01 21:26, 3年前 , 16F
模型該做的就是在1920*1080*3找出那5維度的車子概念
10/01 21:26, 16F

10/01 21:26, 3年前 , 17F
的變化脈絡,並把它定義為車子
10/01 21:26, 17F
差不多就是這樣 不是要他憑空生出包含渲染的3D人體模型 而只是生出人體體態 然後再用這個資訊想辦法弄出2D圖

10/01 21:27, 3年前 , 18F
這個概念是現在深度學習的基石
10/01 21:27, 18F

10/01 21:31, 3年前 , 19F
所以其實並不一定要在3d空間才能引入骨架的資訊,問
10/01 21:31, 19F

10/01 21:31, 3年前 , 20F
題是這個資訊怎麼融入模型
10/01 21:31, 20F

10/01 21:31, 3年前 , 21F
welcome contribution
10/01 21:31, 21F

10/01 21:32, 3年前 , 22F
另外有個領域在做從幾個角度的相片來做3d建模
10/01 21:32, 22F

10/01 21:36, 3年前 , 23F
去年的sota印象中是在3d空間裡建模光的通過率還有材
10/01 21:36, 23F

10/01 21:36, 3年前 , 24F
質,有物體的地方通過率就低
10/01 21:36, 24F

10/01 21:40, 3年前 , 25F
採樣的時候他們用矩陣掃過空間,利用被擋下來的機率
10/01 21:40, 25F

10/01 21:40, 3年前 , 26F
做材質的期望值並記錄在矩陣上,來達成可微並高效的r
10/01 21:40, 26F

10/01 21:40, 3年前 , 27F
ay tracing
10/01 21:40, 27F
※ 編輯: smart0eddie (118.171.6.94 臺灣), 10/02/2022 12:10:01
文章代碼(AID): #1ZE1FdJY (C_Chat)
討論串 (同標題文章)
文章代碼(AID): #1ZE1FdJY (C_Chat)