[閒聊] 訓練了一個生成凱留頭的模型
廢話不說先直接上結果
使用範例:
https://i.imgur.com/I4xNU6A.jpg
隨機生成的圖 (沒有挑選過而且模型還沒訓練到收斂所以並沒到非常好
https://i.imgur.com/dM3QZFC.jpg
研究動機:
近年凱留接頭日益盛行,然而接頭本身耗費人力,不僅僅要求操作者的PS技巧
而且接頭素材有限,對於一張給定的圖,不一定擁有適當的頭來接
如果想要上網尋找最合適的頭又需要額外的付出
同時以凱留的角度而言,雖然有很多身體,可是頭卻是固定幾個,相當的不平衡
我們希望此研究能夠拋磚引玉,引起更多人對於凱留接頭全自動化這個問題的重視
方法:
先跳過,有人有問再說
基本上都是拿現成的程式碼直接使用
這只是一個極短時間娛樂性質的 Project
接下來有空會考慮做一些比較實用而且效果也比較好的(一樣是動畫相關的)東西
真的有成品的話應該也會 release source code 和訓練好的模型甚至架設網站等等
歡迎有興趣的人來討論
另外推薦幾個個人覺得「實用」的深度學習應用到動畫上的模型
Tagger:
https://www.reddit.com/r/MachineLearning/comments/edzqp8/p_deep_danbooru_girl_
image_tag_estimation_source/
Decensor:
https://github.com/natethegreate/hent-AI
一般而言 reddit/animeresearch 上面有很多東西 大家可以試著去挖寶
置底
https://imgur.com/pbBiSGu.jpg
--
北歐組一生推
https://imgur.com/ydMoryp.jpg
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.225.166.20 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1590410039.A.797.html
推
05/25 20:34,
3年前
, 1F
05/25 20:34, 1F
推
05/25 20:34,
3年前
, 2F
05/25 20:34, 2F
→
05/25 20:34,
3年前
, 3F
05/25 20:34, 3F
→
05/25 20:35,
3年前
, 4F
05/25 20:35, 4F
推
05/25 20:35,
3年前
, 5F
05/25 20:35, 5F
→
05/25 20:35,
3年前
, 6F
05/25 20:35, 6F
推
05/25 20:36,
3年前
, 7F
05/25 20:36, 7F
推
05/25 20:36,
3年前
, 8F
05/25 20:36, 8F
推
05/25 20:36,
3年前
, 9F
05/25 20:36, 9F
推
05/25 20:37,
3年前
, 10F
05/25 20:37, 10F
推
05/25 20:37,
3年前
, 11F
05/25 20:37, 11F
推
05/25 20:37,
3年前
, 12F
05/25 20:37, 12F
推
05/25 20:38,
3年前
, 13F
05/25 20:38, 13F
推
05/25 20:38,
3年前
, 14F
05/25 20:38, 14F
推
05/25 20:39,
3年前
, 15F
05/25 20:39, 15F
推
05/25 20:39,
3年前
, 16F
05/25 20:39, 16F
推
05/25 20:40,
3年前
, 17F
05/25 20:40, 17F
推
05/25 20:40,
3年前
, 18F
05/25 20:40, 18F
推
05/25 20:41,
3年前
, 19F
05/25 20:41, 19F
→
05/25 20:41,
3年前
, 20F
05/25 20:41, 20F
推
05/25 20:41,
3年前
, 21F
05/25 20:41, 21F
推
05/25 20:41,
3年前
, 22F
05/25 20:41, 22F
推
05/25 20:41,
3年前
, 23F
05/25 20:41, 23F
這個就stylegan2直接train而已
換頭的部分encode回latent space找生成裡面接近的
最後接頭還是自己P
因為幾乎都用現成的code所以髮色跟貓耳換的時候效果常常不好
接下來應該會考慮改成image to image translation的系列來做
先translate一次頭再自動處理artifact搞不好就能整張自動換了?
推
05/25 20:42,
3年前
, 24F
05/25 20:42, 24F
推
05/25 20:43,
3年前
, 25F
05/25 20:43, 25F
推
05/25 20:43,
3年前
, 26F
05/25 20:43, 26F
推
05/25 20:43,
3年前
, 27F
05/25 20:43, 27F
推
05/25 20:44,
3年前
, 28F
05/25 20:44, 28F
推
05/25 20:45,
3年前
, 29F
05/25 20:45, 29F
推
05/25 20:46,
3年前
, 30F
05/25 20:46, 30F
※ 編輯: cybermeow (36.225.166.20 臺灣), 05/25/2020 20:50:42
推
05/25 20:47,
3年前
, 31F
05/25 20:47, 31F
推
05/25 20:48,
3年前
, 32F
05/25 20:48, 32F
推
05/25 20:48,
3年前
, 33F
05/25 20:48, 33F
推
05/25 20:48,
3年前
, 34F
05/25 20:48, 34F
推
05/25 20:49,
3年前
, 35F
05/25 20:49, 35F
推
05/25 20:49,
3年前
, 36F
05/25 20:49, 36F
推
05/25 20:49,
3年前
, 37F
05/25 20:49, 37F
還有 142 則推文
還有 7 段內文
推
05/26 03:07,
3年前
, 180F
05/26 03:07, 180F
推
05/26 03:08,
3年前
, 181F
05/26 03:08, 181F
推
05/26 03:31,
3年前
, 182F
05/26 03:31, 182F
推
05/26 03:39,
3年前
, 183F
05/26 03:39, 183F
推
05/26 04:27,
3年前
, 184F
05/26 04:27, 184F
推
05/26 04:31,
3年前
, 185F
05/26 04:31, 185F
→
05/26 05:13,
3年前
, 186F
05/26 05:13, 186F
→
05/26 05:13,
3年前
, 187F
05/26 05:13, 187F
→
05/26 05:13,
3年前
, 188F
05/26 05:13, 188F
→
05/26 05:13,
3年前
, 189F
05/26 05:13, 189F
→
05/26 05:13,
3年前
, 190F
05/26 05:13, 190F
→
05/26 05:13,
3年前
, 191F
05/26 05:13, 191F
→
05/26 05:13,
3年前
, 192F
05/26 05:13, 192F
大方向是打算這樣做
可能試試看用few shot的方式能不能做出動畫的deepfake
不過我很缺resources更缺時間就是
到時候先跑跑看deepcreampy的inpainting能不能處理接頭銜接問題
雖然平常都拿來解碼 (逃
噓
05/26 06:16,
3年前
, 193F
05/26 06:16, 193F
推
05/26 06:28,
3年前
, 194F
05/26 06:28, 194F
噓
05/26 06:56,
3年前
, 195F
05/26 06:56, 195F
推
05/26 07:26,
3年前
, 196F
05/26 07:26, 196F
推
05/26 08:05,
3年前
, 197F
05/26 08:05, 197F
推
05/26 08:13,
3年前
, 198F
05/26 08:13, 198F
推
05/26 08:36,
3年前
, 199F
05/26 08:36, 199F
推
05/26 08:37,
3年前
, 200F
05/26 08:37, 200F
推
05/26 08:42,
3年前
, 201F
05/26 08:42, 201F
推
05/26 08:48,
3年前
, 202F
05/26 08:48, 202F
推
05/26 08:54,
3年前
, 203F
05/26 08:54, 203F
推
05/26 09:01,
3年前
, 204F
05/26 09:01, 204F
推
05/26 10:34,
3年前
, 205F
05/26 10:34, 205F
推
05/26 11:25,
3年前
, 206F
05/26 11:25, 206F
推
05/26 11:30,
3年前
, 207F
05/26 11:30, 207F
兩千張臉crop完的 過一陣子刪連結 主要p網爬的
https://drive.google.com/file/d/1iPlBNOBIee1JZV6S22sBWUzavG2OLZ07/view?usp=drivesdk
我是用gwern pretrain好的anime portrait stylegan2來fine tune
https://mega.nz/file/CRtiDI7S#xo4zm3n7pkq1Lsfmuio1O8QPpUwHrtFTHjNJ8_XxSJs
2080ti 應該幾個小時就有我上面的成果了
個人平常做理論的視覺就隨便看隨便寫
如果大大是專門視覺背景的歡迎來幫忙改善模型
推
05/26 12:11,
3年前
, 208F
05/26 12:11, 208F
→
05/26 12:38,
3年前
, 209F
05/26 12:38, 209F
→
05/26 13:08,
3年前
, 210F
05/26 13:08, 210F
推
05/26 13:50,
3年前
, 211F
05/26 13:50, 211F
→
05/26 14:18,
3年前
, 212F
05/26 14:18, 212F
※ 編輯: cybermeow (36.225.161.55 臺灣), 05/26/2020 14:54:09
推
05/26 15:00,
3年前
, 213F
05/26 15:00, 213F
推
05/26 15:47,
3年前
, 214F
05/26 15:47, 214F
推
05/26 16:07,
3年前
, 215F
05/26 16:07, 215F
推
05/26 16:17,
3年前
, 216F
05/26 16:17, 216F