Re: [閒聊] Ai 快要可以做動畫了?

看板C_Chat作者 (第三方程式)時間1年前 (2023/03/11 07:41), 1年前編輯推噓19(20156)
留言77則, 24人參與, 1年前最新討論串3/3 (看更多)
剛剛看到版友推這個 https://youtu.be/RO7TYfMyPPw
如果我理解無誤 代表只要給它剪影動畫 還有一個認識角色的模型 就可以生成動畫 如果效果再穩定一點 這樣已經很省工了吧 最近也有看到用mobilepose控制stable diffusion 的文章 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.137.39.237 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1678491708.A.C66.html

03/11 07:48, 1年前 , 1F
是的 大膽預言未來由於動畫製作成本大幅降低
03/11 07:48, 1F

03/11 07:48, 1年前 , 2F
動畫界將迎來一個全盛期
03/11 07:48, 2F

03/11 07:49, 1年前 , 3F
我們每季都會有數十部 不 百部以上的動畫可以看
03/11 07:49, 3F

03/11 07:49, 1年前 , 4F
滿意了嗎
03/11 07:49, 4F

03/11 08:01, 1年前 , 5F
滿意
03/11 08:01, 5F

03/11 08:06, 1年前 , 6F
省工?
03/11 08:06, 6F

03/11 08:08, 1年前 , 7F
這應該還是很複雜的 就跟用live2d或mmd
03/11 08:08, 7F

03/11 08:09, 1年前 , 8F
做出某些很實用的場景姿勢畫面 也和做整部動畫是兩回事
03/11 08:09, 8F

03/11 08:22, 1年前 , 9F
一直都在技術演進阿 CY就是業界動作捕捉頂尖可以用在
03/11 08:22, 9F

03/11 08:22, 1年前 , 10F
跳舞不需要全靠動畫產
03/11 08:22, 10F

03/11 08:24, 1年前 , 11F
現在還有家用3D 跟4 5年前Live2D已經差多了
03/11 08:24, 11F

03/11 08:26, 1年前 , 12F
恭喜你理解有誤
03/11 08:26, 12F

03/11 08:31, 1年前 , 13F
請問有誤在哪? 是否搞錯什麼
03/11 08:31, 13F

03/11 08:34, 1年前 , 14F
[形] 節省人工、人力,也可用在省事。 教育部網站
03/11 08:34, 14F

03/11 08:37, 1年前 , 15F
我只是看到東方
03/11 08:37, 15F

03/11 08:44, 1年前 , 16F
https://reurl.cc/Rvzg5r (FB影片) 比較接近的是這個吧
03/11 08:44, 16F

03/11 08:47, 1年前 , 17F
也只能二創 難道你原創還要搞個影片再用ai算嗎
03/11 08:47, 17F

03/11 08:48, 1年前 , 18F
樓上就是用mobilepose控制stable diffusion啊
03/11 08:48, 18F

03/11 08:48, 1年前 , 19F
但我覺得bad apple這個特別的是 有限定東方角色
03/11 08:48, 19F

03/11 08:49, 1年前 , 20F
只需要骨架 不需要影片
03/11 08:49, 20F

03/11 08:50, 1年前 , 21F
電腦還有得學啦,等到動作技術成熟,用AI生成流暢的
03/11 08:50, 21F

03/11 08:51, 1年前 , 22F
動作(更甚之還得符合動畫語法),才能直接套在3D骨架
03/11 08:51, 22F

03/11 08:59, 1年前 , 23F
不如這樣問好了:你怎麼用這個達成省工的?
03/11 08:59, 23F
舉例好了 當然不是現在就可以 今天要做無職轉生第五季 把前四季的角色人設灌到模型裡 在製作第5季時 1. 影格A/B: 用現有流程產生 2. A~B間之畫面: 只要提供骨架 (手繪也可以, photoshop現在內建AI也是這樣), 讓AI算出 ※ 編輯: attacksoil (111.250.172.249 臺灣), 03/11/2023 09:04:49

03/11 09:00, 1年前 , 24F
3D已經夠用了
03/11 09:00, 24F
現在動畫用3D的還是很少吧 應該還是很貴

03/11 09:00, 1年前 , 25F
這個要修改看起來沒有比較容易啊
03/11 09:00, 25F

03/11 09:02, 1年前 , 26F
這影片比較像機器人夢境,印象派
03/11 09:02, 26F
※ 編輯: attacksoil (111.250.172.249 臺灣), 03/11/2023 09:06:13

03/11 09:18, 1年前 , 27F
3D比2D便宜多了
03/11 09:18, 27F
??? 應該不會吧 不然怎麼現在大都是2D動畫

03/11 09:20, 1年前 , 28F
現在最新的是這個http://b23.tv/ajFqXGu
03/11 09:20, 28F

03/11 09:20, 1年前 , 29F
無渲染粗模3d轉2d
03/11 09:20, 29F
這個方向也不錯 降低3D成本

03/11 09:24, 1年前 , 30F
不就很多圖連在一起而已??
03/11 09:24, 30F
※ 編輯: attacksoil (111.250.172.249 臺灣), 03/11/2023 09:38:31

03/11 09:39, 1年前 , 31F
動畫就是很多圖連在一起啊
03/11 09:39, 31F

03/11 09:50, 1年前 , 32F
這已經吊打1930年代米老鼠黑白動畫了
03/11 09:50, 32F

03/11 10:22, 1年前 , 33F
是被1930米老鼠動畫屌打
03/11 10:22, 33F

03/11 10:24, 1年前 , 34F
以前的迪士尼動畫真的很鬼
03/11 10:24, 34F

03/11 10:25, 1年前 , 35F
那動畫現在看還是滿好看的XD
03/11 10:25, 35F

03/11 10:57, 1年前 , 36F
動畫要有背景,光正確透視就難到不行了,分鏡也都是不連
03/11 10:57, 36F

03/11 10:57, 1年前 , 37F
續有節奏跟斷點的,頂多拿來參考好用,要當真的動畫還早
03/11 10:57, 37F

03/11 10:59, 1年前 , 38F
現在顏色也不一定是對的,線條也不連續,要怎麼當真的動
03/11 10:59, 38F

03/11 10:59, 1年前 , 39F
03/11 10:59, 39F

03/11 11:19, 1年前 , 40F
用英文的看不懂右上角水印不知道要怎麼找資料就算了
03/11 11:19, 40F

03/11 11:19, 1年前 , 41F
你用中文的明明搜一下就可以看的原製作者的說明了……
03/11 11:19, 41F

03/11 11:24, 1年前 , 42F
複製說明過來:這是用NovelAI的img2img功能生成的,
03/11 11:24, 42F

03/11 11:24, 1年前 , 43F
每幀畫面的prompt均為DeepDanbooru識别(取0.75概率以上的
03/11 11:24, 43F

03/11 11:24, 1年前 , 44F
輸出),為保證畫面一致性,設置前後幀之間seed差為1,
03/11 11:24, 44F

03/11 11:24, 1年前 , 45F
全影片seed差最大為200。
03/11 11:24, 45F

03/11 11:24, 1年前 , 46F
由於是自動識别畫面内容,因此會出現畫錯了或者畫崩了
03/11 11:24, 46F

03/11 11:24, 1年前 , 47F
這種情况(手動生成可以一直抽卡抽到满意,但是太耗時)。
03/11 11:24, 47F

03/11 11:24, 1年前 , 48F
整个影片一共37674幀(編輯前),生成共耗時1:18:18
03/11 11:24, 48F

03/11 11:24, 1年前 , 49F
(硬體:i9-12900K, 32GB DDR5 4800Hz, RTX 3090)
03/11 11:24, 49F

03/11 11:47, 1年前 , 50F
感謝樓上分享 但不知道你是想表達什麼?
03/11 11:47, 50F

03/11 12:01, 1年前 , 51F
這影片感覺就是用MMD版Bad Apple弄的吧...
03/11 12:01, 51F

03/11 12:03, 1年前 , 52F
用3D動畫成品去生成2D動畫,Genius,真他媽天才
03/11 12:03, 52F

03/11 12:03, 1年前 , 53F
原文影片單純使用img2img,如果是像你說的只需要骨架,
03/11 12:03, 53F

03/11 12:03, 1年前 , 54F
至少也用個control net吧。
03/11 12:03, 54F
喔喔 用骨架控制 是指推文中的連結 不是指bad apple

03/11 12:03, 1年前 , 55F
我不知道某樓是不是基於這個理由噓你
03/11 12:03, 55F

03/11 12:03, 1年前 , 56F
但你的理解的確有哪裡怪怪的
03/11 12:03, 56F

03/11 12:07, 1年前 , 57F
另外B大說的是正確的,原著作者有說他使用的是這個影片
03/11 12:07, 57F

03/11 12:07, 1年前 , 58F

03/11 12:08, 1年前 , 59F
*原製作者
03/11 12:08, 59F
原來如此 難怪可以都是用東方人物

03/11 12:09, 1年前 , 60F
所以AI玩家為了好玩做了出來,然後有人當真(?)了
03/11 12:09, 60F

03/11 12:10, 1年前 , 61F
這究竟是人性的扭曲還是社會的腐敗
03/11 12:10, 61F
controlnet搭配stable diffusion本來就可以做到指定角色啊 只是這影片不是這樣做的而已 ※ 編輯: attacksoil (111.250.172.249 臺灣), 03/11/2023 12:29:00

03/11 12:33, 1年前 , 62F
你只用control net骨架的話你還得先訓練模型,不然你
03/11 12:33, 62F

03/11 12:33, 1年前 , 63F
角色做出來就算同角色差異依然會很大,然後還得請3D動
03/11 12:33, 63F

03/11 12:33, 1年前 , 64F
畫師做3D動畫或是花大錢架動補,再一張張生成。每一幀
03/11 12:33, 64F
對 所以我舉例才是提無職轉生第五季 還是要有人畫原畫 訓練模型

03/11 12:33, 1年前 , 65F
生成出來之後,還得要在沒有圖層的情況下去修正每一張
03/11 12:33, 65F

03/11 12:33, 1年前 , 66F
畫面的抖動感
03/11 12:33, 66F

03/11 12:35, 1年前 , 67F
i2i都會有細節差異了
03/11 12:35, 67F
例如前面Meuf推的 用控制seed的方式 就是想解決這類問題 應該還有不少改善空間吧 畢竟動畫是連續的 可用前後影格參考 確保連續性 ※ 編輯: attacksoil (111.250.172.249 臺灣), 03/11/2023 12:38:04

03/11 12:40, 1年前 , 68F
成品看起來有很大的改善空間沒錯
03/11 12:40, 68F

03/11 12:41, 1年前 , 69F
工具部分不知道訓練起來會花多少時間
03/11 12:41, 69F
指定角色的訓練已經有很多相關技術了 生成網路的影片輸出(好幾年前的deepfake就是) 現在也有很多發展 我是很看好啦 ※ 編輯: attacksoil (111.250.172.249 臺灣), 03/11/2023 12:42:31

03/11 12:46, 1年前 , 70F
目前這情況有點像是在反應ML模糊比對的特質
03/11 12:46, 70F

03/11 12:47, 1年前 , 71F

03/11 12:47, 1年前 , 72F
有看到另一個應該也是想處理畫面抖動感的,不過結果上只能
03/11 12:47, 72F

03/11 12:47, 1年前 , 73F
03/11 12:47, 73F

03/11 12:47, 1年前 , 74F
還有很大的進步空間XD
03/11 12:47, 74F

03/11 12:52, 1年前 , 75F
果然還是從增進AI繪製角色的穩定度下手比較治本
03/11 12:52, 75F

03/11 14:48, 1年前 , 76F
那是之前的吧 現在願意花時間可以做出臉不太會壞的
03/11 14:48, 76F

03/11 19:03, 1年前 , 77F
噓的人拉坨屎就走 跟他較真幹嘛 直接封鎖
03/11 19:03, 77F
文章代碼(AID): #1a2y0ync (C_Chat)
文章代碼(AID): #1a2y0ync (C_Chat)