[閒聊] AI繪圖閒聊。

看板C_Chat作者 (風流無處止一家)時間3年前 (2022/10/25 22:14), 編輯推噓8(10230)
留言42則, 15人參與, 3年前最新討論串1/1
其實已經有好幾天沒有玩AI繪圖。 今天想著就試試看自己架的方法,現在都有懶人包了、很好裝的。 https://rentry.org/voldy 然後我看到了這個: -Use nsfw, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name as the negative prompt 這都是個啥啊? 怎麼還要輸入詞彙去蓋掉原作者的資訊呢? 講真的有點像銀之匙裡面那段。 從小吃豬肉吃到大,結果發現原來豬肉是怎麼來的那種感覺。 情緒頓時之間有點複雜,總感覺AI繪圖沒有想像中的美好。 雖然說我的弱弱老舊小顯卡也算得很慢,算一張圖要三分鐘。XD 是覺得AI繪圖有他可以用得上的地方,但讓我想飲水思源了。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.205.124.49 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1666707266.A.EAF.html

10/25 22:16, 3年前 , 1F
因為那些東西在輸出上只會弄出些亂七八糟的東西而已
10/25 22:16, 1F

10/25 22:16, 3年前 , 2F
不會說你指定出來她就會給你個看起來像作者名字的東西
10/25 22:16, 2F

10/25 22:16, 3年前 , 3F
不蓋掉等等圖片跑出抄襲來源怎辦
10/25 22:16, 3F

10/25 22:17, 3年前 , 4F
主要是幾乎不會出現完整的資訊,而且就算出現了,反而會
10/25 22:17, 4F

10/25 22:17, 3年前 , 5F
有冒名的問題。
10/25 22:17, 5F

10/25 22:17, 3年前 , 6F
其實我很好奇BAD ANATOMY BAD HANDS那些TAG是怎麼來的?
10/25 22:17, 6F

10/25 22:18, 3年前 , 7F
那些詞的意思是, 不要在你產生的圖片上出現「看起來像
10/25 22:18, 7F

10/25 22:18, 3年前 , 8F
原本的訓練資料有標這種TAG喔??
10/25 22:18, 8F

10/25 22:18, 3年前 , 9F
文字或簽名的東西」
10/25 22:18, 9F

10/25 22:18, 3年前 , 10F
想太多 AI弄出來的浮水印和作者名也不會是哪一位特定人士
10/25 22:18, 10F

10/25 22:18, 3年前 , 11F
的 只會影響觀看而已
10/25 22:18, 11F

10/25 22:18, 3年前 , 12F
意思就只是不要生成像簽名的東西,實際上你直接加入
10/25 22:18, 12F

10/25 22:18, 3年前 , 13F
prompt也生不出任何所謂的原作資訊
10/25 22:18, 13F

10/25 22:20, 3年前 , 14F
現在的訓練來源 LAION 是有標 tag 沒錯
10/25 22:20, 14F

10/25 22:20, 3年前 , 15F
原來是這樣嗎?可能我有點鑽牛角尖了。@@
10/25 22:20, 15F

10/25 22:20, 3年前 , 16F
他就算真的直接尻出某個繪師在畫作上的簽名,也沒啥意義
10/25 22:20, 16F

10/25 22:21, 3年前 , 17F
但是 stable diffusion 用的 tag 模型 CLIP 其實是可以
10/25 22:21, 17F

10/25 22:21, 3年前 , 18F
文轉圖的, 所以訓練原圖不一定要有 tag
10/25 22:21, 18F

10/25 22:21, 3年前 , 19F
浮水印只會生出一坨梵文
10/25 22:21, 19F

10/25 22:23, 3年前 , 20F
CLIP 一開始訓練的是把有關的圖片跟文字轉成相近的向量
10/25 22:23, 20F

10/25 22:24, 3年前 , 21F
所以什麼文字跟什麼圖有關係, 其實是 CLIP 決定的
10/25 22:24, 21F

10/25 22:25, 3年前 , 22F
那假設 CLIP 訓練的時候從來沒看過斷肢浮水印簽名這些
10/25 22:25, 22F

10/25 22:25, 3年前 , 23F
有可以自用的CLIP嗎?我是猴子,然後很多時候prompt不到
10/25 22:25, 23F

10/25 22:25, 3年前 , 24F
位,想參考電腦怎麼看一張圖的。
10/25 22:25, 24F

10/25 22:25, 3年前 , 25F
之後它怎麼知道這些是什麼 ... 嗯誰知道 (
10/25 22:25, 25F

10/25 22:25, 3年前 , 26F
就別加啊,我沒加也沒看他出現過
10/25 22:25, 26F

10/25 22:26, 3年前 , 27F
Automatic1111 的切到 img2img 那一頁就有了
10/25 22:26, 27F

10/25 22:26, 3年前 , 28F
我好像有看過類似血條的東西。
10/25 22:26, 28F

10/25 22:27, 3年前 , 29F
!!
10/25 22:27, 29F

10/25 22:28, 3年前 , 30F
搜一下 "how to use deepdanbooru with automatic1111"
10/25 22:28, 30F

10/25 22:29, 3年前 , 31F
要注意的是 interrogate CLIP 做的事情其實是圖片讀進去
10/25 22:29, 31F

10/25 22:29, 3年前 , 32F
然後拿一大串關鍵字列表問它 "這張圖是不是 ooxx"
10/25 22:29, 32F

10/25 22:29, 3年前 , 33F
他沒辦法把圖轉出來的向量逆轉成文字 所以你還是要知道
10/25 22:29, 33F

10/25 22:30, 3年前 , 34F
詞庫才能「問」得出來 XD
10/25 22:30, 34F

10/25 22:30, 3年前 , 35F
你可以試著加到正向看看會出什麼阿
10/25 22:30, 35F

10/25 22:31, 3年前 , 36F
我有成功弄出過幾次可以辨識的字 但google都找不到人
10/25 22:31, 36F

10/25 22:56, 3年前 , 37F
...
10/25 22:56, 37F

10/25 22:57, 3年前 , 38F
搞懂原理再感嘆
10/25 22:57, 38F

10/26 00:39, 3年前 , 39F
有沒有設定dataset讓AI學習的教學啊,畫出來都有四
10/26 00:39, 39F

10/26 00:39, 3年前 , 40F
個胸部,兩個身體
10/26 00:39, 40F

10/26 02:33, 3年前 , 41F
本來就該飲水思源吧,這東西不就餵別人東西才有的==
10/26 02:33, 41F

10/26 03:30, 3年前 , 42F
Ai算圖目的就是讓你越來越不用動腦啊,生產更多OP嘻嘻
10/26 03:30, 42F
文章代碼(AID): #1ZL-z2wl (C_Chat)