Re: [閒聊] 推特:防止AI學習繪師作品的方法

看板C_Chat作者 (渴望平凡的幸福)時間1年前 (2022/10/07 20:24), 編輯推噓3(304)
留言7則, 5人參與, 1年前最新討論串8/8 (看更多)
※ 引述《clothg34569 (提拉)》之銘言: : 搞亂Tagging對他傷害才真的大 : 這樣在Trainging時 同一張金髮的圖片可能Tag會是金髮或者褐髮 : 那他就很難學說哪個才是真正的金髮 : 結論 : 汙染Tag比汙染圖片實際多了 : AI工程師大概有超過一半的時間是在和Data Cleaning奮鬥... 污染 tag 也沒有用, stable diffusion 的 tag 是用 CLIP ViT-L/14 圖轉文出來的 訓練過程的圖片並不需要帶 tag == 換句話說就是生圖的時候用 Danbooru 上面的 tag 去下不一定有用 因為圖轉文模型對圖片的「理解」並不是那些 tag 應該要拿你喜歡的圖去餵 CLIP interrogator 看他會拆出什麼文字才對 不想被訓練/不想被看到的圖很簡單,不要貼出來,自己珍藏就好了 (ㄎ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.124.29.241 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1665145461.A.0B8.html

10/07 20:25, 1年前 , 1F
你這個跟不吃飯就不會噎死一樣 沒意義
10/07 20:25, 1F

10/07 20:26, 1年前 , 2F
這情境下 已經訓練好的Model就沒得攻擊啦XD
10/07 20:26, 2F

10/07 20:27, 1年前 , 3F
謝謝大佬
10/07 20:27, 3F

10/07 20:28, 1年前 , 4F
目前資料下已經Train好一個Model 那用這Model防禦
10/07 20:28, 4F

10/07 20:28, 1年前 , 5F
後續的攻擊應該都蠻簡單的
10/07 20:28, 5F

10/07 21:08, 1年前 , 6F
那是因為他已經"完成"了
10/07 21:08, 6F

10/08 14:30, 1年前 , 7F
笑死 真的很有想法 以後會不會有AI破壞師的職業
10/08 14:30, 7F
文章代碼(AID): #1ZG1fr2u (C_Chat)
討論串 (同標題文章)
文章代碼(AID): #1ZG1fr2u (C_Chat)