[閒聊] 推特:防止AI學習繪師作品的方法

看板C_Chat作者 (亞洲空幹王)時間1年前 (2022/10/07 15:17), 編輯推噓72(74292)
留言168則, 94人參與, 1年前最新討論串1/8 (看更多)
就是在作品圖中加入人類肉眼難以辨識的雜訊 https://i.imgur.com/PBBbNRA.jpg
https://twitter.com/Akihitweet/status/1577827240330809344?t=FOSz6UZh2oyMsStXJ8LE Zg&s=19 不過回覆裡也有人說有技術可以克服雜訊問題就是了 延伸閱讀:如何欺騙AI https://youtu.be/YXy6oX1iNoA
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 182.239.85.157 (香港) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1665127047.A.957.html

10/07 15:18, 1年前 , 1F
如何欺騙人類
10/07 15:18, 1F

10/07 15:18, 1年前 , 2F
這真的比較是在欺負盜圖仔肉眼w
10/07 15:18, 2F

10/07 15:19, 1年前 , 3F
就只不過是在抓圖時候多一道刪除雜訊的步驟
10/07 15:19, 3F

10/07 15:19, 1年前 , 4F
就多一道工序而已== 哪有差
10/07 15:19, 4F

10/07 15:19, 1年前 , 5F
你不如整張圖都打上馬賽克還比較有用
10/07 15:19, 5F

10/07 15:19, 1年前 , 6F
這是不是跟防b站盜片是同一個原理
10/07 15:19, 6F

10/07 15:20, 1年前 , 7F
這跟加浮水印一樣沒屁用吧,又不是不能去除掉
10/07 15:20, 7F

10/07 15:20, 1年前 , 8F
在色圖加入雜訊→古典制約導致性奮與雜訊連結→未來
10/07 15:20, 8F

10/07 15:20, 1年前 , 9F
光看雜訊就可以射
10/07 15:20, 9F

10/07 15:20, 1年前 , 10F
這就上鎖的概念 總會有拆鎖專家
10/07 15:20, 10F

10/07 15:21, 1年前 , 11F
人眼不能辨別,但是AI勒?
10/07 15:21, 11F

10/07 15:21, 1年前 , 12F
但是上鎖可以防止很多低等ai也是事實
10/07 15:21, 12F

10/07 15:21, 1年前 , 13F
建議加上防支咒
10/07 15:21, 13F

10/07 15:21, 1年前 , 14F
adversarial perturbation
10/07 15:21, 14F

10/07 15:22, 1年前 , 15F
人眼不能辨識=我可以正常尻 ai會辨識=ai會得到跟我們不一
10/07 15:22, 15F

10/07 15:22, 1年前 , 16F
樣的資訊 這樣有沒有看懂
10/07 15:22, 16F

10/07 15:22, 1年前 , 17F
實際上根本不同類型的AI 不會有什麼效果
10/07 15:22, 17F

10/07 15:23, 1年前 , 18F
跟以前看到鎖碼台雜訊畫面就勃起一樣
10/07 15:23, 18F

10/07 15:23, 1年前 , 19F
AI看得懂=AI可以把它挑出來去掉 多一道工而已
10/07 15:23, 19F

10/07 15:24, 1年前 , 20F
AI在讀樣本時不會做濾波嗎?
10/07 15:24, 20F

10/07 15:24, 1年前 , 21F
單張圖識別物件才有用
10/07 15:24, 21F

10/07 15:25, 1年前 , 22F
只有一招 那就是拒絕交流 但肯定不值得
10/07 15:25, 22F

10/07 15:25, 1年前 , 23F
有人覺得只有他看得懂欸 笑死
10/07 15:25, 23F

10/07 15:25, 1年前 , 24F
偷放維尼和綠色母狗呢
10/07 15:25, 24F

10/07 15:25, 1年前 , 25F
可以做到原圖相似度97%以上 但肉眼看不出來
10/07 15:25, 25F

10/07 15:25, 1年前 , 26F
早在讓AI畫圖前這類去雜訊的研究就已經做幾十年了
10/07 15:25, 26F

10/07 15:26, 1年前 , 27F
這史前論文我覺得已經解決了啦
10/07 15:26, 27F

10/07 15:27, 1年前 , 28F
以前gan紅的時候gradient adversarial 就一堆了
10/07 15:27, 28F

10/07 15:27, 1年前 , 29F
已知用火
10/07 15:27, 29F

10/07 15:27, 1年前 , 30F

10/07 15:27, 1年前 , 31F
你各位知道為什麼中國轉貼的圖片很多品質差又有雜訊了
10/07 15:27, 31F

10/07 15:27, 1年前 , 32F
吧,那是為了防盜啦
10/07 15:27, 32F

10/07 15:27, 1年前 , 33F
這只能防到很低階的model吧
10/07 15:27, 33F

10/07 15:27, 1年前 , 34F
以前怎麼防駭客 直接物理分隔系統不連網 同一招
10/07 15:27, 34F

10/07 15:27, 1年前 , 35F
達文西領先業界500年...
10/07 15:27, 35F

10/07 15:28, 1年前 , 36F
這個是辨識用的模型 跟生成用的模型罩門不一樣 辨識
10/07 15:28, 36F

10/07 15:28, 1年前 , 37F
模型可能因為加一點雜訊就認錯物體 但加了雜訊的熊貓
10/07 15:28, 37F

10/07 15:28, 1年前 , 38F
在生成模型一樣會產生加了雜訊的熊貓
10/07 15:28, 38F

10/07 15:28, 1年前 , 39F
抱歉 隨便找就一篇還原
10/07 15:28, 39F
還有 89 則推文
10/07 16:07, 1年前 , 129F
表示它的理解能力已經不是這種雜訊就可以斷的了
10/07 16:07, 129F

10/07 16:08, 1年前 , 130F
這招是在瞧不起AI嗎
10/07 16:08, 130F

10/07 16:10, 1年前 , 131F
我的論文就是做這個的
10/07 16:10, 131F

10/07 16:17, 1年前 , 132F
AI:哈欠。
10/07 16:17, 132F

10/07 16:18, 1年前 , 133F
想到網頁有時會出現,懷疑你是機器人。
10/07 16:18, 133F

10/07 16:27, 1年前 , 134F
就跟放符文防中國一樣啊 插入訊息防盜用
10/07 16:27, 134F

10/07 16:29, 1年前 , 135F
這一看就外行人的言論= =
10/07 16:29, 135F

10/07 16:30, 1年前 , 136F
晚點再回一篇好了 這篇只證明了懂AI真的很重要
10/07 16:30, 136F

10/07 16:33, 1年前 , 137F
之後繪師是不是應該要把李宏毅的課程列為必修阿
10/07 16:33, 137F

10/07 16:34, 1年前 , 138F
不要上傳圖片讓它沒得吃
10/07 16:34, 138F

10/07 16:34, 1年前 , 139F
雖然現在的圖庫應該夠了
10/07 16:34, 139F

10/07 16:35, 1年前 , 140F
這個大概還是停留在剪貼時代的產物
10/07 16:35, 140F

10/07 16:39, 1年前 , 141F
一句話 來不及了啦
10/07 16:39, 141F

10/07 16:46, 1年前 , 142F
小干擾就死掉的AI不會被端出來啦
10/07 16:46, 142F

10/07 16:46, 1年前 , 143F
以為工程師的頭髮白掉的?
10/07 16:46, 143F

10/07 16:49, 1年前 , 144F
這麼怕就不要貼圖出來就好了==
10/07 16:49, 144F

10/07 17:04, 1年前 , 145F
這沒用...
10/07 17:04, 145F

10/07 17:13, 1年前 , 146F
前面加個濾波器就破解了
10/07 17:13, 146F

10/07 17:18, 1年前 , 147F
人類對ai做的事 就像以前大人為小孩裝了第四台鎖碼器
10/07 17:18, 147F

10/07 17:24, 1年前 , 148F
其實加雜訊進去 會讓這個程式更有robust 本來就有這個
10/07 17:24, 148F

10/07 17:24, 1年前 , 149F
技術了 這篇是在反串嗎XD
10/07 17:24, 149F

10/07 17:24, 1年前 , 150F
笑死,真的是已知用火欸
10/07 17:24, 150F

10/07 17:30, 1年前 , 151F
這個本來就有在研發不是?
10/07 17:30, 151F

10/07 17:36, 1年前 , 152F
那就是補一個filter再餵圖而已
10/07 17:36, 152F

10/07 17:44, 1年前 , 153F
訓練都會加noise了,你這個反而是幫助他們訓練,
10/07 17:44, 153F

10/07 18:30, 1年前 , 154F
這個不是很久了嗎
10/07 18:30, 154F

10/07 18:33, 1年前 , 155F
這串一堆不懂DL的在鬧欸==
10/07 18:33, 155F

10/07 19:05, 1年前 , 156F
已知用火
10/07 19:05, 156F

10/07 19:26, 1年前 , 157F
到底為啥要防止AI學習?
10/07 19:26, 157F

10/07 19:30, 1年前 , 158F
笑死 人工adversarial attack 更何況現在是生成模型
10/07 19:30, 158F

10/07 20:16, 1年前 , 159F
denoise太簡單了
10/07 20:16, 159F

10/07 21:29, 1年前 , 160F
簽名跟花押呢
10/07 21:29, 160F

10/07 21:33, 1年前 , 161F
這串蠻歡樂的 這是生成模型啊 不是分類器 完全不一樣的領域
10/07 21:33, 161F

10/07 21:34, 1年前 , 162F
現在生成模型領域當紅的是 Diffusion Model 今年幾十篇論文
10/07 21:34, 162F

10/07 21:34, 1年前 , 163F
都在討論這個類型的
10/07 21:34, 163F

10/07 21:38, 1年前 , 164F
另外GAN一般只有訓練會用到discriminator(分類器)
10/07 21:38, 164F

10/07 22:04, 1年前 , 165F
反覆富麗葉不就可以消掉了嗎
10/07 22:04, 165F

10/07 22:25, 1年前 , 166F
真的跟驗證碼一樣 我還有朋友在fb分享她怎麼寫解析
10/07 22:25, 166F

10/07 22:26, 1年前 , 167F
驗證碼的程式 都搞不清楚到底哪邊才是人類了
10/07 22:26, 167F

10/08 02:37, 1年前 , 168F
白癡嗎…SD 就是基於雜訊的訓練方式
10/08 02:37, 168F
文章代碼(AID): #1ZFzA7bN (C_Chat)
討論串 (同標題文章)
以下文章回應了本文 (最舊先):
完整討論串 (本文為第 1 之 8 篇):
文章代碼(AID): #1ZFzA7bN (C_Chat)