作者查詢 / Tiberius
作者 Tiberius 在 PTT [ C_Chat ] 看板的留言(推文), 共87則
限定看板:C_Chat
看板排序:
全部IdolMaster646NSwitch156C_Chat87iOS78book66MobileComm63FITNESS60Headphone60Python59Android29Soft_Job19Key_Mou_Pad12digitalk8Programming8C_and_CPP7CSSE5Ruby5KanColle3SakuraWars3translator3einvoice2Steam2TaiwanDrama2Audiophile1bicycle1CYCU_MIS_93A1H-GAME1Haruhi1LSSH1piano1RDSS1Translate-CS1<< 收起看板(32)
16F推: 補 Smile Symphony MV 版 http://youtu.be/91O6VohptEo04/12 19:06
8F推: https://www.youtube.com/watch?v=cMvkWW1L_Uo04/20 01:59
10F→: 來看這個一月底的 24h Daytona 精華 (拖走04/20 02:00
54F→: YN-4 當年是廉價選擇, 現在竟然變成高價選擇了 ...11/13 22:11
105F推: CGSS 是買衣服, 馬娘是把線下的賭博搬到線上 (欸11/11 13:35
2F→: 在那個目錄下 git pull 就好了10/31 19:50
7F→: 已經不是技術做不到而是人力工時堆不堆得出來的問題了10/31 02:05
1F→: 看來他想上網看有沒有新設定檔然後 cache ...10/25 22:52
4F→: 就是你換了 transformers10/25 22:53
7F→: 看起來 4.23.0 有修過這部份, 升升看會不會動10/25 22:55
8F→: 因為 windows 檔案路徑格式 (略10/25 22:55
7F→: 那些詞的意思是, 不要在你產生的圖片上出現「看起來像10/25 22:18
9F→: 文字或簽名的東西」10/25 22:18
14F→: 現在的訓練來源 LAION 是有標 tag 沒錯10/25 22:20
17F→: 但是 stable diffusion 用的 tag 模型 CLIP 其實是可以10/25 22:21
18F→: 文轉圖的, 所以訓練原圖不一定要有 tag10/25 22:21
20F→: CLIP 一開始訓練的是把有關的圖片跟文字轉成相近的向量10/25 22:23
21F→: 所以什麼文字跟什麼圖有關係, 其實是 CLIP 決定的10/25 22:24
22F→: 那假設 CLIP 訓練的時候從來沒看過斷肢浮水印簽名這些10/25 22:25
25F→: 之後它怎麼知道這些是什麼 ... 嗯誰知道 (10/25 22:25
27F→: Automatic1111 的切到 img2img 那一頁就有了10/25 22:26
30F→: 搜一下 "how to use deepdanbooru with automatic1111"10/25 22:28
31F→: 要注意的是 interrogate CLIP 做的事情其實是圖片讀進去10/25 22:29
32F→: 然後拿一大串關鍵字列表問它 "這張圖是不是 ooxx"10/25 22:29
33F→: 他沒辦法把圖轉出來的向量逆轉成文字 所以你還是要知道10/25 22:29
34F→: 詞庫才能「問」得出來 XD10/25 22:30
11F→: stable diffusion 用的 CLIP 甚至連先打 tag 都不需要10/18 20:01
13F→: 它可以把圖跟文轉到相同空間 (換句話說就是自動打 tag10/18 20:01
31F→: 可以想想要怎麼證明訓練完的矩陣裡面有某張圖 ...10/18 20:09
34F→: or 證明某人沒有看過某張圖 (?10/18 20:10
105F→: 樓上的舉例狀況不太一樣, Copilot 是給對 prompt 的話10/18 20:24
106F→: 可以完全吐出原本的程式碼10/18 20:25
118F→: 人仿畫出來能怎麼處理, AI 彷畫出來就怎麼處理啊10/18 20:26
133F→: 所以我很好奇 stable diffusion 有沒有招可以讓它吐出跟10/18 20:30
134F→: 某張訓練來源差異極小的圖 這樣舉證維權就沒有問題了10/18 20:30
135F→: just like Copilot10/18 20:30
140F→: 所以你是說被抄的人不用拿出自己的作品就要聲稱被抄...?10/18 20:35
142F→: 剛好最近有個例子 twitter 158146173466536755410/18 20:37
147F→: img2img 要先有來源提供構圖之類的 我覺得問題不大 ...10/18 20:38
151F→: 我指的不是可以抄 是可以證明 AI 抄草圖10/18 20:39
163F→: (轉頭望向 Creative Commons10/18 20:42
181F→: 程式侵權要證明他有抄也是要有原始碼或機械碼反組譯比對10/18 20:48
182F→: 問題就是要怎麼從 sd 模型裡面挖出那張圖 ...10/18 20:48
190F→: 一張圖仿太像不管是人畫的還是 AI 畫的都會被判侵權10/18 20:51
195F→: 但你不會說某人仿畫侵權之後就不准他畫其他圖吧 ...10/18 20:51
223F→: 這是舉證責任問題 想告對方抄襲自己的東西是自己要舉證10/18 21:01
225F→: 而不是對方舉證沒有抄 對方沒有自證己罪的義務10/18 21:01
228F→: 這在 Copilot 辦得到 因為給對 prompt 它會吐出一樣的10/18 21:02
229F→: 程式碼, 但 stable diffusion 暫時想不到辦法10/18 21:02
233F→: sd 會吐出畫風很像,用色很像,構圖很像但是不一樣的東西10/18 21:02
236F→: 我應該沒有說過這沒有版權問題 我在意的是怎麼證明 XD10/18 21:03
238F→: 我上面貼的 twitter 是連註解內容跟變數名稱都一模一樣10/18 21:03
210F→: 上次那片沒有很賣 但我們要做續作了10/16 04:29
212F→: 工資跟之前不知道會不會賣的算法一樣 (可能不是設計對白10/16 04:30