作者查詢 / UnWf
作者 UnWf 在 PTT 全部看板的留言(推文), 共67則
限定看板:全部
看板排序:
72F→: 就像上面推文說的 懶得自己查Danbooru就註明要用Danbooru的12/14 23:12
73F→: tag或直接貼tag wiki網址給ai再問他提示詞怎麼寫就好了12/14 23:12
20F→: 那些網站是在線上跑 你在本地環境都架好了當然是把checkpoi12/07 15:15
21F→: nt和lora模型下載到電腦在本機跑 加上你已經有概念 去網路12/07 15:15
22F→: 上找Stable Diffusion和comfyui的教學大概看一下 了解什麼12/07 15:15
23F→: 是SDXL模型 怎麼在comfyui建立一個SDXL模型的工作流 模板裡12/07 15:15
24F→: 也有提供範例12/07 15:15
25F→: 再去C站推薦優先抓illustrious或noobai系的checkpoint來測12/07 15:15
26F→: 試 之後看你自己的情況能學的東西不少12/07 15:15
12F→: 想在本地跑comfyui也有節點支援啊12/06 02:17
15F→: illustrious或noobai系的模型有內建畫師和角色的提示詞能用12/03 17:16
16F→: 也有提供列表查詢 注意不同系模型內建的畫師提示詞用法可12/03 17:16
17F→: 能不一樣 沒有想要的畫師或是覺得效果不好 還是要靠lora組12/03 17:16
18F→: 合測試 至於網站 novelai好像有畫風遷移之類的功能12/03 17:16
35F→: 這不就是AI圖片編輯模型主打的宣傳 用自然語言告訴AI需求來11/10 17:32
36F→: 編輯圖片... 建議去看看官方宣傳提供的範例了解一下基本用11/10 17:32
37F→: 法 而且官方也有提供工作流11/10 17:32
48F→: 有什麼推薦的clip給illustrious用嗎 c站抓了幾個來試不是雜11/08 19:19
49F→: 訊就是動作可能有一點差異但品質好像沒什麼太大的改變?11/08 19:19
62F→: 沒想過提示詞的控制度該怎麼測 簡單跑一下 模型是WAI-illus11/09 15:08
63F→: trious v14 提示詞大概是 tag 單腳站立 、雙手叉腰 加上黃11/09 15:08
64F→: 昏、小巷、野餐籃,蔬菜,法國麵包在地板上 混用不同的clip11/09 15:08
65F→: -l和clip-g 這樣子比較感覺用重新訓練過的clip 畫面好像沒11/09 15:08
66F→: 這麼擁擠也比較符合提示詞?11/09 15:08
67F→: https://i.meee.com.tw/kVzybzb.jpg11/09 15:09
82F→: 看了網址 這感覺好像是想把各家模型裡的clip抽出來做成gguf11/10 17:14
83F→: 省記憶體 不懂模型訓練 問gpt說一般訓練新模型不會把底模的11/10 17:14
84F→: clip一起重練 但是稍微試了一下同系不同模型的clip畫面又有11/10 17:14
85F→: 一點改變? 總之有幫助是真的只是要花點時間測試不同clip11/10 17:14
57F→: 你的要求剛好可以用一個節點解決 是對岸人寫的看你用不用的09/27 03:29
58F→: 習慣 Weilin-Comfyui-Tools09/27 03:29
16F→: qwen是開源模型 想瑟瑟有能力自己跑就沒什麼限制 也能去C站09/24 21:00
17F→: 之類的找Lora09/24 21:00
9F→: 開源不是有flux.1kontext跟 qwen-image-editor 雖然沒googl08/28 23:58
10F→: e的這麼強 但是有loar跟外掛擴充之類的輔助 只是在本地端跑08/28 23:58
11F→: 問題又回到了你電腦硬體夠不夠好08/28 23:58
12F推: 看對岸說這就是即夢/豆包的開源 無聊試了一下沒想到10g記憶08/08 02:34
13F→: 體居然能跑 10步 1分半鐘的品質http://meee.com.tw/CQsygxB08/08 02:34