標籤: Stable Diffusion webUI
[整理]stable diffusion ControlNet1.1
1.1版模型載點: !!!!!!!!重要提醒!!!!!!!! 只需下載.pth的模型(不需要.yaml檔案)並放入下方路徑: AI資料夾\models\ControlNet
載點: https://huggingface.co/lllyasviel/Con…
ControlNet擴充: (複製下方網址到webui上,使用從網址安裝即可安裝) https://github.com/Mikubill/sd-webui-…
pix2pix 用於改變整張圖的風格
canny 適用於給線稿上色,或將圖片轉化為線搞後重新上色,比較適合人物。
openpose 根據圖片生成動作骨骼中間圖,然後生成圖片,使用真人圖片是最合適的,因為模型庫使用的真人素材。 閱讀全文〈[整理]stable diffusion ControlNet1.1〉
[整理]Stable Diffusion Wildcards 線稿上色
wildcards 安裝
https://github.com/AUTOMATIC1111/stable-diffusion-webui-wildcards
ControlNet 模型下載
(1.0) https://huggingface.co/lllyasviel/ControlNet/tree/main/models
(1.1) https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main
[轉貼]AI繪圖轉影片 mov2mov | Stable Diffusion WebUI使用手冊(正體中文)
- 擴充功能來源: Scholar01/sd-webui-mov2mov
https://github.com/Scholar01/sd-webui-mov2mov
擴充功能來源: Scholar01/sd-webui-mov2mov *需要先安裝ControlNet才能使用這個擴充功能。將影片逐一抽出畫格,使用ControlNet生圖,然後再自動合成新影片。可以設定輸出的畫格率,將人物單獨處理。切換到mov2mov頁面,輸入提示詞, 再上傳影片。 在下面設定輸出影片的長寬。生圖的長寬比例應與原始影片一致。 最下面是單獨用ControlNet處理人物的選項,可以改善動作偵測的精度。 點選右上角Generate,即會開始生成。成品位於主程式下的/outputs/mov2mov-images目錄。
內容出處: AI繪圖轉影片 mov2mov | Stable Diffusion WebUI使用手冊(正體中文)|Ivon的部落格
[整理]Stable Diffusion web UI x Kohya’s GUI:訓練 LoRA 模型教學,快速上手最流行的 AI 繪圖訓練方式!
如果執行途中有發生錯誤 可以關閉
Kohya’s GUI 高級選項中的 8bit_adam
Kohya’s
內容出處: Stable Diffusion web UI x Kohya’s GUI:訓練 LoRA 模型教學,快速上手最流行的 AI 繪圖訓練方式! – 萌芽綜合天地 – 萌芽網頁
參考資料:
Stable Diffusion web UI x Kohya’s GUI:訓練 LoRA 模型教學,快速上手最流行的 AI 繪圖訓練方式!
https://github.com/TimDettmers/bitsandbytes/issues/151
[整理]Stable Diffusion web UI x ControlNet extension:AI 依照照片中的人物骨架繪圖、草稿上色
[轉貼]使用自己的顯卡進行 AI 繪圖, Stable Diffusion webUI
想使用 自己的顯示卡運算出 AI做圖 可以參考以下資料
優點:無限制
缺點:相當吃顯卡能力 產圖的速度並不快
想研究的朋友 歡迎上相關資料的網站上討論