[整理]Stable Diffusion Wildcards 線稿上色

wildcards 安裝
https://github.com/AUTOMATIC1111/stable-diffusion-webui-wildcards

ControlNet 模型下載
(1.0) https://huggingface.co/lllyasviel/ControlNet/tree/main/models
(1.1) https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main

閱讀全文〈[整理]Stable Diffusion Wildcards 線稿上色〉

[轉貼]AI繪圖轉影片 mov2mov | Stable Diffusion WebUI使用手冊(正體中文)

https://github.com/Scholar01/sd-webui-mov2mov

擴充功能來源: Scholar01/sd-webui-mov2mov *需要先安裝ControlNet才能使用這個擴充功能。將影片逐一抽出畫格,使用ControlNet生圖,然後再自動合成新影片。可以設定輸出的畫格率,將人物單獨處理。切換到mov2mov頁面,輸入提示詞, 再上傳影片。 在下面設定輸出影片的長寬。生圖的長寬比例應與原始影片一致。 最下面是單獨用ControlNet處理人物的選項,可以改善動作偵測的精度。 點選右上角Generate,即會開始生成。成品位於主程式下的/outputs/mov2mov-images目錄。

內容出處: AI繪圖轉影片 mov2mov | Stable Diffusion WebUI使用手冊(正體中文)|Ivon的部落格

[整理]Stable Diffusion web UI x Kohya’s GUI:訓練 LoRA 模型教學,快速上手最流行的 AI 繪圖訓練方式!

如果執行途中有發生錯誤 可以關閉
Kohya’s GUI 高級選項中的 8bit_adam

Kohya’s

內容出處: Stable Diffusion web UI x Kohya’s GUI:訓練 LoRA 模型教學,快速上手最流行的 AI 繪圖訓練方式! – 萌芽綜合天地 – 萌芽網頁

參考資料:

Stable Diffusion web UI x Kohya’s GUI:訓練 LoRA 模型教學,快速上手最流行的 AI 繪圖訓練方式!


https://github.com/TimDettmers/bitsandbytes/issues/151

[整理]Stable Diffusion web UI x ControlNet extension:AI 依照照片中的人物骨架繪圖、草稿上色


閱讀全文〈[整理]Stable Diffusion web UI x ControlNet extension:AI 依照照片中的人物骨架繪圖、草稿上色〉

[轉貼]使用自己的顯卡進行 AI 繪圖, Stable Diffusion webUI

想使用 自己的顯示卡運算出 AI做圖 可以參考以下資料
優點:無限制
缺點:相當吃顯卡能力 產圖的速度並不快

想研究的朋友 歡迎上相關資料的網站上討論

成效範例:

閱讀全文〈[轉貼]使用自己的顯卡進行 AI 繪圖, Stable Diffusion webUI〉

Line貼圖審核

2015.02.19 上傳送交
Status : In Review Last Update:2015.02.25

希望能快快通過呀! ><…

被退了一次… 理由瞞蝦的…看來家大業大的公司 也有很多無言的地方阿…尤其這審核速度…Orz..

 

 

2015.05.18 正式通過了!!!

年初 努力上架到今天 終於上去囉 比特Q 正式上line啦
http://line.me/S/sticker/1125648

畫師: 普 縷々

轉貼:Google 推出「以圖找圖」搜尋功能,上傳圖檔、找出說明與相似圖片

前幾天 Google 才剛宣布推出了相當令人期待的「以圖找圖」功能,想不到現在已經可以在台灣版的 Google 圖片搜尋引擎中使用了。

跟之前介紹過的「TinEye 以圖找圖!相似圖片搜尋引擎」一樣,Google 圖片搜尋引擎除了可以讓使用者貼上圖片網址來搜尋一樣的圖檔,也可支援圖片上傳功能,如果你使用的是 Google Chrome 或 Firefox 等瀏覽器,還可直接用滑鼠拖曳圖檔的方式,快速上傳圖片、直接搜尋。

http://briian.com/?p=7629