Loading... # 使用ChilloutMix生成漂亮美少女  ChilloutMix 關于ChilloutMix ChilloutMix是一款極具創意和實用性的設計工具,它擅長繪制逼真的插圖和人物形象。ChilloutMix的特色在于它可以創造出非常逼真的效果,使得插圖和人物形象看起來猶如真實照片一樣。這種逼真的效果,讓人們可以在視覺上更加直觀地感受到插圖和人物形象所要表達的信息和情感。 ChilloutMix的使用非常方便,它提供了豐富的插圖和人物形象庫,用戶可以輕松地找到自己所需的素材,然后通過ChilloutMix的工具進行編輯和調整。不僅如此,ChilloutMix還提供了各種特效和濾鏡,讓用戶可以進一步優化和調整插圖和人物形象的效果,使得其更加個性化和獨特。  ChilloutMix 如何使用ChilloutMix 首先我們要準備好stable diffusion webui,如果有條件的朋友可以直接去google的Colab一鍵運行,這里給一個一鍵運行的地址: `https://colab.research.google.com/drive/1vhsF89FWUww-XhLa1MYXnLeqvmEiO1Yr?usp=sharing` 如果訪問不了google的朋友,可以使用一鍵安裝包: `https://pan.baidu.com/s/17rVcEJWRl5-52CneRgXNQg?pwd=aisd` 下載后,解壓,直接運行  運行啟動助手  點擊“自動運行”  weui 這里有很多的參數,我們只要注意以下幾種: * 模型:已經自動選擇了chilloutmix * 文生圖:也是自動選擇了 * 提示詞:可以輸入任何單詞和命令 * 反向提示詞:不希望圖里出現的單詞和命令 * 采樣方法:不同的方法生成效果不同 * Sampling steps:采樣步數,一般在20-30比較好 * 寬度和高度:生成圖片的大小 * 提示詞相關性CFG:數字越大與提示詞等越相關 * 隨機種子:隨機數 好了,我們可以嘗試這樣的一個組合: > 模型:Chilloutmix-Ni-pruned-fp32-fix 提示詞:head portrait, realistic, 1girl, eyes, loli, lots of frills, black long dress, starry sky, black hair blowing in the wind, trees, bloom light effect 反向提示詞:(low quality, worst quality, trembling, cropped face:1.4), cap, leg, (hand:1.6), nsfw 采樣方法:Euler a Sampling steps:20 寬度和高度:1200×800 提示詞相關性CFG:7.5 隨機種子925943797 * 點擊右邊的“生成”,可以得到這樣畫面  生成效果 * 讓我再試試另一種復雜一點的:   **#AI繪畫#**最近AI畫畫好像特別火,看到別人用AI制作了好多好看的圖片,我也手癢去找了教程試試,沒想到還挺好用。以下是我個人總結的經驗分享,希望可以幫到各位。 **一、安裝 Python 環境** Python下載地址: https://www.python.org/downloads/release/python-3108/ 安裝的時候最好是把自動添加環境變量選上,不然自己添加太麻煩了。 然后需要安裝Git。Python安裝這個網上大把教程,不細說了,接下來進入正題。 **二、安裝UI繪畫環境** 安裝 stable-diffusion 的 UI,地址: https://github.com/AUTOMATIC1111/stable-diffusion-webui 安裝好后,還需要安裝一些額外的文件和模型。這里用到的是目前比較火的兩個模型chilloutmix 和 Lora。當然也可以自己再Github、Gitee和Civitai上去找自己滿意的。 1、sd-v1-4.ckpt 下載地址:https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt 2、chilloutmix模型 下載地址:https://civitai.com/models/6424/chilloutmix 3、Korean-doll模型 下載地址: https://civitai.com/models/7448/korean-doll-likeness 4、GFPGANv1.4.pth 臉部優化 下載地址:https://github.com/TencentARC/GFPGAN/releases/tag/v1.3.8 把1 和 2 下載后放在 models/Stable-diffusion 目錄,3 下載后放到 models/Lora 目錄,最后一個解壓后放在項目的根目錄。 啟動項目 上述幾點全部準備好后,即可啟動項目了。Windows系統用webui.bat啟動,其它系統用webui.sh(應該是,沒用過) PS:如果Github訪問速度過慢,可能會出現超時的情況,可以使用FastGithub工具: 地址:https://github.com/dotnetcore/FastGithub **三、運行項目** 一切加載完畢后,即可開始使用了。 在瀏覽器中輸入127.0.0.1:7860,即可訪問AI圖片頁面了。 AI圖片頁面 然后我們去到上面說到的網站https://civitai.com/,隨便找個二次元美少女,點進去找到右下角,復制數據。 隨便找個美少女圖片 然后點擊這個斜箭頭按鈕,就會自動填充參數,然后點擊生成就可以了,生成的時間跟訓練模型有關,有的會很快,有的需要非常久。 參數是自動填充的 然后就可以得到AI生成的圖啦~ AI繪畫之訓練自己的Lora模型播報文章 [](https://author.baidu.com/home?from=bjh_article&app_id=1754741170119786) [我愛AI](https://author.baidu.com/home?from=bjh_article&app_id=1754741170119786)**2023-03-03 16:23**山東 **關注** **一、Lora簡介**** **二、Lora一鍵包安裝教程** **三、Lora使用教程** **四、常見錯誤除** 一、Lora簡介** LoRA: Low-Rank Adaptation of Large Language Models 是微軟研究員引入的一項新技術,主要用于處理大模型微調的問題。目前超過數十億以上參數的具有強能力的大模型 (例如 GPT-3) 通常在為了適應其下游任務的微調中會呈現出巨大開銷。 LoRA 建議凍結預訓練模型的權重并在每個 Transformer 塊中注入可訓練層 (秩-分解矩陣)。因為不需要為大多數模型權重計算梯度,所以大大減少了需要訓練參數的數量并且降低了 GPU 的內存要求。 Stable Diffusion 的全模型微調過去既緩慢又困難,這也是 Dreambooth 或 Textual Inversion 等輕量級方法變得如此流行的部分原因。使用 LoRA,在自定義數據集上微調模型要容易得多。 詳細的原理分析見右側鏈接:https://www.cnblogs.com/huggingface/p/17108402.html 簡單來說,lora模型為我們提供了更便捷更自由的微調模型,能夠使我們在底膜的基礎上,進一步指定整體風格、指定人臉等等,而且lora模型非常的小,大部分都只有幾十MB,非常的方便! **二、Lora一鍵包安裝教程** 秋葉大佬已經發布了一個本地Lora一鍵包,比較的方便,可以參考下方視頻安裝使用,本文是文字版教程。 **注意本文默認是使用的N卡,A卡的道友暫時好像不能使用,會非常的慢** 秋葉lora視頻教程鏈接:https://www.bilibili.com/video/BV1fs4y1x7p2/?spm_id_from=333.999.0.0 一鍵包下載鏈接:https://pan.quark.cn/s/d81b8754a484 百度網盤鏈接:[url=鏈接:https://pan.baidu.com/s/1RmXoUar52KFJ4DdQU_UoWQ?pwd=r50l]鏈接:https://pan.baidu.com/s/1RmXoUar52KFJ4DdQU_UoWQ?pwd=r50l[/url] 下載完一鍵包之后,先安裝包里的兩個軟件  其中python版本必須是python3.1,即使本地有python,還是建議再安裝一個3.1版本。 安裝python的時候記得勾選將python加入環境變量,如下圖紅框  安裝完兩個軟件后,將鼠標移動到電腦左下角開始圖標,選擇“windows powershell” 輸入命令:Set-ExecutionPolicy -ExecutionPolicy RemoteSigned 遇到詢問輸入 y  同時可以在這里驗證python是否安裝成功,輸入python將顯示出python版本為3.1. 現在進入lora-scripts文件夾,先雙擊運行“強制更新.bat”文件 如果報錯提示沒有git或者不識別git命令,說明你的電腦沒有git,需要下載安裝一個, git下載鏈接:https://git-scm.com/download/win 安裝完git再重新運行“強制更新.bat”文件 更新完畢后,右鍵:“**install-cn.ps1**”文件,選擇“使用powershell運行”。 注意,這里有一個非常常見的錯誤就是提示“ **其他依賴安裝失??!** ”如下圖  遇到這個錯誤,重新運行“強制更新.bat”文件 然后再運行“**install-cn.ps1**”文件。 “**install-cn.ps1**”文件正常運行最后會提示“安裝完畢”,如下圖  然后現在就進入了素材準備的階段,首先自己準備10-100張圖片,40張左右效果就差不多。 將所以的素材圖片放到同一個文件夾,然后進入**SDwebUI**界面,選擇“ **訓練** ”標簽,點擊**圖像預處理** 在源文件輸入素材文件夾位置,并填上輸出文件夾位置,勾選下方第三個**自動焦點裁切**和最后一個**deepbooru**打tag的選項  點擊預處理,會在設置的輸出文件夾中生成裁剪后的圖片以及圖片相應tag的txt文件 這里如果顯卡大小小于8G的話,建議裁剪成512*512大小的圖片,512*640最少需要8G顯存 得到素材文件后,,在lora-scripts文件夾下新建一個**train**文件夾,然后再下方再創建一個文件夾,命名隨意,但是需要記住。比如我創建了就是sucai文件夾。 在這個文件夾下再創建一個文件夾,這個文件夾有嚴格的命名格式。 要求為:數字_名稱,如6_sucai。 數字代表的是這個文件夾下的素材使用幾次,顯存大的道友可以設置多個,一個的話也可以。 如果素材文件比較少的情況下,可以設置6,如果100張圖以上可以設置為2或者3,甚至1也行,不然可能會炸 全選復制裁剪后的圖片以及所以的txt文件到上面剛創建的文件夾下。比如我這就是..\train\sucai\6_sucai\  現在素材準備好了,我們修改一下“ **train.ps1** ”文件,右鍵使用文本編輯器打開 我們需要修改的參數如下圖所示:  其中**$pretrained_model** ,不是指的SDwebUI左上角的模型路徑,而是這次訓練lora模型主要參考的模型。 存放位置一般為..\lora-scripts\sd-models\ 這里我們需要去準備一個模型放在這個路徑中,推薦直接復制SD中的主模型過來改個名字。 **注意,經過群友大量測試,推薦使用SD1.5模型作為lora丹底。** 下載鏈接:https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.ckpt 將新下載的SD1.5,如果之前下過就到從..\stable-diffusion-webui\models\Stable-diffusion中找 復制到..\lora-scripts\sd-models\路徑中 最好重命名一下,比如我就是重命名為**model.ckpt** 然后就填入配置文件 **$pretrained_model = "./sd-models/model.ckpt"** **注意:有的道友選的丹底是SafeTensor格式的,那就改成** **$pretrained_model = "./sd-models/model.s** **afetensor** **"** ** $train_data_dir**指的就是我們剛才創建的存放素材的位置,我這里就填入 **$train_data_dir = "./train/sucai/"** 不需要填入帶數字的文件夾。 下方的訓練相關參數,**$resolution**指的是圖片分辨率。 顯存小于8個G的道友就老老實實訓練512,512,不然顯存直接爆炸 **$max_train_epoches**指的是訓練的epoch數,建議數值10-20,但一般15就差不多了。數字越大訓練時間越久。 其他幾個參數小白的話可以不用動,默認就可以了。學習率這里也不用動 等能夠熟練操作之后,可以自己調整參數以便得到更好的效果。 再往下,輸出設置這里 可以通過修改**$output_name**后方的值修改輸出的lora模型文件名,建議輸入英文名,不要用中文,比如我設置為 **gaoye** 。 lora文件類型建議設置**$save_model_as**為**safetensors** 改完參數后,一定記得保存文件。然后關掉文件,“ **train.ps1** ”文件,選擇“使用powershell運行”。 如果顯存沒爆炸,且上述參數都設置的情況下,正常就開始進入訓練界面了。  出現epoch輪數的時候,就證明你已經正常進入訓練過程了! 根據設置的參數已經你顯卡的性能,訓練的時間不等。 等待訓練完畢,打開..\lora-scripts\output\文件夾,復制生成的**gaoye.safetensors**復制到sd中的 **..\stable-diffusion-webui\models\Lora\** 路徑中 其他幾個帶數字的文件為中間文件,可以丟棄。 至此,我們自己的lora模型已經訓練完成,可以進行使用了??! **三、Lora使用教程** 這部分不再贅述,可以參考入門教程的第七部分 入門教程:https://dfldata.xyz/forum.php?mod=viewthread&tid=12756&page=1#pid390482 **四、常見錯誤排除** **1.運行“install-cn.ps1”文件,提示“其他依賴安裝失??!”如下圖** 答:遇到這個錯誤,重新運行“強制更新.bat”文件,然后再運行“**install-cn.ps1**”文件。 **2.運行“強制更新.bat”文件,報錯提示沒有git或者不識別git命令。** 答:說明你的電腦沒有git,需要下載安裝一個, git下載鏈接:https://git-scm.com/download/win 安裝完git再重新運行“強制更新.bat”文件 **3.運行“train.ps1”文件提示“CUDA out of memery”錯誤。** 答:顯存不夠了,調小參數設置的分辨率,支持非正方形,但必須是 64 倍數。 同時可以加大虛擬內存,具體方法百度。 實在機器性能有限,可以使用在線的網站訓練lora模型。 參考鏈接:https://www.bilibili.com/read/cv21450198 **4.運行“install-cn.ps1”文件創建虛擬環境失敗** 答:檢查python版本,以及電腦裝過anaconda,需要先關掉conda自動激活base環境,方法自行百度。不然運行腳本時環境會沖突。 **5.運行的“train.ps1”文件的時候,提示Error no kernel image is available for execution on the device。**  答:刪掉 **“train.ps1”** 文件中,下方紅框中的命令,保存后重新運行   **問題一:Stable Diffusion是什么** Stable Diffusion是一個文本到圖像的潛在擴散模型,由CompVis、Stability AI和LAION的研究人員和工程師創建。它使用來自LAION-5B數據庫子集的512x512圖像進行訓練。使用這個模型,可以生成包括人臉在內的任何圖像,因為有開源的預訓練模型,所以我們也可以在自己的機器上運行它。 **問題二:Stable Diffusion和novelAI有什么差異?** Stable Diffusion 的訓練數據集是 LAION-5B,這個數據庫擁有從互聯網上抓取的 58 億「圖像-文本」數據;NovelAI 訓練數據大量來自 Danbooru,"Danbooru"是一個圖片搜索和分享網站,它主要提供了許多來自日本動畫、漫畫和游戲的圖片,NovelAI 就是用 Danbooru 的圖片在 Stable Diffusion 的基礎上做了模型的優化訓練(fine-tune) 簡而言之,NovelAI 幾乎只能生成動漫、手繪、素描、CG 風格的圖片,但在這些風格的人像上出圖率更高,是專精型選手;Stable Diffusion 相比之下不擅長生成動漫圖片,但對于攝影、油畫、水彩、概念藝術等風格都能全面掌握,更像一個全能選手。 **問題三:如何使用Stable Diffusion?** Windows系統下載安裝StableDiffusion,具體教程請Google。 **問題四:Stable Diffusion對硬件配置有要求嗎?** 對硬件要求挺高,基本要3系以上顯卡,顯存至少要8GB SD的模型占據的硬盤也比較多,至少有20-30GB空間。 **問題五:硬件達不到要求,如何使用?** a.可以選擇租用算力云服務器,很便宜,而且是按需計費,比如[Ucloud](https://link.zhihu.com/?target=https%3A//17yongai.com/go/%3Furl%3DaHR0cHM6Ly93d3cudWNsb3VkLmNuL3NpdGUvcHJvZHVjdC91aG9zdC5odG1sP2ludml0YXRpb25fY29kZT1DMXg3NDJBQTU1NEQ1Nzc%253D),或者[autoDL](https://link.zhihu.com/?target=https%3A//17yongai.com/go/%3Furl%3DaHR0cHM6Ly93d3cuYXV0b2RsLmNvbS9sb2dpbj91cmw9L3JlZ2lzdGVyP2NvZGU9NmFmMDkyYzAtMzdlMS00ODY3LTg2NmUtMGNhNWYzZmRhNjJi)。 b.可以使用谷歌的colab來部署Stable Diffusion進行繪圖。 **問題六:Stable Diffusion收費嗎?** Stable Diffusion免費,單獨安裝部署在自己的機器運行即可 **問題七:Stable Diffusion都有哪些模型?** 模型非常多,建議可以前往civitAI去搜索自己想要的模型 **問題八:如何用Stable Diffusion做美女小姐姐?** 一般會使用lora+chillmixout+koreandolllikeness 三合一模型出圖。 最后修改: ? 允許規范轉載 打賞 贊賞作者 支付寶微信 贊 如果覺得我的文章對你有用,請隨意贊賞