本周四 Stable Diffusion WebUI 发布了 1.6.0 版别,趁着周末时刻比较富余,我把自己的 AutoDL 镜像也晋级到了最新版别,并实际体验了下相关功能,有许多惊喜,特别共享给咱们!
运用方法
官方库房地址:
github.com/AUTOMATIC11…i
- 全新装置:按照官方库房中的阐明装置,因为需求下载的东西比较多,或许时刻比较长。
- 晋级装置:在 webui 目录下运用 git pull 拉取最新版的代码,重新启动即可。
- 运用镜像:云平台上一般有很多打包好的镜像,AutoDL上能够运用我发布的:www.codewithgpu.com/i/AUTOMATIC… 。
我之前写了两篇关于本地和云环境装置 Stable Diffusion WebUI 的文章,有爱好的能够看看:
Windows本地装置SD WebUI秋叶整合包
AutoDL云环境布置SD WebUI
惊喜共享
下面共享几个我个人感觉比较出彩的地方。
支持Refiner
了解过 SDXL 的同学或许现已知道,SDXL 采用了一种两步走的生图方式,先用1个根底模型生成一张看起来差不多的图片,然后再运用一个精修模型把它打磨的更漂亮。示意图如下:
在 WebUI 的 1.5.x 版别中,虽然现已支持了 SDXL 模型,但是这个生图的模式是被分裂的,咱们首要需求在文生图中运用根底模型生成一张图片,然后再把这张图片发送到图生图生运用精修模型进行优化。进程比较繁琐低效。
现在 1.6.0 总算把这两步集成到一次生图的进程中了。
在 Stable Diffusion的生图参数中,新增了一个 Refiner 的模块,就在之前的“高清修复”周围。默许情况下,“Refiner”和“高清修复”都被折叠了起来,也便是不运用它们。
展开 Refiner,咱们能够看到两个选项:
- 前边是要运用的精修大模型,此处能够挑选任何一个SD大模型,不只仅是SDXL模型,SD1.5模型同样能够干这件事。
- 后边是精修开端的步数百分比,上边采样步数填写的是20,精修模型就从 20*0.8=16 之后,也便是第17步,开端参与制作图片。
更快更好的采样器
一会儿新增了一堆采样器,比较之前的前辈,它们的采样速度更快,采样质量更高。
Restart, DPM++ 2M SDE Exponential, DPM++ 2M SDE Heun, DPM++ 2M SDE Heun Karras, DPM++ 2M SDE Heun Exponential, DPM++ 3M SDE, DPM++ 3M SDE Karras, DPM++ 3M SDE Exponential
内存占用优化
比较之前的 WebUI 1.5 版别,SDXL 模型运用的内存大幅下降,现在 A5000 现已能够稳定的跑图了,不信的能够去试试,哈哈。
内存的优化不只针对 SDXL 模型,比方“图生图”的批量处理等处,有爱好的能够去 github 上看看发布阐明。
小模型加载位置切换
这个我感觉方便了很多,之前要运用 Lora 模型时,先得经过一个按钮打开小模型的面板,然后再切换到 Lora 的页签,然后再挑选要运用的 Lora。这个小模型的挑选面板还挺占用空间的,不需求了还得再点击小按钮把小模型的面板隐藏起来。
现在只需求在主页面上点击 Lora 页签,就能够直接切换了。挑选完了,再点击 Generation 页签就能够切换回去。这个确实很方便。
图片方便操作
原来丑恶的大按钮,换成了精巧的小图标。这个好不好,或许就见仁见智了,有的同学或许会觉得不直观,关于新同学也或许搞不清楚每个按钮都是做什么的,需求熟悉一下才行。
区域可拖动
在“文生图”和“图生图”界面中,增加了一个能够水平拖动的分割线。假如你感觉有一边太拥挤了,就能够把分割线拖到另一边。
资源下载
本文运用的模型、插件,生成的图片,都现已上传到了我整理的SD绘画资源中,后续也会持续更新,如有需求,请/关/注/公/众/号:萤火遛AI(yinghuo6ai),发消息:SD,即可获取下载地址。
假如你还没有运用过Stable Diffusion WebUI,能够先看这几篇文章,了解下怎么运用:
手把手教你在本机装置Stable Diffusion秋叶整合包
手把手教你在云环境炼丹(布置Stable Diffusion WebUI)
SDXL 1.0出图作用直逼Midjourney!手把手教你快速体验!
好了,以上便是本文的主要内容。如有问题欢迎留言沟通交流。