Stable Diffusion 一键安装(看这篇就够了)

随着ChatGPT带火了AI领域,越来越多人对AI绘画产生了浓厚兴趣,希望能应用到自己的设计工作上或者提高创作效率。Midjourney上手非常简单,但是没有魔法无法使用且可控性差,这里我强烈推荐Stable Diffusion,其AI绘画能力上不封顶。为了帮助那些在本地或服务器部署方面遇到困难的初学者,我特意准备了以下教程,希望能为大家提供帮助。

1、Stable Diffusion 配置要求

CPU:无特殊要求
内存:16G或以上
存储:建议60G以上(模型比较多,比较大)
显卡:推荐N卡20系列或以上
显存:普通生成图片4G~6G即可入门(显存越大生成速度越高,可生成分辨率越高)

AI绘画核心关键在于显卡,推荐NVIDIA RTX 4060Ti 16G显存,目前价格大约3500元 技嘉风魔(GIGABYTE)GeForce RTX 4060 Ti WINDFORCE OC 16G

下图是512×512分辨率主流显卡生成速度对比

图片[4]-Stable Diffusion 一键安装(看这篇就够了)

如果你的电脑配置无法满足以上要求,建议使用云GPU服务器,请阅读第三章:云服务器安装 Stable Diffusion。

2、Stable Diffusion 本地一键安装

本文介绍windows系统下安装部署,如果你是mac系统,请参考这篇文章 《Stable Diffusion Mac安装(看这篇就够了)》

一键安装包请用微信扫描下方图片添加微信,免费发送给你,备注“sd”

图片[5]-Stable Diffusion 一键安装(看这篇就够了)

初学建议使用同一版本,因为版本相差太大按钮位置可能不一样,学起来不流畅。

2.1、下载完解压

2.2、安装运行依赖

首次运行前需要先双击“启动器运行依赖-dotnet-6.0.11.exe”,然后点击安装。

图片[6]-Stable Diffusion 一键安装(看这篇就够了)

2.3、运行启动器

安装完毕后进入第一步解压的目录双击“A绘世启动器.exe”即可启动,非常简单,无需搭建python环境,无需手动配置环境。感谢秋叶大神!

图片[7]-Stable Diffusion 一键安装(看这篇就够了)

2.4、一键启动

图片[8]-Stable Diffusion 一键安装(看这篇就够了)

首次运行会下载安装一些扩展依赖,大约几分钟时间,耐心等待

图片[9]-Stable Diffusion 一键安装(看这篇就够了)

启动完成后启动器会自动打开一个网址 http://127.0.0.1:7860 ,到这里已经安装完毕。

使用过程中,上面的黑色窗口请不要关闭。因为他才是程序的后台主体,浏览器看到的只是一个UI界面,方便我们通过鼠标键盘来操作而不用输入命令行。

图片[10]-Stable Diffusion 一键安装(看这篇就够了)

如果有其他问题,也可以加我交流,百忙中尽量抽空解答。

图片[11]-Stable Diffusion 一键安装(看这篇就够了)

3、云服务器安装 Stable Diffusion

这里介绍电脑配置不足,在云GPU服务器安装的过程,如果你已经按第二章本地安装完成,请跳过本章。

3.1、注册云服务商

注册地址:

注册后可先充几元体验,选择其他金额手动输入,比如5元。

3.2、购买服务器

进入算力市场购买界面,可以看到目前顶配的 RTX4090 24G 显卡每小时仅需要2块多,而且是按量计费,使用的时候才开机,用完了关机不会扣费,非常划算

注意:实例连续关机15天会释放实例,实例释放会导致数据清空且不可恢复,释放前实例在数据在。

图片[12]-Stable Diffusion 一键安装(看这篇就够了)

选中一个显卡之后,其他默认选择即可,社区镜像-搜索“stable”,选第一个下载量多的,版本选最新的,然后“立即创建”

图片[13]-Stable Diffusion 一键安装(看这篇就够了)

3.3、安装Stable Diffusion

进入控制台-容器实例,刚创建的实例右侧快捷工具点击JupyterLab进入Jupyter

图片[14]-Stable Diffusion 一键安装(看这篇就够了)

在新页面点击▷打开启动器

图片[15]-Stable Diffusion 一键安装(看这篇就够了)

切换到最后一个tab“启动SD-WebUi”,点击“SD,启动!”

图片[16]-Stable Diffusion 一键安装(看这篇就够了)

耐心等待首次部署安装依赖、插件、模型

图片[17]-Stable Diffusion 一键安装(看这篇就够了)

看到以上输出后,在控制台里的容器示例,点击自定义服务即可使用Stable Diffusion(首次需要需要实名认证)

图片[18]-Stable Diffusion 一键安装(看这篇就够了)

用完一定记得关机,否则会持续扣费。实例连续关机15天会释放实例,实例释放会导致数据清空且不可恢复,释放前实例在数据在。

3.4、云服务器的内置模型下载

刚安装完毕只有几个默认的模型,可以根据喜好下载其他模型

图片[19]-Stable Diffusion 一键安装(看这篇就够了)

也可以使用自定义下载,粘贴下载地址进去,或者手动上传到对应模型目录,最后在web ui点击刷新,模型就会出现在下拉框。

图片[20]-Stable Diffusion 一键安装(看这篇就够了)

4、版本更新

下面回到本地安装版本。启动器界面左侧点击“版本管理”,可更新版本或切换到其他版本。

图片[21]-Stable Diffusion 一键安装(看这篇就够了)

5、安装模型

不同模型有不同技能,是其他人使用某种风格的图片训练出来的(炼丹)。例如有的模型可以生成国风图片,有的模型可以生成二次元美女图片。

启动器左侧“模型管理”,可以直接在启动器中搜索和下载。

图片[22]-Stable Diffusion 一键安装(看这篇就够了)

也可以点击“打开文件夹”,自己在其他地方下载后放到文件夹中,再到webui刷新模型列表。

常用的目录有:

\models\Lora:放置Lora模型,拉到中间点击Lora,右侧刷新

图片[23]-Stable Diffusion 一键安装(看这篇就够了)

\models\Stable-diffusion:放置大模型,webui左上角刷新

图片[24]-Stable Diffusion 一键安装(看这篇就够了)

6、安装扩展

不同扩展有不同功能,例如:汉化、图库、翻译、提示词反推,提示词自动补全。一键安装包里面已经集成了以上常见的扩展。

安装扩展一般有两种方法

6.1、在启动器安装

图片[25]-Stable Diffusion 一键安装(看这篇就够了)

6.2、在webui安装

图片[26]-Stable Diffusion 一键安装(看这篇就够了)

常见的扩展有:

ControlNet:用途非常非常广,可实现控制人物动物姿势,线稿上色,动漫转真人或真人转动漫,艺术二维码,装修,光影文字,藏字图……一键包里已经集成。

Segment-anything(抠图):常用于图生图时智能抠图,以生成蒙版并局部重绘,例如仅更换头发颜色,仅更换衣服、帽子、鞋子……

3d-open-pose-editor(3d骨架):3d-open-pose-editor插件直接可以编辑3D的人体骨骼,从而控制输出图片的动作或结构

7、用Stable Diffusion生成第一张图片

这里使用majicmix模型以及xiannv模型,参考第五章先放置好模型到对应的目录,然后刷新。模型不会下载的可以添加我的微信免费发给你。

提示词:masterpiece,best quality,highly detailed,Amazing,finely detail,extremely detailed CG unity 8k wallpaper,score:>=60,xiannv,long sleeves,looking at viewer,outdoors,facing viewer,mountain,east asian architecture,sitting,upper body,

反向提示词:EasyNegative,ng_deepnegative_v1_75t,verybadimagenegative_v1.3,negative_hand-neg,mutated hands and fingers,poorly drawn face,extra limb,missing limb,disconnected limbs,malformed hands,ugly,

采样方法:DPM++ 2M Karras

提示词引导系数 (CFG Scale):7

迭代步数 (Steps):20

随机数种子 (Seed):-1

CLIP 终止层数:2

图片[27]-Stable Diffusion 一键安装(看这篇就够了)
© 版权声明
THE END
喜欢就支持一下吧
点赞6赞赏 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容