stable-diffusion-webui 纯服务器部署 教程

这两天闲的蛋疼,把windows ,mac,linux 都装了玩了一下
事实证明 windows (4G N 卡)> mac pro (CPU 跑)> linux(主要是没显卡,8核64G)
前两个都比较好装,windows 直接找B站的启动器很方便,mac 只要装一个Anaconda
也不会出现环境问题
所以就记录一下linux吧,以centOS 为例咯
python 一定要 [Python 3.10.6] 这个版本,git 随便
如果python换版本导致 openssl 不能用,自行找方案解决一下
验证方法是这样就对了


然后从git 拉代码咯
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git .
拉下来,不要启动!!!
当然如果你服务器上工具极其强大(网速很快),可以忽略
不然就先把v1-5-pruned-emaonly.safetensors 这个模型下下来咯
放入stable-diffusion-webui/models/Stable-diffusion 目录下
然后还不可以启动
链接:https://pan.baidu.com/s/1sbS6F0fGOVD6_r4uJJQG8Q 密码:0p0k
再下载一个这个文件,然后在stable-diffusion-webui/openai 下面创建一个新文件夹
名字随意,但是不能叫 clip-vit-large-patch14,不然你自己试试看咯
把压缩包解压到这个新建文件夹下面
image
大概长这样
然后在下面的文件里面替换一下文件夹的名字

接下来一步
在根目录中把 webui.sh 编辑一下,顶部加上两句
export CUDA VISIBLE DEVICES=-1
export COMMANDLINE ARGS=“–use-cpu all --no-half --precision full --skip-torch-cuda-test”
就是完全用CPU跑,有显卡的自己调整参数哈,应该也是可以跑起来的

以下是跑了两张图片的时间,512512 两分钟左右 ,参数全部默认
1024
1024 17分钟,玩一下还行


想要外网访问,按下图修改一下,加一句 default=True,文件在modules下面

启动命令 sh webui.sh 即可

然后注意不要用root 用户启动ui ,不然报错给你看哦

然后没了,有兴趣的可以玩一玩,没有显卡实用性不大

有问题一定要指教
纯手工当日记写的,没有排版什么的,不要触发什么版规哦

10 个赞

搞七捻三人工智能

感觉很厉害,但是没有这么大服务器

1 个赞

root 运行可以加上 -f 参数就好了

不明觉厉,我选择本地跑

1 个赞

最好不要之间改webui.sh 的文件或者去修改代码的,而是传参数或者涉及临时的环境变量的,不然后期比较难同步升级代码的,如果有变更,还得自己处理。

比如:

CUDA_VISIBLE_DEVICES=-1 bash webui.sh -f --server-name 0.0.0.0 --xformers --enable-insecure-extension-access --port 7860
1 个赞

是的,加-f可以运行,但是环境跟root没隔离开,会出一些奇怪的问题,最好是能用其他用户跑

刚开始确实适合加参数,不容易出错

stable-diffusion-webui/openai这个目录我怎么找不到,我下的是17.0

这个自己创建就可以了,因为脚本拉不下来clip-vit-large-patch14,所以没有创建成功

能出个Windows的吗

@dCDSv

我在服务器上部署的时候,还有个注意的是,他不兼容中文目录或者文件名,即使服务器能支持中文目录,但webui不能识别

1 个赞

学习一下,看看如何下载模型