SD infinite canvas
Automatic1111 vs InvokeAI
- Automatic1111 vs InvokeAI - pros and cons
-
stablediffusion-infinity
该repo的问题是已经2年没更新,它的依赖有问题,运行也有问题TypeError: EventListener._setup.<locals>.event_trigger() got an unexpected keyword argument '_js'
这个我解决不了解决不了就删除这几行,然后还有transformers版本问题(不楞subfolder)stabilityai/sd-vae-ft-mse does not appear to have a file named config.json.
从评论来说,InvokeAI的操作更简单,所以先试一下qnmd invoke,还是automatic1111适合劳资qnmd automatic1111根本不好弄outpainting
install
Prerequisites
- running Fedora Linux 38 (Server Edition)
- gpu: 3060 laptop 12G
- ram: 16g (估计8G够了)
- disk: 256G (模型多就自己加)
- Software updates就当看不见,千万别更新
- nvautoinstall
-
NVIDIA CONTAINER TOOLKIT
curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
sudo yum install yum-utils
sudo yum install -y nvidia-container-toolkit
- 记得重启(主要是为了nvautoinstall的重启,要不然cuda不楞卡)
- nvidia-smi
-
Development Tools
- 不安装也行,费时间也没用,这次用不到cmake
-
docker
-
挖去,docker又更新了安装方式,ubuntu用多了的后遗症 - 记得执行post-install
-
-
miniconda
- miniconda安装完了记得选init
至此已经完成了Prerequisites,网络好+CPU好的话0.5hrs足够
InvokeAI
InvokeAI Repo
InvokeAI有docker,所以可以docker
- gitclone太慢了
- docker安装中:hg反正tmd没法访问
- nm没给我docker compose文件啊
- tmd daemon.json 位置不对啊
- 用这个算了
export DOCKER_BUILDKIT=1
- wiki说明和readme.md它不一样啊,虽然也还是docker compose up -d
- 不知道host参数怎么传递进去
- 一个InvokeAI的image可能就10G了
- 我傻了,fedora默认的就是9090的管理,要把端口映射到9091
至此已经完成了InvokeAI安装,网络好的话1hrs足够
不要问[Errno 101] Network is unreachable
怎么解决
- 根据需求使用screen
- 启动环境
conda activate invokeai
- 启动invokeai
invokeai-web --port 9091 --host 0.0.0.0
更新:最简单的方法是使用Ubuntu,然后使用安装脚本,整个过程只会消耗大概4G流量,不会怎么下载模型,所以可以放心。不过如果要下载模型的话,使用脚本下载大概是30G左右。
AUTOMATIC1111
AUTOMATIC1111
-
还是乖乖的滚回AUTOMATIC1111吧,球球了
-
还是乖乖的滚回ubuntu吧,球球了
-
一个bash run.sh就搞定了
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
cp stable-diffusion-webui/webui.sh .
sudo apt-get install google-perftools
bash webui.sh
-
如果你在国内:
sudo apt install ubuntu-drivers-common samba cifs-utils -y
ubuntu-drivers devices
sudo apt install nvidia-driver-535-server
sudo nano /etc/samba/smb.conf
[sambashare]
comment = ubuntu
path = /home/ubuntu
read only = no
browsable = yessudo service smbd restart
sudo ufw allow samba
sudo smbpasswd -a ubuntu
直接在Windows下操作就可以,把东西下载下来复制粘贴到smb文件夹就可以直接用了,还是老问题,hg没法用
这点东西只能保证重复安装的时候不用下载模型
clone repo的时候还是要加proxy -
还是得直接加proxy
export http_proxy=username:password@proxyhost.com:8080
export https_proxy=username:password@proxyhost.com:8081
export no_proxy="localhost, 127.0.0.1, ::1"
备注:要记得导入http和https,因为github上面的模型都是https协议,no_proxy不加的话有时候会报错找不到地址 -
需要下载的东西:
sd模型只需要最大的那个或者从civitai下载ckpt
vit用脚本下载就行,文件多没办法,hg有下载脚本在页面上端 -
把真正的时间留给需要的地方(比如找素材和提示词)
-
SD,起洞
打开端口:sudo ufw allow 7860
screen:screen
起洞:bash webui.sh --listen --xformers --enable-insecure-extension-access
没有git的时候没法更新,这个不重要,更不更新也差不多
infinity要复杂一些,就用Windows了
- infinity安装
- 按照步骤操作
- 根本没法操作,故作罢
models
-
CIVITAI
- LoRA:
工笔画建筑
工笔画牡丹+芍药 - EMBEDDING:
山水画 - LYCORIS:
传统花纹
- LoRA:
- training
Kohya_ss
或者秋叶一键训练脚本,就这个在Windows下可以直接用,下载百度云即可,千万别自己配环境,宁可多标注几个图片,也别把时间浪费在环境上。
一些备注
-
记得在标注的时候把自己的特殊标记(比如模型名"ABCD")放到添加tag里面去;
-
在invokeai里面添加模型可以用samba;
-
模型可以使用sd-v1-5,最好加个IP Adapter,用invoke的自动添加模型,其他方法很难;
-
记得调整epoch和batch;
文章来源:https://www.toymoban.com/news/detail-809612.html -
最重要的事情:材料好好准备,材料不好的话练出来的也不行,如果是国画或者工笔画最好把题字和章都扣掉(这真的很重要)
文章来源地址https://www.toymoban.com/news/detail-809612.html
到了这里,关于stable diffusion在server上的部署测试的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!