AI绘画教程!实战,无脑上手

这篇具有很好参考价值的文章主要介绍了AI绘画教程!实战,无脑上手。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

导言

最近(其实已经火了一段时间了)大红大紫,而且生成的图像既有想象力,有的也很真实.这里我大概介绍其中涉及的技术以后后续使用.预计会写两三期.

还希望多多点赞关注 😄

AI绘画的开始与革命

当说到一件事情的开始时,我们也许会谈论到几个世纪甚至几千年前人们的一些思想.所以要确切地谈论一件事情的开始最好要限定一个范围.

AI绘画涉及到生成,谈到生成就离不开GAN了.GAN可以生成图像,其通过一个生成器和一个判断器来训练.

2018 年,第一幅由 AI 生成的肖像《Edmond de Belamy》问世,它由生成对抗网络(GAN)创建,是 Obvious Art 的 “La Famille de Belamy” 系列的一部分,最终在佳士得艺术品拍卖会上以 432500 美元成交。

2022 年,Jason Allen 的 AI 创作作品《Théâtre D’opéra Spatial》在科罗拉多州博览会的年度艺术竞赛中获得了第一名

谈到GAN,这本身就是一个非常大的领域了,这里面有很多xxGAN同时也有很多trick.

AI绘画教程!实战,无脑上手

AI绘画教程!实战,无脑上手

  • 整个式子由两项构成。x表示真实图片,z表示输入G网络的噪声,而G(z)表示G网络生成的图片。
  • D(x)表示D网络判断真实图片是否真实的概率(因为x就是真实的,所以对于D来说,这个值越接近1越好)。而D(G(z))是D网络判断G生成的图片的是否真实的概率。
  • G的目的:上面提到过,D(G(z))是D网络判断G生成的图片是否真实的概率,G应该希望自己生成的图片“越接近真实越好”。也就是说,G希望D(G(z))尽可能得大,这时V(D, G)会变小。因此我们看到式子的最前面的记号是min_G。
  • D的目的:D的能力越强,D(x)应该越大,D(G(x))应该越小。这时V(D,G)会变大。因此式子对于D来说是求最大(max_D)

GAN(生成对抗网络)经过不断发展其有了不错的效果,但有些始终难以克服的问题:生成结果多样性缺乏、模式坍缩(生成器在找到最佳模式后就难以进步了)、训练难度高。这些困难导致 AI 生成艺术一直难以做出实用的产品。

重大转折是文生图即text to image,根据文字生成图像.

这个转变的代表就是DALL·E. 2021年OpenAI发布DALL·E.

DALL·E 结合了学习将图像映射到低维标记的离散变分自动编码(dVAE)和自回归建模文本和图像标记的 Transformer 模型。输入给定的文本,DALL·E 可以预测图像标记,并在推断过程中将其解码为图像。

简单来说就是dVAE+CLIP+transformer.

这里我就不细说这些技术了,因为我自己也不是很懂

虽然 DALL·E 可以很好地生成漫画和具有艺术风格的图像,但无法准确地生成逼真的照片。因此,OpenAI 投入了大量资源来创建改进的文生图模型——DALL·E 2

然后就是出名的Stable Diffusion了.

Diffusion Model (扩散模型) 让训练模型变得更加简单,只需大量的图片就行了,其生成图像的质量也能达到很高的水平,并且生成结果能有很大的多样性,这也是新一代 AI 能有难以让人相信的“想象力”的原因。

  • 这篇 2020 年的论文 Denoising Diffusion Probabilistic Models ,首次把2015 年诞生的扩散模型用在了图像生成上
  • 2021 年 1 月 openAI 公布了 Dall-E 并在 论文中宣布 Diffusion Model (扩散模型) 击败了 GAN (生成对抗网络)(Diffusion Models Beat GANs on Image Synthesis),为工程界指明了方向。
  • 2021 年 10 月开源的文本生成图像工具 disco-diffusion 诞生,此后有相当多的基于此的产品出现。
  • 2022 年 8 月 stability.ai 开源了 Stable Diffusion , 这是目前可用性最高的开源模型,很多商业产品都基于此如:NovelAI

Stable Diffusion 的计算效率远高于其他文生图模型,以前的文生图模型需要数百天 GPU 计算,Stable Diffusion 需要的计算量要小得多,因此资源不足的人更容易接受。它还允许用户通过图像与图像之间的转换(如将素描变成数字艺术)或绘画(在现有图像中删除或添加一些东西)来修改现有的图像。

所以截止到现在,一般说的AI绘画指的是用Diffusion技术为核心的图像生成.

实战 stable-diffusion-webui

光说不练没用.这里我会参考很多教程以及自己测试,如果在你的环境上有问题欢迎留言评论.

本文前提是您需要一定的前置知识,比如git使用,python环境等.

需要工具

  1. git
  2. python
  3. conda 主要解决环境隔离,不影响其他python环境

逻辑是这样的,我们本身利用公开的模型,利用调好的模型直接得到结果(当然你也可以自己训练).

而现在需要的是一个web ui也就是一个界面方便调试.

为了方便隔离不同版本Python环境我们使用conda(当然实际上使用python的virtualenv等等也是可以的)

流程

首先下载这个web ui

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui

下载好后发现里面有若干文件,注意venv目录里面有自带的python解释器,有的教程就是利用这个单独创建环境,但在这里我们利用environments-wsl2.yaml创建conda环境

 conda env create -f environment-wsl2.yaml

然后激活环境

 conda activate automatic

这里的automatic其实就是这个webui作者的github名字.

重点(配置一些文件)

接下来就是很多教程有差别的地方了,在实际运行项目中,我发现下载的torch实际上是cpu版本的,也许跟我镜像源设置有关.

首先看一下脚本流程

可以修改webui-user.bat中内容,设置虚拟环境中的解析器和虚拟环境文件夹,也就是包下载的文件夹.

@echo off

set PYTHON=D:\anaconda\envs\automatic\python.exe
set GIT=
set VENV_DIR=D:\anaconda\envs\automatic
set COMMANDLINE_ARGS=--medvram --autolaunch --opt-split-attention --force-enable-xformers --xformers
call webui.bat

COMMANDLINE_ARGS用于设置参数,这里启动xformers提升图像质量.

之后修改launch.py,主要修改下载的位置,从原本的github修改为ghproxy.

  torch_command = os.environ.get('TORCH_COMMAND', "pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 --extra-index-url https://download.pytorch.org/whl/cu117")
    requirements_file = os.environ.get('REQS_FILE', "requirements_versions.txt")
    commandline_args = os.environ.get('COMMANDLINE_ARGS', "")

    xformers_package = os.environ.get('XFORMERS_PACKAGE', 'xformers==0.0.16rc425')
    gfpgan_package = os.environ.get('GFPGAN_PACKAGE', "git+https://ghproxy.com/https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379")
    clip_package = os.environ.get('CLIP_PACKAGE', "git+https://ghproxy.com/https://github.com/openai/CLIP.git@d50d76daa670286dd6cacf3bcd80b5e4823fc8e1")
    openclip_package = os.environ.get('OPENCLIP_PACKAGE', "git+https://ghproxy.com/https://github.com/mlfoundations/open_clip.git@bb6e834e9c70d9c27d0dc3ecedeebeaeb1ffad6b")

    stable_diffusion_repo = os.environ.get('STABLE_DIFFUSION_REPO', "https://ghproxy.com/https://github.com/Stability-AI/stablediffusion.git")
    taming_transformers_repo = os.environ.get('TAMING_TRANSFORMERS_REPO', "https://ghproxy.com/https://github.com/CompVis/taming-transformers.git")
    k_diffusion_repo = os.environ.get('K_DIFFUSION_REPO', 'https://ghproxy.com/https://github.com/crowsonkb/k-diffusion.git')
    codeformer_repo = os.environ.get('CODEFORMER_REPO', 'https://ghproxy.com/https://github.com/sczhou/CodeFormer.git')
    blip_repo = os.environ.get('BLIP_REPO', 'https://ghproxy.com/https://github.com/salesforce/BLIP.git')

然后运行webui-user.bat脚本,这里可能涉及网络问题

./webui-user.bat

下载完毕

模型与扩展

主要网站是Hugging Face – The AI community building the future.和Civitai | Stable Diffusion models, embeddings, hypernetworks and more

一般使用的就是stable diffusion v2.1的模型.动漫风的有anything和Momok

由于一些模型这里不太好放出,可以到我的网站或点击查看原文看详情

下载的模型放入一般都放入stable-diffusion-webui\models\

大模型

大模型特指标准的latent-diffusion模型。拥有完整的TextEncoderU-NetVAE

由于想要训练一个大模型非常困难,需要极高的显卡算力,所以更多的人选择去训练小型模型。

CKPT

CKPT格式的全称为CheckPoint(检查点),完整模型的常见格式,模型体积较大,一般单个模型的大小在7GB左右。

小模型

小模型一般都是截取大模型的某一特定部分,虽然不如大模型能力那样完整,但是小而精,因为训练的方向各为明确,所以在生成特定内容的情况下,效果更佳。

VAE

全称:VAE全称Variational autoencoder。变分自编码器,负责将潜空间的数据转换为正常图像。

后缀格式:后缀一般为.pt格式。

功能描述:类似于滤镜一样的东西,他会影响出图的画面的色彩和某些极其微小的细节。大模型本身里面自带 VAE ,但是并不是所有大模型都适合使用VAE,VAE最好搭配指定的模型,避免出现反效果,降低生成质量。

使用方法:设置 -> Stable-Diffusion -> 模型的 VAE (SD VAE),在该选项框内选择VAE模型。

文件位置:该模型一般放置在*\stable-diffusion-webui\models\VAE目录内。

Embedding

常见格式为ptpngwebp格式,文件体积一般只有几KB。

风格模型,即只针对一个风格或一个主题,并将其作为一个模块在生成画作时使用对应TAG在Prompt进行调用。

使用方法:例如本站用数百张海绵宝宝训练了一个Embedding模型,然后将该模型命名为HMBaby,在使用AI绘图时加载名称为HMBaby的Embedding模型,在使用Promat时加入HMBaby的Tag关键字,SD将会自动调用该模型参与AI创作。

文件位置:该模型一般放置在*\stable-diffusion-webui\embeddings目录内。

Hypernetwork

一般为.pt后缀格式,大小一般在几十兆左右。这种模型的可自定义的参数非常之多。

使用方法:使用方法:在SD的文生图或图生图界面内的生成按钮下,可以看到一个红色的图标,该图标名为Show extra networks(显示额外网络),点击该红色图标将会在本页弹出一个面板,在该面板中可以看到Hypernetwork选项卡

文件位置:该模型一般放置在*\stable-diffusion-webui\models\hypernetworks目录内。

LoRA

LoRA的模型分两种,一种是基础模型,一种是变体。

目前最新版本的Stable-diffusion-WebUI原生支持Lora模型库,非常方便使用。

使用方法:在SD的文生图或图生图界面内的生成按钮下,可以看到一个红色的图标,该图标名为Show extra networks(显示额外网络),点击该红色图标将会在本页弹出一个面板,在该面板中可以看到Lora选项卡,在该选项卡中可以自由选择Lora模型,点击想要使用的模型将会自动在Prompt文本框中插入该Lora模型的Tag名称。

基础模型

名称一般为chilloutmix*,后缀可能为safetensors或CKPT。

基础模型存放位置:*\stable-diffusion-webui\models\Stable-diffusion目录内。

变体模型

变体模型存放位置:*\stable-diffusion-webui\models\Lora目录内。

文件位置:该模型一般放置在*\stable-diffusion-webui\models\Stable-diffusion目录内。

插件

在Extensons中点击Available,然后点击load from.去掉localization即可搜索到语言支持.

AI绘画教程!实战,无脑上手

  1. 首先下载中文支持,下载后在设置中搜索localization

AI绘画教程!实战,无脑上手

选择zh-Hans然后再Apply settings,reload UI即可.

AI绘画教程!实战,无脑上手

  1. 后面可以下载ControlNet等等,这里就不用示范了

遇到的问题

由于我一开始参照了很多教程,碰了一些壁.导致配置环境时出现很多问题.这里写一下遇到的问题.

  1. 如果遇到是N卡而且能使用CUDA但却提示不可用,可能是下载到了cpu版本的torch

所以这里推荐先下载对应的的torch以及torchvision. 比如这里我下载1.13版本支持gpu的torch.

(这里下载这个版本是因为为了和后面xformer库匹配) cuda版本11.7

pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu117

如果你要下载其他版本可以在pytorch官网上查看Previous PyTorch Versions | PyTorch

  1. 我下载时如果遇到卡住情况会尝试使用代理.有时可以开启TUN模式更好下载.

  2. 再次测试时发现我下载的torch竟然是1.12版本的,这跟launch.py中不太一致,怀疑是后面被覆盖下载了.所以再运行一次

    pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 --extra-index-url https://download.pytorch.org/whl/cu117
    
  3. AI绘画教程!实战,无脑上手

pip直接没了,怀疑是覆盖安装时出现了问题.

执行命令文章来源地址https://www.toymoban.com/news/detail-497210.html

python -m ensurepip --upgrade
  1. 下载插件时,有时也会出现连不上下载不了的情况.应该是连接github的问题

大致总结

  1. 一个是网络问题,建议使用代理
  2. 我推荐一定要在launch.py中修改下载地址,也就是修改github
  3. 后续会更新一些扩展使用以及lora,contrtolnet模型使用,欢迎关注
    欢迎在个人网站:www.proanimer.com查看原文
    个人博客:www.sekyoro.top

参考资料

  1. 从画笔到像素:一文读懂AI绘画的前世与今生
  2. DALL·E—从文本到图像,超现实主义的图像生成器
  3. hua1995116/awesome-ai-painting: AI绘画资料合集(包含国内外可使用平台、使用教程、参数教程、部署教程、业界新闻等等) stable diffusion tutorial、disco diffusion tutorial、 AI Platform (github.com)
  4. DALL·E (openai.com)
  5. Image Generation - NovelAI Documentation
  6. AI繪圖:Windows安裝Stable Diffusion WebUI教學 | Ivon的部落格 (ivonblog.com)
  7. 使用Anaconda对Stable-Diffusion进行环境隔离本地化部署 - 哔哩哔哩 (bilibili.com)
  8. AI绘画 xformers安装疑问解答 - 哔哩哔哩 (bilibili.com)
  9. Stable Diffusion 模型格式及其相关知识全面指南 - openAI
  10. 最细Stable Diffusion2.1+WebUI的安装部署教程(非大佬整合包,Revirsion) - 哔哩哔哩 (bilibili.com)
  11. 本地化部署Stable Diffusion WebUI - openAI

到了这里,关于AI绘画教程!实战,无脑上手的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AI绘画:快速上手stable diffusion

    点击↑上方↑蓝色“ 编了个程 ”关注我~ 这是Yasin的第 89 篇原创文章 最近随着Chat GPT的大火,AI绘画也火了起来。尤其是midjourney(以下简称mj),能够通过文本生成AI图片,还能指定各种风格,简直是我们这种又菜又爱玩的福音。 下面是我用mj随便画的一些图: mj上手

    2023年04月22日
    浏览(64)
  • 【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战

    SD-Trainer:是stable diffusion进行lora训练的webui,有了SD-Trainer,只需要少许图片,每个人都能够方便快捷地训练出属于自 己的stable diffusion模型,可以让图片按照你的想法进行呈现。 SD-Trainer :是stable diffusion进行lora训练的webui,有了SD-Trainer,只需要少许图片,每个人都能够方便快

    2024年02月14日
    浏览(46)
  • 《花雕学AI》04:尝鲜功能丰富且容易上手的AI绘画工具——Leonardo AI

    偶然机缘,我接触到了另外一个AI绘画平台:Leonardo.AI 它是一个新的 AI 图像平台,其输出质量可与目前最火的Midjourney 相媲美,当然差距还是有的。其链接是https://leonardo.ai/,界面如下图。 我填写了电邮地址,申请试用的资格,后来,就没有下文了,呵呵… 然后,使用谷歌账

    2024年02月09日
    浏览(54)
  • 免费试用!人人都能轻松上手的AI绘画工具,新版本升级

    AIGC(AI Generated Content,即人工智能生产内容)赛道,正在以一种新的方式出圈——AI绘画。 继飞盘、露营之后,年轻人又爱上了AI绘画,用这项新技术“创作”属于自己的画作,甚至还有00后用AI造“虚拟服装”。打开皮卡智能AI绘画工具,输入一个,也可以不输入文字

    2024年02月10日
    浏览(128)
  • AI绘画风格化实战

    在社交软件和短视频平台上,我们时常能看到各种特色鲜明的视觉效果,比如卡通化的图片和中国风的视频剪辑。这些有趣的风格化效果其实都是图像风格化技术的应用成果。 MidLibrary 这个网站提供了不同的图像风格,每一种都带有鲜明的特色。 MidLibrary 它总共包含了以下几

    2024年01月20日
    浏览(41)
  • AI绘画实战:midjournety接稿实践

            大家好!今天我想分享一下我最近的一个有趣的尝试:利用人工智能(AI)来创作绘画。作为一个对艺术充满热情但技艺平平的人,这次经历对我来说是一个全新的探索和挑战。         首先,我选择了一个名为midjournety的AI绘画软件,它不仅能进行文字交流,

    2024年02月02日
    浏览(29)
  • ai绘画怎么弄?这份ai绘画教程你必须知道

    我有一个关系非常好的女性朋友,她的闺蜜即将过生日,她想给她闺蜜准备一份特别的礼物。但是,她对绘画毫无天赋。因此,我给她推荐了几款好用的ai绘画工具,这些神奇的ai绘画工具能帮助她创作出栩栩如生、美丽动人的女生形象作品。奈何她用起来不太习惯,经常来问

    2024年02月16日
    浏览(43)
  • 有没有ai绘画教程?什么软件能实现ai绘画?

    曾经ai绘画还无人问津,现在却突然流行起来,并且热度还在不断上升,不论是各种社交平台或是短视频应用,都有它的相关身影。 而它之所以倍受大家的喜爱,主要是因为仅需简单几步,输入相对应的,ai就能够通过数据算法将用户的照片生成各种精致作品,随意哪

    2024年02月15日
    浏览(40)
  • ai绘画生成器怎么用?收下这份ai绘画工具教程

    ai绘画如今已经成为网络上热议的话题,与身边的朋友聊天时,他们也会经常提起。智能技术生成的图像画作,往往让人分不清楚究竟是现实图片还是通过技术手段合成的,其逼真程度可见一斑。那面对着市面上琳琅满目的ai绘画软件,你知道如何使用吗?在这篇文章中,将分

    2024年02月09日
    浏览(64)
  • 如何挖掘AI绘画的变现价值?附AI绘画入门教程

    3. AI 绘画生产小说/游戏/宣传物等配图 下边是我通过AI做副业的部分收入,主要是通过AI绘画做设计图赚钱,利用AI技术生成的设计图片不仅高效质量又高,还有做AI电商背景图上传到平台等。(以下仅代表个人收益) 大概统计了一下这半个月的收入,如下表 二、 AI****的第二

    2024年04月14日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包