AI 作画:Stable Diffusion 模型原理与实践

这篇具有很好参考价值的文章主要介绍了AI 作画:Stable Diffusion 模型原理与实践。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

本文首先简单介绍 Stable Diffusion 模型结构 Latent Diffusion 的论文和博客,然后介绍模型的训练和推理技术细节(不含数学推导),接着介绍几个 prompt 搜索引擎等实用工具,最后简单介绍 AI 作画(图像生成)的发展史,并测试了 Stable Diffusion 不同风格和 prompt 的生成样例。

模型简介

Model:Latent Diffusion
Paper:High-Resolution Image Synthesis with Latent Diffusion Models

Huggingface官方博客:

  • Stable Diffusion with 🧨 Diffusers
  • The Annotated Diffusion Model

训练集:LAION-high-resolution 和 LAION-Aesthetics
使用协议:stable-diffusion-license(不要生成违禁图;SD放弃版权;商用时也需遵守上面协议)
模型结构图:
AI 作画:Stable Diffusion 模型原理与实践
模型原理(图源Twitter):
AI 作画:Stable Diffusion 模型原理与实践

模型训练

本部分内容主要翻译自 Huggingface官方博客。文章来源地址https://www.toymoban.com/news/detail-496734.html

  • 训练目标:一步步对随机的高斯噪声降噪(denoise),参考 diffusers colab。
    AI 作画:Stable Diffusion 模型原理与实践
  • 优势:Latent diffusion 之所以是 “latent”,是因为模型是在低维的潜空间(latent space)上进行扩散过程,而不是在实际的像素空间,从而降低了内存消耗和计算复杂度(比如输入shape是(3,512,512),下采样因子是8,潜空间中变成了(3,64,64),节省了8×8=64倍的内存)。训练完之后的模型就能把一张图表示成一个低维的潜特征。
  • Latent diffusion 模型的三大核心部分:
    • Text Encoder:把 prompt 表示成潜特征,从而可以输入到 U-Net。Stable Diffusion 直接用了CLIP 预训练的 Text Encoder,冻结权重。
    • VAE:VAE 的 encoder 用来将图片编码成潜特征(作为U-Net的输入),decoder 用来将潜特征转成图像。显然推理时只用到了VAE的decoder。
    • U-Net:由 encoder 和 decoder 都是由 ResNet blocks 构成。其中 encoder 用来下采样(降低分辨率),decoder 用来上采样(升高分辨率)。U-Net 的输出预测了噪声的残差,可用于计算预测的去噪图像表示。为了防止下采样时损失信息,通常把同一层上下采样的 ResNet 之间给连起来。此外,Stable Diffusion 的 U-Net 还能通过 cross-attention 层把 prompt 的表示给嵌入(U-Net的encoder和decoder都加了cross-attention层,在ResNet blocks之间加)。AI 作画:Stable Diffusion 模型原理与实践

到了这里,关于AI 作画:Stable Diffusion 模型原理与实践的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【AI作画】使用stable-diffusion-webui搭建AI作画平台

    进入官网下载安装包https://www.anaconda.com/并安装,然后将Anaconda配置到环境变量中。 打开命令行,依次通过如下命令创建Python运行虚拟环境。 笔者的显卡为NVIDIA,需安装NVIDIA的开发者工具进入官网https://developer.nvidia.com/,根据自己计算机的系统情况,选择合适的安装包下载安装

    2024年01月21日
    浏览(26)
  • 【AI作画】使用DiffusionBee with stable-diffusion在mac M1平台玩AI作画

    DiffusionBee下载地址 运行DiffusionBee的硬性要求:MacOS系统版本必须在12.3及以上 DBe安装完成后,去C站挑选自己喜欢的图画风格,下载对应的模型,然后将模型添加进去,如何添加? C站传送门 1.点击Model 2.点击最底部Add New Model,进入Setting页面后点击蓝色的Add New Model按钮 3.选中你

    2024年02月08日
    浏览(65)
  • AI作画飞入寻常百姓家——stable diffusion初体验

    stable_diffusion来了,这个号称是最强的文本生成图片的模型它来了,相比较DAEE等大模型,它能够让我们消费级的显卡也能够实现文本到图像的生成。下面,我们也来试一下。 该服务器上必须要有的基础工具anaconda,wget,git和yum。令我吃惊的是,当我看到wget和yum互为前提的安装时

    2024年02月12日
    浏览(17)
  • AI 作画《Concept Art概念艺术》| 用stable diffusion生成

    前言 “Concept Art”是一个艺术门类,即所谓“概念艺术”、“概念设计”,也称为“初步设计”。一般常见于影视或游戏设计中,服务产品最初的视觉效果,是游戏或影片的核心工作内容之一。 下面让我们使用当前很火的扩散模型stable diffusion,生成一些概念艺术作品!看看

    2024年02月11日
    浏览(27)
  • 无显卡也能AI作画 | Colab + Stable Diffusion WebUI

    事情起因是这样的,我之前写了如何在linux上用Stable Diffusion WebUI。 里边提到我迟迟没有弄webui是因为我笔记本A卡,台式机显卡带不动。所以无奈只能使用学校服务器搭一个。 当时有人说我,你自己电脑不行怎么不用colab,我当时懒得弄。 原因如下: 服务器在我们本地,不用

    2024年02月10日
    浏览(40)
  • AI绘画Stable Diffusion原理之扩散模型DDPM

    传送门: stable diffusion:Git|论文 stable-diffusion-webui:Git Google Colab Notebook部署stable-diffusion-webui:Git kaggle Notebook部署stable-diffusion-webui:Git AI绘画,输入一段文本就能生成相关的图像,stable diffusion便是其中一个重要分支。自己对其中的原理比较感兴趣,因此开启这个系列的文章

    2024年02月03日
    浏览(24)
  • AI 作画火了,如何用 Serverless 函数计算部署 Stable Diffusion?

    作者:寒斜 立即体验基于函数计算部署 Stable Diffusion: https://developer.aliyun.com/topic/aigc AIGC 领域目前大火, 除了 Chatgpt,在文生图领域 Stable Diffusion 大放异彩,深刻的地影响着绘画、视频制作等相关领域。利用这项技术,普通人也可以制作出令人惊叹的艺术作品。 今天我们将

    2024年02月09日
    浏览(29)
  • 【AI作画】使用Stable Diffusion的艺术二维码完全生成攻略

    文中有彩蛋 随着人工智能技术的快速发展,特别是深度学习和生成模型的突破,AI作图已经成为许多领域的主要工具和方法之一。它不仅提高了创造力和效率,还改变了我们与图像、数据和媒体的交互方式。今天请跟随阿Q的脚步,一起来使用 Stable Diffusion 创作出属于我们自己

    2024年02月13日
    浏览(43)
  • AIGC-Stable Diffusion Webui-AI作画初体验

    一、项目地址 :传送门:github:stable-diffusion-webui 二、安装方式 :本地安装 or Google Colab.(下文介绍中关于安装的部分均以本地安装为例) 本地安装 : 1、git 2、python(推荐3.10.8) 3、下载git仓库代码 4、配置:python及git路径 5、启动:(windows) (第一次启动会很慢,会下载安装很多文

    2024年02月13日
    浏览(26)
  • AI作画升级!一键帮你用Stable Diffusion 生成无限缩放效果视频

    在这一篇文章中,我们介绍了利用OpenVINO™优化和加速Stable Diffusion模型的推理,在英特尔®独立显卡上能够根据我们输入的指令(prompt),快速生成我们喜爱的AI画作。今天,我们对这一应用场景再次升级,除了能够作画,利用OpenVINO对Stable Diffusion v2模型的支持及优化,我们还

    2024年02月10日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包