【AIGC】Stable Diffusion的模型入门

这篇具有很好参考价值的文章主要介绍了【AIGC】Stable Diffusion的模型入门。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

下载好相关模型文件后,直接放入Stable Diffusion相关目录即可使用,Stable Diffusion 模型就是我们日常所说的大模型,下载后放入**\webui\models\Stable-diffusion**目录,界面上就会展示相应的模型选项,如下图所示。作者用夸克网盘分享了「大模型」
链接:https://pan.quark.cn/s/bd3491e51998
提取码:f5c2

chilloutmix_NiPrunedFp32Fix.safetensors 亚太真人风格
majicmixRealistic_v7.safetensors 麦橘写实风格模型

stable diffusion 模型文件,AIGC,AIGC,stable diffusion
Stable Diffusion 模型:
类型:生成模型,用于从随机噪声中生成逼真的图像。
功能:主要用于生成高质量的图像,可应用于艺术创作、图像编辑、视觉效果等领域。
结构:通常由生成器和判别器组成,通过学习图像数据的概率分布来生成新的图像。

Lora 模型:
类型:图像生成模型,特定于 Stable Diffusion 的一个子模型。
功能:Lora 模型是 Stable Diffusion 模型的一种变体,用于生成图像。
结构:具体结构可能因实现而异,但通常与 Stable Diffusion 模型类似,通过学习图像数据的概率分布来生成新的图像。

Lora 模型可能使用了 Stable Diffusion 中特定的训练方法或技巧,以提高模型的性能和稳定性。这些方法可能包括对训练过程中的损失函数、优化器和学习率的调整,以及对训练数据和噪声分布的处理。Lora 模型是 Stable Diffusion 的一个变体,它在图像生成方面可能具有一些特定的优化或改进。
stable diffusion 模型文件,AIGC,AIGC,stable diffusion
Embedding 模型:
类型:自然语言处理模型,用于将文本转换为低维向量表示。
功能:主要用于文本处理任务,如语义分析、情感分析、命名实体识别等。
结构:通常由神经网络组成,将单词或标记映射到连续的低维向量空间中。

在 Stable Diffusion 中,Embedding 模型可能被用于将文本描述或提示转换为向量表示,以便与图像生成模型进行输入嵌入。这些文本描述可以指导模型生成特定主题、风格或内容的图像。通过将文本与图像关联起来,Embedding 模型可以帮助 Stable Diffusion 模型更好地理解文本提示并生成相关的图像
stable diffusion 模型文件,AIGC,AIGC,stable diffusion
Hypernetworks 模型:
类型:神经网络结构,用于动态生成其他神经网络的参数。
功能:主要用于动态生成神经网络的参数,可用于模型个性化、迁移学习等任务。
结构:通常包含一个主网络和一个或多个次要网络,主网络用于生成参数,次要网络用于执行任务。

通过引入 Hypernetworks,Stable Diffusion 可能可以更灵活地调整模型的结构和参数,从而适应不同的数据集或任务。Hypernetworks 可能还可以用于个性化模型,使其更好地适应特定用户或应用场景

文生图示例
使用chilloutmix_NiPrunedFp32Fix.safetensors模型生成示例,在左上下拉框选择相应的大模型,输入正面提示词和负面提示词,点击生成

quality,masterpiece,realistic,ballerina,female,yoga_pants,black_choker,Hands on waist,smile,mansion,simple_background,
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 2022028845, Size: 512x768, Model hash: fc2511737a, Model: chilloutmix_NiPrunedFp32Fix, ADetailer model: face_yolov8n.pt, ADetailer confidence: 0.3, ADetailer dilate erode: 4, ADetailer mask blur: 4, ADetailer denoising strength: 0.4, ADetailer inpaint only masked: True, ADetailer inpaint padding: 32, ADetailer version: 24.1.2, Version: v1.7.0

stable diffusion 模型文件,AIGC,AIGC,stable diffusion
文章来源地址https://www.toymoban.com/news/detail-828617.html

到了这里,关于【AIGC】Stable Diffusion的模型入门的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【AIGC】Stable Diffusion的生成参数入门

    Stable Diffusion 的生成参数是用来控制图像生成过程的重要设置,下面是一些常见的生成参数及其详解 1、 采样器 ,关于采样器的选择参照作者的上一篇文章 2、 采样步数 (Sampling Steps)是指在生成图像时模型执行的总步数,每一步都包含了一系列操作,例如在潜在空间中移动

    2024年02月20日
    浏览(42)
  • 【小白】一文读懂AIGC模型之Stable Diffusion模型

      Stable Diffusion(SD)模型是一种基于Latent Diffusion Models(LDMs)的生成式模型,总共有1B左右的参数量,可以用于文生图、图生图、等任务中。   文生图任务是将文本输入到SD模型中,输出符合文本描述的图片;图生图任务是在输入文本的基础上,再输入一张图片,模型根

    2024年04月25日
    浏览(36)
  • 【AIGC系列】Stable Diffusion 小白快速入门课程大纲

    本文是《Stable Diffusion 从入门到企业级应用实战》系列课程的前置学习引导部分,《Stable Diffusion新手完整学习地图课程》的课程大纲。该课程主要的培训对象是: 没有人工智能背景,想快速上手Stable Diffusion的初学者; 想掌握Stable Diffusion核心技术,进行商业应用的创业者; 希望

    2024年02月09日
    浏览(55)
  • Stable Diffusion:一种新型的深度学习AIGC模型

    潜在扩散模型 | AIGC| Diffusion Model  图片感知压缩 | GAN | Stable Diffusion 随着生成型AI技术的能力提升,越来越多的注意力放在了通过AI模型提升研发效率上。业内比较火的AI模型有很多,比如画图神器Midjourney、用途多样的Stable Diffusion,以及OpenAI此前刚刚迭代的DALL-E 2。 对于研发

    2024年02月09日
    浏览(64)
  • 【AIGC专题】Stable Diffusion 从入门到企业级实战0402

            本章是《Stable Diffusion 从入门到企业级实战》系列的第四部分能力进阶篇《Stable Diffusion ControlNet v1.1 图像精准控制》第02节, 利用Stable Diffusion ControlNet Openpose模型精准控制图像生成。上一节,我们介绍了《Stable Diffusion ControlNet Inpaint模型精准控制》,本部分内容,

    2024年02月09日
    浏览(38)
  • 【AIGC专题】Stable Diffusion 从入门到企业级实战0401

    本章是《 Stable Diffusion 从入门到企业级实战 》系列的第四部分能力进阶篇《Stable Diffusion ControlNet v1.1 图像精准控制》第01节, 利用Stable Diffusion ControlNet Inpaint模型精准控制图像生成。本部分内容,位于整个Stable Diffusion生态体系的位置如下图黄色部分所示: Stable Diffusion Inpai

    2024年02月09日
    浏览(48)
  • 【AIGC专题】Stable Diffusion 从入门到企业级应用0414

    本文是《Stable Diffusion 从入门到企业级应用实战》系列的第四部分能力进阶篇《Stable Diffusion ControlNet v1.1 图像精准控制》的第0414篇 利用Stable Diffusion ControlNet 法线贴图模型精准控制图像生成。本部分内容,位于整个Stable Diffusion生态体系的位置如下图黄色部分所示:        

    2024年02月09日
    浏览(38)
  • 【AIGC专题】Stable Diffusion 从入门到企业级实战0403

    本章是《Stable Diffusion 从入门到企业级实战》系列的第四部分能力进阶篇《Stable Diffusion ControlNet v1.1 图像精准控制》第03节, 利用Stable Diffusion ControlNet Canny模型精准控制图像生成。本部分内容,位于整个Stable Diffusion生态体系的位置如下图黄色部分所示: ControlNet v1.1 共提供了

    2024年02月07日
    浏览(36)
  • AIGC - Stable Diffusion 的 AWPortrait 1.1 模型与 Prompts 设置

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131565908 AWPortrait 1.1 网址:https://www.liblibai.com/modelinfo/721fa2d298b262d7c08f0337ebfe58f8 介绍:AWPortrait1.1的创作过程其实是思考真实人像和AI生成影像视觉上的区别是什么的过程,希望AWPortrait能够在

    2024年02月13日
    浏览(72)
  • AI图像(AIGC for PIC)大模型实战|Stable Diffusion

    AI GC text to pic 图像生成模型  目前随着AIGC模型的火爆,AI内容创作远超人类创造水平和能力,极大了提升了创作空间。 为此我们要接触新鲜事物,用于尝试新技术。 那针对目前火爆的AImodel我们开始进行学习,尝试本地化部署,生成自己的模型。 先感性的认识下模型的基础知

    2023年04月24日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包