通过【Stable-Diffusion WEBUI】复刻属于你的女神:再谈模型与参数

这篇具有很好参考价值的文章主要介绍了通过【Stable-Diffusion WEBUI】复刻属于你的女神:再谈模型与参数。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

(零)前言

本篇主要从复刻一幅作品(无论是网上或者自己已生产的图)出发,再讲讲模型和参数。我不明白的是AI可以画浩瀚宇宙、星辰大海,山川异域,城市建筑,各种艺术风格,可以说包罗万象……但实际互联网上只能看到各种小姐姐-_-
更多不断丰富的内容参考:🔗《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》

(一)复刻优秀的作品

AI绘图的随机性很高,经常我们需要不停的调整关键词和参数。然后每次都让显卡辛勤工作很久,出一堆图,才能从中找到自己满意的那一张(这时候相关参数会记录到图片文件中)。

同理,在网上看到别人优秀的作品,有时也想自己画张一样的或类似的。
比如这些网站:

  • 启动器推荐的 🔗AIGodLike社区
  • 小日子过得不错的另类🔗🇯🇵寻找图像提示🔞NSFW。
  • 人人都可以是艺术家的🔗艺术广场

这些网站放出的AI生成内容,都带有很详细的生成条件。
如果你发现只有图片本身,需要看看参数等生成条件是不是在图片信息里面。

下面这副是AIGodLike社区评价很高的作品(小日子那个不便展示),页面上就有生成条件:
通过【Stable-Diffusion WEBUI】复刻属于你的女神:再谈模型与参数,人工智能/机器学习,Python,Windows,stable diffusion,人工智能,深度学习,复刻,WEBUI

因为我们需要关于这张图片如下的生成条件,才能复刻它:

  • 模型(基础 + 如果有LoRA)
  • 提示词(正面+反向)
  • 参数(包括随机种子)

(1.1)模型

首先要找到生成这张图的基础模型(Stable-Diffusion模型)。
如果这张图使用了LoRA模型,我们也要找到对应的LoRA模型。
如果有多个版本,最好是找同一个版本。

模型怎么找?

因为国内访问不了https://civitai.com所以目前常规方法只能在🔗抱脸上搜索。
这个网站上有些用户,喜欢收集一大堆模型。
比如这两位:🔗jomcs(jo),🔗2ch(dvach),收集的模型真的太多太多了。

我们也可以通过国内网站,比如🔗https://openai.wiki/painting/sd
各位Bilibili博主的分享等等来找模型。

(1.1.1)Model Hash

特别需要注意的是,模型可能会被改名,即使同名都不见得真的是同一个模型。
所以要保证是 同一个模型 只能是模型的哈希值相同。(WEBUI中会显示Hash值)

类似下图,同名的模型但Hash不同,只能算不同的(类似的)模型。
造成这个问题可能这两个同名模型是不同的人训练的(不同的训练步骤,等等)。
因为模型都是用户的,没有所谓官方的。
通过【Stable-Diffusion WEBUI】复刻属于你的女神:再谈模型与参数,人工智能/机器学习,Python,Windows,stable diffusion,人工智能,深度学习,复刻,WEBUI通过【Stable-Diffusion WEBUI】复刻属于你的女神:再谈模型与参数,人工智能/机器学习,Python,Windows,stable diffusion,人工智能,深度学习,复刻,WEBUI

(1.2)提示词

提示词比较简单,就是一堆英文词句。有正向和反向,分别拷贝下来就可以了。

但也需要注意两点,首先是提示词中是否包含LoRA模型(尖括号),类似<lora:xxxxxx_v10:0.8>
如果有那么就必须找到xxxxxx_v10这个LoRA模型才能复刻。

第二点就是反向提示词里面,有没有反推提示词(这玩意儿不是个单词而是个模型啊啊啊)……

(1.2.1)反推提示词

举个例子,EasyNegative,它出现在反向提示词当中,但它其实是个嵌入式模型。
这种用法主要是为了简化反向提示词,不用写一大堆文字了。

还有更多的反推提示词,最好把常见的反推提示词的模型都下载下来(在这里有一些)。
缺少反推提示词对应的模型,会造成实际反向提示词和原画不一致(虽然文字内容是一致的)。
通过【Stable-Diffusion WEBUI】复刻属于你的女神:再谈模型与参数,人工智能/机器学习,Python,Windows,stable diffusion,人工智能,深度学习,复刻,WEBUI

(1.3)参数

参数包括的内容很多,采样方法,迭代步数,长宽尺寸……
是否面部修复,高清修复,提示词相关性,以及想要几乎一模一样就必须有的随机种子
还包括附加的一些插件,比如ControlNet的各种设置。

也就是说,所有的参数值,勾选,插件等等都要。

(二)无法真正复刻

所以没有或缺少生成条件的作品是无法复刻的。

就算所有的模型,提示词,参数都完全一致。
最后生成的图片也只能和原图几乎一模一样,没有办法真的完全复刻。

经过2次处理(比如重绘手部)的作品也几乎无法保存它的参数(除非人工保存)。
加上有时候我们都会会弄丢参数……

所以佛系点比较好,何必复刻,再画几百次,也许有更加满意的呢? 😄


这部分……大家都是知道的吧。
🤪 to be continued…文章来源地址https://www.toymoban.com/news/detail-532187.html

到了这里,关于通过【Stable-Diffusion WEBUI】复刻属于你的女神:再谈模型与参数的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 探索【Stable-Diffusion WEBUI】的插件:批量替换人脸

    本篇主要提到WEBUI似乎和主线剧情无关的插件,可以批量改变多张图片的面部为AI生成的内容。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 参考:🔗插件官网 可以从WEB UI中直接安装。 安装后在图生图最下面的 脚本 下拉列表中, 它需要

    2024年02月09日
    浏览(90)
  • stable-diffusion的webui和comfyuig共享模型路径

     1.修改上图extra_model_paths.yaml.example为extra_model_paths.yaml 2.将base_path: path/to/stable-diffusion-webui/修改成你的/stable-diffusion-webui安装路径(例如:base_p: D:/stable-diffusion-webui) 做个记录

    2024年02月04日
    浏览(60)
  • 关于【Stable-Diffusion WEBUI】方方面面研究(内容索引)

    关于Stable-Diffusion WEBUI,我发现网上各种教程真的很多。 写得很好很详细的也不少,读了感觉比我写的好多了,无论是原理和相关论文还是操作和细节。 所以准备记录下Stable-Diffusion WEB UI的方方面面,以及哪里去看相关的资料。 同时自己写的东西也有点乱,得整理一下。呃在

    2024年02月05日
    浏览(60)
  • 探索【Stable-Diffusion WEBUI】的插件:骨骼姿态(OpenPose)

    本篇主要提到OpenPose和相关的插件,配合ControlNet使用,可以指定人物的动作。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 骨骼姿态很有用,可以控制生成人物的动作。 我们可以用ControlNet或各种插件,从图片中提取人物的骨骼姿态。 也可

    2024年02月04日
    浏览(128)
  • 闲谈【Stable-Diffusion WEBUI】的插件:绘图过程动画输出

    本篇主要提到WEBUI的过程动画输出插件,把AI绘图的过程,从完全噪点到成品的过程做成动画视频。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 参考:https://github.com/vladmandic/sd-extension-steps-animation 可以从WEB UI中直接安装。 安装后出现在和

    2024年02月16日
    浏览(61)
  • 探索【Stable-Diffusion WEBUI】的附加功能:图片缩放&抠图

    本篇单独讲解了WEBUI内置的附加功能:图片缩放——主要是默认4x的放大图片;还有同一页的抠图插件。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 附加功能就是在文生图,图生图以外,对图片的其它处理。 在没有安装更多插件的时候,

    2023年04月24日
    浏览(83)
  • 探索【Stable-Diffusion WEBUI】的插件:ControlNet 1.1

    本篇主要提到ControlNet新版本的使用,和旧版本的变化,并偷懒参考了别人很不错的文章。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 WEBUI的插件里, ControlNet 是少数几个不需要翻译的插件,因为翻译了也没意思: 控制网络 ? 它的作用是

    2024年02月09日
    浏览(60)
  • 搭建 AI绘图 Stable Diffusion- WebUI 制作属于自己版权的图片

    前言 Stable Diffusion 是一种深度学习文本到图像生成模型,它主要用于根据文本的描述产生详细图像,亦或者根据现有的图片生成相似的图片。在本地代建Stable Diffusion-webUI需要准备Python环境(3.10.6版本)、可以上外网的梯子,Git拉取代码工具,电脑配置最低建议6G显存,1660TI显卡

    2024年02月16日
    浏览(60)
  • 关于【Stable-Diffusion WEBUI】基础模型对应VAE的问题

    本篇主要提及模型的VAE,通常情况下我们不用考虑它,但是有些特别是早期模型并没有整合VAE…… 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 VAE (Variational Auto-Encoder 变分自动编码器) 虽然简称是编码器,实际上是编码解码器(我们用到

    2024年02月09日
    浏览(58)
  • 浅谈【Stable-Diffusion WEBUI】(AI绘图)的基础和使用

    如果你对这方面是零基础,可以阅读本篇的内容,至少可以上手。 更多不断丰富的内容参考:🔗 《继续Stable-Diffusion WEBUI方方面面研究(内容索引)》 最近比较热门的人工智能,可以单纯通过输入一段文字(提示词),或者通过一张图片生成新的绘图作品。 根据基础模型和人

    2024年02月05日
    浏览(65)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包