Stable diffusion中mov2mov

这篇具有很好参考价值的文章主要介绍了Stable diffusion中mov2mov。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

场景:

这段时间成迷于AI绘画,目前已经学会了视频转成二次元风格。这里利用了秋葉aaaki大佬的Stable diffusion WebUI,和mov2mov插件,在controlnet 插件中利用了openpose来约束每张图的动作和手部,减少出现多只手和多个脚,同时还利用了controlnet插件中的depth来约束一下整体人物,减少出现多个人。整体效果我感觉还可以,只是感觉整个人往后仰,我还不确定这是mov2mov本身问题还是参数中出了问题(主要来一次太长时间了,19秒就要3090训练6h我一度怀疑是不是显卡已经拉掉了),还在调整中,,,,,,来看一下成片和效果。


生成视频图的参数设置

lora:shenheLoraCollection_shenheHard:0.4,((1woman)), ((solo)), (8k, RAW photo, best quality, masterpiece:1.2),(realistic, photo-realistic:1.37), detailed beautiful face,(8k, RAW photo, best quality, masterpiece:1.2), (photorealistic:1.4), (soft focus:1.4), (sharp focus:1.4), ultra-detailed,cute, solo,beautiful detailed sky,detailed cafe,(best quality), ((realistic photo)), (ultra detailed:1.3), (((cinematic color grading))), smile, (platium pink hair:1.2), warm sunlight, white teeth, lora:raidenShogunLora_raidenShogun:0.3,(large breasts), full body, (masterpiece, best quality, ultra-detailed, highres), (sidelighting, lustrous skin), (bloom), (shine), lighting, bokeh, ray tracing, long hair, lora:namiOnePiecePreAndPost_postTimeskip:0.4,

Negative prompt: :paintings, sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, (outdoor:1.6), manboobs, backlight,(ugly:1.331), (duplicate:1.331), (morbid:1.21), (mutilated:1.21), (tranny:1.331), mutated hands, (poorly drawn hands:1.331), blurry, (bad anatomy:1.21), (bad proportions:1.331), extra limbs, (disfigured:1.331), (more than 2 nipples:1.331), (missing arms:1.331), (extra legs:1.331), (fused fingers:1.61051), (too many fingers:1.61051), (unclear eyes:1.331), bad hands, missing fingers, extra digit, (futa:1.1), bad body, NG_DeepNegative_V1_75T,pubic hair, glans

Steps: 40, Sampler: Euler a, CFG scale: 10, Seed: 1173863503, Size: 690x960, Model hash: 4078eb4174, Model: 3Guofeng3_v33, Denoising strength: 0.3, Clip skip: 2, ENSD: 31337, Mask blur: 4, ControlNet-0 Enabled: True, ControlNet-0 Module: openpose_hand, ControlNet-0 Model: control_openpose [b46e25f5], ControlNet-0 Weight: 0.35, ControlNet-0 Guidance Start: 0, ControlNet-0 Guidance End: 1, Noise multiplier: 0


效果展示:

1681507739文章来源地址https://www.toymoban.com/news/detail-504128.html


大佬们懂的都懂,我怕真人有什么版权,肖像权问题,我就不放了,谨慎中,之前也是因为此类问题,错失了去某高校读博的机会(这是后来如同我再造父母的好心人告诉我的)。这个视频出现的抖音号也不是我的,我也不会视频删水印和,如果有问题,好和我说一下,我也学习一波。

到了这里,关于Stable diffusion中mov2mov的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Stable Diffusion】Stable Diffusion免安装在线部署教程

    一、开启Google Colab网址 官网:https://colab.research.google.com/ 点击添加代码: 二、执行如下代码指令 点击执行按钮 会自动安装相关的套件、模型,然后等待运行完 注意:如果发生如下错误,该如何解决 RuntimeError:No CUDA GPUs are available 解决办法: 1、点击右上角点选硬件资源 2、

    2024年02月04日
    浏览(47)
  • 【扩散模型】12、Stable Diffusion | 使用 Diffusers 库来看看 Stable Diffusion 的结构

    参考:HuggingFace 参考:https://jalammar.github.io/illustrated-stable-diffusion/ Stable Diffusion 这个模型架构是由 Stability AI 公司推于2022年8月由 CompVis、Stability AI 和 LAION 的研究人员在 Latent Diffusion Model 的基础上创建并推出的。 其原型是(Latent Diffusion Model),一般的扩散模型都需要直接在像

    2024年01月18日
    浏览(59)
  • 【扩散模型】11、Stable Diffusion | 使用 Diffusers 库来看看 Stable Diffusion 的结构

    参考:HuggingFace 参考:https://jalammar.github.io/illustrated-stable-diffusion/ Stable Diffusion 这个模型架构是由 Stability AI 公司推于2022年8月由 CompVis、Stability AI 和 LAION 的研究人员在 Latent Diffusion Model 的基础上创建并推出的。 其原型是(Latent Diffusion Model),一般的扩散模型都需要直接在像

    2024年01月16日
    浏览(45)
  • Stable Diffusion stable-diffusion-webui开发笔记

    Stable Diffusion用来文字生成图片,ControlNet就是用来控制构图的,LoRA就是用来控制风格的 。 国内加速官网: mirrors / AUTOMATIC1111 / stable-diffusion-webui · GitCode 安装参考: Stable Diffusion安装与常见错误(+Lora使用)2023年最新安装教程_cycyc123的博客-CSDN博客 保姆级教程:从0到1搭建St

    2024年02月10日
    浏览(73)
  • 【Stable Diffusion】Windows端纯净版Stable Diffusion安装教程

    因为我们目前安装的Stable Diffusion和市面上的其他AIGC工具不同,他是在GitHub上的一个开源项目需要在自己的电脑环境配置Python和Git之后进行安装来利用自己电脑的性能进行图像生成,而其他AIGC工具一般是在其公司提供的云服务器上进行计算生成。因此我们使用Stable Diffusion时候

    2024年02月02日
    浏览(49)
  • Stable Diffusion教程之使用Stable Diffusion改进图像分割模型

    作为 ML 工程师,Edge Analytics和Infinity AI的团队非常熟悉与为计算机视觉应用程序获取高质量标记图像相关的挑战。随着生成图像模型的发布,例如来自Stability AI的开源Stable Diffusion,我们探索了使用生成模型来提高特定语义分割模型的性能。 Stable Diffusion是 Stability AI 在今年早些

    2024年02月10日
    浏览(43)
  • Stable Diffusion - ChatGPT 与 Stable Diffusion 结合提供无限创意构图

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131782672 ChatGPT 和 StableDiffusion 结合使用的优势: 高效率 :ChatGPT 可以在很短的时间内完成复杂的语言任务,比如生成 StableDiffusion 的提示,这对于时间敏感的应用非常理想。 创造力 :ChatGP

    2024年02月13日
    浏览(59)
  • Stable Diffusion stable-diffusion-webui ControlNet Lora

    Stable Diffusion用来文字生成图片,ControlNet就是用来控制构图的,LoRA就是用来控制风格的 。 国内加速官网: mirrors / AUTOMATIC1111 / stable-diffusion-webui · GitCode 安装参考: Stable Diffusion安装与常见错误(+Lora使用)2023年最新安装教程_cycyc123的博客-CSDN博客 保姆级教程:从0到1搭建St

    2024年02月09日
    浏览(74)
  • Stable Diffusion - Stable Diffusion WebUI 图像生成工具的环境配置

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131528224 Stable Diffusion WebUI 是一款基于深度学习的图像生成工具,根据用户的输入文本或图像,生成高质量的新图像,特点如下: 支持多种图像生成任务,如人脸生成、风格迁移、图像修复、

    2024年02月16日
    浏览(66)
  • Stable Diffusion——使用TensorRT GPU加速提升Stable Diffusion出图速度

    Diffusion 模型在生成图像时最大的瓶颈是速度过慢的问题。为了解决这个问题,Stable Diffusion 采用了多种方式来加速图像生成,使得实时图像生成成为可能。最核心的加速是Stable Diffusion 使用了编码器将图像从原始的 3 512 512 大小转换为更小的 4 64 64 大小,从而极大地降低了计算

    2024年02月21日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包