AnimateDiff搭配Stable diffution制作AI视频

这篇具有很好参考价值的文章主要介绍了AnimateDiff搭配Stable diffution制作AI视频。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

话不多说,先看视频 

1. AnimateDiff的技术原理

AnimateDiff可以搭配扩散模型算法(Stable Diffusion)来生成高质量的动态视频,其中动态模型(Motion Models)用来实时跟踪人物的动作以及画面的改变。我们使用 AnimaeDiff 实现时间一致性,使用ControlNet复制参考视频的运动,然后改变不同时间点的提示prompt,打造多种场景再组合成视频。它克服了 AnimateDiff 运动不佳的弱点,并保持了较高的帧间一致性。工作流程文件执行的操作为1.将视频作为输入。2.将OpenPose预处理器应用于视频帧以提取人体姿势。3.将AnimateDiff运动模型和ControlNet Openpose 控制模型应用于每个帧。4.支持提示行进,为不同的帧指定不同的提示。5.保存最终视频。

2.软件安装

我们使用ComfyUI来搭配AnimateDiff做视频转视频的工作流,软件地址如下:ComfyUI:https://github.com/comfyanonymous/ComfyUIAnimateDiff:https://github.com/guoyww/AnimateDiff

3.ComfyUI AnimateDiff视频转视频工作流

步骤1:加载工作流程文件。直接把下面这张图拖入ComfyUI界面,它会自动载入工作流,或者下载这个工作流的JSON文件,在ComfyUI里面载入文件信息。

animatediff,AGI,AIGC,人工智能,人工智能,AIGC

步骤 2:安装缺少的节点第一次载入这个工作流之后,ComfyUI可能会提示有node组件未被发现,我们需要通过ComfyUI manager安装,它会自动找到缺失的组件并下载安装(!!需要网络通畅)。

animatediff,AGI,AIGC,人工智能,人工智能,AIGC

animatediff,AGI,AIGC,人工智能,人工智能,AIGC

重新启动 ComfyUI 并单击队列提示。如果不再看到 ComfyUI 提示缺少节点,则可以继续执行下一步。步骤 3:下载checkpoint 模型下载模型DreamShaper 8。将safetensors文件放入文件夹ComfyUI > models > checkpoints中。刷新浏览器标签页。 找到节点“Load Checkpoint”。

animatediff,AGI,AIGC,人工智能,人工智能,AIGC

点击ckpt_name下拉菜单,选择dreamshaper_8模型。当然,你也可以使用不同的模型。

步骤4:选择 VAE。下载Stability AI发布的VAE 。将文件放入文件夹ComfyUI > models > vae中。刷新浏览器页面。在“加载 VAE”节点中,选择刚刚下载的文件。

animatediff,AGI,AIGC,人工智能,人工智能,AIGC

步骤5:下载AnimateDiff动态特征模型下载mm_sd_v15_v2.ckpt,放到ComfyUI > custom_nodes > ComfyUI-AnimateDiff-Evolved > models文件夹。刷新页面在AnimateDiff Loader里,可以选择我们需要的动态特征模型

animatediff,AGI,AIGC,人工智能,人工智能,AIGC

步骤6:选择Openpose ControlNet模型下载openpose ControlNet 模型。将文件放入ComfyUI > models > controlnet中。刷新 ComfyUI 页面。在加载 ControlNet 模型(高级)中,在下拉菜单中选择control_v11p_sd15_openpose.pth 。

animatediff,AGI,AIGC,人工智能,人工智能,AIGC

步骤7:在加载视频(上传)节点中,单击视频并选择刚刚下载的视频。

animatediff,AGI,AIGC,人工智能,人工智能,AIGC

步骤8:生成视频可以点击Queue Prompt开始生成视频了视频生成的大部分时间都集中在KSampler这个组件里,在生成过程中上面有一个进度条

4. 调优

4.1生成不同的视频。更改种子值以生成不同的视频。

animatediff,AGI,AIGC,人工智能,人工智能,AIGC

4.2 更改提示前缀和提示行即可更改主题和背景。

animatediff,AGI,AIGC,人工智能,人工智能,AIGC

animatediff,AGI,AIGC,人工智能,人工智能,AIGC文章来源地址https://www.toymoban.com/news/detail-773362.html

到了这里,关于AnimateDiff搭配Stable diffution制作AI视频的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • comfyUI + animateDiff video2video AI视频生成工作流介绍及实例

    原文:comfyUI + animateDiff video2video AI视频生成工作流介绍及实例 - 知乎 目录 收起 前言 准备工作环境 comfyUI相关及介绍 comfyUI安装 生成第一个视频 进一步生成更多视频 注意事项 保存为不同的格式 视频宽高设置 种子值设置 提示词与负向提示词 节点变换提示词 controlnet权重控制

    2024年02月03日
    浏览(37)
  • Stable Diffusion + AnimateDiff运用

    1.安装AnimateDiff,重启webui 2.下载对应的模型,最好到c站下载,google colab的资源有可能会出现下载问题 https://civitai.com/models/108836 3.下载完成后,你可以随便抽卡了。 抽卡完成后固定seed,然后打开这个插件,然后通过填写一下参数,点生成就可以开始生成。可以首先固定生成好

    2024年02月08日
    浏览(55)
  • Stable Diffusion WebUI使用AnimateDiff插件生成动画

    AnimateDiff 可以针对各个模型生成的图片,一键生成对应的动图。 GPU显存建议12G以上,在xformers或者sdp优化下显存要求至少6G以上。 要开启sdp优化,在启动参数加上--sdp-no-mem-attention 实际的显存使用量取决于图像大小(batch size)和上下文批处理大小(Context batch size)。可以尝试

    2024年02月05日
    浏览(54)
  • Stable Diffusion 动画SD-Animatediff V2

    AI不仅可以生成令人惊叹的图片,还能给这些图片注入生命,让它们动起来。 这就是AnimateDiff要做的事情,一个神奇的工具,能将静态的AI生成图像转换成动画。 本次介绍基于SD如何实现这个神奇的方法。 进入SD页面在扩展下输入网址 https://github.com/continue-revolution/sd-webui-anim

    2024年02月07日
    浏览(134)
  • AnimateDiff论文解读-基于Stable Diffusion文生图模型生成动画

    论文: 《AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning》 github: https://github.com/guoyww/animatediff/ 随着文生图模型Stable Diffusion及个性化finetune方法:DreamBooth、LoRA发展,人们可以用较低成本生成自己所需的高质量图像,这导致对于图像动画的需求越来越多

    2024年02月14日
    浏览(36)
  • Stable Diffusion 动画animatediff-cli-prompt-travel

    基于 sd-webui-animatediff 生成动画或者动态图的基础功能, animatediff-cli-prompt-travel 突破了部分限制,能让视频生成的时间更长,并且能加入controlnet和提示词信息控制每个片段,并不像之前 sd-webui-animatediff 的一套控制全部画面。 动图太大传不上来,凑合看每一帧的图片吧

    2024年02月08日
    浏览(31)
  • Stable Diffusion——尝试如何正确的使用【AnimateDiff】生成动图——4种方法测试

    给的提示词与正常生成图片的操作一样。  封面图片生成信息:种子(654742741) Celebrity face, jet black long hair, beautiful woman, wearing a white shirt, front facing photo of upper body, photo taken, ultra clear, cute, loli, natural black pupils, divine eyes, Chinese style, symmetrical, straight facial features, no stretching, first

    2024年01月16日
    浏览(47)
  • AI绘画SD迎来动画革命,AnimateDiff快速出图

    如果放在几年前,你告诉我说只需一分钟就能做出一段这样的动画,我是万万不相信的,但是当AI时代来临之后,一切都有了可能。 今天给大家介绍一个可以快速在sd中生成动画的方法,就是一个叫做AnimateDiff的免费开源项目。现在已经整合到了webUI上面,使用起来非常方便。

    2024年04月29日
    浏览(41)
  • 【AIGC】AnimateDiff:无需定制化微调的动画化个性化的文生图模型

    Animatediff是一个有效的框架将文本到图像模型扩展到动画生成器中,无需针对特定模型进行调整。只要在大型视频数据集中学习到运动先验知识。AnimateDiff就可以插入到个性化的文生图模型中,与Civitai和Huggingface的文生图模型兼容,也可以与自己微调的大模型兼容。  随着文本

    2024年01月25日
    浏览(53)
  • 【AI绘画 Stable Diffution】解决下载安装“mixlab-nodes”节点插件,ComfyUI中不显示问题。

    1)如果用ComfyUI Manager插件下载mixlab插件的时候,中途可能会出错,一直无法下载完成。 2)下载好官方的项目直接放在custom_nodes目录下,ComfyUI中不显示 3)插件放置目录是ComfyUI_windows_portableComfyUIcustom_nodes 4)贴一下插件地址 https://github.com/shadowcz007/comfyui-mixlab-nodes 1) 2)  

    2024年02月21日
    浏览(179)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包