Stable Diffusion——Animate Diff一键AI图像转视频

这篇具有很好参考价值的文章主要介绍了Stable Diffusion——Animate Diff一键AI图像转视频。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

AnimateDiff 是一个实用框架,可以对文本生成图像模型进行动画处理,无需进行特定模型调整,即可为大多数现有的个性化文本转图像模型提供动画化能力。而Animatediff 已更新至 2.0 版本和3.0两个版本,相较于 1.0 版本,2.0和3.0版本主要新增了三个插件功能:Lora、ControlNet 和 Prompt travel。Lora,官方新增了 8 个运动模型,使我们能够自由控制动画画面的走向。Prompt travel,可以在提示词中指定第几帧以及指定何种动作或画面,可以通过提示词实现动态控制动画。
animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画
感兴趣可加入:566929147 企鹅群一起学习讨论

算法简介

AnimateDiff 提出了一种创新的方法来解决个性化 Text to Video 的挑战。其核心原理是将一个新初始化的运动建模模块附加到冻结的基于文本到图像的模型上,并在接下来的视频剪辑中对其进行训练,以提炼出合理的运动先验知识。一旦训练完成,通过简单地注入这个运动建模模块,所有从相同基础模型派生的个性化版本都可以立即成为以文本驱动的模型,从而能够生成多样化和个性化的动画图像。

这一方法的创新之处在于它摆脱了传统方法中对于敏感超参数调整、大量个性化视频数据集收集以及密集的计算资源的依赖,使得普通用户也能够参与到个性化 Text to Video 的工作中。通过将运动建模模块与基础模型结合,AnimateDiff 实现了一种更加简洁高效的个性化动画生成方式,为用户提供了更多选择和可能性。
animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画
通过实验证明,运动先验可以推广到 3D 动画片和 2D 动漫等领域,这意味着 AnimateDiff 能够为个性化动画提供一个简单而有效的基线。用户只需承担个性化图像模型的成本,就能够快速获得自然的个性化动画。以下是官方提供的一些优秀作品效果:
animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画
animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画
animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画
animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画
这些作品展示了 AnimateDiff 的强大功能和广泛适用性,为用户提供了一个简便而有效的个性化动画生成方案。

Stable Diffusion Webui安装

插件从网址安装:https://github.com/continue-revolution/sd-webui-animatediff ,击安装即可,等待安装完毕,重启一下SD UI界面。
animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画
然后从:https://huggingface.co/guoyww/animatediff/tree/main 里下载专用的运动模型和Lora模型。下载之后需要放置在对应的位置。
运动模型放在stable-diffusion-webui\extensions\sd-webui-animatediff\model里面,运动lora放在stable-diffusion-webui\models\Lora里面。
animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画
根据 Lora 的命名可以大概看出它们的功能:

  1. 向上运动(Up)
  2. 向下运动(Down)
  3. 向左运动(Left)
  4. 向右运动(Right)
  5. 拉远运动(Zoom Out)
  6. 拉近运动(Zoom In)
  7. 顺时针旋转(Clockwise)
  8. 逆时针旋转(Counter Clockwise)

这些 Lora 可以通过添加对应的 Lora 来控制生成的动画在空间中的运动方向和旋转方向。
animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画
在 animatediff 插件页面的配置参数中:

  • 动画模型:选择最新的 V2 版本。
  • 总帧数:指定动画总共包含的画面数量。
  • 帧率:指定每秒的帧数。例如,如果总帧数设置为 16,帧率设置为 8,则单个动画的播放时长为 2 秒。
  • 显示循环数量:指定动画循环播放的次数,0 代表一直重复播放。
  • 闭环:勾选此选项,使得动画的第一帧和最后一帧形成循环。
  • 上下文单批数:与总帧数保持一致即可。
  • 保存:选择输出动画的格式,可以多选。

插件使用

实现一个最基础的动画

1girl,night city,rain,coat,hands in pockets,best quality,masterpiece,HDR,UHD,8K,Highly detailed,simple background,
Negative prompt: (worst quality:1.6),(low quality:1.6),EasyNegative,
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 601405023, Size: 512x512, Model hash: 876b4c7ba5, Model: cetusMix_Whalefall2, VAE hash: 63aeecb90f, VAE: vae-ft-mse-840000-ema-pruned.safetensors, Clip skip: 2, Version: v1.6.0

animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画

使用Lora
对于添加一个镜头往左移动的 Lora “lora:v2_lora_PanLeft:0.8”,它的使用方式与普通的 Lora 是一样的。可以看到画面往左移动的幅度相当大。通过调整 Lora 的权重,可以实现不同幅度的移动。权重越高,移动的幅度越大。

在这个例子中,权重为 0.8,表示移动的幅度较大。如果希望移动的幅度更小,可以降低权重;如果希望移动的幅度更大,可以增加权重。这样就可以根据具体需求调整镜头移动的幅度。

1girl,night city,rain,coat,hands in pockets,best quality,masterpiece,HDR,UHD,8K,Highly detailed,simple background,lora:v2_lora_PanLeft:0.8,
Negative prompt: (worst quality:1.6),(low quality:1.6),EasyNegative,
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 601405027, Size: 512x512, Model hash: 876b4c7ba5, Model: cetusMix_Whalefall2, VAE hash: 63aeecb90f, VAE: vae-ft-mse-840000-ema-pruned.safetensors, Clip skip: 2, Lora hashes: “v2_lora_PanLeft: ed79025f8bea”, TI hashes: “EasyNegative: c74b4e810b03”, Version: v1.6.0

animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画

Prompt travel

“Prompt travel” 是一个需要安装 ControlNet 的功能。它允许用户在描述人物或场景的提示词中指定不同帧数对应的动作或画面。举例来说,如果总帧数只有 8 帧,那么在提示词中最大只能写到 7,因为索引从 0 开始,0 对应第一帧,7 对应第八帧,依此类推。如果不遵循这个规则,可能会导致错误。

提示词的格式应该为:在指定帧数后面加上冒号和空格,然后描述对应的动作或画面。例如:“0: 人物行走”,表示在第一帧人物行走。

如果发现功能没有生效,可能是由于插件之间发生了冲突。可以尝试禁用除 animatediff 和 ControlNet 之外的其他插件,然后逐个重新启用,查看是否恢复了功能。

1girl,best quality,masterpiece,realistic,close-up,simple background,
0: smile
2: open eyes
3: (closed eyes:1.2)
5: open eyes

animate diff模型 下载,Stable Diffusion,stable diffusion,人工智能,SD,AIGC,ai绘画,AI作画文章来源地址https://www.toymoban.com/news/detail-837425.html

到了这里,关于Stable Diffusion——Animate Diff一键AI图像转视频的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 强到离谱!Stable Diffusion让商业换装如此简单!AI一键换装,AI绘画教程

    今天给大家介绍一款可以让 Stable Diffusion 轻松实现AI一键换装的超强插件—— Inpaint Anything ,它能精准地替换图片中的指定部位,不仅上手简单,而且简直强到离谱!需要这个插件的小伙伴看文末扫码获取。 首先,我们要下载这个插件。 安装方法一: 进入扩展选项,点开“

    2024年04月25日
    浏览(30)
  • flutter:animate_do(flutter中的Animate.css)

    做过web开发的应该大部分人都知道 Animate.css ,它为开发者提供了一系列预定义的动画效果,可以通过简单的CSS类来实现各种动画效果。而 animate_do 相当于flutter中的 Animate.css ,它提供了很多定义好的动画效果 官方地址 https://pub-web.flutter-io.cn/packages/animate_do 安装 示例一 示例2 示

    2024年02月16日
    浏览(43)
  • AI绘画Stable diffusion 4.7最新版终于来了!一键安装,本地部署!

    如果这个世界有上帝,那么他一定是程序员。 国内SD绘画启动器第一人是我认为是B站的秋葉aaaki 因为制作了这款Stable Diffusion启动器,降低了国内使用SD的门槛,秋叶被粉丝戏称赛博菩萨。 ▍Stable Diffusion 是什么? Stable Diffusion(简称SD)是一种生成式人工智能,于2022年发布,

    2024年04月14日
    浏览(56)
  • 基于 Stable Diffusion 一键 AI 作画:什么“小镇做题家”?人人都是艺术家

    前文回顾:《生成式 AI:百度“文心一言”对标 ChatGPT?什么技术趋势促使 ChatGPT 火爆全网?》 Hi,各位 AI 小伙伴,相信大家最近被各种 AI 作画的消息刷屏,有没有手痒痒的朋友也想赶紧来把自己的奇思妙想实现出来?机会来啦!AI Gallery 正式上线了 AI 作画中最火的模型 “

    2023年04月08日
    浏览(38)
  • 超强满血不收费的AI绘图教程来了(在线Stable Diffusion一键即用)

    AI绘图就是输入一些描述语句( 文生图 )或者图片( 图生图 ),AI根据输入信息可以生成创意画作。AI绘图是当下AI最火热的应用领域之一,也是生成式人工智能AIGC的一种。 常见AI绘图软件如下: (1)文心一格 文心一格是基于百度飞桨和文心大模型的文生图系统,是一种A

    2024年02月08日
    浏览(27)
  • Stable Diffusion Online:AI图像生成工具

    【产品介绍】​ 名称              Stable Diffusion Online 成立时间​              Stable Diffusion的母公司Stability AI,成立于2020年。​ 具体描述        

    2024年01月24日
    浏览(37)
  • Stable diffusion ai图像生成本地部署教程

    前言 本文将用最干最简单的方式告诉你怎么将Stable Diffusion AI图像生成软件部署到你的本地环境 关于Stable Diffusion的实现原理和训练微调请看我其他文章 部署Stable Diffusion主要分为三个部分 下载模型(模型可以认为是被训练好的,生成图像的大脑) 部署Web UI(可通过浏览器访

    2024年02月04日
    浏览(38)
  • animate.css 动画

    Animate.css | A cross-browser library of CSS animations. class=\\\"animate__bounce\\\" 1.    bounce             弹跳 2.    flash              闪烁 3.    pulse              放大,缩小 4.    rubberBand         放大,缩小,弹簧 5.    shake              左右晃动 6.    headShake          左右小幅

    2024年02月11日
    浏览(32)
  • Vue使用Animate.css

    说一下Animate.css这个动画库,很多的动画在这个库里面都定义好了,我们用的时候可以直接使用里面的类名就可以了,就是直接目标元素绑定对应的类名就可以实现动画效果,非常方便,库其实也相对简单,使用起来也简单。这里示例就以v3为例了,v2也是一样的 github:https

    2024年02月11日
    浏览(22)
  • AI 绘画 | Stable Diffusion 视频生成重绘

    本篇文章教会你如何使用Stable Diffusion WEB UI,实现视频的人物,或是动物重绘,可以更换人物或者动物,也可以有真实变为二次元。 视频展示 左边是原视频,右边是重绘视频 原视频和Ai视频画面合并 这里需要用到Stable Diffusion WEB UI的扩展插件ebsynth_utility。此扩展插件需要搭配

    2024年02月04日
    浏览(130)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包