使用 stable diffusion 将视频动漫化

这篇具有很好参考价值的文章主要介绍了使用 stable diffusion 将视频动漫化。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

利用 controlnet 的 SoftEdge 算法和 Open Pose,再加 ebsynth 插件将一段真人的跳舞视频动漫化,具体步骤:

  • 1、使用 ebsynth 设置好输出目录(不能有中文,否则会报错,已经试过了),选择原视频,运行抽取序列帧并生成蒙版图,蒙版图生成之后要看一下是不是你想要的东西,如果不是可以调整一下参数重新生成
  • 2、设置关键帧间隔,生成关键帧(推荐设置 5,数值越小后面生成视频越连贯,反之卡顿,但同时接下来计算量也变大)
  • 3、利用 isnet_pro 插件将上一步所有的关键帧去除背景,得到只有白底 + 人物的关键帧
  • 4、从上一步抽取出来的关键帧导入一张放到“WD 1.4标签器”反推 prompt,删除明显不符合的prompt,然后发送到图生图,再从上一步抽取出来的关键帧导入一张到图生图,选择好大模型和lora,然后设置controlnet,这里需要两个controlnet,一个使用softedge(也可以是canny,hed或者其他算法,测试一下看哪个效果好),一个使用openpose,保持分辨率和关键帧一致,设置好批次一次多出几张,点击生成,观察出来的图有哪些变化的地方通过添加prompt固定住,反复调整参数直到出来一张满意的,固定种子值,接着在脚本里面选择 ebsynth,设置好目录点运行,这样就把所有关键帧按照此风格生成出来了(生成出来的图可能会有一些杂质,原因是AI绘画本来就有很多不确定性,应该可以考虑添加更加详细的prompt来改善或自己训练人物 lora 解决),如果看到某一张特别不符合的可以使用PS修改,或者使用图生图重新生成,利用 Segment Anything 制作蒙版,PS修改等等都可以
  • 5、改变上一步图生图出来的图片的颜色或风格(这一个可选,可跳过,默认和原视频一致)
  • 6、调整生成出来的图片大小(这一步也是可选,可跳过,有需要的话可以使用SD的“后期处理->批量处理”功能),影响最终合成的视频的分辨率和大小(如果第1步抽取序列帧时没有设置大小就默认和原视频一致)
  • 7、使用 ebsynth 将关键帧打包处理成 ebsynth 软件可以处理的形式
  • 8、使用 ebsynth 软件根据上一步生成的文件,通过计算生成所有动画帧并合成视频
  • 9、最后还可以上传一张图片修改背景(这个修改背景应该是根据第一步的蒙版图来的)

文章来源地址https://www.toymoban.com/news/detail-506279.html

到了这里,关于使用 stable diffusion 将视频动漫化的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Stable Diffusion使用controlnet报错

    1、问题描述,使用controlnet时报错如下 error running process: G:\\0111stable-diffusion-webuiextensionssd-webui-controlnetscriptscontrolnet.py Traceback (most recent call last):   File \\\"G:\\0111stable-diffusion-webuimodulesscripts.py\\\", line 418, in process     script.process(p, *script_args)   File \\\"G:\\0111stable-diffusion-webuiextensi

    2024年02月09日
    浏览(50)
  • 《Stable Diffusion web UI 使用—1文生图 (动漫风)》

    上一篇文章下载了模型,但是在刷新模型发现根本不行,原来是在下载模型时候选择错误。  第三步要选红色框这个——然后点击4th-Download Model才是对的 回到我们的colab要看见下载有多大,有多少个G开始下载才正确 今天才选择正确,开始我们的模型,第一个模型是动漫风格

    2024年02月12日
    浏览(43)
  • 这二维码也太美了吧!利用AI绘画[Stable Diffusion的 ControlNet]生成爆火的艺术风格二维码

    先看两张图 上面的话是两张有效的二维码,只要你拿起手机扫描这些图像,是可以扫出内容的。是不是难以置信? 最近,在互联网上疯传一种崭新形式的二维码,它们摆脱了传统黑白方块的外观,而是呈现出令人赏心悦目的图像,一眼望去令人印象深刻。 核心方案就是基于

    2024年02月10日
    浏览(49)
  • Stable Diffusion Webui 之 ControlNet使用

    模型安装分为 预处理模型 和 controlnet所需要的模型。 先安装 预处理模型 ,打开AI所在的 安装目录extensionssd-webui-controlnetannotator ,将对应的预处理模型放进对应的文件夹中即可, 而 controlnet所需模型 则是 安装目录extensionssd-webui-controlnetmodels ,放在该文件夹下即可。 通过

    2024年02月16日
    浏览(63)
  • Stable Diffusion web UI之ControlNet使用

    如果你使用 Stable Diffusion 一段时间后,您可能已经注意到图像的输出结果具有无穷无尽的可能性。需要大量的试验才能生成高质量的图像,感觉就是在赌这一下能不能拍出好图。然而,即使输入复杂和详尽的提示,你也会觉得很难控制生成的图片的方向​​。对于这种情况,

    2024年02月10日
    浏览(39)
  • AIGC文生图:使用ControlNet 控制 Stable Diffusion

    ControlNet是斯坦福大学研究人员开发的Stable Diffusion的扩展,使创作者能够轻松地控制AI图像和视频中的对象。它将根据边缘检测、草图处理或人体姿势等各种条件来控制图像生成。 论坛地址:Adding Conditional Control to Text-to-Image Diffusion Models ControlNet是一种通过添加额外条件来控制

    2024年02月16日
    浏览(48)
  • 《Stable Diffusion web UI ControlNet模型下载及使用》

    ControlNet模型下载 本来是很简单一两分钟搞定的事情,但是作者搞了7次才终于出来这个页面 每次下载完以后看文件也是有 /stable-diffusion-webui/extensions/sd-webui-controlnet  但是在Stable Diffusion里面怎么都没有ControlNet。最后反复删除,又重新下载第7次以后才成功,具体原因我也不知

    2024年02月05日
    浏览(105)
  • stable-diffusion-webui 中 Controlnet 使用说明

    Controlnet 允许通过线稿、动作识别、深度信息等对生成的图像进行控制。 自动安装 在 stable-diffusion-webui 页面上找到 Extensions - Install from URL ,输入插件的 git 地址,然后点击 Install 即可, URL 如下: 等待 loading 结束后,页面底部会出现 Installed into xxx. Use Installed tab to restart. 提示

    2024年02月06日
    浏览(67)
  • Stable Diffusion - 图像控制插件 ControlNet (OpenPose) 配置与使用

    欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131591887 论文:Adding Conditional Control to Text-to-Image Diffusion Models ControlNet 是神经网络结构,用于控制预训练的大型扩散模型,以支持额外的输入条件。ControlNet 以端到端的方式学习任务特定的条

    2024年02月13日
    浏览(38)
  • 在Stable Diffusion WebUI中使用ControlNet控制人物姿势

    在Stable Diffusion WebUI中使用ControlNet控制人物姿势@TOC 这个教程默认你已经安装好了 stable-diffusion-webui , 并且已经学会了基本的用法,加载骨干模型和Lora等辅助模型。 已经如下图所示可以生成图片了: 然而,这样生成的人物难以控制动作,因此需要添加扩展:sd-webui-controlnet,

    2024年02月01日
    浏览(61)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包