尝试着在Stable Diffusion里边使用SadTalker进行数字人制作

这篇具有很好参考价值的文章主要介绍了尝试着在Stable Diffusion里边使用SadTalker进行数字人制作。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

首先需要标明的是,我这里是图片说话类型,而且是看了知识星球AI破局俱乐部大航海数字人手册进行操作的。写下这篇文章是防止我以后遗忘。
我使用的基础软件是Stable Diffusion,SadTalker是作为插件放进来的,需要注意的是这对自己的电脑GPU要求比较高,至少需要8G,至少我的电脑是8G显存。

下载并安装ffmpeg

下载并安装ffmpeg,这一步的作用是语音格式的各种转换,虚拟数字人能开口说话,需要我们上传自己的语音,如果格式不符合会自动转换。
到https://ffmpeg.org/download.html选择自己操作系统然后选择下载格式。
file

选择下载的类型,我选择全量版的。
file

然后我解压到D:\VideoSoft目录下。
file

需要配置环境变量了。
Windows+r同时按下,然后输入SYSTEMPROPERTIESADVANCED,然后点击确定。

file

然后选择高级,点击环境变量
file

选择Path,然后点击编辑
file

然后点击新建
file

把你上边解压的目录找到bin那级的目录放到环境变量里边,然后点击确定
file

把上一级窗口也点击确定
file

系统属性这一级窗口也点击确定
file

然后同时按下Windows+r,输入cmd然后按下确定键。
file

然后输入ffmpeg -version,要是显示出来很多内容,那么就是正常安装好了。
file

Stable Diffusion安装插件

我使用的Stable Diffusion是秋叶版的。
file

下载扩展

点击扩展,选择从网址安装,然后把git仓库https://github.com/OpenTalker/SadTalker.git放入指定的位置,然后点击安装。
file

发现报错如下:

GitCommandError: Cmd('git') failed due to: exit code(128) cmdline: git clone -v -- https://github.com/OpenTalker/SadTalker.git D:\sd-webui-aki\sd-webui-aki-v4.1\tmp\SadTalker stderr: 'Cloning into 'D:\sd-webui-aki\sd-webui-aki-v4.1\tmp\SadTalker'... fatal: unable to access 'https://github.com/OpenTalker/SadTalker.git/': Failed to connect to github.com port 443 after 21039 ms: Couldn't connect to server '

file

我到https://github.com/OpenTalker/SadTalker里边,下载源代码的zip包。
file

然后把压缩包解压至Stable Diffusion启动器所在的目录下一级目录extensions里边,目录如下所示。
file

checkpoint文件下载和配置,

需要到https://github.com/OpenTalker/SadTalker/releases,下载以下四个文件。
file

然后当前网页上边,往下滑动,点开Assets,然后下载红圈中的文件。
file

将上边下载好的文件放入到自己D:\sd-webui-aki\sd-webui-aki-v4.1\extensions\SadTalker\checkpoints里边,很有可能,你没有checkpoints这个目录,自己新建一个就行了。
file

另外hub.zip需要解压。
file

下载GFPGAN模型

到https://drive.google.com/file/d/19AIBsmfcHW6BRJmeqSFlG5fL445Xmsyi下载文件解压到D:\sd-webui-aki\sd-webui-aki-v4.1\extensions\SadTalker里边。
file

接下来就是重新启动Stable Diffusion进行画图了。点击SadTalker,然后上传图片,之后上传音频,然后点击生成。
file

需要等待。
file

生成之后如下图:
file

无法上传视频,没有办法展示效果了。

我是知识星球上约有3万人的AI破局俱乐部初创合伙人,我的微信号是zhaoseaside,欢迎大家加我,相互学习AI知识和个人IP知识,毕竟这是未来两大风口。
大家要是需要文档中的文件,可以加我备注SadTalker,我用百度网盘发给你。文章来源地址https://www.toymoban.com/news/detail-845631.html

到了这里,关于尝试着在Stable Diffusion里边使用SadTalker进行数字人制作的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • SadTalker:让stable diffusion人物说话的创新工具

    SadTalker是一个GitHub项目,能够根据图片和音频合成面部说话的视频。现已支持stable diffusion webui,可以结合音频合成面部说话的视频。本文详细介绍了安装过程和使用教程。

    2024年02月08日
    浏览(44)
  • 打造AI虚拟数字人,Stable Diffusion+Sadtalker教程

    站长笔记 2 个月前 1 1k Stable Diffusion是一个能够根据 文本描述生成高质量图片的深度学习模型 ,它使用了一种叫做 潜在扩散模型的生成网络架构 ,可以在普通的GPU上运行。Sadtalker是一个能够根 据图片和音频生成 视频的开源项目 ,它使用了一种叫做 SadNet的神经网络 ,可以

    2024年02月11日
    浏览(61)
  • 基于SadTalker的AI主播,Stable Diffusion也可用

    基于之前的AI主播的的学习基础 基于Wav2Lip的AI主播 和 基于Wav2Lip+GFPGAN的高清版AI主播,这次尝试一下VideoRetalking生成效果。 总体来说,面部处理效果要好于Wav2Lip,而且速度相对于Wav2Lip+GFPGAN也提升很多,也支持自由旋转角度,但是如果不修改源码的情况下,视频的部分截取稍

    2023年04月23日
    浏览(25)
  • Stable Diffusion——尝试如何正确的使用【AnimateDiff】生成动图——4种方法测试

    给的提示词与正常生成图片的操作一样。  封面图片生成信息:种子(654742741) Celebrity face, jet black long hair, beautiful woman, wearing a white shirt, front facing photo of upper body, photo taken, ultra clear, cute, loli, natural black pupils, divine eyes, Chinese style, symmetrical, straight facial features, no stretching, first

    2024年01月16日
    浏览(36)
  • stable diffusion模型初尝试

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言 一、 目录 文章目录 前言 一、stable diffusion - webUI的下载安装以及配置 二、模型训练 刚开始尝试基于stable diffusion跑模型,试着做一些小项目,网上能查到的资料着实有限,部分甚至需要科

    2024年02月12日
    浏览(22)
  • 简单尝试:ChatGLM-6B + Stable diffusion管道连接

    1. 抛去算法设计方面,仅从工程角度考虑的话,Stable diffusion的潜力挖掘几乎完全受输入文字影响。 2. BLIP2所代表的一类多模态模型走的路线是\\\"扩展赋能LLM模型\\\",思路简单清晰,收益明显。LLM + Stable diffusion的问题应该也不大。 3. ChatGLM-6B 和 Stable diffusion都有huggingface中的pipe

    2024年02月09日
    浏览(21)
  • Stable Diffusion实现AI绘画,尝试向实际业务迈进...

    前置:         由于处于学习初期,懂得较少以及可能会出现理解错误等情况,故而文章仅供参考学习使用,旨在分享知识,共同学习,不能作为依据,如有错误,感谢指出,文章主题分为两部分,学习部分也就理论知识,实践部分主要包括问题及解决方案。 1.提示词分类以

    2024年02月09日
    浏览(32)
  • 在Kaggle上使用Stable Diffusion进行AI绘图

    因为使用 Stable Diffusion 进行AI绘图需要 GPU ,这让其应用得到了限制 本文介绍如何在 Kaggle 中部署 Stable Diffusion ,并使用免费的P100 GPU进行推理(每周可免费使用30小时),部署好后可以在 任意移动端 使用。 本项目在 stable-diffusion-webui-kaggle 基础上进行改进,原作者Github项目地

    2024年02月08日
    浏览(32)
  • Stable Diffusion使用civitai的模型进行AI绘图

    准备工作 1.安装Stable Diffusion(B站秋叶大佬有完整包,开箱即用) 2.启动之后找到图中位置下载civitai助手 下载完成之后,点击页面下方“重载客户端”。 下载模型 1.进入C站,随便找一个点进去,复制浏览器的网址 2.找到图中的tab,如果没有,说明civitai没有安装成功  按照图

    2024年02月11日
    浏览(29)
  • 使用Dino+SAM+Stable diffusion 自动进行图片的修改

    SAM 是Mata发布的“Segment Anything Model”可以准确识别和提取图像中的对象。 它可以分割任何的图片,但是如果需要分割特定的物体,则需要需要点、框的特定提示才能准确分割图像。 所以本文将介绍一种称为 Grounding Dino 的技术来自动生成 SAM 进行分割所需的框。 除了分割以外

    2024年02月03日
    浏览(22)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包