GitHub上的SadTalker-Video-Lip-Sync

这篇具有很好参考价值的文章主要介绍了GitHub上的SadTalker-Video-Lip-Sync。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本项目基于SadTalkers实现视频唇形合成的Wav2lip。视频+语言(MP4+WAV)>>视频

1. 搭建环境

首先使用Anaconda创建一个虚拟环境SadTalker,然后打开cmd使用命令conda activate SadTalker切换环境,在D盘新建一个文件夹SadTalker-Video-Lip-Sync,cmd切换到该文件夹,使用命令git clone https://github.com/Zz-ww/SadTalker-Video-Lip-Sync.git将项目拉取下来,接着使用以下命令下载项目所需的包。

pip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 torchaudio==0.12.1 --extra-index-url https://download.pytorch.org/whl/cu113
conda install ffmpeg
pip install -r requirements.txt

#如需使用DAIN模型进行补帧需安装paddle
# CUDA 11.2
python -m pip install paddlepaddle-gpu==2.3.2.post112 \
-f https://www.paddlepaddle.org.cn/whl/linux/mkl/avx/stable.html

--extra-index-url:这是一个pip命令的选项(或称为长格式选项),用于指定额外的索引源URL。可以通过多次使用该选项来指定多个额外的索引源。

示例命令:pip install package_name --extra-index-url <URL>

-i:这是pip命令的缩写选项(或称为短格式选项),用于指定主要的索引源URL。可以通过多次使用该选项来指定多个主要的索引源。

示例命令:pip install package_name -i <URL>

主要区别在于:

--extra-index-url 用于指定额外的索引源URL,通常是在主要索引源无法满足需求时使用。例如,当你需要从特定的镜像源下载软件包时。
-i 用于指定主要的索引源URL,即默认情况下pip会使用的索引源。如果未使用该选项,则会使用默认的官方索引源(https://pypi.org)。

如果下载太慢可以换国内镜像源:

清华大学:https://pypi.tuna.tsinghua.edu.cn/simple
豆瓣:https://pypi.douban.com/simple

2. 模型推理

预训练的模型checkpoints下载路径:

百度网盘:https://pan.baidu.com/s/15-zjk64SGQnRT9qIduTe2A 提取码:klfv

python inference.py --driven_audio <audio.wav> \
                    --source_video <video.mp4> \
                    --enhancer <none,lip,face> \  #(默认lip)
                    --use_DAIN \ #(使用该功能会占用较大显存和消耗较多时间)
             		--time_step 0.5 #(插帧频率,默认0.5,即25fps—>50fps;0.25,即25fps—>100fps)

需要注意的是要将2D改为TWO_D。
我执行的是代码如下:

python inference.py --driven_audio examples/driven_audio/chinese_poem1.wav \
					--source_video examples/driven_video/1.mp4

3. 合成效果

#合成效果展示在./sync_show目录下:
#original.mp4 原始视频
#sync_none.mp4 无任何增强的合成效果
#none_dain_50fps.mp4 只使用DAIN模型将25fps添帧到50fps
#lip_dain_50fps.mp4 对唇形区域进行增强使唇形更清晰+DAIN模型将25fps添帧到50fps
#face_dain_50fps.mp4 对全脸区域进行增强使唇形更清晰+DAIN模型将25fps添帧到50fps

#下面是不同方法的生成效果的视频
#our.mp4 本项目SadTalker-Video-Lip-Sync生成的视频
#sadtalker.mp4 sadtalker生成的full视频
#retalking.mp4 retalking生成的视频
#wav2lip.mp4 wav2lip生成的视频

参考文献

https://github.com/Zz-ww/SadTalker-Video-Lip-Sync文章来源地址https://www.toymoban.com/news/detail-629891.html

到了这里,关于GitHub上的SadTalker-Video-Lip-Sync的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • github上的typescript项目,如何运行

    环境 1.Ubuntu22.04 2.node js 14以上 安装notjs 14 以上 { sudo npm cache clean -f sudo npm install -g n sudo n stable // 安装最新stable版本 sudo n latest //安装最新版本 } 3.安装yarn sudo apt -y install yarn 4.安装typescript npm install -g typescript 5.下载项目并运行 git clone https://github.com/xxx/projectName //下载项目 cd p

    2024年02月13日
    浏览(44)
  • git拉取github上的项目

    1.先创建github账号和项目;系统安装git程序 git安装之后,在本地项目文件夹中右键,菜单显示有 Git GUI Here 和 Git Bash Here ,表示Git安装成功。配置用户名称和e-mal地址;Git提交都会使用该信息,它被永远的嵌入到了你的提交中 2.先配置ssh公钥,为了避免每次远程访问需要输密码

    2023年04月08日
    浏览(41)
  • IDEA如何克隆GitHub上的项目

    1、新建项目 点击File-》New-》Project from Version Control 2、粘贴复制的克隆地址,点击Clon就会克隆文件到指定的文件夹

    2024年02月17日
    浏览(66)
  • 如何拉取GitHub上的不同分支

    要拉取GitHub上的不同分支,你可以按照以下步骤进行操作: ①首先,在GitHub上找到你要拉取分支的仓库页面。 ②在仓库页面顶部,你将看到一个下拉菜单,显示当前选择的分支。点击这个下拉菜单,在列表中选择你想要拉取的分支。 ③选择了分支后,你将会看到页面会自动

    2024年02月16日
    浏览(38)
  • 如何fork GitHub上的官方仓库

    在GitHub中,fork表示复制一个仓库到你自己的GitHub账号下,创建一个独立的副本。通过fork操作,你可以在自己的副本中进行修改、改进和实验,而不会影响到原始仓库或其他人的工作。 当你fork一个仓库时,GitHub将会为你创建一个与原始仓库相同的副本,包括所有的代码、分支

    2024年02月16日
    浏览(45)
  • 7个在Github上的flutter开源程序

    阅读大量代码是提高开发技能的最佳方法之一。该开源项目是了解最佳实践、编码风格和许多其他主题的最佳场所。 软件开发最受欢迎的领域之一是跨平台移动应用程序开发。Flutter 是您可以使用的最流行的跨平台移动应用程序开发工具之一。今天,我们将了解 7 个开源 Fl

    2024年01月19日
    浏览(36)
  • 【在IDEA运行GitHub上的开源项目】

    首先电脑上要先安装git,配置一下。 在GitHub上找到要克隆到本地的项目,把链接地址点击复制按钮,复制一下(gitee也是类似的方式)。 打开IDEA,点击“File”菜单,选择“New” - “Project from Version Control”。 在弹出的窗口,选择GitHub,然后点击log in via GitHub…, 需要先授权一下

    2024年02月13日
    浏览(47)
  • 【论文阅读】ControlNet、文章作者 github 上的 discussions

    提出 ControlNet ,通过引入该结构微调预训练文生图扩散模型,可以给模型增加空间定位条件. 在 Stable Diffusion 上使用 ControlNet 微调,使模型能接受 Canny edges, Hough lines, user scribbles, human key points, segmentation maps, shape normals, depths, cartoon line drawings 图像作为输入条件. 消融实验、定量

    2024年01月20日
    浏览(51)
  • 怎么将Linux上的文件上传到github上

    一般情况下,你是肯定没有安装过公私钥的,接下来教你安装公钥 请确保将\\\"your-email@example.com\\\"替换为您在GitHub上注册的电子邮件地址。然后,按照提示完成密钥生成过程。 复制输出的公钥内容。 登录到GitHub账号,点击右上角的头像,进入\\\" Settings \\\"(设置)页面。 选择\\\" SSH and

    2024年02月08日
    浏览(88)
  • 如何将github上的Vue项目在本地运行起来?

    今天在github逛的时候发现几个Vue博客前端模板,觉得挺好看的,就拉到本地上,启动项目发生报错,捣鼓一会儿,下面将介绍,如何成功地将项目运行起来。 1.打开package.json文件 如果显示serve,就在终端切换到项目,输入 npm run serve ,进行启动。若显示dev,就 npm run dev 原因:因为

    2024年02月13日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包