DeepFaceLab 部署在 Ubuntu(docker gpu)

这篇具有很好参考价值的文章主要介绍了DeepFaceLab 部署在 Ubuntu(docker gpu)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

DeepFaceLab 在windows图形界面部署比较多,下面用ubuntu 部署在服务器上。部署过程中python版本,或者protobuf版本可能有问题,所以建议用docker,若需要我可以共享我的镜像

代码下载

cd /trainssd
 git clone --depth 1 https://github.com/nagadit/DeepFaceLab_Linux.git
 cd DeepFaceLab_Linux
 git clone --depth 1 https://github.com/iperov/DeepFaceLab.git

下载容器

docker pull tensoflow/tensorflow:2.4.0-gpu

启动docker容器

代码已经提前下载在

docker run -itd --name deepfacelab --gpus all  -v /tmp/.X11-unix:/tmp/.X11-unix -e DISPLAY=unix$DISPLAY -v /trainssd:/trainssd tensorflow/tensorflow:2.4.0-gpu /bin/bash

进入容器

docker exec -it deepfacelab /bin/bash

系统库安装

apt update && apt install -y vim libsm6 libxrender1 libxext6  ffmpeg wget

修改pip源

mkdir /root/.pip && cat>/root/.pip/pip.conf<<EOF
[global]
index-url = http://mirrors.aliyun.com/pypi/simple/
[install]
trusted-host=mirrors.aliyun.com
EOF

或者是

[global]
index-url=http://pypi.doubanio.com/simple/
trusted-host=pypi.doubanio.com

我这里用python3.8源码编译安装可以,python3.6会遇到protobuf 问题。

protobuf也需要下载源码编译对应的版本,3.20.3,编译安装

安装python依赖

cd /trainssd/DeepFaceLab_Linux/
python -m pip install -r ./DeepFaceLab/requirements-cuda.txt

关闭conda和修改python版本

#进入到scripts目录
cd ./scripts
sed -i 's/python3.7/python3.6/g' env.sh 
sed -i 's/conda/#conda/g' env.sh

env.sh 里面

export DFL_PYTHON="python3.7"

改为

export DFL_PYTHON="python3.8"

初始化工作区

#慎重默认会删除所有工作区域的数据
bash 1_clear_workspace.sh

准备数据

#此处按照自己实际情况处理需要 data_src.为前缀和data_dst.为前缀
cp /data/yhf/SimSwap/Videos/fbb_02.mp4 /trainssd/DeepFaceLab_Linux/workspace/data_src.mp4
cp /data/yhf/SimSwap/Videos/fbb_01.mp4 /trainssd/DeepFaceLab_Linux/workspace/data_dst.mp4

src数据抽中

bash 2_extract_image_from_data_src.sh

dst数据抽中

bash 3_extract_image_from_data_dst.sh 

数据去噪

bash 3.1_denoise_data_dst_images.sh

模型下载

bash 4.1_download_CelebA.sh
bash 4.1_download_FFHQ.sh
bash 4.1_download_Quick96.sh

###
按照脚本执行就可以

bash 4_data_src_extract_faces_S3FD.sh

bash 5_data_dst_extract_faces_S3FD.sh

bash 6_train_Quick96.sh 或者 6_train_Quick96_no_preview.sh

bash 7_merge_Quick96.sh

bash 8_merged_to_mp4.sh

上面几个脚本能够训练出模型,其他的脚本是优化图像的,可以慢慢研究下

训练开始时候的窗口,第二第四第五列都是模糊的

DeepFaceLab 部署在 Ubuntu(docker gpu)

随着训练迭代的次数增多,第二第四第五列算法会慢慢生成出人脸轮廓、五官,然后慢慢变的清晰。

DeepFaceLab 部署在 Ubuntu(docker gpu)

我们只需要观察第二列是否与第一列无限相似,第四列与第三列无限相似,第五列的表情与第四列无限相似。

当所有列的图片足够清晰,那么就可以停止。

7_merge_Quick96.sh交互模式

DeepFaceLab 部署在 Ubuntu(docker gpu)

若用非交互模式,我们参考了《 Project Aksel: Deepfake Head Replacement 》这篇文章里的 merge 参数的设置,效果不错。 

方法1.                                                         
Mode: seamless                                                                                                                                  mask_mode: learned-prd*learned-dst                                                                                             erode_mask_modifier: 0                                                                                                                   blur_mask_modifier: 91                                                                                                                     motion_blur_power: 0                                                                                                                     output_face_scale: -7                                                                                                                       color_transfer_mode: rct                                                                                                                     sharpen_mode : gaussian                                                                                                                 blursharpen_amount : 0                                                                                                                     super_resolution_power: 0                                                                                                                image_denoise_power: 0                                                                                                                   bicubic_degrade_power: 0                                                                                                                 color_degrade_power: 0

方法2.   

Mode: overlay
mask_mode: learned-prd*learned-dst
erode_mask_modifier: 0
blur_mask_modifier: 91
motion_blur_power: 0
output_face_scale: -7
color_transfer_mode: rct
sharpen_mode : gaussian
blursharpen_amount : 5
super_resolution_power: 0
image_denoise_power: 0
bicubic_degrade_power: 0
color_degrade_power: 0

方法3.   

Mode: overlay                                                                                                                                   mask_mode: learned-prd                                                                                                                   erode_mask_modifier: 18                                                                                                                  blur_mask_modifier: 91                                                                                                                      motion_blur_power: 0                                                                                                                         output_face_scale: 0                                                                                                                           color_transfer_mode: rct                                                                                                                     sharpen_mode : None                                                                                                                       blursharpen_amount : 0                                                                                                                     super_resolution_power: 0                                                                                                                 image_denoise_power: 0                                                                                                                   bicubic_degrade_power: 0                                                                                                                 color_degrade_power: 0

方法4.文章来源地址https://www.toymoban.com/news/detail-481257.html

 Use interactive merger? ( y/n ) : n    # 不能选 y!
 mode: overlay
 mask_mode: learned-prd
 erode_mask_modifier: 0
 blur_mask_modifier: 0
 motion_blur_power: 0
 output_face_scale: -5
 color_transfer_mode: rct
 sharpen_mode : None
 blursharpen_amount : 0
 super_resolution_power: 16
 image_denoise_power: 0
 bicubic_degrade_power: 0
 color_degrade_power: 0
 Number of workers:48

到了这里,关于DeepFaceLab 部署在 Ubuntu(docker gpu)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Ubuntu18.04开启VNC实现windows远程访问图形界面

    官网下载客户端: Download VNC Viewer | VNC® Connect 若安装的ubuntu系统不带图形界面,那么首先安装图形界面: 安装panel、daemon等: 安装vnc: 安装lightdm,弹出设置中选择lightdm确认: 创建vnc配置目录,其中“********”为VNC连接密码: 生成VNC配置文件: 打开文件,填充以下内容:

    2024年01月23日
    浏览(49)
  • Docker【部署 05】docker使用tensorflow-gpu安装及调用GPU踩坑记录

    Other than the name, the two packages have been identical since TensorFlow 2.1 也就是说安装2.1版本的已经自带GPU支持。 不同型号的GPU及驱动版本有所区别,环境驱动及CUDA版本如下: 在Docker容器中的程序无法识别CUDA环境变量,可以尝试以下步骤来解决这个问题: 检查CUDA版本:首先,需要确认

    2024年02月08日
    浏览(53)
  • pytorch 安装部署(cpu+gpu) linux+windows

    官网打开可能较慢,耐心等待,可以正常打开。 链接:pytorch官网 2023年12月10日更新,演示版本2.1.1 如果中间有任何报错,参考最后一节的处理 1.pytorch是一个和tensorflow类似的框架 如果需要安装tensorflow,可以参考: tensorflow 1,2 cpu+gpu(windows+linux)安装 2.安装anaconda 主要是为

    2024年02月03日
    浏览(43)
  • ubuntu安装dockerdesktop官方图形化docker管理工具

    1.检查是否有安装gnome-terminal 出现以下内容说明已经有安装: 如果没有则执行: 2.删除干净旧版docker-desktop 3.初始化pass信息,用于后期登陆Docker Desktop 出现以下信息,填写你的docker id(没有的先到官网注册一个账号) 初始化pass信息: 出现类似以下信息说明成功了: 初始化

    2024年01月16日
    浏览(43)
  • ubuntu20.04 docker 下编译 tensorflow-gpu

    配置: 系统 ubuntu 20.04 LTS 显卡 GTX 1060 6G 1 安装cudatoolkit (我选 CUDA Toolkit 12.2 ) NVIDIA CUDA Installation Guide for Linux https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#prepare-ubuntu 选择 2.7 步骤,下载 deb 包,本地安装 2.7. Download the NVIDIA CUDA Toolkit https://developer.nvidia.com/cuda-downloa

    2024年02月13日
    浏览(49)
  • Windows 下让 Docker Desktop 关联上 NVidia GPU

    前面一篇写了《大数据及机器学习带 GPU 必须干的第一件事》,心想如果不让容器也来第一件事,怪痒痒的难受。如果你的电脑像下面一样不支持,那就要来好好看看了: 关键环境就在于 --runtime=nvidia 了,如果不解决掉这个问题,一切都是扯淡! 此步必须运行 Windows 10 版本

    2024年04月10日
    浏览(32)
  • CUDA 11.7 版本下安装Tensorflow-gpu以及Keras (Windows以及Ubuntu)

    ​ 记录:在复现论文代码时碰到使用keras环境,于是在自己windows系统的台式机(RTX 3080;CUDA 11.7)上进行了安装,但是发现台式机的显存无法支持程序的运行。于是将一摸一样的环境配置到更大现存的Ubuntu服务器(CUDA 11.7)上,但配置环境出错,一直无法调用GPU。经过一天的

    2024年02月01日
    浏览(63)
  • pytorch2.0.1 安装部署(cpu+gpu) linux+windows

    官网打开可能较慢,耐心等待,可以正常打开。 链接:pytorch官网 2023年12月10日更新,演示版本2.1.1 如果中间有任何报错,参考最后一节的处理 1.pytorch是一个和tensorflow类似的框架 如果需要安装tensorflow,可以参考: tensorflow 1,2 cpu+gpu(windows+linux)安装 2.安装anaconda 主要是为

    2024年02月09日
    浏览(47)
  • 在 wsl-ubuntu 里通过 docker 启动 gpu-jupyter

    今天突然想尝试一下在 wsl-ubuntu 里通过 docker 启动支持 gpu 的 jupyter,那就开始着手干吧。 在 wsl-ubuntu 里面安装 docker-ce,先运行以下命令卸载所有冲突的包, 使用 apt 存储库安装,设置 Docker 的 apt 存储库。 安装 Docker 软件包。 通过运行 hello-world 映像来验证 Docker 引擎安装是否

    2024年01月20日
    浏览(56)
  • docker 配置 gpu版pytorch环境--部署缺陷检测--Anomalib

    自行查看:三者对应版本信息 直接在 docker.hub 中拉取 pytorch 镜像:​​​​​​​找到自己所需要的环境 pytorch镜像 点击复制 devel 版链接 Anomalib github 地址 我们需要docker容器中运行Anomalib,所以需要把主机文件挂载到容器中 主机路径: /home/dell/ljn/anomalib 没有加这一行 --shm

    2024年02月07日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包