【论文阅读】2020ECCV-DFDNet

这篇具有很好参考价值的文章主要介绍了【论文阅读】2020ECCV-DFDNet。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Blind Face Restoration via Deep Multi-scale Component Dictionaries

中文:基于深度多尺度分量字典的盲人脸复原
paper:
code:https://github.com/csxmli2016/DFDNet

摘要:

近年来,基于参考的人脸恢复方法因其在真实低质量图像上恢复高频细节的能力而受到广泛关注。然而,这些方法中的大多数都需要具有相同身份的高质量参考图像,这使得它们仅适用于有限的场景。为了解决这一问题,本文提出了一个深度人脸字典网络(称为DFDNet)来指导退化观测的恢复过程。首先,我们使用K-means从高质量图像中感知上重要的面部成分(即左/右眼,鼻子和嘴)生成深度字典。接下来,对于降级的输入,我们从相应的字典中匹配并选择最相似的组件特征,并通过提出的字典特征转移(DFT)块将高质量的细节传输到输入。特别是,利用组件AdaIN来消除输入和字典特征之间的风格差异(例如,照明),并提出置信度评分来自适应地将字典特征融合到输入。最后,逐步采用多尺度字典实现从粗到精的恢复。实验表明,本文提出的方法在定量和定性评价方面都取得了令人信服的效果,更重要的是,在不需要身份归属参考的情况下,可以在真实退化图像上生成真实的、有希望的结果。

1.引言

人脸修复挑战->最近的方法reference-based method->有什么缺点->自己的方法通过提出什么解决了什么缺点。
最后总结,本文主要四个贡献:
1.深度成分字典作为候选参考来指导退化的人脸恢复,不需要相同ID的高质量人脸;
2.提出DFT block ,利用CAdaIN消除输入和字典族之间的分布差异,更好转移字典特征;另外还有置信分数,可以在不同退化等级上自适应融合字典特征
3.在不同特征尺度上采用逐步训练的方式,可以让DFDNet学习到由粗到细的特征
4.不论在合成数据还是在真实退化的图像,都可以有比较好的性能,有真实应用的潜力。

2.相关工作

相关工作主要介绍两点,第一点是单图像修复(Single Image Restoration),第二点是基于参考图像的图像修复(reference-based image restoration)。

2.1单图像修复(Single Image Restoration)

主要介绍目前基于CNN的单图像修复已经取得很多成功,例如图像超分辨,去噪,去模糊,去压缩伪影。针对特殊的人脸结构,同样有很多方法,这些方法包括Huang利用小波系数,Cao利用强化学习-----等人,基于语音分割map的先验信息的的也有…。但是这些方法可能会失败,由于姿势,光照或者先验信息的局限性。
【论文阅读】2020ECCV-DFDNet,论文阅读,论文阅读

2.2基于参考图像的图像修复(reference-based image restoration)

基于单图像修复的问题,有些人有额外的图像增加恢复的细节。针对自然图像,但是要找纹理相同的两个对照的图像进行信息的增强,这很难。针对人脸图像比较容易做到,因为相同ID的人脸就可以有相同的人脸组分结构。但是有另外一个问题,经过warp的人脸不一定和原始人脸一样的特征,例如张嘴和闭嘴。作者注意到,不同ID的人脸其实人脸结构也是类似的,可以使用直观地将整个脸分成不同的部分,并为每个部分生成相应的部件。

提出的方法

【论文阅读】2020ECCV-DFDNet,论文阅读,论文阅读
包括离线生成多尺度组分字典以及DFDNet。

3.1离线生成组分字典

采用FFHQ数据集,针对高质量图像首先使用预训练的VggFace提取不同尺度的特征,使用dlib检测到的人脸关键点,进行ROI区域对齐操作,crop或re-sample这四个组分到固定尺寸。然后使用K-means针对每个组分生成K类。针对256*256的图像,左右眼睛,鼻子嘴巴分别被分配到40/40,25,55,往下下采样,则每次减少两倍。字典特征具体为:
【论文阅读】2020ECCV-DFDNet,论文阅读,论文阅读
其中Ih是高清图像,Lh是高清图像的landmark,Vgg网络等

3.2深度脸部字典网络(Deep Face Dictionary Network)

目标就是利用这个网络将字典特征转移到输入的低清图像。
【论文阅读】2020ECCV-DFDNet,论文阅读,论文阅读
其中Id是低清输入图像,Ld是低清landmark,字典Dic,参数θ。

为保证字典和LQ图像在同一特征域,编码层依然采用VGG网络。引入DFT block,这个模块包含5个部分,RoIAlign, CAdaIN, Feature Match, Confidence Score and Reverse RoIAlign。

个人理解:
RoIAlign:就是landmark对齐人脸的步骤,利用关键点,得到仿射变换矩阵,变换图像。

CAdaIN是字典特征的归一化,目标就是让字典的特征的域和LQ的域是相同的,这样肤色,头发啥的就可以一致了
【论文阅读】2020ECCV-DFDNet,论文阅读,论文阅读

Feature Match 也就是计算经过K-means后哪一族特征是跟LQ特征最匹配的。
【论文阅读】2020ECCV-DFDNet,论文阅读,论文阅读
Confidence Score 就是利用一个分数,决定高退化场景和低退化场景中字典特征加入的多少
【论文阅读】2020ECCV-DFDNet,论文阅读,论文阅读
Reverse RoIAlign 利用反仿射变换矩阵,变回原来人脸,但是网络不仅做这样,还把SFT模块加上去了,变成可训练参数了。
【论文阅读】2020ECCV-DFDNet,论文阅读,论文阅读

3.3 模型目标(Model Objective)

个人理解,也就是损失函数的设置。
(1)重构损失,让生成图像和HQ尽量接近
使用的是MSE+感知损失(perceptual loss)
【论文阅读】2020ECCV-DFDNet,论文阅读,论文阅读

(2)对抗损失,让细节充分恢复
多尺度鉴别器
【论文阅读】2020ECCV-DFDNet,论文阅读,论文阅读
【论文阅读】2020ECCV-DFDNet,论文阅读,论文阅读

4 实验

不说拉文章来源地址https://www.toymoban.com/news/detail-600856.html

到了这里,关于【论文阅读】2020ECCV-DFDNet的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 查找计算机视觉顶会CVPR/ECCV/ICCV论文的方法

    http://www.cvpapers.com/ https://openaccess.thecvf.com/CVPR2022 https://openaccess.thecvf.com/CVPR2021 https://openaccess.thecvf.com/CVPR2020 https://openaccess.thecvf.com/CVPR2019 https://openaccess.thecvf.com/CVPR2018 https://openaccess.thecvf.com/CVPR2017 https://openaccess.thecvf.com/CVPR2016 https://openaccess.thecvf.com/CVPR2015 https://openaccess.thec

    2024年02月04日
    浏览(37)
  • 查找计算机视觉顶会CVPR/ECCV/ICCV论文的方法大全

    http://www.cvpapers.com/ 查历年的CVPR论文,到2020截至 ICCV跟ECCV是每两年一届,分别是奇数年跟偶数年。往年ICCV的论文: 往年ECCV的论文: ECCV 2018 Open Access Repository 查论文与代码: The latest in Machine Learning | Papers With Code 这几个网站可以经常看看: 此外还有个神奇的网站:https://ar

    2024年02月08日
    浏览(40)
  • 【论文简述】IS-MVSNet:Importance Sampling-based MVSNet(ECCV 2022)

    1. 第一作者: Likang Wang 2. 发表年份: 2022 3. 发表期刊: ECCV 4. : MVS、3D重建、重要性采样、无监督误差分布估计 5. 探索动机: 以粗到细的方式预测深度图,部分缓解了对于分辨率的限制。从粗到细算法背后的基本假设是,粗阶段的预测是可靠的真值估计。但即使采用

    2024年02月10日
    浏览(44)
  • 2020数模国赛c题论文latex

     一个新手小组的论文,记录第一篇                                                          

    2024年02月15日
    浏览(30)
  • 论文阅读:Vary论文阅读笔记

    论文:Vary: Scaling up the Vision Vocabulary for Large Vision-Language Models Paper | Github | Demo 许久不精读论文了,内心一直想找个专门的时间来细细品读自己感兴趣的论文。现在想来,无异于是自己骗自己了,因为根本就不存在那个专门的时间。所以改变最好的时候就是现在。 因为自己一

    2024年01月19日
    浏览(43)
  • 【论文阅读】(20230410-20230416)论文阅读简单记录和汇总

    2023/04/09:很久没有动笔写东西了,这两周就要被抓着汇报了,痛苦啊呜呜呜呜呜 (CVPR 2023): Temporal Interpolation Is All You Need for Dynamic Neural Radiance Fields (ICCV 2021):Video Autoencoder: self-supervised disentanglement of static 3D structure and motion (CVPR 2023):DINER: Disorder-Invariant Implicit Neural Representat

    2024年02月12日
    浏览(37)
  • 论文阅读:Vary-toy论文阅读笔记

    论文:Small Language Model Meets with Reinforced Vision Vocabulary Paper | Github | Demo 说来也巧,之前在写论文阅读:Vary论文阅读笔记文章时,正好看到了Vary-toy刚刚发布。 这次,咱也是站在了时代的前沿,这不赶紧先睹为快。让我看看相比于Vary,Vary-toy做了哪些改进? 从整体结构来看,仍

    2024年01月25日
    浏览(55)
  • 论文阅读:TinyGPT-V 论文阅读及源码梳理对应

    引言 TinyGPT-V来自论文:TinyGPT-V: Efficient Multimodal Large Language Model via Small Backbones,是一篇基于较小LLM作为backbone的多模态工作。相关工作已经开源,地址为:Github 之所以选择这篇文章,是因为比较具有落地意义,且便于本地运行,查看和调试。 以下代码只给出核心部分,会省

    2024年01月16日
    浏览(60)
  • 论文阅读1---OpenCalib论文阅读之factory calibration模块

    该论文的标定间比较高端,一旦四轮定位后,可确定标定板与车辆姿态。以下为本人理解,仅供参考。 工厂标定,可理解为车辆相关的标定,不涉及传感器间标定 该标定工具不依赖opencv;产线长度一般2.5米 Factory Calibration Tools:四轮定位+多位姿标定板 1)根据传感器安装位姿

    2024年01月25日
    浏览(44)
  • 【论文阅读】(2023.06.09-2023.06.18)论文阅读简单记录和汇总

    2023/06/09:虽然下周是我做汇报,但是到了周末该打游戏还是得打的 2023/06/12:好累好困,现在好容易累。 (TCSVT 2023)Facial Image Compression via Neural Image Manifold Compression (arxiv 2023)Exploring the Rate-Distortion-Complexity Optimization in Neural Image Compression (arxiv 2023)High-Similarity-Pass Attenti

    2024年02月09日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包