CVPR 2023 | 风格迁移论文3篇简读,视觉AIGC系列

这篇具有很好参考价值的文章主要介绍了CVPR 2023 | 风格迁移论文3篇简读,视觉AIGC系列。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

CAP-VSTNet: Content Affinity Preserved Versatile Style Transfer

内容相似度损失(包括特征和像素相似度)是逼真和视频风格迁移中出现伪影的主要问题。本文提出了一个名为CAP-VSTNet的新框架,包括一个新的可逆残差网络(reversible residual network)和一个无偏线性变换模块,用于多功能风格转移。这个可逆残差网络不仅可以保留内容关联性,而且不像传统的可逆网络引入冗余信息,因此更有利于风格化处理。借助Matting Laplacian训练损失,可以处理线性变换引起的像素亲和力损失问题,因此提出的框架对多功能风格迁移是适用和有效的。广泛的实验显示,CAP-VSTNet相比于现有方法可以产生更好的定量和定性结果。

CVPR 2023 | 风格迁移论文3篇简读,视觉AIGC系列

Inversion-Based Style Transfer with Diffusion Models

绘画中的艺术风格是表达的方式,包括绘画材料、颜色、笔法,还包括高级属性,包括语义元素、物体形状等。以往的任意示例引导的艺术图像生成方法通常不能控制形状变化或传达元素。已经预先训练的文本到图像生成扩散概率模型在质量上已经取得了显著的成绩,但通常需要大量的文本描述来准确地描绘特定画作的属性。

本文认为,艺术品的独特之处恰恰在于它无法用平常的语言充分解释。关键思想是直接从一幅画作中学习艺术风格,然后在不提供复杂的文本描述的情况下进行合成。具体而言,将风格假设为绘画的可学习文本描述。提出了一种基于逆映射inversion的风格迁移方法(inversion-based style transfer,InST),可以高效和精确地学习图像的关键信息,从而捕捉和传输绘画的艺术风格。

在各种艺术家和风格的众多画作上展示了方法的质量和效率。代码和模型在 https://github.com/zyxElsa/InST

CVPR 2023 | 风格迁移论文3篇简读,视觉AIGC系列

Neural Preset for Color Style Transfer

论文提出一种神经预设技术(Neural Preset technique),以解决现有颜色风格迁移方法的局限性,包括视觉伪影、庞大的内存需求和风格切换速度慢。方法基于两个核心设计。

首先,提出了确定性神经颜色映射(DNCM),通过一个图像自适应的颜色映射矩阵一致地作用于每个像素,避免伪影,并支持具有小内存占用的高分辨率输入。

其次,通过将任务划分为颜色归一化和风格化来开发一个两阶段流水线,这允许通过将颜色风格提取为预设并在归一化的输入图像上重复使用它们来有效地进行风格切换。由于缺乏成对数据集,描述了如何通过自监督策略来训练神经预设。

通过全面的评估展示了神经预设相对于现有方法的各种优势。此外,展示了训练的模型可以自然地支持多个应用程序,无需微调,包括低光图像增强、水下图像校正、图像去雾和图像调和。可以在 https://zhkkke.github.io/NeuralPreset/#/ 获得源代码和训练模型。文章来源地址https://www.toymoban.com/news/detail-501394.html

CVPR 2023 | 风格迁移论文3篇简读,视觉AIGC系列

到了这里,关于CVPR 2023 | 风格迁移论文3篇简读,视觉AIGC系列的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 卧剿,6万字!30个方向130篇!CVPR 2023 最全 AIGC 论文!一口气读完。

    一杯奶茶,成为 AIGC+CV 视觉前沿弄潮儿! 25个方向!CVPR 2022 GAN论文汇总  35个方向!ICCV 2021 最全GAN论文汇总 超110篇!CVPR 2021 最全GAN论文梳理 超100篇!CVPR 2020 最全GAN论文梳理   在最新的视觉顶会 CVPR 2023 会议中,涌现出了大量基于 生成式AIGC 的CV论文,包括不限于 生成对抗

    2024年02月09日
    浏览(38)
  • 【计算机视觉】CVPR 2023 上的分割论文真的是神仙打架(介绍前12篇,图像分割,全景分割,语义分割,实例分割)

    AutoFocusFormer:网格外的图像分割 论文地址: 真实世界的图像通常具有高度不平衡的内容密度。 有些区域非常均匀,例如大片蓝天,而其他区域则散布着许多小物体。 然而,卷积深度网络中常用的连续网格下采样策略平等对待所有区域。 因此,小对象在很少的空间位置表示

    2024年02月12日
    浏览(31)
  • 计算机视觉:风格迁移

    本节将介绍如何使用卷积神经网络,自动将一个图像中的风格应用在另一图像之上,即风格迁移(style transfer) (Gatys et al., 2016)。 这里我们需要两张输入图像:一张是内容图像,另一张是风格图像。 我们将使用神经网络修改内容图像,使其在风格上接近风格图像。 例如, 图

    2024年02月13日
    浏览(34)
  • CVPR 2023 | 视频AIGC,预测/插帧/生成/编辑

    视频预测(video prediction)的性能已经通过先进的深度神经网络大幅提高。然而,大多数当前的方法存在着大的模型尺寸和需要额外的输入(如,语义/深度图)以实现良好的性能。出于效率考虑,本文提出了一个动态多尺度体素流网络(Dynamic Multi-scale Voxel Flow Network,DMVFN),

    2024年02月09日
    浏览(49)
  • CVPR 2023 | 计算机视觉顶会亮点前瞻

    在知识和技术都迅速更新迭代的计算机领域中,国际计算机视觉与模式识别会议(CVPR)是计算机视觉方向的“顶级流量”,引领着学科及相关领域的研究潮流。今天我们为大家带来5篇微软亚洲研究院被 CVPR 2023 收录的论文,主题涵盖手语识别与检索、多模态生成、图像编辑、

    2024年02月16日
    浏览(29)
  • 【论文合集】CVPR2023年 部分论文

    参考: CVPR 2023 最全整理:论文分方向汇总 / 代码 / 解读 / 直播 / 项目(更新中)【计算机视觉】-极市开发者社区 (cvmart.net) amusi/CVPR2023-Papers-with-Code: CVPR 2023 论文和开源项目合集 (github.com)   [7]Fine-Grained Face Swapping via Regional GAN Inversion paper [6]Cross-GAN Auditing: Unsupervised Identifica

    2024年02月12日
    浏览(37)
  • CVPR2023(论文笔记)

    基于抽象的鲁棒图像分类模型高效训练与验证方法: 针对问题: 深度神经网络在面对对抗性攻击时的鲁棒性问题 提出了一种基于抽象的、经过认证的训练方法,用于提高深度神经网络对抗性攻击的鲁棒性;提出黑盒验证方法,该方法与神经网络的大小和架构无关,可扩展到

    2024年02月09日
    浏览(45)
  • 【计算机视觉|风格迁移】PP-GAN:使用GAN的地标提取器将韩国人像的风格转化为身份证照片

    本系列博文为深度学习/计算机视觉论文笔记,转载请注明出处 标题: PP-GAN : Style Transfer from Korean Portraits to ID Photos Using Landmark Extractor with GAN 链接:[2306.13418] PP-GAN : Style Transfer from Korean Portraits to ID Photos Using Landmark Extractor with GAN (arxiv.org) 风格转换的目标是在保持图像内容的同

    2024年02月13日
    浏览(30)
  • CVPR2023对抗攻击相关论文

    Feature Separation and Recalibration for Adversarial Robustness 论文链接:http://arxiv.org/abs/2303.13846v1 代码地址:GitHub - wkim97/FSR: Feature Separation and Recalibration (CVPR 2023) 摘要:由于特征层面的扰动积累,深度神经网络容易受到对抗性攻击,许多研究通过停用导致模型错误预测的非鲁棒特征激活

    2024年02月09日
    浏览(31)
  • 【CVPR 2023】FasterNet论文详解

    论文名称:Run, Don’t Walk: Chasing Higher FLOPS for Faster Neural Networks 论文地址:https://arxiv.org/abs/2303.03667 作者发现由于效率低下的每秒浮点运算,每秒浮点运算的减少并不一定会导致类似水平的延迟减少。提出通过同时减少冗余计算和内存访问有效地提取空间特征。然后基于PConv进

    2023年04月14日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包