图像处理之《隐写网络的隐写术》论文阅读

这篇具有很好参考价值的文章主要介绍了图像处理之《隐写网络的隐写术》论文阅读。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、文章摘要

隐写术是一种在双方之间进行秘密通信的技术。随着深度神经网络(DNN)的快速发展,近年来越来越多的隐写网络被提出,并显示出良好的性能。与传统的手工隐写工具不同,隐写网络的规模相对较大。如何在公共信道上秘密传输隐写网络引起了人们的关注,这是隐写技术在实际应用中的关键阶段。为了解决这一问题,本文提出了一种新的隐写网络隐写方案。不像现有的隐写方案,其重点是微妙的修改封面数据,以适应秘密。我们建议将隐写网络(称为秘密DNN模型)伪装成执行普通机器学习任务(称为隐写任务)的隐写DNN模型。在模型伪装过程中,我们在秘密DNN模型中选择和调整一个过滤器子集,以保持其在秘密任务上的功能,其中剩余的过滤器根据部分优化策略重新激活,将整个秘密DNN模型伪装成一个隐写DNN模型。秘密DNN模型可以在需要时从隐写DNN模型中恢复。已经进行了各种实验来证明我们提出的方法在隐写网络和一般DNN模型的隐蔽通信方面的优势。
图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读

二、问题公式化

给定要伪装的秘密DNN模型,我们的目标是选择和调整过滤器的子集以保持秘密DNN的功能,其中剩余的过滤器被重新激活,使整个模型在普通机器学习任务(比如一个隐写任务)上工作,以建立一个用于模型伪装的隐写 DNN模型。必要时可以从隐写DNN模型中恢复秘密DNN模型,如图2所示。
图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读
图2 DNN模型伪装与恢复的实例

我们将秘密和隐写 DNN模型分别表示为Θ和~ Θ,其中~Θ是对Θ进行伪装后的优化。我们使用两个数据集,一个秘密数据集和一个隐写数据集对秘密和隐写任务进行模型伪装,表示为Dse = {xe,ye}和Dst = {xt,yt},其中xe,xt为样本,ye,yt为标签。我们进一步将模型伪装过程表示为P,可以表示为
图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读

其中ΘS是为秘密任务选择的子集,K是密钥。有了隐写深度神经网络模型,接收端可以通过以下方法恢复隐深度神经网络模型
图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读

其中Q为模型恢复。
对于隐蔽通信,P和Q的设计应满足以下特性。
1)可恢复性:恢复的秘密DNN模型在秘密任务上的性能应与其原始版本相似。
2)准确度:对于隐写任务,隐写DNN模型的性能要高。
3)容量:隐写DNN模型的大小不应比隐写DNN模型扩展太多,以实现高效传输。
4)不可检测性:攻击者应该很难从隐写DNN模型中识别出秘密DNN模型的存在。

三、提出的方法

我们的模型伪装首先从秘密DNN模型的卷积层中选择一个过滤器子集,这在秘密任务中很重要,但在隐写任务中微不足道。然后,我们提出了一种局部优化策略,从秘密DNN模型中获得隐写DNN模型。上述过程可以逐步执行以获得最佳性能。我们还提出了几种策略来处理现实世界应用程序中其他层中的参数。

3.1 过滤器的选择

假设秘密DNN模型(即Θ)包含L个卷积层,第L个卷积层中的滤波器可以表示为一个4维张量:Wl ϵRdl×cl×s 1×sl2,其中dl是滤波器的数量,每个滤波器包含cl个2维空间核。sl1和sl2分别对应内核的高度和宽度。将Wli,:,:,:表示为第l层中所有滤波器的第i个滤波器,将Wl:,j,:,:表示为第j个通道。忽略全连通层,我们有:Θ={W1,W2,···,WL},其中Wl={Wl1,:,:,:,Wl 2,:,:,:,··,Wldl,:,:,:}滤波器方向或Wl={Wl:,1,:,:,Wl:1,:,:,···,Wl:,cl,:,:}通道方向。

过滤器选择的目的是选择对秘密任务重要但对隐写任务不重要的过滤器。在我们的讨论中,我们把这样的过滤器称为模型伪装中的重要过滤器。对于单个机器学习任务,研究表明,可以根据滤波器权重的梯度来衡量滤波器的重要性(Dai,Yin,和Jha 2019;Yang,Lao,和Li 2021)。然而,在我们的例子中,我们想要识别那些在秘密任务中包含大梯度而在隐写任务中包含小梯度的权重的过滤器。对于秘密DNN模型Θ的第l卷积层的第i个滤波器,我们分别用GoEl i和GoTl i来衡量其对秘密任务和隐写任务的重要性,其中
图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读

其中AVG返回三维张量的均值,Le和Lt分别是秘密任务和隐写任务的损失函数。在这里,我们考虑了两个连续卷积层之间的相关性。这是因为第l层的滤波器Wli,:,:,:生成的特征映射将与第(l+1)层的通道Wl+1i,:,:,:进行卷积。对于某个任务,Wli,:,:,:和Wl+1i,:,:,:的权重之间存在很强的相关性。因此,我们既要考虑当前滤波器中权值的梯度,也要考虑下一层相应通道中的权值梯度。然后计算滤波器对模型伪装的重要性为
图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读

其中λg是用于平衡的重量。根据αli,我们从秘密DNN模型Θ中选择最重要的N个用于模型伪装的过滤器,形成执行秘密任务的子集ΘS

3.2 部分优化

部分优化的目的是使ΘS在秘密任务上工作,Θ在隐写任务上工作。首先,我们对秘密数据集ΘS中的过滤器进行微调
图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读

其中λe为秘密任务的学习率。然后,我们冻结ΘS,重新初始化并重新激活隐写数据集Dst上Θ中剩余的过滤器,用于以下优化问题:
图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读

其中C是常数空间。为此,我们引入M,一个与Θ大小相同的二进制掩码,用于部分优化,以防止ΘS在反向传播期间更新。设λt为隐写任务的学习率,⊙表示逐元素乘积,对秘密DNN模型进行如下优化,形成隐写DNN模型~Θ:
图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读
其中Θ[i]为Θ中的第i个参数。

3.3 渐进式模型伪装

为了从秘密DNN模型中训练出具有良好性能的秘密和隐写任务的隐写DNN模型,我们建议从秘密DNN模型Θ中逐步选择重要滤波器ΘS进行模型伪装。特别是,我们从ΘS中迭代地选择一组重要的过滤器来训练隐写 DNN模型,直到隐写 DNN模型在秘密和隐写任务上取得满意的性能。

为了简单起见,我们在第t次迭代中将重要的过滤器集表示为ΘSt,将伪装的隐写深度神经网络模型表示为~Θt,其中我们设置ΘS0 = Θ和~Θ0 = Θ进行初始化。在第t次迭代中,我们从ΘSt−1中选择最重要的前Pt个过滤器形成ΘSt,用于训练一个隐写DNN模型~Θt,其中
图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读

其中λp < 1为衰减因子,V为Θ中滤波器的个数。我们终止迭代,直到隐写DNN模型在秘密任务上的性能降低值大于τse,或者在秘密任务和隐写任务上分别小于τse和τst。算法1给出了上述过程的伪代码,其中αset和αstt为隐写DNN模型在秘密任务和隐写任务第t次迭代时的性能降低。
图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读

经过渐进式模型伪装后,我们将~Θ中每个过滤器的属性记录为L个二进制流B = {b1,b2,···,bL}。每个卷积层对应一个d1位二进制流bl,d1为该层中滤波器的个数。每个位对应一个过滤器,0表示属于ΘS,否则为1。我们将B作为辅助信息,根据主机B的密钥K,从隐写DNN模型中随机选择一组参数。具体来说,我们将B的每一位嵌入到一个选定的参数中,如下所示。我们将参数转换为整数,并根据要隐藏的位翻转其最低有效位。然后将隐含数据的参数反变换为浮点数,完成嵌入过程

在模型恢复中,接收方使用密钥K从隐写DNN模型中恢复辅助信息B,基于此我们可以识别重要的滤波器ΘS,为秘密任务建立秘密DNN模型

3.4 隐藏其他层

批处理归一化层。归一化层,如批归一化(BN) (Ioffe和Szegedy 2015)、组归一化(GN) (Wu和He 2018)、层归一化(LN) (Ba,Kiros,和Hinton 2016)和实例归一化(IN) (Ulyanov,Vedaldi,和Lempitsky 2016),在加速模型训练的收敛和性能提升方面发挥着至关重要的作用。所有这些归一化层将根据一些特征统计对中间层的特征映射进行归一化。BN在训练过程中利用特征映射的移动平均均值和标准差,这在秘密学习任务和隐写学习任务之间是完全不同的。因此,在使用BN时,我们将秘密DNN模型的相应特征统计信息作为隐藏到隐写DNN模型中的辅助信息存储在B中。其他类型的归一化层,即GN,LN,IN,不会引入额外的开销

完全连接层。完全连接层在深度神经网络模型中非常常见,我们将其视为特殊的卷积层。对于具有f个神经元的完全连接层,我们将其表示为f个过滤器,每个过滤器为c × 1 × 1张量,其中c是完全连接到该层的反向神经元的数量。

输出层自适应。在实际应用中,秘密深度神经网络模型和隐写深度神经网络模型的输出层的维度通常是不同的。为简单起见,我们将秘密和隐写 DNN模型的输出层分别表示为layere和layert。我们进一步将layere和layert中的神经元数量分别表示为Oe和Ot。当Oe < Ot时,我们对层进行上采样,使其与层的维数相同,进行自适应。然而,当Oe > 0时,不适合直接下采样本层,因为这种策略不可避免地会扭曲秘密DNN模型的功能。为了补救,我们建议在层中添加额外的神经元,将其伪装成倒数第二个全连接层。然后,我们新增一个与layert具有相同维数的最后一层进行自适应。图3显示了我们对不同情况的输出层适配。不会将所有新添加的参数都选择到ΘS中执行秘密任务。

图像处理之《隐写网络的隐写术》论文阅读,图像处理,图像处理,隐写网络,隐写术,深度神经网络,模型伪装,论文阅读
图3 输出层自适应

四、实现细节

我们对我们提出的方法进行了两种类型的实验:1)隐写网络的隐写(SSN),其中秘密DNN模型是一个秘密解码器,以及2)通用网络的隐写(SGN),其中秘密DNN模型是一个通用机器学习任务的DNN模型

在SSN中,我们使用HiDDeN的秘密解码器(Zhu等人2018)作为秘密任务的秘密DNN模型,并从COCO数据集1中随机选择11000张图像组成秘密数据集,该数据集被分成10000/1000张图像进行训练和测试。我们使用原始和解码的秘密信息之间的误码率(BER)作为秘密解码器的性能指标。我们将GTSRB (Stallkamp等人 2012)分类任务作为模型伪装的隐写任务。我们使用GTSRB数据集作为隐写数据集,其中随机选择80%/20%的图像进行训练/测试。我们采用分类精度(ACC)作为评价隐写DNN模型性能的指标。

在SGN中,我们在两个著名的DNN模型上评估了我们的方法:ResNet18 (He等人2016)和U-net (Ronneberger,Fischer,和Brox 2015)。对于ResNet18,我们将Fashion-MNIST (Xiao,Rasul,和Vollgraf 2017)分类任务作为秘密任务,将CIFAR10 (Krizhevsky,Hinton等人2009)分类任务作为模型伪装的隐写任务。对于秘密和隐写数据集,我们使用它们的默认分区进行训练和测试,其中ACC作为性能指标。

对于U-net,我们假设图像去噪任务作为秘密任务,其中U-net在添加高斯噪声后,在从ImageNet (Deng等人2009)随机选择10000/1000张图像的秘密数据集上进行训练/测试。我们计算峰值单噪声比(PSNR)来评估去噪性能。我们将图像分割任务作为模型伪装的隐写任务,其中采用oxford-pet数据集(Parkh等人2012)作为步进数据集。我们随机将Oxford-Pet数据集分成三部分,包括6000张用于训练的图像,1282张用于验证的图像和100张用于测试的图像。我们采用了平均交联(mIOU)作为深度神经网络模型的性能指标。

对于SSN和SGN,我们设置λg=0.01, λe=λt=0.001, λp=0.9, τst=0.01。对于τse,我们分别为HiDDeN、ResNet18和U-net的秘密解码器设置0.0001、0.01和0.5。我们通过Kaimig初始化重新初始化剩余的过滤器(He等人2015)。所有模型都以BN为归一化层,并使用Adam (Kingma和Ba 2014)优化器进行优化。我们所有的实验都是在Ubuntu 18.04系统上进行的,它有四个NVIDIA RTX 1080 Ti gpu。

论文地址:Steganography of Steganographic Networks

没有公布源码文章来源地址https://www.toymoban.com/news/detail-825659.html

到了这里,关于图像处理之《隐写网络的隐写术》论文阅读的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 隐写术之JPEG隐写——F5算法 & Jsteg算法

    一、问题描述 二、程序设计 1. 程序输入 2. 程序输出 3. 程序功能 三、程序实现原理 四、程序具体实现 1.模块设计 ​编辑 2.程序测试与分析 3.代码附录 五、分析总结 使用Jsteg和F5隐写算法对图像进行隐写与隐写分析 task.m:标准图像Lena.tiff,供Jsteg算法隐藏的随机数据data1和供

    2024年02月15日
    浏览(30)
  • OpenStego-隐写术及数字水印添加教程

    OpenStego提供了两个主要功能:         Data hiding,即数据隐藏:它可以隐藏任何数据在封面文件(如图像)。         Digital watermarking,即数字水印:使用不可见签名对文件(如图像)进行水印。它可以用来检测未经授权的文件复制。 Data hiding 数据隐藏在这种模式下,你既可以隐

    2024年02月03日
    浏览(38)
  • 信息安全复习四:置换密码&乘积密码&隐写术

    置换密码、Rail Fence密码、行置换密码、乘积密码、转子机、隐写术 重新排列明文字母,达到信息加密的目的。 与替代密码不同的是,原来明文中的字母同样出现在密文中,只是顺序被打断。 古典的置换密码的例子:Rail Fence密码、行置换密码、乘积密码、转子机、隐写术 羊

    2024年02月10日
    浏览(82)
  • 基于DNA的密码学和隐写术综述

    摘要 本文全面调研了不同的脱氧核糖核酸(DNA)-基于密码学和隐写术技术。基于DNA的密码学是一个新兴领域, 利用DNA分子的大规模并行性和巨大的存储容量来编码和解码信息。 近年来,由于其相对传统密码学方法的潜在优势,如高存储容量、低错误率和对环境因素的抗性,

    2024年01月16日
    浏览(43)
  • 图像处理之《用于统一源跟踪和深度伪造检测的深度可分离水印SepMark》论文精读

    一、文章摘要 恶意的Deepfakes导致了一场关于区分真脸和伪造脸的激烈冲突。尽管已经制定了许多事后检测Deepfakes的对策,但毫无疑问,在可预见的操作之前,被动取证没有考虑对原始人脸采取任何预防措施。为了完成这个取证生态系统,我们提出了名为SepMark的主动式解决方

    2024年01月23日
    浏览(67)
  • 生成对抗网络GAN简介- 图像处理应用

    GAN是一种由两部分组成的神经网络架构,通常用于生成逼真的图像。这两部分是生成器(Generator)和判别器(Discriminator)。 生成器(Generator) :它的目标是创建逼真的图像。这些图像是从随机噪声开始生成的,生成器试图使其尽可能接近真实数据分布。 判别器(Discriminat

    2024年01月18日
    浏览(42)
  • 15.1 BP神经网络实现图像压缩——了解神经网络在图像处理方面的应用(matlab程序)

    1. 简述        BP神经网络现在来说是一种比较成熟的网络模型了,因为神经网络对于数字图像处理的先天优势,特别是在图像压缩方面更具有先天的优势,因此,我这一段时间在研究神经网络的时候同时研究了一下关于BP网络实现图像压缩的原理和过程,并且是在MATLAB上进行了仿真

    2024年02月12日
    浏览(41)
  • [全连接神经网络]Transformer代餐,用MLP构建图像处理网络

            使用纯MLP处理图像信息,其原理类似vit,将图片进行分块(patch)后展平(fallten),然后输入到MLP中。理论上MLP等价于1x1卷积,但实际上1x1卷积 仅能结合通道信息 而不能结合空间信息。根据结合的信息不同分为channel-mixing MLPs和token-mixing MLPs。        总体结构如下图

    2024年01月21日
    浏览(47)
  • 模式识别与图像处理课程实验二:基于UNet的目标检测网络

    实验采用Unet目标检测网络实现对目标的检测。例如检测舰船、车辆、人脸、道路等。其中的Unet网络结构如下所示 U-Net 是一个 encoder-decoder 结构,左边一半的 encoder 包括若干卷积,池化,把图像进行下采样,右边的 decoder 进行上采样,恢复到原图的形状,给出每个像素的预测

    2023年04月08日
    浏览(48)
  • 图像处理与计算机视觉--第七章-神经网络-单层感知器

      下图是一个简单的感知器模型图:                 在输出层的每一个节点上接受来自输入层的加权和作为输出层的净输入如下所示: n e t j ′ = ∑ i = 1 n w i j x i mathrm{net}_{j}^{prime}=sum_{i=1}^{n}w_{ij}x_{i} net j ′ ​ = i = 1 ∑ n ​ w ij ​ x i ​ 输出的值由激活

    2024年02月06日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包