【论文阅读】Untargeted Backdoor Attack Against Object Detection(针对目标检测的无目标后门攻击)

这篇具有很好参考价值的文章主要介绍了【论文阅读】Untargeted Backdoor Attack Against Object Detection(针对目标检测的无目标后门攻击)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一.论文信息

论文题目: Untargeted Backdoor Attack Against Object Detection(针对目标检测的无目标后门攻击)

发表年份: 2023-ICASSP(CCF-B)

作者信息:

  • Chengxiao Luo (清华大学深圳国际研究生院)
  • Yiming Li(清华大学深圳国际研究生院)
  • Yong Jiang(清华大学深圳国际研究生院,鹏程实验室人工智能研究中心)
  • Shu-Tao Xia(清华大学深圳国际研究生院,鹏程实验室人工智能研究中心)

二.论文内容

abstract

Recent studies revealed that deep neural networks (DNNs) are exposed to backdoor threats when training with third-party resources (such as training samples or backbones). The backdoored model has promising performance in predicting benign samples, whereas its predictions can be maliciously manipulated by adversaries based on activating its backdoors with pre-defined trigger patterns. Currently, most of the existing backdoor attacks were conducted on the image classification under the targeted manner. In this paper, we reveal that these threats could also happen in object detection, posing threatening risks to many mission-critical applications (e.g., pedestrian detection and intelligent surveillance systems). Specifically, we design a simple yet effective poisononly backdoor attack in an untargeted manner, based on task characteristics. We show that, once the backdoor is embedded into the target model by our attack, it can trick the model to lose detection of any object stamped with our trigger patterns. We conduct extensive experiments on the benchmark dataset, showing its effectiveness in both digital and physical-world settings and its resistance to potential defenses.

中文摘要

最近的研究表明,深度神经网络(Deep Neural Network,DNNs)在使用第三方资源(如训练样本或主干网络)进行训练时容易受到后门威胁。后门模型在预测良性样本方面具有良好的性能,然而,基于使用预定义的触发模式激活其后门,其预测可能被对手恶意操纵。目前,已有的后门攻击大多以有针对性的方式针对图像分类进行。在本文中,我们揭示了这些威胁也可能发生在目标检测中,对许多关键任务应用(例如行人检测和智能监控系统)构成威胁风险。具体而言,基于任务特征,以无针对性的方式设计了一种简单而有效的后门攻击。一旦后门被攻击嵌入到目标模型中,它就可以欺骗模型,使其对任何带有触发模式的对象失去检测。在基准数据集上进行了广泛的实验,表明了其在数字和物理世界设置中的有效性,以及对潜在防御的抵抗。

1.论文概述

这是一篇发表在2023年ICASSP会议上的关于目标检测后门攻击的论文。与以往工作不同,以往工作主要关注图像分类任务的后门攻击,而本工作则关注目标检测任务的后门攻击(而且不针对特定目标)。

2.背景介绍

目标检测的目的是对图像中的一组对象进行定位并识别其类别[1]。它已被广泛应用于关键任务应用(例如行人检测[2]和自动驾驶[3])。因此,有必要确保其安全。目前,最先进的目标检测器都是基于深度神经网络(deep neural networks, dnn)设计的[4,5,6],而深度神经网络的训练通常需要大量的资源。为了减轻训练负担,研究人员和开发人员通常会利用第三方资源(如训练样本或骨干网络backbone),甚至直接部署第三方模型。一个重要的问题出现了:训练不透明性是否会给目标检测带来新的威胁?文章来源地址https://www.toymoban.com/news/detail-709478.html

3.作者贡献

  • 揭示了目标检测中的后门威胁。据我们所知,这是针对这项关键任务的第一次后门攻击。与现有的方法不同(现有的方法主要是针对分类任务设计的,且是有针对性的攻击,要与特定的目标标签相关联),本文关注目标检测任务的后门攻击,使经过中毒数据训练过的模型,在良性样本上表现出正常行为,但在特定触发模式下会让目标逃脱检测。
  • 后门攻击是发生在训练阶段的一种攻击,作者提出了一种简单而有效的攻击方法,即:在添加预定义触发模式后移除一些随机选择对象的边界框。 作者认为攻击是隐形的,可以绕过人工检查,因为当图像包含许多对象时通常会漏标一些边界框。
  • 作者在基准数据集上进行了大量实验,验证了我们的攻击的有效性及其对潜在后门防御的抵抗力。

4.重点图表

到了这里,关于【论文阅读】Untargeted Backdoor Attack Against Object Detection(针对目标检测的无目标后门攻击)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【论文阅读】 Few-shot object detection via Feature Reweighting

    Few-shot object detection的开山之作之一 ~~ 属于Metric-based Methods 特征学习器使用来自具有足够样本的基本类的训练数据来 提取 可推广以检测新对象类的meta features。The reweighting module将新类别中的一些support examples转换为全局向量,该全局向量indicates meta features对于检测相应物体的重

    2023年04月09日
    浏览(42)
  • 论文阅读 The Power of Tiling for Small Object Detection

    Abstract 基于深度神经网络的技术在目标检测和分类方面表现出色。但这些网络在适应移动平台时可能会降低准确性,因为图像分辨率的增加使问题变得更加困难。在低功耗移动设备上实现实时小物体检测一直是监控应用的基本问题之一。在本研究中,我们解决了在高分辨率微

    2024年02月11日
    浏览(45)
  • 论文阅读:YOLOV: Making Still Image Object Detectors Great at Video Object Detection

    发表时间:2023年3月5日 论文地址:https://arxiv.org/abs/2208.09686 项目地址:https://github.com/YuHengsss/YOLOV 视频物体检测(VID)具有挑战性,因为物体外观的高度变化以及一些帧的不同恶化。有利的信息是,与静止图像相比在视频的某一帧中检测,可以从其他帧中获得支持。因此,如

    2024年02月01日
    浏览(38)
  • 论文阅读:CenterFormer: Center-based Transformer for 3D Object Detection

    目录 概要 Motivation 整体架构流程 技术细节 Multi-scale Center Proposal Network Multi-scale Center Transformer Decoder Multi-frame CenterFormer 小结 论文地址: [2209.05588] CenterFormer: Center-based Transformer for 3D Object Detection (arxiv.org) 代码地址: GitHub - TuSimple/centerformer: Implementation for CenterFormer: Center-base

    2024年02月07日
    浏览(43)
  • 【论文阅读笔记】MobileSal: Extremely Efficient RGB-D Salient Object Detection

    MobileSal: Extremely Efficient RGB-D Salient Object Detection MobileSal:极其高效的RGB-D显著对象检测 2021年发表在 IEEE Transactions on Pattern Analysis and Machine Intelligence。 Paper Code 神经网络的高计算成本阻碍了RGB-D显着对象检测(SOD)的最新成功,使其无法用于现实世界的应用。因此,本文介绍了

    2024年01月18日
    浏览(40)
  • 论文阅读 (88):Adversarial Examples for Semantic Segmentation and Object Detection

    题目 :用于语义分割和目标检测的对抗样本 核心点 :将对抗性样本的概念扩展到语义分割和对象检测,并提出 稠密对抗生成算法 (Dense adversary generation, DAG)。 引用 : 令 X mathbf{X} X 表示包含 N N N 个识别目标 T = { t 1 , t 2 , … , t N } mathcal{T}={t_1,t_2,dots,t_N} T = { t 1 ​ , t 2 ​

    2024年02月01日
    浏览(57)
  • Object Class Aware Video Anomaly Detection through Image Translation 论文阅读

    文章信息: 原文链接:https://arxiv.org/abs/2205.01706 源代码:无 发表于:CRV 2022 半监督视频异常检测(VAD)方法将异常检测任务表述为对学习到的正常模式的偏离进行检测。 该领域中的先前工作(基于重建或预测的方法)存在两个缺点 : 1)它们专注于低级特征,特别是整体方

    2024年01月23日
    浏览(46)
  • 论文阅读——Large Selective Kernel Network for Remote Sensing Object Detection

    期刊 CVPR 年份 2023 论文地址 https://arxiv.org/pdf/2303.09030.pdf 代码地址 https://github.com/zcablii/LSKNet 遥感目标检测的大选择核网络 相对较少的工作考虑到强大的先验知识存在于遥感图像。航空图像通常是用高分辨率的鸟瞰图拍摄的。特别是,航拍图像中的大多数物体可能体积较小,

    2024年02月08日
    浏览(50)
  • 论文阅读<Contrastive Learning-based Robust Object Detection under Smoky Conditions>

    论文链接:https://openaccess.thecvf.com/content/CVPR2022W/UG2/papers/Wu_Contrastive_Learning-Based_Robust_Object_Detection_Under_Smoky_Conditions_CVPRW_2022_paper.pdf         目标检测是指有效地找出图像中感兴趣的目标,然后准确地确定它们的类别和位置。近年来,许多优秀的方法被开发出来,以提供强

    2024年02月04日
    浏览(47)
  • 【论文阅读】DQnet: Cross-Model Detail Querying for Camouflaged Object Detection

    DQnet:伪装目标检测中的跨模型细节查询 论文地址:https://arxiv.org/abs/2212.08296 这篇文章提出了一个交叉模型框架(CNN-Transformer并行)来检测伪装目标 出发点还是:CNN局部感知,感受野受限 ,Transformer全局信息丰富但细节信息不足。希望结合二者优势 这个思路目前做的挺多的

    2024年02月16日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包