四大攻击类型并存,NIST 警告人工智能系统带来的安全和隐私风险

这篇具有很好参考价值的文章主要介绍了四大攻击类型并存,NIST 警告人工智能系统带来的安全和隐私风险。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

美国国家标准与技术研究院 (NIST) 近日发布了有关对抗性机器学习 (AML) 攻击和缓解措施指南, 呼吁人们再度关注近年来人工智能 (AI) 系统部署增加所带来的隐私和安全挑战,并表示这类系统目前没有万无一失的方法进行保护。

NIST指出,这些安全和隐私挑战包括恶意操纵训练数据、恶意利用模型漏洞对人工智能系统的性能造成不利影响,甚至是恶意操纵、修改或仅仅是与模型交互,就可以外泄关乎个人、企业甚至是模型本身专有的敏感数据。

伴随着OpenAI ChatGPT 和 Google Bard 等生成式人工智能系统的出现,人工智能系统正快速融入在线服务,但支持这些技术的模型在机器学习操作的各个阶段都面临着许多威胁。NIST ,重点关注了四种主要类型的攻击:逃避、中毒、隐私和滥用。

  • 规避攻击:目的是在模型部署后产生对抗性输出
  • 中毒攻击:通过引入损坏的数据,针对算法的训练阶段进行攻击
  • 隐私攻击:目的是通过提出规避现有防护措施的问题,收集有关系统或其训练数据的敏感信息
  • 滥用攻击:目的是破坏合法的信息来源,如包含错误信息的网页,以重新利用系统的预期用途

在规避攻击中,NIST 以对自动驾驶车辆的攻击作为示例,例如创建令人困惑的车道标记导致汽车偏离道路。

四大攻击类型并存,NIST 警告人工智能系统带来的安全和隐私风险,人工智能,安全

针对自动驾驶车辆的规避攻击

在中毒攻击中,攻击者试图在人工智能训练期间引入损坏的数据。例如,通过将大量此类语言实例植入对话记录中,让聊天机器人使用不恰当的语言,以使人工智能相信这是常见的用语。

在隐私攻击中,攻击者试图通过询问聊天机器人大量问题,并使用给出的答案对模型进行逆向工程,进而发现弱点来获取有关人工智能或其训练数据中存在的敏感数据。

滥用攻击涉及将不正确的信息插入到源中,例如网页或在线文档,然后人工智能吸收这些信息。与前面提到的中毒攻击不同,滥用攻击试图从合法但受损的来源向人工智能提供不正确的信息,以重新调整人工智能系统的预期用途。

NIST表示,上述攻击并不需要完全掌握人工智能系统某些方面就可以轻松实施,希望科技界能拿出更好的防御措施来应对这些风险。

参考来源:

NIST Warns of Security and Privacy Risks from Rapid AI System Deployment

NIST: No Silver Bullet Against Adversarial Machine Learning Attacks文章来源地址https://www.toymoban.com/news/detail-778439.html

到了这里,关于四大攻击类型并存,NIST 警告人工智能系统带来的安全和隐私风险的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 基于深度学习的人工智能安全:威胁检测、攻击防御和安全评估

    作者:禅与计算机程序设计艺术 随着人工智能技术的不断发展,给社会带来的影响越来越大。越来越多的企业和个人都依赖于AI产品或服务,同时也面临着各种各样的安全风险,比如身份验证缺失、数据泄露、恶意软件等。如何保障AI产品及服务的安全,成为当前和未来的重

    2024年02月13日
    浏览(23)
  • AI人工智能大模型失守!ChatGPT、BARD、BING、Claude 相继被"提示攻击"攻陷!

    “  提示攻击,一种利用巧妙的技巧和迷惑性的指令,让这些顶尖的语言模型产生混乱或错误的回答的方法。 ” 01 — 什么是提示攻击‍‍ 之前在文章:已证实:GPT不能提供有效的Windows11的密钥 提到,有人曾利用让 ChatGPT 扮演他的奶奶讲睡前故事的方式,诱使大模型说出了

    2024年02月14日
    浏览(20)
  • Java 四大引用类型

    GC 回收的优先级上 : 强引用 - 软引用 - 弱引用 - 虚引用 当内存不足, JVM 开始进行 gc 时,对于强引用的对象不会进行回收,即使出现了 OOM 也不会回收。因此,强引用是造成内存泄露的主要原因。 当进行 GC 时,如果内存还足够,则不进行回收该对象,若内存不够,则回收该

    2024年02月11日
    浏览(19)
  • Rust 的四大类型的宏 (元编程)

    Rust 的宏体系:主要分为 声明式函数宏 Function Macro 与 过程宏(Procedural Macro) ,其中过程宏 (proc_macro)又有 类函数的过程宏 (Function-like-procedural-macros)、 过程属性宏 (Attribute Macro)和 过程派生宏 (Derive Macro)。而属性宏(Attribute Macro)和派生宏(Derive Macro)是两个比较

    2024年02月11日
    浏览(18)
  • HTTP四大参数类型及请求参数的方式和如何接收

    请求头参数顾名思义,是存放在请求头中发送给服务器的参数,服务器通过解析请求头获取参数内容。通常会存放本次请求的基本设置,以帮助服务器理解并解析本次请求的body体。 参数形式如: 在我们的SpringBoot中,通过 @RequestHeader 注解可以获取到。 Spring Boot 读取http head

    2024年02月03日
    浏览(19)
  • 变量的四大存储类型static extern auto register

    在C语言中变量和函数有数据类型和存储类型两个属性,因此变量定义的一般形式为: 存储类型 数据类型 变量名表; C语言提供了一下几种不同的存储类型: (1) 自动变量(auto) (2) 静态变量(static) (3) 外部变量(extern) (4) 寄存器变量(register) 下面一个一个介

    2024年02月04日
    浏览(22)
  • Web起步依赖警告:提供可传递的易受攻击的依赖项 maven:org.yaml:snakeyaml:1.33

    升级依赖项版本 警告:提供可传递的易受攻击的依赖项 maven:org.yaml:snakeyaml:1.33 SpringBoot在3.2.0版本已经将问题修复,如果你的版本低于3.2.0,可以通过升级依赖项版本来解决依赖警告的问题。

    2024年02月21日
    浏览(17)
  • 什么是狭义人工智能、通用人工智能和超级人工智能?

    人工智能 (AI) 是一种机器智能,它模仿人类思维的解决问题和决策能力来执行各种任务。 。 人工智能使用机器学习和深度学习等算法和技术来学习、发展并在分配的任务中逐渐做得更好。根据人工智能可以复制的人类特征、现实世界的应用和心智理论的先决条件,人工智能

    2024年02月11日
    浏览(20)
  • 记录一次被DDOS攻击,攻击类型:UDPFLOOD

    于2022年2月26日,收到了腾讯的告警邮件 上2图可以看到,于26日9点26开始至28分结束,被攻击2分钟,峰值GB级别。 腾讯云直接对我的云机进行了封堵(外网离线) 下面来分析下攻击来源及防范策略。 来源: 查看了nginx的日志 发现了大量陌生IP 然后我进行了查询,发现攻击I

    2024年02月15日
    浏览(24)
  • 探索人工智能:深度学习、人工智能安全和人工智能编程(文末送书)

    人工智能知识对于当今的互联网技术人来说已经是刚需。但人工智能的概念、流派、技术纷繁复杂,选择哪本书入门最适合呢? 这部被誉为人工智能“百科全书”的《人工智能(第3版)》,可以作为每个技术人进入 AI 世界的第一本书。 购书链接,限时特惠5折 这本书是美国

    2024年02月03日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包