面向智能博弈的决策 Transformer 方法综述

这篇具有很好参考价值的文章主要介绍了面向智能博弈的决策 Transformer 方法综述。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

源自:指挥与控制学报

作者:罗俊仁  张万鹏  苏炯铭  王尧  陈璟

摘 要

智能博弈是认知决策智能领域的挑战性问题, 是辅助联合作战筹划与智能任务规划的关键支撑. 从协作式团队博弈、竞争式零和博弈和混合式一般和博弈共 3 个角度梳理了智能博弈模型, 从认知角度出发定义了运筹型博弈(完全 / 有限理性)、不确定型博弈(经验 / 知识)、涌现探索型博弈(直觉 + 灵感)、群体交互型博弈(协同演化)共 4 类智能博弈认知模型, 从问题可信任解、策略训练平台、问题求解范式共 3 个视角给出智能博弈求解方案. 基于 Transformer 架构重点梳理了架构增强(表示学习、网络组合、模型扩展)与序列建模(离线预训练、在线适变、模型扩展)共 2 大类 6 小类决策 Transformer 方法, 相关研究为开展“离线预训练 + 在线适变”范式下满足多主体、多任务、多模态及虚实迁移等应用场景的决策预训练模型构建提供了初始参考. 为智能博弈领域的决策基石模型相关研究提供可行借鉴.

关键词

智能博弈, 智能规划与决策, 认知建模, 离线预训练, 在线适变, 决策基石模型

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

1 智能博弈与规划决策

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

2 智能博弈问题求解

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

 

3 决策 Transformer 方法

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

面向智能博弈的决策 Transformer 方法综述

4 结 论

面向智能博弈的决策 Transformer 方法综述

声明:公众号转载的文章及图片出于非商业性的教育和科研目的供大家参考和探讨,并不意味着支持其观点或证实其内容的真实性。版权归原作者所有,如转载稿涉及版权等问题,请立即联系我们删除。文章来源地址https://www.toymoban.com/news/detail-465481.html

到了这里,关于面向智能博弈的决策 Transformer 方法综述的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Vision Transformer综述 总篇

    Transformer首先应用于自然语言处理领域,是一种以自我注意机制为主的深度神经网络。由于其强大的表示能力,研究人员正在寻找将变压器应用于计算机视觉任务的方法。在各种视觉基准测试中,基于变压器的模型表现类似或优于其他类型的网络,如卷积和循环神经网络。由

    2024年02月09日
    浏览(36)
  • 0829【综述】面向时空数据的区块链研究综述

    摘要: 时空数据包括时间和空间2个维度,常被应用于物流、供应链等领域。传统的集中式存储方式虽然具有一定的便捷性,但不能充分满足时空数据存储及查询等要求,而区块链技术采用去中心化的分布式存储机制,并通过共识协议来保证数据的安全性。研究现有区块链1.0、2.0和以

    2024年02月10日
    浏览(33)
  • transformer综述汇总与变形分析(持续更新)

    Note: 本文收集transformer领域的较流行的综述文章,将认为比较重要的内容整理在一起,用于学习和提供思路。 1.谷歌:Efficient Transformers: A Survey(2020年9月-新手不建议阅读) 该综述关注各种“X-former”的变形,重要关注模型效率的改进以及有关计算复杂度的模型讨论,作者称为

    2024年02月04日
    浏览(64)
  • 具身智能controller---RT-1(Robotics Transformer)(上---方法介绍)

    github链接 主页链接(包括论文和训练数据集) 迁移学习在计算机视觉领域已有很多研究,但在端到端的机器人学习控制的领域研究还比较少,本论文提出通用的机器人模型一个关键点在于开放式的(open-ended)任务不可知的(task-agnostic)训练, 有着高容量(high-capacity)的网络结构

    2024年02月15日
    浏览(34)
  • 从CNN ,LSTM 到Transformer的综述

    前情提要:文本大量参照了以下的博客,本文创作的初衷是为了分享博主自己的学习和理解。对于刚开始接触NLP的同学来说,可以结合唐宇迪老师的B站视频【 【NLP精华版教程】强推!不愧是的最完整的NLP教程和学习路线图从原理构成开始学,学完可实战!-哔哩哔哩】 https

    2024年01月23日
    浏览(41)
  • Transformer在医学影像中的应用综述-分类

    总体结构 Point-of-Care Transformer(POCFormer):利用Linformer将自注意的空间和时间复杂度从二次型降低到线性型。POCFormer有200万个参数,约为MobileNetv2的一半,因此适合于实时诊断。 Vision Outlooker (VOLO):新注意机制,将精细级特征编码为ViT token 表征,从而提高分类性能。 Swin Transfor

    2024年02月11日
    浏览(34)
  • 【计算机视觉】最新综述:南洋理工和上海AI Lab提出基于Transformer的视觉分割综述

    SAM (Segment Anything )作为一个视觉的分割基础模型,在短短的3个月时间吸引了很多研究者的关注和跟进。如果你想系统地了解SAM背后的技术,并跟上内卷的步伐,并能做出属于自己的SAM模型,那么接下这篇Transformer-Based的Segmentation Survey是不容错过! 近期,南洋理工大学和上

    2024年02月12日
    浏览(56)
  • 面向机器人操作任务的视触觉传感技术综述

    【摘 要】 得益于高空间分辨率、多触觉模式的感知,视触觉传感技术已被广泛应用到机器人主动感知、位姿估计及掌内操作等各类机器人操作任务中。首先根据传感原理分类总结了目前主流的视触觉传感技术,主要可分为GelSight类视触觉传感器、双(多)目视触觉传感器以及

    2024年02月03日
    浏览(40)
  • 【时间序列综述】Transformer in Time Series:A Survey 论文笔记

    文章全名:Transformers in Time Series: A Survey 文章链接:[论文地址]([2202.07125v2] Transformers in Time Series: A Survey (arxiv.org)) 来源:IJCAI 2023 完成单位:阿里巴巴达摩院、上海交通大学 Transformer在自然语言处理和计算机视觉领域都取得了诸多成果,Transformer的捕获长距离依赖和交互的能力

    2024年04月26日
    浏览(45)
  • AIGC原理:扩散模型diffusion综述一:面向视觉计算的扩散模型研究进展

    论文地址:State of the Art on Diffusion Models for Visual Computing 👉 贴一幅SGM(Score-based Generative Model)的原因是宋飏博士将他2019年提出的SMLD模型和2020年Jonathan Ho提出的DDPM采用SDE进行一统这两大极为相似的生成式模型。殊途同归,基于概率的扩散模型DDPM和基于分数的扩散模型SMLD都是

    2024年02月05日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包