基于可解释性特征矩阵与稀疏采样全局特征组合的人体行为识别

这篇具有很好参考价值的文章主要介绍了基于可解释性特征矩阵与稀疏采样全局特征组合的人体行为识别。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文还未发表,不细说,欢迎讨论。

Title: A New Solution to Skeleton-Based Human Action Recognition via the combination usage of explainable feature extraction and sparse sampling global features.

Abstract: With the development of deep learning technology, the vision-based applications of human action recognition (HAR) have received great progress. Many methods followed the idea of data-driven and tried their best to include more and more motion features in consideration for higher accuracy purposes. However, the thought of “the more features adopted, the higher accuracy will be”will inevitably result in the ever-increasing requirement of computing power and decreasing efficiency. In this paper, in order to effectively recognize human actions with only a few of the most sensitive motion features, the explainable features, the combining usage of local and global features, and a multi-scale shallow network are proposed. First, the explainable features let a deep neural network be finetuned in the input stage, and an action represented by these features are easier to find priori theory of physics and kinematics for data augmentation purpose. Second, although criticism of the global features never stops, it is universally acknowledged that the context information included in the global feature is essential to HAR. The proposed SMHI—motion history image generated in a sparse sampling way, can not only reduce the time-cost, but also effectively reflect the motion tendency. It is suggested to be a useful complementary of local features. Third, full experiments were conducted to find out the best feature combination for HAR. The results have proved that feature selection is more important than computing all features. The proposed method is evaluated on three datasets. The experiment results proved the effectiveness and efficiency of our proposed method. Moreover, the only usage of human skeleton motion data provides privacy assurances to users.

现在大多数方法有两个问题:1. 将尽可能多的特征纳入到输入端,虽然可以增强准确率,但增加了计算负担,而且模型越来越臃肿;2. 全局特征一直处于被抛弃的境地,而其包含的上下文信息却有非常重要。针对这两点,我尝试用物理学和运动学中的先验知识提取人体行为动作特征,使其具备可解释性,然后对其优化和数据增强。并进一步找到其最有效的组合。同时,通过稀疏采样的方式构建MHI,即:只提取其运动趋势特征。使之作为local feature的有效补充。实验结果良好,特别是在效率方面有质的提升。本文的主要创新点在于跳出了主流“数据驱动”特征越多越好的传统思路,通过实验证明:特征选择远比计算所有特征更为重要。

基于可解释性特征矩阵与稀疏采样全局特征组合的人体行为识别,深度学习,计算机视觉,人工智能,深度学习,神经网络文章来源地址https://www.toymoban.com/news/detail-715261.html

到了这里,关于基于可解释性特征矩阵与稀疏采样全局特征组合的人体行为识别的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习中模型解释性问题笔记

            模型解释性是指能够理解和解释机器学习模型如何做出预测或决策的能力。以下是一些机器学习中模型解释性问题的例子: 医疗诊断:在医疗诊断领域,模型解释性非常重要。例如,当使用深度学习模型进行肿瘤诊断时,医生需要知道模型是基于哪些特征或区域

    2024年02月13日
    浏览(49)
  • 机器学习可解释性一(LIME)

    随着深度学习的发展,越来越多的模型诞生,并且在训练集和测试集上的表现甚至于高于人类,但是深度学习一直被认为是一个黑盒模型,我们通俗的认为,经过训练后,机器学习到了数据中的特征,进而可以正确的预测结果,但是,对于机器到底学到了什么,仍然是个黑盒

    2024年01月19日
    浏览(30)
  • 模型可解释性 DeepLIFT 论文解析

    论文标题: Learning Important Features Through Propagating Activation Differences 论文作者: Avanti Shrikumar,   Peyton Greenside,   Anshul Kundaje 论文发表时间及来源:Oct 2019,ICML 论文链接: http://proceedings.mlr.press/v70/shrikumar17a/shrikumar17a.pdf 1. DeepLIFT理论         DeepLIFT解释了目标输入、目标输出

    2024年02月11日
    浏览(30)
  • 神经网络的可解释性方法

    全局可解释性方法 局部可解释性方法: Shap Value Permutation 积分梯度法: 避免了直接以梯度作为特征重要性所带来的梯度饱和问题 Algorithm Descriptions · Captum

    2024年02月09日
    浏览(32)
  • 【机器学习可解释性】4.SHAP 值

    1.模型洞察的价值 2.特征重要性排列 3.部分依赖图 4.SHAP 值 5.SHAP值的高级使用 理解各自特征的预测结果? 介绍 您已经看到(并使用)了从机器学习模型中提取一般解释技术。但是,如果你想要打破模型对单个预测的工作原理? SHAP 值 (SHapley Additive exPlanations的首字母缩写)对预测进

    2024年02月08日
    浏览(38)
  • 【机器学习可解释性】3.部分依赖图

    1.模型洞察的价值 2.特征重要性排列 3.部分依赖图 4.SHAP 值 5.SHAP值的高级使用 每个特征怎么样影响预测结果? 部分依赖图 Partial Dependence Plots 虽然特征重要性显示了哪些变量对预测影响最大,但部分依赖图显示了特征如何影响预测。 这对于回答以下问题很有用: 控制所有其

    2024年02月07日
    浏览(41)
  • 【可解释性机器学习】详解Python的可解释机器学习库:SHAP

    可解释机器学习 在这几年慢慢成为了机器学习的重要研究方向。作为数据科学家需要防止模型存在偏见,且帮助决策者理解如何正确地使用我们的模型。越是严苛的场景,越 需要模型提供证明它们是如何运作且避免错误的证据 。 关于模型解释性,除了线性模型和决策树这种

    2023年04月09日
    浏览(29)
  • 使用BERT分类的可解释性探索

    最近尝试了使用BERT将告警信息当成一个文本去做分类,从分类的准召率上来看,还是取得了不错的效果(非结构化数据+强标签训练,BERT确实是一把大杀器)。但准召率并不是唯一追求的目标,在安全场景下,不仅仅需要模型告诉我们分类结果,还必须把这么分类的原因给输

    2024年02月15日
    浏览(33)
  • 可解释性AI(XAI)之 初相识

     可解释性AI(XAI)的概念产生 可解释性AI(XAI)是一个相对较新的概念,旨在提高人工智能系统的透明度和可理解性,使人们更好地理解AI的决策过程和原理。随着AI技术的广泛应用,XAI成为了一个备受关注的重要领域。它不仅有助于建立人们对AI的信任,还可以帮助解决AI伦

    2024年02月22日
    浏览(30)
  • 【可解释AI】图神经网络的可解释性方法及GNNexplainer代码示例

    深度学习模型的可解释性有助于增加对模型预测的信任, 提高模型对与公平、隐私和其他安全挑战相关的关键决策应用程序的透明度,并且可以让我们了解网络特征,以便在将模型部署到现实世界之前识别和纠正模型所犯错误的系统模式。 图在现实世界中无处不在,代表社

    2024年02月07日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包