目前在做运动想象分类,复现了一些代码,分享一下经验,并上传了这个资源
原论文:
EEG-TCNet: An Accurate Temporal Convolutional Network for Embedded Motor-Imagery Brain–Machine Interfaces
摘要:
近年来,深度学习(DL)为改善基于脑电图的运动-图像脑-机器接口(MI-BMI)做出了重大贡献。机器接口(MI-BMIs)做出了巨大贡献。在实现高分类精度的同时,DL模型的规模也在扩大,需要大量的内存和计算资源。这给嵌入式BMI解决方案带来了重大挑战,该方案要保证用户的隐私,减少延迟,并通过以下方式降低功耗 延迟,并通过本地处理数据实现低功耗。本地化。在本文中,我们提出了EEG-TCNET,一种新型的时间卷积网络(TCN),它可以实现出色的准确性。卷积网络(TCN),实现了出色的精度。同时需要很少的可训练数。它的低内存占用和推理的低计算复杂度使其适用于资源有限的设备上的嵌入式分类在边缘。在BCI竞赛IV-2a数据集上的实验结果显示,EEG-TCNET在4类MI中实现了77.35%的分类精度。通过找到每个主题的最佳网络超参数,我们将准确率进一步提高到 83.84%. 最后,我们展示了EEG-TCNET的多功能性。在所有BCI基准之母(MOABB)上的多功能性。测试基准包含12个不同的EEG数据集和MI 实验。结果表明,EEG-TCNET成功地超越了单一的数据集。在MOABB上的表现优于目前最先进的SoA。最先进的(SoA)在MOABB上的元效应为0.25
技术路线图
备注:
1.与代码中使用的环境不同,我使用了我在python3.6、tf1.13.1跑通,建议按照yml环境来。
2.源码无数据,而且放数据的方式有些麻烦,稍作修改,直接将数据放进data文件里,就可以读到数据。
3.修改了fit函数,可以输出训练过程。
复现:
备注:
相关源码已上传至我的资源,可自取。数据集过大无法上传到CSDN资源,链接如下文章来源:https://www.toymoban.com/news/detail-624129.html
源码文章来源地址https://www.toymoban.com/news/detail-624129.html
到了这里,关于运动想象代码复现,数据集BCI IV-2a的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!