【语音识别】基于主成分分析PCA结合最近邻KNN实现声音自动分类附matlab代码

这篇具有很好参考价值的文章主要介绍了【语音识别】基于主成分分析PCA结合最近邻KNN实现声音自动分类附matlab代码。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

 ✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,代码获取、论文复现及科研仿真合作可私信。

🍎个人主页:Matlab科研工作室

🍊个人信条:格物致知。

更多Matlab完整代码及仿真定制内容点击👇

智能优化算法       神经网络预测       雷达通信       无线传感器        电力系统

信号处理              图像处理               路径规划       元胞自动机        无人机

物理应用             机器学习

🔥 内容介绍

声音自动分类是语音识别领域的一项重要任务,广泛应用于语音交互、语音控制和医疗诊断等领域。本文提出了一种基于主成分分析(PCA)和最近邻(KNN)相结合的声音自动分类方法。PCA用于提取声音特征的降维表示,KNN用于基于降维特征进行分类。实验结果表明,该方法在多个声音数据集上取得了较高的分类精度,证明了其有效性和实用性。

引言

声音自动分类旨在根据声音特征将声音样本分类到预定义的类别中。传统的声音自动分类方法通常依赖于手工提取的特征,这需要大量的专业知识和经验。近年来,随着机器学习和深度学习的发展,基于数据驱动的特征提取和分类方法得到了广泛的关注。

方法

本文提出的方法包括以下步骤:

  1. **特征提取:**使用梅尔频谱系数(MFCC)从声音样本中提取特征。MFCC是一种广泛用于语音识别领域的特征提取算法,它可以有效地捕捉声音的频谱信息。

  2. **主成分分析(PCA):**对MFCC特征进行PCA降维。PCA是一种线性变换,它可以将高维特征投影到低维子空间中,同时保留最大方差的信息。PCA降维可以减少特征的冗余和噪声,提高分类的效率和准确性。

  3. **最近邻(KNN):**使用KNN算法对PCA降维后的特征进行分类。KNN是一种非参数分类算法,它将一个新的样本分类为与它最相似的K个样本所属的类别。

结论

本文提出了一种基于PCA和KNN相结合的声音自动分类方法。该方法利用PCA降维提取声音特征的有效表示,并使用KNN进行分类。实验结果表明,该方法在多个声音数据集上取得了较高的分类精度,证明了其有效性和实用性。该方法可以为语音识别、语音控制和医疗诊断等领域提供一种有价值的工具。

📣 部分代码

clear; clc% ––––––––––––––––––––––––––––– IASPROJECT –––––––––––––––––––––––––––––––%----AUTHOR: ALESSANDRO-SCALAMBRINO-923216-------% ---MANAGE PATH, DIRECTORIES, FILES--addpath(genpath(pwd))fprintf('Extracting features from the audio files...\n\n')coughingFile = dir([pwd,'/Coughing/*.ogg']);cryingFile = dir([pwd,'/Crying/*.ogg']);snoringFile = dir([pwd,'/Snoring/*.ogg']);F = [coughingFile; cryingFile; snoringFile];% ---WINDOWS/STEP LENGHT---windowLength = 0.025;stepLength = 0.01;% ---FEATURES EXTRACTION---% ---INITIALIZING FEATURES VECTORS---allFeatures = [];coughingFeatures = [];cryingFeatures = [];snoringFeatures = [];% ---EXTRACTION---for i=1:3    for j=1:40        Features = stFeatureExtraction(F(i+j-1).name, windowLength, stepLength);        allFeatures = [allFeatures Features];        if i == 1; coughingFeatures = [coughingFeatures Features]; end        if i == 2; cryingFeatures = [cryingFeatures Features]; end        if i == 3; snoringFeatures = [snoringFeatures Features]; end    endend% ---FEATURES NORMALIZATION----mn = mean(allFeatures);st = std(allFeatures);allFeaturesNorm =  (allFeatures - repmat(mn,size(allFeatures,1),1))./repmat(st,size(allFeatures,1),1);% ---PCA---warning('off', 'stats:pca:ColRankDefX')[coeff,score,latent,tsquared,explained] = pca(allFeaturesNorm');disp('The following results are the values of the variance of each coefficient:')explainedcounter = 0;for p=1:length(explained)    if explained(p) > 80        counter = counter + 1;    endenddisp(['The number of coefficients offering at least 80% of variance is ', mat2str(counter)])fprintf('\n\n')% ---PCA PLOTTING---S=[]; % size of each point, empty for all equalC=[repmat([1 0 0],length(coughingFeatures),1); repmat([0 1 0],length(cryingFeatures),1); repmat([0 0 1],length(snoringFeatures),1)];scatter3(score(:,1),score(:,2),score(:,3),S,C,'filled')axis equaltitle('PCA')% –––––––––––––––––––––––TRAIN/TEST DATASET –––––––––––––––––––––––trainPerc = 0.70;testPerc = 1 - trainPerc;coughingTrain = coughingFile(1:length(coughingFile)*trainPerc);cryingTrain = cryingFile(1:length(cryingFile)*trainPerc);snoringTrain = snoringFile(1:length(snoringFile)*trainPerc);FTR = [coughingTrain cryingTrain snoringTrain];TEST DATASET NORMALISATION –––––––––––––––––––––% normalisation in time domain of TEST dataallTestTimeFeatures = allTestTimeFeatures';allTestTimeFeatures =  (allTestTimeFeatures - repmat(mnTime,size(allTestTimeFeatures,1),1))./repmat(stTime,size(allTestTimeFeatures,1),1);% normalisation in frequency domain of TEST dataallTestFreqFeatures = allTestFreqFeatures';allTestFreqFeatures =  (allTestFreqFeatures - repmat(mnFreq,size(allTestFreqFeatures,1),1))./repmat(stFreq,size(allTestFreqFeatures,1),1);% normalisation of both time domain and frequency domain of TEST dataallTestFeatures = allTestFeatures';allTestFeatures =  (allTestFeatures - repmat(mnAll,size(allTestFeatures,1),1))./repmat(stAll,size(allTestFeatures,1),1);% –––––––––––––––––––––––––– TRAIN/TEST LABELS ––––––––––––––––––––––––––% TRAINlabelcoughingTime = repmat(1,length(coughingTrainTimeFeatures),1);labelcryingTime = repmat(2,length(cryingTrainTimeFeatures),1);labelsnoringTime = repmat(3, length(snoringTrainTimeFeatures),1);allTimeLabels = [labelcoughingTime; labelcryingTime; labelsnoringTime];labelcoughingFreq = repmat(1,length(coughingTrainFreqFeatures),1);labelcryingFreq = repmat(2,length(cryingTrainFreqFeatures),1);labelsnoringFreq = repmat(3, length(snoringTrainFreqFeatures),1);allFreqLabels = [labelcoughingFreq; labelcryingFreq; labelsnoringFreq];labelcoughingAll = repmat(1,length(coughingTrainFeatures),1);labelcryingAll = repmat(2,length(cryingTrainFeatures),1);labelsnoringAll = repmat(3, length(snoringTrainFeatures),1);allLabels = [labelcoughingAll; labelcryingAll; labelsnoringAll];% ––––––––––––––––––––––––––– APPLY TEST LABELS ––––––––––––––––––––––––––testLabelcoughingTime = repmat(1,length(coughingTestTimeFeatures),1);testLabelcryingTime = repmat(2,length(cryingTestTimeFeatures),1);testLabelsnoringTime = repmat(3, length(snoringTestTimeFeatures),1);groundTruthTime = [testLabelcoughingTime; testLabelcryingTime; testLabelsnoringTime];testLabelcoughingFreq = repmat(1,length(coughingTestFreqFeatures),1);testLabelcryingFreq = repmat(2,length(cryingTestFreqFeatures),1);testLabelsnoringFreq = repmat(3, length(snoringTestFreqFeatures),1);groundTruthFreq = [testLabelcoughingFreq; testLabelcryingFreq; testLabelsnoringFreq];testLabelcoughingAll = repmat(1,length(coughingTestFeatures),1);testLabelcryingAll = repmat(2,length(cryingTestFeatures),1);testLabelsnoringAll = repmat(3, length(snoringTestFeatures),1);allGroundTruth = [testLabelcoughingAll; testLabelcryingAll; testLabelsnoringAll];% –––––––––––––––––––––––––––– KNN –––––––––––––––––––––––––––fprintf('––––––––––––––––––––––––––– COMPUTING THE KNN ––––––––––––––––––––––––––––\n\n')fprintf('Computing the recognition rate using the following values for k: 1, 2, 3, 5, 7, 8, 10, 15, 20, 50, 100, 200...\n\n')%TIMEKNN_calculation(allTrainTimeFeatures, allTestTimeFeatures, allTimeLabels, groundTruthTime, testLabelcoughingTime, testLabelcryingTime, testLabelsnoringTime, 'TIME DOMAIN', '-pm')%FREQKNN_calculation(allTrainFreqFeatures, allTestFreqFeatures, allFreqLabels, groundTruthFreq, testLabelcoughingFreq, testLabelcryingFreq, testLabelsnoringFreq, 'FREQUENCY DOMAIN', '-pg')%ALL-TOGETHERKNN_calculation(allTrainFeatures, allTestFeatures, allLabels, allGroundTruth, testLabelcoughingAll, testLabelcryingAll, testLabelsnoringAll, 'TIME AND FREQUENCY DOMAIN', '-pr')

⛳️ 运行结果

pca和knn,信号处理,语音识别,分类,matlab

pca和knn,信号处理,语音识别,分类,matlab

pca和knn,信号处理,语音识别,分类,matlab

pca和knn,信号处理,语音识别,分类,matlab

🔗 参考文献

[1]王心醉.人脸识别算法在ATM上的应用研究[J].  2009.DOI:http://159.226.165.120//handle/181722/1057.

🎈 部分理论引用网络文献,若有侵权联系博主删除
🎁  关注我领取海量matlab电子书和数学建模资料

👇  私信完整代码和数据获取及论文数模仿真定制

1 各类智能优化算法改进及应用
生产调度、经济调度、装配线调度、充电优化、车间调度、发车优化、水库调度、三维装箱、物流选址、货位优化、公交排班优化、充电桩布局优化、车间布局优化、集装箱船配载优化、水泵组合优化、解医疗资源分配优化、设施布局优化、可视域基站和无人机选址优化、背包问题、 风电场布局、时隙分配优化、 最佳分布式发电单元分配、多阶段管道维修、 工厂-中心-需求点三级选址问题、 应急生活物质配送中心选址、 基站选址、 道路灯柱布置、 枢纽节点部署、 输电线路台风监测装置、 集装箱船配载优化、 机组优化、 投资优化组合、云服务器组合优化、 天线线性阵列分布优化
2 机器学习和深度学习方面

2.1 bp时序、回归预测和分类

2.2 ENS声神经网络时序、回归预测和分类

2.3 SVM/CNN-SVM/LSSVM/RVM支持向量机系列时序、回归预测和分类

2.4 CNN/TCN卷积神经网络系列时序、回归预测和分类

2.5 ELM/KELM/RELM/DELM极限学习机系列时序、回归预测和分类
2.6 GRU/Bi-GRU/CNN-GRU/CNN-BiGRU门控神经网络时序、回归预测和分类

2.7 ELMAN递归神经网络时序、回归\预测和分类

2.8 LSTM/BiLSTM/CNN-LSTM/CNN-BiLSTM/长短记忆神经网络系列时序、回归预测和分类

2.9 RBF径向基神经网络时序、回归预测和分类文章来源地址https://www.toymoban.com/news/detail-859295.html

2.10 DBN深度置信网络时序、回归预测和分类
2.11 FNN模糊神经网络时序、回归预测
2.12 RF随机森林时序、回归预测和分类
2.13 BLS宽度学习时序、回归预测和分类
2.14 PNN脉冲神经网络分类
2.15 模糊小波神经网络预测和分类
2.16 时序、回归预测和分类
2.17 时序、回归预测预测和分类
2.18 XGBOOST集成学习时序、回归预测预测和分类
方向涵盖风电预测、光伏预测、电池寿命预测、辐射源识别、交通流预测、负荷预测、股价预测、PM2.5浓度预测、电池健康状态预测、用电量预测、水体光学参数反演、NLOS信号识别、地铁停车精准预测、变压器故障诊断
2.图像处理方面
图像识别、图像分割、图像检测、图像隐藏、图像配准、图像拼接、图像融合、图像增强、图像压缩感知
3 路径规划方面
旅行商问题(TSP)、车辆路径问题(VRP、MVRP、CVRP、VRPTW等)、无人机三维路径规划、无人机协同、无人机编队、机器人路径规划、栅格地图路径规划、多式联运运输问题、 充电车辆路径规划(EVRP)、 双层车辆路径规划(2E-VRP)、 油电混合车辆路径规划、 船舶航迹规划、 全路径规划规划、 仓储巡逻
4 无人机应用方面
无人机路径规划、无人机控制、无人机编队、无人机协同、无人机任务分配、无人机安全通信轨迹在线优化、车辆协同无人机路径规划
5 无线传感器定位及布局方面
传感器部署优化、通信协议优化、路由优化、目标定位优化、Dv-Hop定位优化、Leach协议优化、WSN覆盖优化、组播优化、RSSI定位优化
6 信号处理方面
信号识别、信号加密、信号去噪、信号增强、雷达信号处理、信号水印嵌入提取、肌电信号、脑电信号、信号配时优化
7 电力系统方面
微电网优化、无功优化、配电网重构、储能配置、有序充电
8 元胞自动机方面
交通流 人群疏散 病毒扩散 晶体生长 金属腐蚀
9 雷达方面
卡尔曼滤波跟踪、航迹关联、航迹融合

到了这里,关于【语音识别】基于主成分分析PCA结合最近邻KNN实现声音自动分类附matlab代码的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习与模式识别2:KNN(k近邻)

    首先,随机选择K个对象,而且所选择的每个对象都代表一个组的初始均值或初始的组中心值,对剩余的每个对象,根据其与各个组初始均值的距离,将他们分配各最近的(最相似)小组,然后重新计算每个小组新的均值,这个过程不断重复,直到所有的对象在K组分布中都找

    2024年02月12日
    浏览(44)
  • PCA分析(主成分分析)--结果解读

    主成分分析( PCA )是一个很好的工具,可以用来降低特征空间的维数。 PCA 的显著优点是它能产生不相关的特征,并能提高模型的性能。 PCA 用于减少用于训练模型的特征维度数量,它通过从多个特征构造所谓的主成分( PC )来实现这一点。 PC 的构造方式使得 PC1 方向在最大

    2024年02月03日
    浏览(37)
  • PCA主成分分析

    目前图像特征的提取主要有两种方法:传统图像特征提取方法 和 深度学习方法。 传统的特征提取方法:基于图像本身的特征进行提取(PCA); 深度学习方法:基于样本自动训练出区分图像的特征分类器; 特征选择(feature selection)和特征提取(Feature extraction)都属于 降维

    2024年02月08日
    浏览(54)
  • 主成分分析(PCA)详解

    主成分分析(PCA)是一种比较基础的数据降维方法,也是多元统计中的重要部分,在数据分析、机器学习等方面具有广泛应用。主成分分析目的是用较少的变量来代替原来较多的变量,并可以反映原来多个变量的大部分信息。 对于一个含有n个数据,变量的个数为p的一个样本,

    2024年01月17日
    浏览(45)
  • 主成分分析(PCA)原理详解

    在许多领域的研究与应用中,通常需要对含有多个变量的数据进行观测,收集大量数据后进行分析寻找规律。多变量大数据集无疑会为研究和应用提供丰富的信息,但是也在一定程度上增加了数据采集的工作量。更重要的是在很多情形下,许多变量之间可能存在相关性,从而

    2024年02月07日
    浏览(46)
  • 主成分分析(PCA)实例讲解

        主成分分析(PCA)是一种降维算法,PCA的主要思想是将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分(特征之间互相独立),是在原有n维特征的基础上重新构造出来的k维特征(k=n),会带来部分信息损失。     一般来说,当研究的问题涉及到多

    2024年02月09日
    浏览(45)
  • PCA主成成分分析例题详解

    主成分分析是一种降维算法,它能将多个指标转换为少数几个主成分,这些主成分是原始变量的线性组合,且彼此之间互不相关,其能反映出原始数据的大部分信息 需要了解具体细节可看此视频👉:什么是主成成分分析PCA 计算步骤 假设有 n n n 个样本, p p p 个特征,则可构

    2024年02月03日
    浏览(47)
  • 主成分分析(PCA)——矩阵角度推导

    最近机器学习课上正式讲了主成分分析,只是老师说的很快,我并没有完全理解。随后我搜了很多关于这方面的讲解来进行理解,仅CSDN上就有很多讲的很好的文章,从协方差矩阵角度进行说明,基本上我也都理解了。但另一方面我发现可以结合我最近学的矩阵分析,从纯矩阵

    2024年03月15日
    浏览(36)
  • 主成分分析(PCA)-Python代码

    主成分分析是利用降维的思想,在损失很少信息的前提下把多个指标转化为几个综合指标的多元统计方法。 算法的具体步骤如下: 1)对向量X进行去中心化。 2)计算向量X的协方差矩阵,自由度可以选择0或者1。 3)计算协方差矩阵的特征值和特征向量。 4)选取最大的k个特

    2024年02月14日
    浏览(38)
  • 【主成分分析(PCA)- 鸢尾花】

    在现代数据科学中,维度灾难常常是数据处理与分析的一大难题。主成分分析(PCA)是一种广泛使用的数据降维技术,它通过将原始数据转换为新的低维空间,保留最重要的信息,从而使得数据分析更加高效。本博客将详细介绍PCA的原理、应用场景以及如何使用Python中的skl

    2024年02月15日
    浏览(77)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包