【Python | 机器学习】Python中进行特征重要性分析的9个常用方法(含源代码)

这篇具有很好参考价值的文章主要介绍了【Python | 机器学习】Python中进行特征重要性分析的9个常用方法(含源代码)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


特征重要性分析用于了解每个特征(变量或输入)对于做出预测的有用性或价值。目标是确定对模型输出影响最大的最重要的特征,它是机器学习中经常使用的一种方法。

一、为什么特征重要性分析很重要?

特征重要性分析在数据科学和机器学习中扮演着重要的角色,具有以下重要性:

理解数据:特征重要性分析有助于理解数据集中每个特征对目标变量的影响程度。这有助于识别哪些特征在解决问题时可能是关键的,哪些可能是次要的。

特征选择:在建模过程中,特征重要性分析可用于选择最相关的特征,以减少模型的复杂性和提高模型的泛化能力。通过消除不相关或冗余的特征,可以改善模型的性能,减少过拟合的风险。

模型解释性:特征重要性分析有助于解释模型的预测结果。它可以告诉我们哪些特征对于模型的某个预测是最重要的,这对于业务决策和解释模型的工作原理非常有帮助。

异常检测:通过分析特征重要性,可以识别出与预期模式不符的异常数据点。这些异常数据可能是数据质量问题或需要特殊处理的情况,例如欺诈检测或故障检测。

特征工程:特征重要性分析可以为特征工程提供指导。它可以帮助数据科学家和机器学习工程师选择最相关的特征,或者启发他们创建新的特征来提高模型性能。

优化模型:了解特征的重要性可以帮助优化模型的超参数选择,例如决策树中的树的深度或随机森林中的树的数量。这可以提高模型的性能并减少计算成本。

监测模型稳定性:特征重要性的变化可以用于监测模型的稳定性。如果模型的重要特征发生变化,可能意味着数据分布或问题本身发生了变化,需要进一步的调查。

如果有一个包含数十个甚至数百个特征的数据集,每个特征都可能对你的机器学习模型的性能有所贡献。但是并不是所有的特征都是一样的。有些可能是冗余的或不相关的,这会增加建模的复杂性并可能导致过拟合。

特征重要性分析可以识别并关注最具信息量的特征,从而带来以下几个优势:

  • 改进的模型性能
  • 减少过度拟合
  • 更快的训练和推理
  • 增强的可解释性

下面我们深入了解在Python中的一些特性重要性分析的方法。

二、特征重要性分析方法

2.1 排列重要性 PermutationImportance

该方法会随机排列每个特征的值,然后监控模型性能下降的程度。如果获得了更大的下降意味着特征更重要:

 from sklearn.datasets import load_breast_cancer
 from sklearn.ensemble import RandomForestClassifier
 from sklearn.inspection import permutation_importance
 from sklearn.model_selection import train_test_split
 import matplotlib.pyplot as plt
 
 cancer = load_breast_cancer()
 
 X_train, X_test, y_train, y_test = train_test_split(cancer.data, cancer.target, random_state=1)
 
 rf = RandomForestClassifier(n_estimators=100, random_state=1)
 rf.fit(X_train, y_train)
 
 baseline = rf.score(X_test, y_test)
 result = permutation_importance(rf, X_test, y_test, n_repeats=10, random_state=1, scoring='accuracy')
 
 importances = result.importances_mean
 
 # Visualize permutation importances
 plt.bar(range(len(importances)), importances)
 plt.xlabel('Feature Index')
 plt.ylabel('Permutation Importance')
 plt.show()

特征重要性分析,Python3常用到的函数总结,机器学习系列文章,机器学习,python,人工智能,特征

2.2 内置特征重要性(coef_或feature_importances_)

一些模型,如线性回归和随机森林,可以直接输出特征重要性分数。这些显示了每个特征对最终预测的贡献。

 from sklearn.datasets import load_breast_cancer
 from sklearn.ensemble import RandomForestClassifier
 
 X, y = load_breast_cancer(return_X_y=True)
 
 rf = RandomForestClassifier(n_estimators=100, random_state=1)
 rf.fit(X, y)
 
 importances = rf.feature_importances_
 
 # Plot importances
 plt.bar(range(X.shape[1]), importances)
 plt.xlabel('Feature Index')
 plt.ylabel('Feature Importance')
 plt.show()

特征重要性分析,Python3常用到的函数总结,机器学习系列文章,机器学习,python,人工智能,特征

2.3 Leave-one-out

迭代地每次删除一个特征并评估准确性。

 from sklearn.datasets import load_breast_cancer
 from sklearn.model_selection import train_test_split
 from sklearn.ensemble import RandomForestClassifier
 from sklearn.metrics import accuracy_score
 import matplotlib.pyplot as plt
 import numpy as np
 
 # Load sample data
 X, y = load_breast_cancer(return_X_y=True)
 
 # Split data into train and test sets
 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=1)
 
 # Train a random forest model
 rf = RandomForestClassifier(n_estimators=100, random_state=1)
 rf.fit(X_train, y_train)
 
 # Get baseline accuracy on test data
 base_acc = accuracy_score(y_test, rf.predict(X_test))
 
 # Initialize empty list to store importances
 importances = []
 
 # Iterate over all columns and remove one at a time
 for i in range(X_train.shape[1]):
    X_temp = np.delete(X_train, i, axis=1)
    rf.fit(X_temp, y_train)
    acc = accuracy_score(y_test, rf.predict(np.delete(X_test, i, axis=1)))
    importances.append(base_acc - acc)
     
 # Plot importance scores    
 plt.bar(range(len(importances)), importances)
 plt.show()

特征重要性分析,Python3常用到的函数总结,机器学习系列文章,机器学习,python,人工智能,特征

2.4 相关性分析

计算各特征与目标变量之间的相关性。相关性越高的特征越重要。

 import pandas as pd
 from sklearn.datasets import load_breast_cancer
 
 X, y = load_breast_cancer(return_X_y=True)
 df = pd.DataFrame(X, columns=range(30))
 df['y'] = y
 
 correlations = df.corrwith(df.y).abs()
 correlations.sort_values(ascending=False, inplace=True)
 
 correlations.plot.bar()

特征重要性分析,Python3常用到的函数总结,机器学习系列文章,机器学习,python,人工智能,特征

2.5 递归特征消除 Recursive Feature Elimination

递归地删除特征并查看它如何影响模型性能。删除时会导致更大下降的特征更重要。

 from sklearn.ensemble import RandomForestClassifier
 from sklearn.feature_selection import RFE
 import pandas as pd
 from sklearn.datasets import load_breast_cancer
 import matplotlib.pyplot as plt
 
 X, y = load_breast_cancer(return_X_y=True)
 df = pd.DataFrame(X, columns=range(30))
 df['y'] = y
 
 rf = RandomForestClassifier()
 
 rfe = RFE(rf, n_features_to_select=10)
 rfe.fit(X, y)
 
 print(rfe.ranking_)

输出结果为:

输出为[6 4 11 12 7 11 18 21 8 16 10 3 15 14 19 17 20 13 11 11 12 9 11 5 11]

2.6 XGBoost特性重要性

计算一个特性用于跨所有树拆分数据的次数。更多的分裂意味着更重要。

 import xgboost as xgb
 import pandas as pd
 from sklearn.datasets import load_breast_cancer
 import matplotlib.pyplot as plt
 
 X, y = load_breast_cancer(return_X_y=True)
 df = pd.DataFrame(X, columns=range(30))
 df['y'] = y
 
 model = xgb.XGBClassifier()
 model.fit(X, y)
 
 importances = model.feature_importances_
 importances = pd.Series(importances, index=range(X.shape[1]))
 importances.plot.bar()

特征重要性分析,Python3常用到的函数总结,机器学习系列文章,机器学习,python,人工智能,特征

2.7 主成分分析 PCA

对特征进行主成分分析,并查看每个主成分的解释方差比。在前几个组件上具有较高负载的特性更为重要。

 from sklearn.decomposition import PCA
 import pandas as pd
 from sklearn.datasets import load_breast_cancer
 import matplotlib.pyplot as plt
 
 X, y = load_breast_cancer(return_X_y=True)
 df = pd.DataFrame(X, columns=range(30))
 df['y'] = y
 
 pca = PCA()
 pca.fit(X)
 
 plt.bar(range(pca.n_components_), pca.explained_variance_ratio_)
 plt.xlabel('PCA components')
 plt.ylabel('Explained Variance')

特征重要性分析,Python3常用到的函数总结,机器学习系列文章,机器学习,python,人工智能,特征

2.8 方差分析 ANOVA

使用f_classif()获得每个特征的方差分析f值。f值越高,表明特征与目标的相关性越强。

 from sklearn.feature_selection import f_classif
 import pandas as pd
 from sklearn.datasets import load_breast_cancer
 import matplotlib.pyplot as plt
 
 X, y = load_breast_cancer(return_X_y=True)
 df = pd.DataFrame(X, columns=range(30))
 df['y'] = y
 
 fval = f_classif(X, y)
 fval = pd.Series(fval[0], index=range(X.shape[1]))
 fval.plot.bar()

特征重要性分析,Python3常用到的函数总结,机器学习系列文章,机器学习,python,人工智能,特征

2.9 卡方检验

使用chi2()获得每个特征的卡方统计信息。得分越高的特征越有可能独立于目标。

 from sklearn.feature_selection import chi2
 import pandas as pd
 from sklearn.datasets import load_breast_cancer
 import matplotlib.pyplot as plt
 
 X, y = load_breast_cancer(return_X_y=True)
 df = pd.DataFrame(X, columns=range(30))
 df['y'] = y
 
 chi_scores = chi2(X, y)
 chi_scores = pd.Series(chi_scores[0], index=range(X.shape[1]))
 chi_scores.plot.bar()

特征重要性分析,Python3常用到的函数总结,机器学习系列文章,机器学习,python,人工智能,特征

三、为什么不同的方法会检测到不同的特征?

不同的特征重要性方法有时可以识别出不同的特征是最重要的,这是因为:

1、他们用不同的方式衡量重要性:

有的使用不同特特征进行预测,监控精度下降

像XGBOOST或者回国模型使用内置重要性来进行特征的重要性排列

而PCA着眼于方差解释

2、不同模型有不同模型的方法:

线性模型倾向于线性关系、树模型倾向于接近根的特征

3、交互作用:

有的方法可以获取特征之间的相互左右,而有一些则不行,这就会导致结果的差异

3、不稳定:

使用不同的数据子集,重要性值可能在同一方法的不同运行中有所不同,这是因为数据差异决定的

4、Hyperparameters:

通过调整超参数,如PCA组件或树深度,也会影响结果

所以不同的假设、偏差、数据处理和方法的可变性意味着它们并不总是在最重要的特征上保持一致。文章来源地址https://www.toymoban.com/news/detail-768388.html

四、选择特征重要性分析方法的一些最佳实践

  • 尝试多种方法以获得更健壮的视图
  • 聚合结果的集成方法
  • 更多地关注相对顺序,而不是绝对值
  • 差异并不一定意味着有问题,检查差异的原因会对数据和模型有更深入的了解

到了这里,关于【Python | 机器学习】Python中进行特征重要性分析的9个常用方法(含源代码)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 数据分析 | 特征重要性分析 | 树模型、SHAP值法

            在分析特征重要性的时候,相关性分析和主成分分析往往是比较简单的方法,相关性分析是通过计算特征与目标变量之间的相关系数来评估特征的重要性。它可以告诉我们特征和目标变量之间的线性关系程度,但对于非线性关系就无能为力了;主成分分析是一种降

    2024年02月10日
    浏览(46)
  • python实现随机森林的特征变量重要性排序

          大家好,我是带我去滑雪!       随机森林的特征变量重要性排序在特征选择和特征分析中具有广泛的用途。它可以用来识别哪些特征对目标变量的预测最为重要,从而帮助我们理解数据中的关键特征和影响因素。特征变量重要性排序的一些常见用途如下: 特征选择

    2024年02月16日
    浏览(49)
  • 【机器学习1】什么是机器学习&机器学习的重要性

    什么是机器学习? 简而言之,机器学习就是训练机器去学习。 机器学习作为人工智能(Artificial Intelligence,AI)的一个分支,以其最基本的形式来使用算法通过从数据中获取知识来进行预测。 不同于人类通过分析大量数据手动推导规则和模型,机器学习提供了一种更有效的方法来

    2024年02月13日
    浏览(40)
  • 机器学习中训练数据的重要性

    人工智能技术发展至今,训练数据的重要性已经是我们老生常谈的问题。在重声训练数据为什么重要之前,我们先重新回顾下AI技术大爆炸的三大初始概念:机器学习是什么?人工智能是什么?训练数据又是什么? 简单来说,机器学习包含人工智能,人工智能属于机器学习的

    2024年02月13日
    浏览(56)
  • 机器人控制系统学习和研究中数学的重要性

    其实具备科学思维的方式非常非常难,很多情况下脑海中并非客观事实,而是充满了幻觉。     如果在各种AI工具中问及这样的问题,会得到类似如下回复: 机器人控制系统学习和研究中数学的重要性主要体现在以下几个方面: 机器人运动学:机器人控制系统需要处理机器

    2024年02月05日
    浏览(46)
  • Python数据分析 — 数据分析概念、重要性、流程和常用工具

    前言: Hello大家好,我是小哥谈。 Python数据分析是利用Python编程语言进行数据处理、转换、清洗、可视化和建模的过程。Python在数据科学领域非常流行,有许多强大的库和工具可供使用,例如NumPy、Pandas、Matplotlib和Scikit-learn等。这些库提供了丰富的功能和方法,使得处理和分

    2024年02月09日
    浏览(45)
  • 当进行一个npm包开发时,依赖管理的重要性

    当一个项目被拉下来并执行 npm install 的时候,其实 dependencies 和 devDependencies 都会被安装。 如果项目有严格区分生产、开发环境的话,是可以通过 --production 来以只安装 dependencies 字段的模块。 一个项目如果被当做第三方包引用的时候,它的 dependencies 和 devDependencies 的区分就

    2024年02月14日
    浏览(51)
  • 多线程在编程中的重要性有什么?并以LabVIEW为例进行说明

    多线程在编程中的重要性体现在以下几个方面: 并行处理: 多线程允许程序同时执行多个任务,这在现代多核心处理器上尤其重要。通过并行处理,可以显著提高程序的执行效率和响应速度。 资源利用最大化: 通过多线程,可以更有效地使用计算机的CPU资源。在一个线程等

    2024年01月20日
    浏览(41)
  • 聊一聊 tcp/ip 在.NET故障分析的重要性

    这段时间分析了几个和网络故障有关的 .NET程序 之后,真的越来越体会到计算机基础课的重要,比如 计算机网络 课,如果没有对 tcpip协议 的深刻理解,解决这些问题真的很难,因为你只能在高层做黑盒测试,你无法看到 tcp 层面的握手和psh通讯。 这篇我们通过两个小例子来

    2024年02月05日
    浏览(56)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包