机器学习基础08-模型选择02-分类算法矩阵(基于Pima 数据集)

这篇具有很好参考价值的文章主要介绍了机器学习基础08-模型选择02-分类算法矩阵(基于Pima 数据集)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

算法评估矩阵(Algorithm Evaluation Metrics)用于评估机器学习算法在特定任务上的性能。不同的任务可能会使用不同的评估矩阵,因为每个任务的优劣衡量标准都不同。

分类算法矩阵

分类问题或许是最常见的机器学习问题,并且有多种评估矩阵来评估
分类算法。以下几种用来评估分类算法的评估矩阵:
· 分类准确度。
· 对数损失函数(Logloss)。
· AUC图。
· 混淆矩阵。
· 分类报告(Classification Report)。

分类准确度

分类准确度就是算法自动分类正确的样本数 除以 所有的样本数得出的结果。

分类准确度 = 算法自动分类正确的样本数 / 所有的样本数

通常,准确度越高,分类器越好。这是分类算法中最常见,也最易被误用的评估参数。准确度确实是一个很好、很直观的评价指标,但是有时候准确度高并不代表算法就一定好。

比如对某个地区某天地震的预测,
假设有一堆的特征作为地震分类的属性,类别却只有两个(0:不发生地震,1:发生地震)。一个不加思考的分类器对每一个测试用例都将类别划分为 0,那它就可能达到 99%的准确度,但真的地震时,这个分类器却毫无察觉,这个分类器造成的损失是巨大的。为什么拥有 99%的准确度的分类器却不是我们想要的,因为数据分布不均衡,类别1的数据太少,完全错分类别1依然可以达到很高的准确度,却忽视了需要关注的事实和现象。

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegression

from sklearn.model_selection import cross_val_score, ShuffleSplit

#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)


#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]

Y = array[:, 8]
# 分割数据集
n_splits = 10

# 随机数种子
seed = 7
# K折交叉验证,将数据分成10份,9份训练,1份测试,重复10次,取平均值,得到最终模型,评估模型
kfold = ShuffleSplit(n_splits=n_splits, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)
# 训练模型
result = cross_val_score(model, X, Y, cv=kfold)
# 记录方法结束时间
print("算法评估结果准确度:%.3f (%.3f)" % (result.mean(), result.std()))


运行结果:

算法评估结果准确度:0.782 (0.052)

对数损失函数

在逻辑回归的推导中,它假设样本服从伯努利分布(0~1分布),然后求得满足该分布的似然函数,再取对数、求极值等。而逻辑回归并没有求似然函数的极值,而是把极大化当作一种思想,进而推导出它的经验风险函数为:最小化负的似然函数

[max F(y,f(x))→min-F(y,f(x))]。

从损失函数的视角来看,它就成了对数(Log)损失函数了。对数损失函数越小,模型就越好,而且使损失函数尽量是一个凸函数,便于收敛计算。

示例代码:


import pandas as pd
from sklearn.linear_model import LogisticRegression

from sklearn.model_selection import cross_val_score, ShuffleSplit

#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)


#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]

Y = array[:, 8]
# 分割数据集
n_splits = 10

# 随机数种子
seed = 7
# K折交叉验证,将数据分成10份,9份训练,1份测试,重复10次,取平均值,得到最终模型,评估模型
kfold = ShuffleSplit(n_splits=n_splits, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)

scoring = 'neg_log_loss'
# 训练模型
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
# 记录方法结束时间
print("neg_log_loss:%.3f (%.3f)" % (result.mean(), result.std()))



运行结果:

neg_log_loss:-0.477 (0.065)

AUC图

ROC AUC是用于评估二分类算法性能的指标。ROC曲线是以不同的分类阈值为基础绘制了真阳性率(True Positive Rate, TPR,也称为召回率)与假阳性率(False Positive Rate, FPR)之间的关系曲线。AUC是ROC曲线下的面积,取值范围在0到1之间。AUC越大表示模型的性能越好,AUC等于1时表示模型完美分类,AUC等于0.5时表示模型的分类能力与随机分类相当。

ROC和AUC是评价分类器的指标。ROC是受试者工作特征曲线 (Receiver Operating Characteristic Curve)的简写,又称为感受性曲线(Sensitivity Curve)。

得此名的原因在于曲线上各点反映相同的感受性,它们都是对同一信号刺激的反应,只不过是在几种不同的判定标准下所得的结果而已。ROC是反映敏感性和特异性连续变量的综合指标,用构图法揭示敏感性和特异性的相互关系,通过将连续变量设定出多个不同的临界值计算出一系列敏感性和特异性,再以敏感性为纵坐标、(1-特异性)为横坐标绘制成曲线。

AUC是ROC曲线下的面积(Area Under ROC Curve)的简称,顾名思义,AUC的值就是处于ROC
Curve下方的那部分面积的大 小。

通常,AUC的值介于0.5到1.0之间,AUC的值越大,诊断准确性越
。在ROC曲线上,靠近坐标图左上方的点为敏感性和特异性均较高的临界值。

ROC AUC是用于评估二分类算法性能的指标。ROC曲线是以不同的分类阈值为基础绘制了真阳性率(True Positive Rate,
TPR,也称为召回率)与假阳性率(False Positive Rate,
FPR)之间的关系曲线。AUC是ROC曲线下的面积,取值范围在0到1之间。AUC越大表示模型的性能越好,AUC等于1时表示模型完美分类,AUC等于0.5时表示模型的分类能力与随机分类相当。

为了解释ROC的概念,让我们考虑一个二分类问题,即将实例分成正类(Positive)或负类(Negative)。对一个二分类问题来说,会出现四种情况:

  • 如果一个实例是正类并且也被预测成正类,即为真正类(True
    Positive);
  • 如果实例是负类却被预测成正类,称之为假正类(False
    Positive)。
  • 如果实例是负类也被预测成负类,称之为真负类(True Negative);
  • 如果实例为正类却被预测成负类,则为假负类(FalseNegative)。

列联表或混淆矩阵如下表所示,“1”代表正类,“0”代表负类。

机器学习基础08-模型选择02-分类算法矩阵(基于Pima 数据集),机器学习,人工智能,机器学习,分类,矩阵,人工智能,scikit-learn,数据挖掘
基于该列联表,定义敏感性指标为:sensitivity=TP/(TP+FN)。敏感性指标又称为真正类率(True Positive Rate,TPR),计算的是分类器所识别出的正实例占所有正实例的比例。

另外,定义负正类率(False Positive Rate,FPR)的计算公式为:FPR=FP/(FP+TN),负正类率计算的是分类器错认为正类的负实例占所有负实例的比例。

定义特异性指标为:Specificity=TN/(FP+TN)=1-FPR。特异性指标又称为真负类率(True Negative Rate,TNR)。

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegression

from sklearn.model_selection import cross_val_score, ShuffleSplit

#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)


#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]

Y = array[:, 8]
# 分割数据集
n_splits = 10

# 随机数种子
seed = 7
# K折交叉验证,将数据分成10份,9份训练,1份测试,重复10次,取平均值,得到最终模型,评估模型
kfold = ShuffleSplit(n_splits=n_splits, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)

scoring = 'roc_auc'
# 训练模型
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
# 记录方法结束时间
print("roc_auc:%.3f (%.3f)" % (result.mean(), result.std()))



运行结果:

roc_auc:0.839 (0.054)

ROC AUC(Receiver Operating Characteristic Area Under the Curve)的评估结果为0.839,其中括号内的0.054表示标准差。

在给出的结果中,ROC AUC为0.839,说明模型的分类性能较好,它相对于随机分类有明显的优势。标准差为0.054表示这个评估结果在不同数据集或实验中可能会有一定的波动,但整体上来看,该模型的性能是比较稳定的。

值得注意的是,ROC AUC只适用于二分类问题,对于多类别分类问题,可以考虑使用一些其他的指标,如平均精确率均值(Mean Average Precision, mAP)等。

混淆矩阵

混淆矩阵(Cnfusion Matrix)主要用于比较分类结果和实际测得值,可以把分类结果的精度显示在一个混淆矩阵里面。混淆矩阵是可视化工具,特别适用于监督学习,在无监督学习时一般叫作匹配矩阵。混淆矩阵的每列代表预测类别,每列的总数表示预测为该类别的数据的数目;每行代表数据的真实归属类别,每行的数据总数表示该类别的数据的数目。每列中的数值表示真实数据被预测为该类的数目。

如下表所示,有150个样本数据,这些数据分成 3 类,每类 50 个。
分类结束后得到的混淆矩阵,每行之和为50,表示50个样本

第一行说明类1的50个样本有43个分类正确,5个错分为类2,2个错分为类3。

机器学习基础08-模型选择02-分类算法矩阵(基于Pima 数据集),机器学习,人工智能,机器学习,分类,矩阵,人工智能,scikit-learn,数据挖掘
代码示例:

  1. 使用Pandas库读取糖尿病数据集,并将数据转换为数组形式。
  2. 将特征和标签分别赋值给X和Y。
  3. 使用train_test_split函数将数据集分割为训练集和测试集,其中测试集占33%。
  4. 创建一个逻辑回归模型,并使用训练集拟合模型。
  5. 使用模型对测试集进行预测,并计算混淆矩阵。
  6. 输出混淆矩阵的DataFrame形式。

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import confusion_matrix

from sklearn.model_selection import cross_val_score, ShuffleSplit, train_test_split

#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)


#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]

Y = array[:, 8]
# 分割数据集

test_size = 0.33
# 随机数种子
seed = 7
# 分割数据集
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=test_size, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)

# 训练模型
model.fit(X_train, Y_train)

# 评估模型
predictions = model.predict(X_test)

# 混淆矩阵
matrix = confusion_matrix(Y_test, predictions)

classes = ['0', '1']

# 创建混淆矩阵
dataframe = pd.DataFrame(matrix, index=classes, columns=classes)
# 绘制热力图
print(dataframe)

运行结果:

     0   1
0  142  20
1   34  58

根据输出的混淆矩阵,可以解释如下:

  1. 阴性(类别0)的样本中,模型正确地预测了142个样本,但错误地将20个样本预测为了阳性(假阳性)。
  2. 阳性(类别1)的样本中,模型正确地预测了58个样本,但错误地将34个样本预测为了阴性(假阴性)。

通过混淆矩阵,我们可以计算出一系列分类算法的评估指标:

精确率(Precision):对于预测为阳性(类别1)的样本中,有58个样本是真正的阳性,所以Precision为58 / (58 + 20) ≈ 0.7436。

召回率(Recall):对于实际为阳性(类别1)的样本中,有58个样本被正确地预测为阳性,所以Recall为58 / (58 + 34) ≈ 0.6304。

F1分数(F1-Score):综合考虑Precision和Recall的调和平均值,F1-Score = 2 * (Precision * Recall) / (Precision + Recall) ≈ 0.6832。

准确率(Accuracy):计算预测正确的样本数占总样本数的比例,即 (142 + 58) / (142 + 20 + 34 + 58) ≈ 0.7765。

这些评估指标能够帮助我们更全面地了解分类算法在这个特定任务上的性能。根据实际需求,可以选择合适的评估指标来衡量模型的性能。

分类报告

分类报告(classification_report)是一个包含精确率、召回率、F1分数等指标的报告,用于评估分类模型的性能。通常,它会显示每个类别的指标,并在最后提供一个加权平均值或宏平均值。

在 scikit-learn 中提供了一个非常方便的工具,可以给出对分类问题的评估报告,Classification_report()方法能够给出精确率(precision)、召回率(recall)、F1值(F1-score)和样本数目(support)。在这里简单地介绍一下三个指标数据:精确率、召回率、F1值。

在介绍这三个指标数据之前,我们先定义TP、FN、FP、TN四种分类
情况,我们借助下表来说明。

机器学习基础08-模型选择02-分类算法矩阵(基于Pima 数据集),机器学习,人工智能,机器学习,分类,矩阵,人工智能,scikit-learn,数据挖掘

精确率的 公式P=TP/(TP+FP),计算的是所有被检索到的项目中应该被检索到的项目占的比例。

召回率的公式R=TP/(TP+FN),计算的是所有检索到的项目占所有应该检索到的项目的比例。

F1值就是精确率和召回率的调和均值,也就是2F1=P+R

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import classification_report

from sklearn.model_selection import train_test_split

#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)


#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]

Y = array[:, 8]
# 分割数据集

test_size = 0.33
# 随机数种子
seed = 4
# 分割数据集
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=test_size, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)

# 训练模型
model.fit(X_train, Y_train)

# 评估模型
predictions = model.predict(X_test)

report = classification_report(Y_test, predictions)

print(report)


运行结果:

              precision    recall  f1-score   support

         0.0       0.84      0.87      0.86       171
         1.0       0.71      0.66      0.69        83

    accuracy                           0.80       254
   macro avg       0.78      0.77      0.77       254
weighted avg       0.80      0.80      0.80       254

根据给出的分类报告,逻辑回归模型在测试集上的性能如下:

  • 对于类别0(阴性):精确率(Precision)为0.84,召回率(Recall)为0.87,F1分数为0.86。说明模型在预测阴性样本时,有较高的精确性和召回率,F1分数也较高。

  • 对于类别1(阳性):精确率为0.71,召回率为0.66,F1分数为0.69。说明模型在预测阳性样本时,精确率和召回率相对较低,F1分数也较低。

  • accuracy(准确率)为0.80,表示模型在测试集上的整体准确率为80%。

  • macro avg(宏平均值)是所有类别的平均值,精确率为0.78,召回率为0.77,F1分数为0.77。

  • weighted avg(加权平均值)是根据各类别样本数量加权的平均值,精确率为0.80,召回率为0.80,F1分数为0.80。

综合来看,该逻辑回归模型在阴性样本上表现较好,但在阳性样本上表现相对较差。整体上,模型的准确率为80%,在不同类别上的F1分数在0.69到0.86之间。根据具体任务的要求,可以根据分类报告中的指标来调整模型或优化特征,以改善模型的性能。文章来源地址https://www.toymoban.com/news/detail-625434.html

到了这里,关于机器学习基础08-模型选择02-分类算法矩阵(基于Pima 数据集)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【超详细】机器学习sklearn之分类模型评估 混淆矩阵、ROC曲线、召回率与精度、F1分数

    机器学习之分类模型的评估 学习分类模型评估的方法: 1、混淆矩阵 2、分类结果汇总 3、ROC曲线 4、召回率与精度 5、F1分数 一、评估分类器性能的度量 1、真正(true positive, TP)或f++,对应的是被分类模型正确预测的正样本数。 2、假负(false negative, FN)或f±对应的是被分类模型错

    2023年04月08日
    浏览(93)
  • 【机器学习案例】不同的模型算法对鸢尾花数据集进行分类

    经典机器学习入门项目,使用逻辑回归、线性判别分析、KNN、分类与回归树、朴素贝叶斯、向量机、随机森林、梯度提升决策树对不同占比的训练集进行分类 数据源 :Iris Species | Kaggle 150行,5列,分三种鸢尾花类型,每种类型50个样本,每行数据包含花萼长度、花萼宽度、花

    2024年02月04日
    浏览(34)
  • 机器学习基础之《分类算法(4)—案例:预测facebook签到位置》

    一、背景 1、说明 2、数据集 row_id:签到行为的编码 x y:坐标系,人所在的位置 accuracy:定位的准确率 time:时间戳 place_id:预测用户将要签到的位置 3、数据集下载 https://www.kaggle.com/navoshta/grid-knn/data 国内下不了,无法收验证码,还是在csdn用积分下一个别人上传的 二、流程

    2024年02月11日
    浏览(34)
  • 机器学习 day24(多类分类模型,Softmax回归算法及其损失函数)

    1. 多类分类 多类分类问题仍然是分类问题,所以预测y的可能结果是少量的,而不是无穷多个,且对于多类分类它>2 如上图:左侧为二分类,右侧为多分类,可以通过决策边界来划分区域 2. Softmax回归算法 对逻辑回归模型,先计算z,再计算g(z)。此时可以将逻辑回归视为计算

    2024年02月13日
    浏览(44)
  • 机器学习基础之《回归与聚类算法(4)—逻辑回归与二分类(分类算法)》

    一、什么是逻辑回归 1、逻辑回归(Logistic Regression)是机器学习中的一种分类模型,逻辑回归是一种分类算法,虽然名字中带有回归,但是它与回归之间有一定的联系。由于算法的简单和高效,在实际中应用非常广泛 2、叫回归,但是它是一个分类算法 二、逻辑回归的应用场

    2024年02月07日
    浏览(55)
  • 机器学习基础之《分类算法(1)—sklearn转换器和估计器》

    一、转换器 1、什么是转换器 之前做特征工程的步骤: (1)第一步就是实例化了一个转换器类(Transformer) (2)第二步就是调用fit_transform,进行数据的转换 2、我们把特征工程的接口称之为转换器,其中转换器调用有这么几种形式 fit_transform() fit() transform() 3、例子 我们以标

    2024年02月12日
    浏览(37)
  • python机器学习——分类模型评估 & 分类算法(k近邻,朴素贝叶斯,决策树,随机森林,逻辑回归,svm)

    交叉验证:为了让被评估的模型更加准确可信 交叉验证:将拿到的数据,分为训练和验证集。以下图为例:将数据分成5份,其中一份作为验证集。然后经过5次(组)的测试,每次都更换不同的验证集。即得到5组模型的结果,取平均值作为最终结果。又称5折交叉验证。 通常情

    2024年02月03日
    浏览(67)
  • 【MATLAB第56期】#源码分享 | 基于MATLAB的机器学习算法单输入多输出分类预测模型思路(回归改分类)

    针对单输入多输出分类预测,可采用回归的方式进行预测。 本文采用BP神经网络进行演示。 数据为1输入,5输出,总共482个样本。 输出分为五个指标,每个指标共4个评分维度,即【0 10 20 30】 保持样本均匀多样性,可将数据打乱。 若不需要打乱,上面代码改成: 训练样本数

    2024年02月17日
    浏览(36)
  • 机器学习基础09-审查分类算法(基于印第安糖尿病Pima Indians数据集)

    算法审查是选择合适的机器学习算法的主要方法之一。审查算法前并 不知道哪个算法对问题最有效,必须设计一定的实验进行验证,以找到对问题最有效的算法。本章将学习通过 scikit-learn来审查六种机器学习的分类算法,通过比较算法评估矩阵的结果,选择合适的算法。 审

    2024年02月11日
    浏览(42)
  • 【机器学习实例讲解】机器学习-鸢尾花数据集多分类第02课

    问题定义与理解: 明确机器学习任务的目标,是分类、回归、聚类、强化学习还是其他类型的问题。 确定业务背景和需求,了解所处理数据的现实意义。 数据收集: 根据任务目标从各种来源获取原始数据,可以是数据库、文件、传感器、网络日志等。 数据预处理: 数据清

    2024年01月18日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包