R²决定系数

这篇具有很好参考价值的文章主要介绍了R²决定系数。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

R 2 R^2 R2(决定系数)是一个用于衡量统计模型拟合数据的指标,通常用于线性回归分析。它表示模型所解释的因变量(目标变量)方差的比例,范围从0到1。

更具体地说, R 2 R^2 R2告诉我们模型能够解释因变量变化的百分比。当 R 2 R^2 R2接近1时,模型能够很好地拟合数据,因为它能够解释大部分因变量的变化。当 R 2 R^2 R2接近0时,模型无法很好地拟合数据,因为它不能解释因变量的变化。

R 2 R^2 R2的公式如下:
R 2 = 1 − S S R S S T R^2 = 1 - \frac{SSR}{SST} R2=1SSTSSR

其中:

  • R 2 R^2 R2:决定系数
  • SSR(Sum of Squares Residual):残差平方和,表示模型预测值与实际观测值之间的差异的总和。
  • SST(Total Sum of Squares):总平方和,表示因变量的总变差,即实际观测值与因变量均值之间的差异的总和。

为了更好地理解 R 2 R^2 R2,让我们通过一个通俗易懂的例子来说明:

假设你是一名销售经理,想要建立一个线性回归模型,来预测每月销售额与广告投入的关系。你收集了12个月的数据,如下:

月份 广告投入(万元) 销售额(万元)
1 2.0 10.1
2 2.5 12.5
3 3.0 13.0
4 3.5 14.3
5 4.0 15.2
6 4.5 16.0
7 5.0 16.8
8 5.5 18.1
9 6.0 18.5
10 6.5 19.6
11 7.0 20.5
12 7.5 21.2

你建立了一个线性回归模型,拟合出如下的方程:
销售额 = 2.5 ∗ 广告投入 + 5.0 销售额 = 2.5 * 广告投入 + 5.0 销售额=2.5广告投入+5.0

现在,让我们计算 R 2 R^2 R2来评估模型的拟合质量。

首先,计算SST(总平方和):
SST = Σ(销售额 - 销售额均值)²
= (10.1 - 16.675)² + (12.5 - 16.675)² + … + (21.2 - 16.675)²
≈ 121.35

接下来,计算SSR(残差平方和),即模型预测值与实际销售额之间的差异的总和:
SSR = Σ(实际销售额 - 模型预测值)²
= (10.1 - (2.5 * 2.0 + 5.0))² + (12.5 - (2.5 * 2.5 + 5.0))² + … + (21.2 - (2.5 * 7.5 + 5.0))²
≈ 23.05

现在,使用R²的公式计算 R 2 R^2 R2
R 2 = 1 − S S R S S T = 1 − 23.05 121.35 ≈ 0.810 R^2 = 1 - \frac{SSR}{SST} = 1 - \frac{23.05}{121.35} ≈ 0.810 R2=1SSTSSR=1121.3523.050.810

这意味着你的模型能够解释销售额变化的大约81%。这是一个相对较高的 R 2 R^2 R2值,表明你的模型相对准确地拟合了数据,广告投入对销售额有较强的解释能力。文章来源地址https://www.toymoban.com/news/detail-727807.html

到了这里,关于R²决定系数的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • sklearn机器学习库(一)sklearn中的决策树

    sklearn中决策树的类都在”tree“这个模块之下。 tree.DecisionTreeClassifier 分类树 tree.DecisionTreeRegressor 回归树 tree.export_graphviz 将生成的决策树导出为DOT格式,画图专用 tree.export_text 以文字形式输出树 tree.ExtraTreeClassifier 高随机版本的分类树 tree.ExtraTreeRegressor 高随机版本的回归树

    2024年02月13日
    浏览(50)
  • sklearn机器学习库(二)sklearn中的随机森林

    集成算法会考虑多个评估器的建模结果,汇总之后得到一个综合的结果, 以此来获取比单个模型更好的回归或分类表现 。 多个模型集成成为的模型叫做集成评估器(ensemble estimator),组成集成评估器的每个模型都叫做基评估器(base estimator)。通常来说,有三类集成算法:

    2024年02月12日
    浏览(47)
  • 机器学习 | sklearn库

    目录 一、样本及样本的划分 1.1 样本划分 1.2 划分样本的方法 二、导入或创建数据集 2.1 导入sklearn自带的样本数据集 2.2 利用sklearn生成随机的数据集 2.3 读入自己创建的数据集 三、数据预处理 3.1 数据标准化 3.2 sklearn中的数据标准化函数 3.3 正则化函数Normalizer() 四、数据的降

    2024年02月08日
    浏览(43)
  • 机器学习--sklearn(决策树)

    决策树(Decision Tree)是一种非参数的有监督学习方法,它能够从一系列有特征和标签的数据中总结出决策规则,并用树状图的结构来呈现这些规则,以解决分类和回归问题。 节点 根节点:没有进边,有出边。包含最初的,针对特征的提问。 中间节点:既有进边也有出边,进

    2023年04月18日
    浏览(35)
  • sklearn机器学习思维导图

    2024年01月24日
    浏览(45)
  • 【机器学习基础 3】 sklearn库

    目录 一、sklearn库简介 二、sklearn库安装 三、关于机器学习 四、sklearn库在机器学习中的应用 1、数据预处理 2、特征提取 3、模型选择与评估 五、常用的sklearn函数 1、数据集划分 2、特征选择 3、特征缩放 4、模型训练 5、模型预测         Scikit-learn(简称sklearn)是一个用于

    2024年02月07日
    浏览(143)
  • 机器学习框架sklearn之随机森林

    集成学习通过建立几个模型组合来解决单一预测问题。它的工作原理是生成多个分类器/模型,各自独立的学习和作出预测。这些预测最后结合成组合预测,因此优于任何一个单分类的做出预测。 在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是

    2023年04月22日
    浏览(42)
  • 头歌机器学习---sklearn中的kNN算法

    第1关 使用sklearn中的kNN算法进行分类 第2关 使用sklearn中的kNN算法进行回归

    2024年02月06日
    浏览(49)
  • 【机器学习sklearn】第二节:线性回归和线性分类

    作者 🕵️‍♂️:让机器理解语言か   专栏 🎇:机器学习sklearn 描述 🎨:本专栏主要分享博主学习机器学习的笔记和一些心得体会。 寄语 💓:🐾没有白走的路,每一步都算数!🐾          监督学习(英语:Supervised learning)是机器学习中最为常见、应用最为广泛的

    2023年04月26日
    浏览(62)
  • 猿创征文|Python-sklearn机器学习之旅:我的第一个机器学习实战项目

    目录 前言 一、从目的出发 1.导入数据 二、项目开启 1.导入数据

    2024年01月24日
    浏览(57)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包