二分类结局LASSO回归筛选变量-R操作(从数据开始)+全套代码

这篇具有很好参考价值的文章主要介绍了二分类结局LASSO回归筛选变量-R操作(从数据开始)+全套代码。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、原始数据处理

如图:

lasso回归r语言代码,R语言,回归,数据挖掘,人工智能,r语言

结局status为二分类变量(用0,1表示)

自变量为X1~X15

数据文件名为mydata.csv

二、将数据导入Rstudio

lasso回归r语言代码,R语言,回归,数据挖掘,人工智能,r语言点readr后点击browse找到你的数据,点击Import就可以导入进来了。

三、R代码进行LASSO回归

library(glmnet)#加载glmnet包
colnames(mydata[,1:17])#查看前17列的列名(根据自己数据调整)
y <- as.matrix(mydata[, 1])  # 提取第1列作为结局(建议放在第一列)
x <- as.matrix(mydata[, 2:17])  # 第2至第17列为自变量


#后边的代码除了s值基本不需更改
lasso_model <- glmnet(x, y, family = "binomial",
                      alpha = 1) # 表示采用L1正则化,即Lasso回归。
max(lasso_model$lambda)
print(lasso_model) 
#绘制LASSO图
plot(lasso_model,
     xvar = "lambda")


#交叉验证并绘制可视化结果
cv_model <- cv.glmnet(x, y, family = "binomial",alpha = 1,nfolds = 10)
plot(cv_model)

#根据交叉验证结果,选择lambda值,lambda.min或lambda.1se。
lambda_min <- cv_model$lambda.min
lambda_min
lambda_1se <- cv_model$lambda.1se
lambda_1se

#s为Lambda大小,Lambda越大表示模型的正则化强度越大,选择的自变量也越少。
#这里选择的是刚刚得到的lambda_1se的值
coef_lasso <- coef(lasso_model,
                   s =  0.03955501)
coef_lasso
#结果显示后边带有数值的变量为筛选得到的变量

如下图所示,第一张图为plot(lasso_model,xvar=“lambda”)的结果

第二张图为plot(cv_model)的结果

lasso回归r语言代码,R语言,回归,数据挖掘,人工智能,r语言lasso回归r语言代码,R语言,回归,数据挖掘,人工智能,r语言文章来源地址https://www.toymoban.com/news/detail-813612.html

到了这里,关于二分类结局LASSO回归筛选变量-R操作(从数据开始)+全套代码的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【线性回归、岭回归、Lasso回归分别预测患者糖尿病病情】数据挖掘实验一

    任务描述:将“diabetes”糖尿病患者数据集划分为训练集和测试集,利用训练集分别结合线性回归、岭回归、Lasso回归建立预测模型,再利用测试集来预测糖尿病患者病情并验证预测模型的拟合能力。 具体任务要求如下: 搜集并加载“diabetes”患者糖尿病指数数据集。 定义训

    2024年02月07日
    浏览(46)
  • 实战 lasso特征筛选得到5个基因 cox单因素分析得到很多有意义的基因 如何lasso筛选特征基因 然后再进行cox多因素分析

    二、为什么需要用 Lasso + Cox 生存分析模式 一般我们在筛选影响患者预后的变量时,通常先进行单因素Cox分析筛选出关联的变量,然后构建多因素模型进一步确认变量与生存的关联是否独立。 但这种做法没有考虑到 变量之间多重共线性的影响 ,有时候我们甚至会发现单因素

    2024年02月01日
    浏览(38)
  • Lasso回归系列二:Lasso回归/岭回归的原理

    在学习L1,L2正则化的作用和区别时,我们总是会看到这样的一副图片: 这幅图片形象化地解释了L1,L2对线性模型产生的不同的约束效果。 我最开始其实是不太理解为什么要这么画的。比如 1、L1范数(L1-norm)等值线一定会和平方误差项等值线相交于某一坐标轴吗? 2、Lasso回归

    2023年04月14日
    浏览(35)
  • 机器学习——线性回归/岭回归/Lasso回归

    线性回归会用到python第三方库:sklearn.linear_model中的LinearRegression 导入第三方库的方法:from sklearn.linear_model import LinearRegression 使用LinearRegression(二维数据,一维数据)进行预测,其中数据类型可以是pandas中的DataFrame或者series,也可以是numpy中的array数据,但维度一定要正确输入。

    2024年02月10日
    浏览(43)
  • R语言软件对房屋价格预测:回归、LASSO、决策树、随机森林、GBM、神经网络和SVM可视化|数据分享...

    在房地产市场中,准确地预测房屋价格是至关重要的。过去几十年来,随着数据科学和机器学习的快速发展,各种预测模型被广泛应用于房屋价格预测中。而R语言作为一种强大的数据分析和统计建模工具,被越来越多的研究者和从业者选择用于房屋价格预测 ( 点击文末“阅

    2024年02月21日
    浏览(112)
  • PYTHON链家租房数据分析:岭回归、LASSO、随机森林、XGBOOST、KERAS神经网络、KMEANS聚类、地理可视化...

    1 利用 python 爬取链家网公开的租房数据; 2 对租房信息进行分析,主要对房租相关特征进行分析,并搭建模型用于预测房租 ( 点击文末“阅读原文”获取完整 代码数据 ) 。 相关视频 利用上海链家网站租房的公开信息,着重对月租进行数据分析和挖掘。 此数据来自 Lianj

    2024年02月10日
    浏览(44)
  • 回归预测模型:MATLAB岭回归和Lasso回归

    1. 岭回归和Lasso回归的基本原理 1.1 岭回归: 岭回归(Ridge Regression) 是一种用于共线性数据分析的技术。共线性指的是自变量之间存在高度相关关系。岭回归通过在损失函数中添加一个L2正则项( λ ∑ j = 1 n β j 2 lambda sum_{j=1}^{n} beta_j^2 λ ∑ j = 1 n ​ β j 2 ​ )来减小回归

    2024年02月19日
    浏览(54)
  • 数学建模学习:岭回归和lasso回归

    线性回归 在多元线性回归模型中,估计回归系数使用的是OLS,并在最后讨论异方差和多重共线性对模型的影响。事实上,回归中自变量的选择大有门道,变量过多可能会导致多重共线性问题导致回归系数不显著,甚至造成OLS估计失效。 岭回归和lasso回归在OLS回归模型的损失函

    2024年02月08日
    浏览(47)
  • LASSO回归

    LASSO(Least Absolute Shrinkage and Selection Operator,最小绝对值收敛和选择算子算法)是一种回归分析技术,用于变量选择和正则化。它由Robert Tibshirani于1996年提出,作为传统最小二乘回归方法的替代品。 岭回归的损失函数,在标准线性回归损失函数的基础上,增加了对权重的控制,作

    2024年02月09日
    浏览(38)
  • 多元线性回归-Lasso

    目录 1.Lasso与多重共线性 2. Lasso的核心作用:特征选择 3. 选取最佳的正则化参数取值          Lasso全称最小绝对收缩和选择算子(Least absolute shrinkage and selection operator),由于这个名称过于复杂所以简称为Lasso,和岭回归一样,Lasso是用来作用于多重共线性的算法,不过Lass

    2024年02月16日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包