(完整代码)R语言中利用SVM-RFE机器学习算法筛选关键因子

这篇具有很好参考价值的文章主要介绍了(完整代码)R语言中利用SVM-RFE机器学习算法筛选关键因子。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

自用生信代码, 花费一个多月写下来的。自学R以来第一次写600多行的代码。我的文章已经发表,如对您的研究有帮助希望可以引用一下。文章点我

SVM-RFE

主要是借助e1071包, 实现mSVM-REF识别并筛选关键基因,没有安装的小伙伴需要安装一下。

install.packages("e1071")

mSVM-REF函数是John Colby教授写的链接点我。如无法上GitHub,我也上传在我的gitee仓库里,可以点击右边的1直达1。

输入文件整理成这种样子,即行为样本,列为基因,第一列是分组信息(我只做了两组比较,多组对比需要再研究)。
(完整代码)R语言中利用SVM-RFE机器学习算法筛选关键因子
函数是已经写好的,我们直接引用即可。

set.seed(2023)
library(e1071)

#这里填写你存放的文件路径
source("D:\\ProgramFiles\\R\\Work\\msvmRFE.R")

nfold = 10 #10倍交叉验证
nrows = nrow(input)
folds = rep(1:nfold, len=nrows)[sample(nrows)]
folds = lapply(1:nfold, function(x) which(folds == x))

results = lapply(folds, svmRFE.wrap, input, k=10, halve.above=100)
top.features = WriteFeatures(results, input, save=F)
featsweep = lapply(1:5, FeatSweep.wrap, results, input)

no.info = min(prop.table(table(input[,1])))
errors = sapply(featsweep, function(x) ifelse(is.null(x), NA, x$error))

pdf("svm_rfe.pdf", height = 8, width = 10)
PlotErrors(errors, no.info=no.info)
dev.off()
plot(top.features)#这个图也可以保存

另外我还参考了的Maryam教授的并行代码链接点我,并行计算,提高计算速度。前提是要在win10系统中需要安装Rmpi。 印象中我折腾了一下才装上,如果没安装成功,就不要尝试了,用上面的代码让它慢慢跑也是可以出结果的。

set.seed(2023)

library(e1071)
library(Rmpi)
library(snow)
library(parallel)

#这里填写你存放的文件路径
source("D:\\ProgramFiles\\R\\Work\\msvmRFE.R")

nfold = 10 #10倍交叉验证
nrows = nrow(input)
folds = rep(1:nfold, len=nrows)[sample(nrows)]
folds = lapply(1:nfold, function(x) which(folds == x))

#make a cluster
cl <- makeMPIcluster(mpi.universe.size())

clusterExport(cl, list("input","svmRFE","getWeights","svm"))
results <-parLapply(cl,folds, svmRFE.wrap, input, k=10, halve.above=100)
top.features = WriteFeatures(results, input, save=F)

clusterExport(cl, list("top.features","results", "tune","tune.control"))
featsweep = parLapply(cl,1:100, FeatSweep.wrap, results, input)
stopCluster(cl)

no.info = min(prop.table(table(input[,1])))
errors = sapply(featsweep, function(x) ifelse(is.null(x), NA, x$error))

pdf("svm_rfe.pdf", height = 8, width = 10)
PlotErrors(errors, no.info=no.info)
dev.off()
plot(top.features)
mpi.exit()

其他内容

我文章中所用的其他代码,包括下载数据、差异分析、lasso回归、随机森林等网上的攻略已经很多了,就不再重复,只是把我实际使用的贴出来给大家做参考,可以点旁边这个1访问。1

  • GEOquery包下载GEO中的数据。(有时候下不下来还是需要自己手动下载读取)
  • limma包对芯片数据进行差异分析。
  • DESeq2包对测序数据进行差异分析。
  • MEGENA包构建共表达图谱。
  • glmnet包实现lasso回归筛选
  • randomForest包实现随机森林筛选。
  • venn包绘制韦恩图。
  • pROC包检验预测效果。
  • CIBERSORT进行免疫浸润分析(函数代码点我)。
  • 用ggplot2,余叔的aplot等包进行了一些可视化。

代码写的有点乱,具体讲解先鸽了,有时间再来整理。
如果看不懂的可以在下面评论和私信我。

最后想说

其实这些代码都是别人写好的,我只是搬运过来。就好比人家花了好多时间养好的鱼被我买过来,再卖给大家,我是个香香的卖鱼的。

我不生产代码,只是代码的搬运工。文章来源地址https://www.toymoban.com/news/detail-423218.html

到了这里,关于(完整代码)R语言中利用SVM-RFE机器学习算法筛选关键因子的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 阿里云天池大赛赛题(机器学习)——天猫用户重复购买预测(完整代码)

    商家一般会在 “双十一”,“双十二” 等节日进行大规模的促销,比如各种折扣券和现金券。然而,被低价、折扣、各种让利吸引的用户往往在这次消费之后就再也没有购买,主要为了“薅羊毛”,针对这些用户的促销并没有带来未来销量的提高,只是增加了相应的营销成

    2024年02月02日
    浏览(50)
  • 阿里云天池大赛赛题(机器学习)——阿里云安全恶意程序检测(完整代码)

    阿里云作为国内最大的云服务提供商,每天都面临着网络上海量的恶意攻击。 本题目提供的一堆恶意文件数据,包括感染性病毒、木马程序、挖矿程序、DDoS木马、勒索病毒等等,总计6亿条数据,每个文件数据会有对API调用顺序及线程等相关信息,我们需要训练模型,将测试

    2024年02月07日
    浏览(84)
  • 回归预测 | MATLAB实现基于SVM-RFE-BP支持向量机递归特征消除特征选择算法结合BP神经网络的多输入单输出回归预测

    预测效果 基本介绍 MATLAB实现基于SVM-RFE-BP支持向量机递归特征消除特征选择算法结合BP神经网络的多输入单输出回归预测,输出为选择的特征序号 Chinese: Options:可用的选项即表示的涵义如下 -s svm类型:SVM设置类型(默认0) 0 – C-SVC 1 --v-SVC 2 – 一类SVM 3 – e -SVR 4 – v-SVR -t 核函

    2024年02月14日
    浏览(54)
  • ChatGPT 使用 拓展资料:无需任何机器学习,如何利用大语言模型做情感分析?

    ChatGPT 拓展资料:无需任何机器学习,如何利用大语言模型做情感分析? 用于从文本数据中识别情感 Glove Vectors:

    2023年04月25日
    浏览(51)
  • 【100天精通Python】Day76:Python机器学习-第一个机器学习小项目_鸾尾花分类项目,预测与可视化完整代码(下)

    目录 5 模型实现 5.1 分离出评估数据集 5.2 创建不同的模型来预测新数据 5.3 采用10折交叉验证来评估算法模型 5.4 生成最优模型 6 实施预测 7 模型评估 8 完整代码 (1)鸾尾花分类的完整代码 (2)可视化不同模型预测的评估结果    通过不同的算法来创建模型,并评估它们的

    2024年02月05日
    浏览(58)
  • 机器学习——SVM核函数

    核函数这块,原理理解起来,相对比较简单 但还是会有一些不太理解的地方 对于非线性可分的数据而言,在当前维度,直接使用SVM有分不出的情况 那么就可以从当前维度,直接升到更高维度,进行计算。 例如原本数据只有3个影响因素 x a , x b , x c x_a,x_b,x_c x a ​ , x b ​ ,

    2024年02月13日
    浏览(43)
  • 机器学习SVM——实验报告

    机器学习实验四:SVM 这个需要积分下载(因为实验报告后台查重,不建议直接白嫖)。 建议看博客,博客里面会有很多实验报告小说明会用【…】加粗注释。 实验目的 掌握SVM的原理,熟悉SVM(包括软间隔和核技巧)的优化问题,并掌握其公式推导过程。 能使用SVM解决实际

    2024年02月02日
    浏览(45)
  • [学习笔记] [机器学习] 10. 支持向量机 SVM(SVM 算法原理、SVM API介绍、SVM 损失函数、SVM 回归、手写数字识别)

    视频链接 数据集下载地址:无需下载 学习目标: 了解什么是 SVM 算法 掌握 SVM 算法的原理 知道 SVM 算法的损失函数 知道 SVM 算法的核函数 了解 SVM 算法在回归问题中的使用 应用 SVM 算法实现手写数字识别器 学习目标: 了解 SVM 算法的定义 知道软间隔和硬间隔 在很久以前的

    2024年02月09日
    浏览(91)
  • 机器学习-支持向量机SVM

    在本练习中,我们将使用支持向量机(SVM)来构建垃圾邮件分类器。 我们将从一些简单的2D数据集开始使用SVM来查看它们的工作原理。 然后,我们将对一组原始电子邮件进行一些预处理工作,并使用SVM在处理的电子邮件上构建分类器,以确定它们是否为垃圾邮件。 我们要做

    2024年02月12日
    浏览(55)
  • 机器学习——支持向量机SVM

    支持向量机(SVM)是一种二类分类模型,其基本模型是在特征空间上找到最佳的分离超平面使得训练集上正负样本间隔最大,间隔最大使它有别于感知机,支持向量机也可通过核技巧使它成为非线性分类器。支持向量机的学习策略是间隔最大化,可将其转化为一个求解凸二次

    2024年01月17日
    浏览(57)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包