Kaggle:Spark实现房价预测

这篇具有很好参考价值的文章主要介绍了Kaggle:Spark实现房价预测。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

写在前面

数据集:House Prices - Advanced Regression Techniques | Kaggle

参考:零基础入门 Spark (geekbang.org)

个人GitHub地址:Kaggle-SparkML

个人博客网站:62bit的秘密基地

具体实现

特征工程

1. 读取数据

val rootPath: String = _
val filePath: String = s"$rootPath/train.csv"
// 读取文件,创建DataFrame
val spark = SparkSession
  .builder()
  .appName("sparkdf")
  .master("local[*]")
  .getOrCreate()
var df: DataFrame = spark.read.format("csv").option("header", value = true).load(filePath)

2. 数据分类

​ 为了提升数据的区分度,对部分字段采用离散化处理,所以要事先分配好需要离散化的字段

//需要离散化的字段
var discreteFields =Array("BedroomAbvGr", "OverallQual", "OverallCond")
//数值型字段
val numericFields: Array[String] = Array("LotFrontage", "LotArea", "MasVnrArea", "BsmtFinSF1", "BsmtFinSF2", "BsmtUnfSF", "TotalBsmtSF", "1stFlrSF", "2ndFlrSF", "LowQualFinSF", "GrLivArea", "BsmtFullBath", "BsmtHalfBath", "FullBath", "HalfBath", "KitchenAbvGr", "TotRmsAbvGrd", "Fireplaces", "GarageCars", "GarageArea", "WoodDeckSF", "OpenPorchSF", "EnclosedPorch", "3SsnPorch", "ScreenPorch", "PoolArea" )
//非数值型字段
val categoricalFields: Array[String] = Array("MSSubClass", "MSZoning", "Street", "Alley", "LotShape", "LandContour", "Utilities", "LotConfig", "LandSlope", "Neighborhood", "Condition1", "Condition2", "BldgType", "HouseStyle", "YearBuilt", "YearRemodAdd", "RoofStyle", "RoofMatl", "Exterior1st", "Exterior2nd", "MasVnrType", "ExterQual", "ExterCond", "Foundation", "BsmtQual", "BsmtCond", "BsmtExposure", "BsmtFinType1", "BsmtFinType2", "Heating", "HeatingQC", "CentralAir", "Electrical", "KitchenQual", "Functional", "FireplaceQu", "GarageType", "GarageYrBlt", "GarageFinish", "GarageQual", "GarageCond", "PavedDrive", "PoolQC", "Fence", "MiscFeature", "MiscVal", "MoSold", "YrSold", "SaleType", "SaleCondition")
// Label字段
val labelFields: Array[String] = Array("SalePrice")

3. 预处理:StringIndexer

官网对StringIndexer的描述:

A label indexer that maps string column(s) of labels to ML column(s) of label indices. If the input columns are numeric, we cast them to string and index the string values. The indices are in [0, numLabels). By default, this is ordered by label frequencies so the most frequent label gets index 0. The ordering behavior is controlled by setting stringOrderType.

简单来说就是以数据列为单位,把字段中的字符串转换为数值索引。

//把数值型字段从字符串转化为数字
for (field <- (numericFields ++ labelFields ++ discreteFields)) {
  df = df
    .withColumn(s"${field}Int",col(field).cast(IntegerType))
    .drop(field)
}
// 用StringIndexer把非数值字段转化为数值字段
val indexFields: Array[String] = categoricalFields.map(_ + "Index")
// 定义StringIndexer实例
val stringIndexer = new StringIndexer()
  .setInputCols(categoricalFields)
  .setOutputCols(indexFields)
  .setHandleInvalid("keep")

4. 离散化:Bucketizer

离散化的目的:

​ 对于BedroomAbvGr这个字段,它的含义是居室数量,在 train.csv 这份数据样本中,“BedroomAbvGr”包含从 1 到 8 的连续整数。我们可以将1,2分为小户型,3,4分为中户型,5,6,7,8分为大户型,这样离散化后,数据的多样性从原来的8降低为3。离散化的动机,主要在于提升特征数据的区分度与内聚性,从而与预测标的产生更强的关联。

官网对Bucketizer的描述:

Bucketizer maps a column of continuous features to a column of feature buckets.

Since 2.3.0, Bucketizer can map multiple columns at once by setting the inputCols parameter. Note that when both the inputCol and inputCols parameters are set, an Exception will be thrown. The splits parameter is only used for single column usage, and splitsArray is for multiple columns.

简单来说就是将连续特征映射为特征桶(feature buckets)

我选取了三个特征做离散化操作,以下是这三个特征的描述:

OverallQual: Rates the overall material and finish of the house
       10	Very Excellent
       9	Excellent
       8	Very Good
       7	Good
       6	Above Average
       5	Average
       4	Below Average
       3	Fair
       2	Poor
       1	Very Poor	
OverallCond: Rates the overall condition of the house
       10	Very Excellent
       9	Excellent
       8	Very Good
       7	Good
       6	Above Average	
       5	Average
       4	Below Average	
       3	Fair
       2	Poor
       1	Very Poor
BedroomAbvGr: Number of bedrooms

对于前两个特征OverallQual和OverallCond,我将它们从3和7的位置分隔为3个等级

第三个特征BedroomAbvGr在数据集中的值域是[1,8],我将它从3和5的位置分为3个等级

//离散化
val discrete = discreteFields.map(_ + "Discrete")
discreteFields = discreteFields.map(_ + "Int")
val bedroomAbvGrSplits: Array[Double] = Array(Double.NegativeInfinity, 3, 5, Double.PositiveInfinity)
val OverallQualSplits: Array[Double] = Array(Double.NegativeInfinity, 3, 7, Double.PositiveInfinity)
val OverallCondSplits: Array[Double] = Array(Double.NegativeInfinity, 3, 7, Double.PositiveInfinity)
// 定义并初始化Bucketizer
val bucketizer = new Bucketizer()
  // 指定原始列
  .setInputCols(discreteFields)
  // 指定目标列
  .setOutputCols(discrete)
  // 指定离散区间
  .setSplitsArray(Array(OverallQualSplits,OverallCondSplits, bedroomAbvGrSplits))

5. Embedding:OneHotEncoder

对于字段值不存在大小关系的字段来说,只是将其转化为数值型字段是没有意义的,这就要用到Embedding(向量化)了

官网对OneHotEncoder的描述:

A one-hot encoder that maps a column of category indices to a column of binary vectors, with at most a single one-value per row that indicates the input category index. For example with 5 categories, an input value of 2.0 would map to an output vector of [0.0, 0.0, 1.0, 0.0]. The last category is not included by default (configurable via dropLast), because it makes the vector entries sum up to one, and hence linearly dependent. So an input value of 4.0 maps to [0.0, 0.0, 0.0, 0.0].

//热独编码
//对所有非数值字段
val oheFields: Array[String] = categoricalFields.map(_ + "OHE")
val oneHotEncoder = new OneHotEncoder()
  .setInputCols(indexFields)
  .setOutputCols(oheFields)

6. 归一化:MinMaxScaler

归一化(Normalization)的作用,是把一组数值,统一映射到同一个值域,而这个值域通常是[0, 1]。当原始数据之间的量纲差异较大时,在模型训练的过程中,梯度下降不稳定、抖动较大,模型不容易收敛,从而导致训练效率较差。相反,当所有特征数据都被约束到同一个值域时,模型训练的效率会得到大幅提升。

官网对OneHotEncoder的描述:

Rescale each feature individually to a common range [min, max] linearly using column summary statistics, which is also known as min-max normalization or Rescaling. The rescaled value for feature E is calculated as:

Kaggle:Spark实现房价预测

// 构建特征向量
val numericFeatures: Array[String] = numericFields.map(_ + "Int")
val vectorAssembler = new VectorAssembler()
  .setInputCols(numericFeatures ++ indexFields ++ discrete)
  .setOutputCol("features")
  .setHandleInvalid("keep")
//归一化
val minMaxScaler = new MinMaxScaler()
  .setInputCol("features")
  .setOutputCol("vector")
val vectorIndexer = new VectorIndexer()
  .setInputCol("vector")
  .setOutputCol("indexedFeatures")
  // 指定连续、离散判定阈值
  .setMaxCategories(30)
  .setHandleInvalid("keep")

决策树模型

用不同特征的不同取值的组合,将数据集分为若干类

维基百科对决策树的描述:

Gradient boosting is a machine learning technique used in regression and classification tasks, among others. It gives a prediction model in the form of an ensemble of weak prediction models, which are typically decision trees. When a decision tree is the weak learner, the resulting algorithm is called gradient-boosted trees; it usually outperforms random forest.A gradient-boosted trees model is built in a stage-wise fashion as in other boosting methods, but it generalizes the other methods by allowing optimization of an arbitrary differentiable loss function.文章来源地址https://www.toymoban.com/news/detail-467372.html

val gbtRegressor = new GBTRegressor()
  // 指定预测标的
  .setLabelCol("SalePriceInt")
  // 指定特征向量
  .setFeaturesCol("indexedFeatures")
  // 指定决策树的数量
  .setMaxIter(30)
  // 指定决策树的最大深度
  .setMaxDepth(5)
  .setMaxBins(113)

模型训练与测试

//将所有步骤拼接起来
val components = Array(stringIndexer, bucketizer, oneHotEncoder, vectorAssembler, minMaxScaler, vectorIndexer, gbtRegressor)
val pipeline = new Pipeline().setStages(components)
// 划分出训练集和验证集
val Array(trainingData, validationData) = df.randomSplit(Array(0.7, 0.3))
// 调用fit方法,触发Pipeline计算,并最终拟合出模型
val pipelineModel = pipeline.fit(trainingData)

//测试
val predictions: DataFrame = pipelineModel.transform(validationData).select("SalePriceInt", "prediction")
predictions.show
val evaluator = new RegressionEvaluator().setLabelCol("SalePriceInt").setPredictionCol("prediction").setMetricName("rmse")
val rmse = evaluator.evaluate(predictions)
println("Root Mean Squared Error (RMSE) on test data = " + rmse)

//输出
+------------+------------------+
|SalePriceInt|        prediction|
+------------+------------------+
|      208500| 194936.7390633201|
|      118000| 119025.8916425119|
|       82000| 61752.41121907966|
|       86000| 66919.40597545142|
|      232000|247479.64950853962|
|      205000|185552.29830149628|
|      102000|127362.53595460855|
|      227000|208367.37768488855|
|      203000|  238802.515083912|
|      178000| 166284.1585451415|
|      191000|190125.10112212482|
|      287000| 423247.5498783909|
|      112500|128910.00291716766|
|      293077|240677.67824324753|
|       84000|  61818.4933553084|
|      315500| 263464.3610693604|
|       80000| 78665.99046630661|
|      262280| 302944.9443747723|
|      139600|175819.03135313356|
|      169500|205292.33446646377|
+------------+------------------+
only showing top 20 rows
Root Mean Squared Error (RMSE) on test data = 36637.90806077914

到了这里,关于Kaggle:Spark实现房价预测的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 数据分析(以kaggle上的加州房价为例)

    数据来源:House Prices - Advanced Regression Techniques 参考文献: Comprehensive data exploration with Python 偏度(Skewness)是一种衡量随机变量概率分布的偏斜方向和程度的度量,是统计数据分布非对称程度的数字特征。偏度可以用来反映数据分布相对于对称分布的偏斜程度。偏度的取值范

    2024年02月09日
    浏览(44)
  • 机器学习与深度学习——使用paddle实现随机梯度下降算法SGD对波士顿房价数据进行线性回归和预测

    随机梯度下降(SGD)也称为增量梯度下降,是一种迭代方法,用于优化可微分目标函数。该方法通过在小批量数据上计算损失函数的梯度而迭代地更新权重与偏置项。SGD在高度非凸的损失表面上远远超越了朴素梯度下降法,这种简单的爬山法技术已经主导了现代的非凸优化。

    2024年02月03日
    浏览(57)
  • 竞赛 大数据房价预测分析与可视

    🔥 优质竞赛项目系列,今天要分享的是 🚩 大数据房价预测分析与可视 🥇学长这里给一个题目综合评分(每项满分5分) 难度系数:3分 工作量:3分 创新点:4分 该项目较为新颖,适合作为竞赛课题方向,学长非常推荐! 🧿 更多资料, 项目分享: https://gitee.com/dancheng-senior/

    2024年02月07日
    浏览(44)
  • kaggle新赛:写作质量预测大赛【数据挖掘】

    赛题名称: Linking Writing Processes to Writing Quality 赛题链接: https://www.kaggle.com/competitions/linking-writing-processes-to-writing-quality 写作过程中存在复杂的行为动作和认知活动,不同作者可能采用不同的计划修订技术、展示不同的停顿模式或在全过程中策略性地分配时间,这些都可能影

    2024年02月07日
    浏览(44)
  • paddle实现波士顿房价预测任务

    要点: 参考官方案例 飞桨PaddlePaddle-源于产业实践的开源深度学习平台 1 加载飞桨框架的相关类库 飞桨支持两种深度学习建模编写方式,更方便调试的动态图模式和性能更好并便于部署的静态图模式。 动态图模式(命令式编程范式,类比Python):解析式的执行方式。用户无

    2023年04月14日
    浏览(46)
  • 大数据毕业设计 LSTM时间序列预测算法 - 股票预测 天气预测 房价预测

    今天学长向大家介绍LSTM基础 基于LSTM的预测算法 - 股票预测 天气预测 房价预测 时间序列预测是一类比较困难的预测问题。 与常见的回归预测模型不同,输入变量之间的“序列依赖性”为时间序列问题增加了复杂度。 一种能够专门用来处理序列依赖性的神经网络被称为 递归

    2024年02月05日
    浏览(66)
  • 【毕设选题】大数据房价预测分析与可视

    🔥 这两年开始毕业设计和毕业答辩的要求和难度不断提升,传统的毕设题目缺少创新和亮点,往往达不到毕业答辩的要求,这两年不断有学弟学妹告诉学长自己做的项目系统达不到老师的要求。 为了大家能够顺利以及最少的精力通过毕设,学长分享优质毕业设计项目,今天

    2024年02月03日
    浏览(51)
  • 时序预测 | MATLAB实现NARX非线性自回归外生模型房价预测

    效果一览 基本介绍 时序预测 | MATLAB实现NARX非线性自回归外生模型房价预测 研究内容 NARX(Nonlinear AutoRegressive with eXogenous inputs)是一种非线性自回归外生模型,可以用于时间序列预测,其中外生变量可以帮助提高预测的准确性。在房价预测中,NARX模型可以使用历史房价数据

    2024年02月16日
    浏览(55)
  • 数据分析与数据挖掘实战案例本地房价预测(716):

    2022 年首届钉钉杯大学生大数据挑战赛练习题目 练习题 A:二手房房价分析与预测 要点: 1、机器学习 2、数据挖掘 3、数据清洗、分析、pyeahcrs可视化 4、随机森林回归预测模型预测房价 1、读入数据、清洗数据: 2、解决相关问题: (一) 根据附件中的数据集,将二手房数据

    2024年02月07日
    浏览(56)
  • 基于随机森林的房价预测(boston住房数据集)

    目录 一、随机森林的简单介绍 二、数据集         boston住房数据集下载链接: 三、数据预处理 1)加载住房数据集 2)绘制散点图 3)绘制关联矩阵 4)划分训练集和测试集 四、随机森林回归模型建立 1)建立随机森林回归模型 2)模型预测 五、结果及分析 1)模型性能评估

    2024年02月08日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包