数学建模-基于LightGBM和BP神经网络的互联网招聘需求分析与预测

这篇具有很好参考价值的文章主要介绍了数学建模-基于LightGBM和BP神经网络的互联网招聘需求分析与预测。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

基于LightGBM和BP神经网络的互联网招聘需求分析与预测

整体求解过程概述(摘要)

  就业是民生之本,是发展之基,也是安国之策。2020 年新冠肺炎疫情的爆发,稳就业成为应对疫情、稳定社会的重要保障之一。随着数据新动能的发展,互联网招聘为招聘者和应聘者提供不限于时空的全局视角,因此本文从该角度出发对招聘者和应聘者需求进行统计分析预测,以期缓解就业难、招聘难的困境。
  本文基于近年来各在线招聘网站所发布的招聘数据并结合数据新动能下转型升级的三个金融行业、互联网行业、生产制造行业,采用 Pearson 相关系数检验初步筛选后运用灰色关联分析进一步进行指标筛选,最后对企业招聘中招聘者关注的浏览量运用 LightGBM 模型进行浏览量特征重要性分析,对就业形势中应聘者关注的薪资运用 BP 神经网络预测模型对于薪资进行预测,并进行模型精度对比,得出数据新动能下三个行业的薪资统计分析预测。
  经研究得出关于企业招聘浏览量,金融行业薪资水平,互联网行业薪资水平,生产制造行业薪资水平的影响因素及重要程度。基于以上分析结论,本文在互联网招聘市场中对招聘者与应聘者需求提出以下对策建议:第一,对于企业,招聘者应根据岗位浏览量合理设置招聘要求;第二,对于金融行业,应聘者应根据学历因素合理考虑就业地域;第三,对于互联网行业,应聘者应根据学历因素合理考虑公司性质;第四,对于生产制造行业,应聘者应根据公司所在地合理考虑公司性质。

问题分析

  基于当代数字经济大环境背景,面对当前互联网市场应聘者和招聘者需求不对称的现状,本文运用近年来各在线招聘网站所发布的招聘数据并结合数据新动能下转型升级的三个金融行业、互联网行业、生产制造行业,采用 Pearson 相关系数分析初步筛选后运用灰色关联分析进一步进行维度筛选,最后对企业招聘中招聘者关注的浏览量运用 LightGBM 模型进行特征重要性分析,对就业形势中应聘者关注的薪资运用 BP 神经网络预测模型对于薪资进行预测,并进行模型检验与修正,得出新动能下三个行业的薪资和浏览量的分析与预测。
lightgbm 神经网络,笔记,数学建模,数据分析,数学建模,神经网络,人工智能,数据分析

指标的选取与数据的处理

  (一)数据来源
  本文数据通过对某数据平台的数据进行爬取,总共得到 1007894 条数据。数据预处理以 excel 为主,Python、R 为辅,完成原始数据去重区空以及数值转换等数据预处理工作之后进行分层随机抽样得到剩下 40000 条数据进行统计分析。对于异常值的处理,学历、职位、行业等因素使用删除异常值方法处理,经验年数、工资上下限因素使用计算平均值方法进行处理。分层抽样法,也叫类型抽样法。将总体单位按其属性特征分成若干类型或层,然后在类型或层中随机抽取样本单位。分层抽样法的特点是通过划类分层,增大了各类分层抽样中单位间的共同性,容易抽出具有代表性的调查样本。该方法适用于总体情况复杂,各单位之间差异较大,单位较多的情况。分层随机抽样的程序是把总体各单位分成两个或两个以上的相互独立且各具特点的完全的组,再从两个或两个以上的组中分别进行随机抽样。分组的标志或特点与所关心的总体特征相关。“所学非所用”不利于充分发挥人力资本的潜在价值(郭睿,2019),本文以学历作为属性特征进行分层,将不同学历分出不同层,按各学历占总数据的比例在每一层中随机抽样,得出 40000 条数据。
  并通过划分行业来分别选取每个行业中的指标进行分析预测,金融行业的发展是一个国家经济发展的重要支撑(高景文,2019),互联网行业则为数字化时代背景下一个重要的行业支撑(周蕴慧,2021),生产制造行业的转型升级也是当今时代面临的重大课题(江小涓,2020),这三个行业都对数据新动能背景下招聘与就业需求不对称的统计分析研究具有一定意义,因此本文选取这三种行业进行统计分析预测。
  而对于大多数互联网应聘者而言,薪资是众多被考虑因素中的重中之重,是其劳动回报的直接体现(Kristin L ,2018),对于企业而言,应聘者的薪资与其经营的利润以及成本是直接相关的关系。因此选取三个行业薪资平均值与其他指标进行分析。

  (二)指标选取
  1. Pearson 相关系数检验
  Pearson 相关系数是用协方差除以两个变量的标准差得到的,虽然协方差能反映两个随机变量的相关程度(协方差大于 0 的时候表示两者正相关,小于 0 的时候表示两者负相关),但是协方差值的大小并不能很好地度量两个随机变量的关联程度,对于标准化后的数据求欧氏距离平方并经过简单的线性变化,也就是Pearson 系数,我们一般用欧式距离来衡量向量的相似度,但欧式距离无法考虑不同变量间取值的差异。加之,Pearson 相关系数适用于高维度检验,而未经升级的欧式距离以及 cosine 相似度,对变量的取值范围是敏感的,在使用前需要进行适当的处理。因此在对变量间进行相关性检验时,本文优先采用 Pearson 相关系数检验去研究经验,学历,公司所在地,公司性质,职位分别和薪资平均值之间的相关关系,使用 Pearson 相关系数去表示相关关系的强弱情况。具体分析可知:
  ①金融行业:经验、学历、职位、公司所在地呈现显著性
lightgbm 神经网络,笔记,数学建模,数据分析,数学建模,神经网络,人工智能,数据分析
  ②互联网行业:经验、学历、职位、公司所在地、公司性质呈现显著性
lightgbm 神经网络,笔记,数学建模,数据分析,数学建模,神经网络,人工智能,数据分析
  ③生产制造行业:经验、学历、公司所在地、公司性质呈现显著性

lightgbm 神经网络,笔记,数学建模,数据分析,数学建模,神经网络,人工智能,数据分析
  2. 灰色关联分析
  基于 Pearson 相关系数检验得出的结果,本文进一步对具有显著性的各个特征值进行选取。运用灰色关联分析对于研究指标进行进一步选取,研究各因素对薪资的影响大小关系,得出结果如下:
  ①金融行业:公司所在地、职位

lightgbm 神经网络,笔记,数学建模,数据分析,数学建模,神经网络,人工智能,数据分析
  从上表可以看出:针对本次 4 个评价项,公司所在地的综合评价最高(关联度为:0.989),其次是职位(关联度为:0.670)。
  ②互联网行业:学历、公司性质
lightgbm 神经网络,笔记,数学建模,数据分析,数学建模,神经网络,人工智能,数据分析
  从上表可以看出:针对本次 5 个评价项,学历的综合评价最高(关联度为:0.928),其次是公司性质(关联度为:0.909)。
  ③生产制造行业:公司所在地、公司性质

lightgbm 神经网络,笔记,数学建模,数据分析,数学建模,神经网络,人工智能,数据分析
  从上表可以看出:针对本次 4 个评价项,公司所在地的综合评价最高(关联度为:0.959),其次是公司性质(关联度为:0.953)

模型的建立与求解整体论文缩略图

lightgbm 神经网络,笔记,数学建模,数据分析,数学建模,神经网络,人工智能,数据分析
lightgbm 神经网络,笔记,数学建模,数据分析,数学建模,神经网络,人工智能,数据分析文章来源地址https://www.toymoban.com/news/detail-842732.html

全部论文请见下方“ 只会建模 QQ名片” 点击QQ名片即可

程序代码:(代码和文档not free)

%% 网络测试
an=sim(net,inputn_test); %用训练好的模型进行仿真
test_simu=mapminmax('reverse',an,outputps); % 预测结果反归一化
error=test_simu-output_test; %预测值和真实值的误差
%%真实值与预测值误差比较
figure
plot(output_test,'bo-','linewidth',1.2)
hold on
plot(test_simu,'r*-','linewidth',1.2)
legend('期望值','预测值')
xlabel('测试样本编号'),ylabel('指标值')
title('BP 测试集预测值和期望值的对比')
set(gca,'fontsize',12)
igure
plot(error,'ro-','linewidth',1.2)
xlabel('测试样本编号'),ylabel('预测偏差')
title('BP 神经网络测试集的预测误差')
set(gca,'fontsize',12)
%计算误差
[~,len]=size(output_test);
SSE1=sum(error.^2);
MAE1=sum(abs(error))/len;
MSE1=error*error'/len;
RMSE1=MSE1^(1/2);
MAPE1=mean(abs(error./output_test));
r=corrcoef(output_test,test_simu); %corrcoef 计算相关系数矩阵,包括自相关和
互相关系数
R1=r(1,2); 
%% 初始化
clear
close all
clc
format short
%% 读取读取
data=xlsread('数据总.xlsx','Sheet1','A1:F18528'); %%使用 xlsread 函数读取 EXCEL
中对应范围的数据即可 
%输入输出数据
input=data(:,1:end-1); %data 的第一列-倒数第二列为特征指标
output=data(:,end); %data 的最后面一列为输出的指标值
N=length(output); %全部样本数目
testNum=50; %设定测试样本数目
trainNum=N-testNum; %计算训练样本数目
%% 划分训练集、测试集
input_train = input(1:trainNum,:)';
output_train =output(1:trainNum)';
input_test =input(trainNum+1:trainNum+testNum,:)';
output_test =output(trainNum+1:trainNum+testNum)';
%% 数据归一化
[inputn,inputps]=mapminmax(input_train,0,1);
[outputn,outputps]=mapminmax(output_train);
inputn_test=mapminmax('apply',input_test,inputps);
%% 获取输入层节点、输出层节点个数
inputnum=size(input,2);
outputnum=size(output,2);
disp('/')
disp('神经网络结构...')
disp(['输入层的节点数为:',num2str(inputnum)])
disp(['输出层的节点数为:',num2str(outputnum)])
disp(' ')
disp('隐含层节点的确定过程...')
%确定隐含层节点个数
%采用经验公式 hiddennum=sqrt(m+n)+a,m 为输入层节点个数,n 为输出层节点
个数,a 一般取为 1-10 之间的整数
MSE=1e+5; %初始化最小误差
transform_func={'tansig','purelin'}; %激活函数
train_func='trainlm'; %训练算法
for 
hiddennum=fix(sqrt(inputnum+outputnum))+1:fix(sqrt(inputnum+outputnum))+10
%构建网络
net=newff(inputn,outputn,hiddennum,transform_func,train_func);
% 网络参数
net.trainParam.epochs=1000; % 训练次数
net.trainParam.lr=0.01; % 学习速率
net.trainParam.goal=0.000001; % 训练目标最小误差
% 网络训练
net=train(net,inputn,outputn);
an0=sim(net,inputn); %仿真结果
mse0=mse(outputn,an0); %仿真的均方误差
disp([' 隐含层节点数为 ',num2str(hiddennum),' 时,训练集的均方误差为:
',num2str(mse0)])
%更新最佳的隐含层节点
if mse0<MSE
MSE=mse0;
hiddennum_best=hiddennum;
end
end
disp(['最佳的隐含层节点数为:',num2str(hiddennum_best),',相应的均方误差为:
',num2str(MSE)])
%% 构建最佳隐含层节点的 BP 神经网络
net=newff(inputn,outputn,hiddennum_best,transform_func,train_func);
% 网络参数
net.trainParam.epochs=1000; % 训练次数
net.trainParam.lr=0.01; % 学习速率
net.trainParam.goal=0.000001; % 训练目标最小误差
%% 网络训练
net=train(net,inputn,outputn);
%% 网络测试
an=sim(net,inputn_test); %用训练好的模型进行仿真
test_simu=mapminmax('reverse',an,outputps); % 预测结果反归一化
error=test_simu-output_test; %预测值和真实值的误差
%%真实值与预测值误差比较
figure
plot(output_test,'bo-','linewidth',1.2)
hold on
plot(test_simu,'r*-','linewidth',1.2)
legend('期望值','预测值')
xlabel('测试样本编号'),ylabel('指标值')
title('BP 测试集预测值和期望值的对比')
set(gca,'fontsize',12)
figure
plot(error,'ro-','linewidth',1.2)
xlabel('测试样本编号'),ylabel('预测偏差')
title('BP 神经网络测试集的预测误差')
set(gca,'fontsize',12)
%计算误差
[~,len]=size(output_test);
SSE1=sum(error.^2);
MAE1=sum(abs(error))/len;
MSE1=error*error'/len;
RMSE1=MSE1^(1/2);
MAPE1=mean(abs(error./output_test));
r=corrcoef(output_test,test_simu); %corrcoef 计算相关系数矩阵,包括自相关和
互相关系数
R1=r(1,2); 
disp(' ')
disp('/')
disp('预测误差分析...')
disp(['误差平方和 SSE 为: ',num2str(SSE1)])
disp(['平均绝对误差 MAE 为: ',num2str(MAE1)])
disp(['均方误差 MSE 为: ',num2str(MSE1)])
disp(['均方根误差 RMSE 为: ',num2str(RMSE1)])
disp(['平均百分比误差 MAPE 为: ',num2str(MAPE1*100),'%'])
disp(['相关系数 R 为: ',num2str(R1)])
%打印结果
disp(' ')
disp('/')
disp('打印测试集预测结果...')
disp([' 编号 实际值 预测值 误差'])
for i=1:len
disp([i,output_test(i),test_simu(i),error(i)])
end
全部论文请见下方“ 只会建模 QQ名片” 点击QQ名片即可

到了这里,关于数学建模-基于LightGBM和BP神经网络的互联网招聘需求分析与预测的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 神经网络模型--数学建模

    目录 1.神经网络模型简介 2.神经网络在数学建模中用途 3.神经网络在数学建模中应用案例 3.1交通流量预测 3.2 股票价格预测 3.3图像识别 3.4自然语言处理 3.5智能控制   神经网络是一种人工智能算法,它受到了生物神经网络的启发。类似于生物神经网络,神经网络也由许多相互

    2024年02月01日
    浏览(24)
  • 数学建模——人工神经网络模型

       1943年心理学家McCulloch和数学家Pitts提出神经元生物数学模型(M-P模型),后来人工神经网络(Artifical Neural Network,ANN)是在生物神经网络(Biological Neural Network,BNN)基础上发展起来的,是对人脑的某种抽象、简化和模拟,是模拟人的智能的一种途径。     神经元是神经网络的基本

    2024年02月08日
    浏览(18)
  • 2023年神经网络与数学建模:原理、实现与案例

    在本博客中,我们将探讨神经网络这一模拟人脑神经元结构的计算模型,以及如何将其应用于数学建模。我们将详细解释神经网络的原理、使用 MATLAB 实现神经网络,并提供一个数学建模案例。博客内容如下: 目录 1. 神经网络简介 2. 神经网络的数学原理 2.1 前向

    2024年02月07日
    浏览(28)
  • Matlab数学建模算法之小波神经网络详解

    🔗 运行环境:Matlab 🚩 撰写作者:左手の明天 🥇 精选专栏:《python》 🔥  推荐专栏:《算法研究》 🔐####  防伪水印——左手の明天 #### 🔐 💗 大家好🤗🤗🤗,我是 左手の明天 !好久不见💗 💗今天分享

    2024年02月20日
    浏览(23)
  • 数学建模-MATLAB神经网络工具箱实现数据拟合预测

    将数据集保存在矩阵data中 在APP页面找到Neural Net Fitting 3.输入与目标均为 data,Samples are 选择 Matrix rows 4.训练集和验证集的百分比可以自定义,一般默认 三种算法,各有优劣,一般默认第一个,点击Train进行训练 4.点击Performance 5.以此图为例,13.1572代表误差,误差越低越好,可

    2024年02月06日
    浏览(22)
  • 2023年9月数学建模博客:深度学习与多层神经网络

    目录 1. 深度学习简介 2. 多层神经网络基本原理 2.1 激活函数

    2024年02月07日
    浏览(23)
  • 基于BP神经网络的定位算法,基于BP神经网络定位预测

    摘要 BP神经网络参数设置及各种函数选择 参数设置 训练函数 传递函数 学习函数 性能函数 显示函数 前向网络创建函数 BP神经网络训练窗口详解 训练窗口例样 训练窗口四部详解 基于BP神经网络的定位算法,基于BP神经网络定位预测 代码下载:基于BP神经网络的定位算法,基

    2024年02月02日
    浏览(22)
  • 基于BP神经网络的火焰识别,基于BP神经网络的火灾识别

    背影 BP神经网络的原理 BP神经网络的定义 BP神经网络的基本结构 BP神经网络的神经元 BP神经网络的激活函数, BP神经网络的传递函数 代码链接:基于BP神经网络的火焰识别,基于BP神经网络的火灾识别资源-CSDN文库 https://download.csdn.net/download/abc991835105/88215777 神经网络参数 基于

    2024年02月11日
    浏览(19)
  • 基于BP神经网络的风险等级预测,BP神经网络的详细原理,

    背影 BP神经网络的原理 BP神经网络的定义 BP神经网络的基本结构 BP神经网络的神经元 BP神经网络的激活函数, BP神经网络的传递函数 代码链接:基于BP神经网络的风险等级评价,基于BP神经网络的风险等级预测(代码完整,数据齐全)资源-CSDN文库 https://download.csdn.net/download

    2024年02月06日
    浏览(22)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包