一、多元线性回归分析(Multiple regression)
1.与简单线性回归相比较,具有多个自变量x
2.多元回归模型
其中是误差值,与简单线性回归分析中的要求特点相一致。其余的系数和截距为参数。
3.多元回归方程
4.估计多元回归方程(点估计)
5.估计方法
使方差和最小,即
从而得到一个唯一的超平面。
二、自变量里没有类别数据的实例
2.1数据:
100,4,9.3 50,3,4.8 100,4,8.9 100,2,6.5 50,2,4.2 80,2,6.2 75,3,7.4 65,4,6 90,3,7.6 90,2,6.1
2.2代码
from numpy import genfromtxt #将导入的数据转换为numparry(即SK包中可以进行运算的矩阵类型的数据)
from sklearn import linear_model#SK包里的数据集和线性模型
import numpy as np
dataPath = r"Delivery.csv"#r后面的内容默认为一个完整的字符串,忽略里面的\
deliveryData = genfromtxt(dataPath,delimiter=',')
print("data")#将已经输入的数据打印出来查看
print(deliveryData)
x= deliveryData[:,:-1]#提取所有的行和除倒数第一列之外的所有的列
y = deliveryData[:,-1]#提取所有行和最后一列的数据
print(x)#打印x的数据
print(y)#打印y的数据
lr = linear_model.LinearRegression()#定义一个模型变量名lr,调用sklearn包中线性模型线性回归分析方法
lr.fit(x, y)#利用上述模型对lr中的x,y数据进行建模
print(lr)
print("coefficients:")
print(lr.coef_)#获取到的截面的参数值
print("intercept:")
print(lr.intercept_)#获取到的截距的参数值
xPredict = np.array([102,5]).reshape(1,-1)
yPredict = lr.predict(xPredict)#对所给出的x的预测值进行预测
print("predict:")
print(yPredict)#打印预测的结果
运行结果:
data
[[100. 4. 9.3]
[ 50. 3. 4.8]
[100. 4. 8.9]
[100. 2. 6.5]
[ 50. 2. 4.2]
[ 80. 2. 6.2]
[ 75. 3. 7.4]
[ 65. 4. 6. ]
[ 90. 3. 7.6]
[ 90. 2. 6.1]]
[[100. 4.]
[ 50. 3.]
[100. 4.]
[100. 2.]
[ 50. 2.]
[ 80. 2.]
[ 75. 3.]
[ 65. 4.]
[ 90. 3.]
[ 90. 2.]]
[9.3 4.8 8.9 6.5 4.2 6.2 7.4 6. 7.6 6.1]
LinearRegression()
coefficients:
[0.0611346 0.92342537]
intercept:
-0.8687014667817126
predict:
[9.98415444]
Process finished with exit code 0
三、自变量中含有类别型的数据
3.1数据
100,4,0,1,0,9.3 50,3,1,0,0,4.8 100,4,0,1,0,8.9 100,2,0,0,1,6.5 50,2,0,0,1,4.2 80,2,0,1,0,6.2 75,3,0,1,0,7.4 65,4,1,0,0,6 90,3,1,0,0,7.6 90,2,0,0,1,6.1
3.2代码文章来源:https://www.toymoban.com/news/detail-462782.html
from numpy import genfromtxt #将导入的数据转换为numparry(即SK包中可以进行运算的矩阵类型的数据)
import numpy as np
from sklearn import linear_model #SK包里的数据集和线性模型
datapath=r"Delivery_Dummy.csv" #r后面的内容默认为一个完整的字符串,忽略里面的\
deliveryData = genfromtxt(datapath,delimiter=",")
x = deliveryData[1:,:-1]#提取所有的行和除倒数第一列之外的所有的列
y = deliveryData[1:,-1]#提取所有行和最后一列的数据
print(x)
print(y)
mlr = linear_model.LinearRegression()#定义一个模型变量名lr,调用sklearn包中线性模型线性回归分析方法
mlr.fit(x, y)#利用上述模型对lr中的x,y数据进行建模
print(mlr)
print("coef:")
print(mlr.coef_)#获取到的截面的参数值
print("intercept")
print(mlr.intercept_)#获取到的截距的参数值
xPredict = np.array([90,2,0,0,1]).reshape(1,-1)
yPredict = mlr.predict(xPredict)#对所给出的x的预测值进行预测
print("predict:")
print(yPredict)#打印预测的结果
运行结果:文章来源地址https://www.toymoban.com/news/detail-462782.html
[[ 50. 3. 1. 0. 0.]
[100. 4. 0. 1. 0.]
[100. 2. 0. 0. 1.]
[ 50. 2. 0. 0. 1.]
[ 80. 2. 0. 1. 0.]
[ 75. 3. 0. 1. 0.]
[ 65. 4. 1. 0. 0.]
[ 90. 3. 1. 0. 0.]
[ 90. 2. 0. 0. 1.]]
[4.8 8.9 6.5 4.2 6.2 7.4 6. 7.6 6.1]
LinearRegression()
coef:
[ 0.05446701 0.62208122 -0.10896785 0.5572758 -0.44830795]
intercept
0.44678510998308685
predict:
[6.14467005]
Process finished with exit code 0
到了这里,关于基于Python的多元线性回归分析的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!