【R语言】机器学习-手撕逻辑回归
算法原理
逻辑回归是一种常用的分类算法,它在机器学习领域有着广泛的应用。在介绍具体的实现细节之前,我们先来了解一下逻辑回归的算法原理。
sigmoid函数
逻辑回归使用sigmoid函数(也称为逻辑函数)来进行分类。Sigmoid函数是一个S形曲线,它将输入值映射到0和1之间的概率值。它的定义如下:
S
(
x
)
=
1
1
+
e
−
x
S(x) = \frac{1}{1+e^{-x}}
S(x)=1+e−x1
其函数图像与导函数图像如下:
广义线性模型
逻辑回归是一种广义线性模型(Generalized Linear Model,简称GLM)。广义线性模型是一类包括逻辑回归在内的统计模型,它通过线性组合输入特征,并通过一个链接函数将线性组合映射到输出概率。
线性模型的矩阵表示
Z
=
X
θ
T
Z = \bold{X} \theta^T
Z=XθT
- 输入的 X \bold{X} X是 m × ( n + 1 ) m \times (n+1) m×(n+1)维度的矩阵, m m m是样本数量, n n n是特征数。
- θ \theta θ是 ( n + 1 ) (n+1) (n+1)维的权重向量,其转置 θ T \theta^T θT是 ( n + 1 ) × 1 (n+1) \times 1 (n+1)×1维度的列矩阵
将线性模型代入sigmoid函数,得逻辑回归的矩阵表示
h
θ
(
X
)
=
1
1
+
e
−
X
θ
T
h_{\theta}(\bold{X})= \frac{1}{1+e^{-\bold{X} \theta^T}}
hθ(X)=1+e−XθT1
- h θ ( X ) h_{\theta}(\bold{X}) hθ(X)是假设函数(hypothesis function),为 m × 1 m \times 1 m×1维度的矩阵,代表 m m m个样本数据的预测概率值。
极大似然函数
极大似然估计(Maximum Likelihood Estimation,简称MLE)是一种常用的参数估计方法,用于在给定观测数据的情况下,估计出最有可能生成这些观测数据的模型参数值。
对某个多分类问题的数据集
D
=
{
(
x
1
,
y
1
)
,
(
x
2
,
y
2
)
,
…
,
(
x
m
,
y
m
)
}
D=\{(\bold{x}_1,y_1),(\bold{x}_2,y_2),\dots,(\bold{x}_m,y_m)\}
D={(x1,y1),(x2,y2),…,(xm,ym)},
x
\bold{x}
x为特征向量,其MLE表达式为
L
(
x
,
θ
)
=
∏
i
=
1
m
p
(
y
i
∣
x
i
,
θ
)
=
p
(
y
1
∣
x
1
,
θ
)
p
(
y
2
∣
x
2
,
θ
)
…
p
(
y
m
∣
x
m
,
θ
)
\begin{align} L(\bold{x},\theta) &= \prod_{i=1}^m p(y_i|\bold{x}_i,\theta) \\ &=p(y_1|\bold{x}_1,\theta) p(y_2|\bold{x}_2,\theta) \dots p(y_m|\bold{x}_m,\theta) \end{align}
L(x,θ)=i=1∏mp(yi∣xi,θ)=p(y1∣x1,θ)p(y2∣x2,θ)…p(ym∣xm,θ)
在逻辑回归中,我们使用极大似然估计来估计模型的参数。极大似然估计的目标是找到一组参数,使得给定观测数据的条件下,观测到这些数据的概率最大化。对于二分类的逻辑回归,其预测值的概率分别可表示为
p
(
y
=
1
∣
x
)
=
1
1
+
e
−
x
θ
T
p
(
y
=
0
∣
x
)
=
1
−
p
(
y
=
1
∣
x
)
=
1
1
+
e
x
θ
T
\begin{align} p(y=1|\bold{x}) &= \frac{1}{1+e^{-\bold{x} \theta^T}} \\ p(y=0|\bold{x}) &= 1-p(y=1|\bold{x}) =\frac{1}{1+e^{\bold{x} \theta^T}} \end{align}
p(y=1∣x)p(y=0∣x)=1+e−xθT1=1−p(y=1∣x)=1+exθT1
则逻辑回归的最大似然估计可表示为
L
(
x
)
=
∏
i
=
1
k
p
(
y
i
=
1
∣
x
i
)
∏
i
=
k
m
p
(
y
i
=
0
∣
x
i
)
=
∏
i
=
1
k
p
(
y
i
=
1
∣
x
i
)
∏
i
=
k
m
(
1
−
p
(
y
i
=
1
∣
x
i
)
)
\begin{align} L(\bold{x}) &= \prod_{i=1}^k p(y_i=1|\bold{x}_i) \prod_{i=k}^m p(y_i=0|\bold{x}_i) \\ &= \prod_{i=1}^k p(y_i=1|\bold{x}_i) \prod_{i=k}^m \left(1-p(y_i=1|\bold{x}_i)\right) \end{align}
L(x)=i=1∏kp(yi=1∣xi)i=k∏mp(yi=0∣xi)=i=1∏kp(yi=1∣xi)i=k∏m(1−p(yi=1∣xi))
设
h
(
x
)
=
p
(
y
=
1
∣
x
)
h(\bold{x}) = p(y=1|\bold{x})
h(x)=p(y=1∣x)得
L
(
x
)
=
∏
i
=
1
k
h
(
x
i
)
∏
i
=
k
m
(
1
−
h
(
x
i
)
)
L(\bold{x}) = \prod_{i=1}^k h(\bold{x}_i) \prod_{i=k}^m \left(1-h(\bold{x}_i)\right)
L(x)=i=1∏kh(xi)i=k∏m(1−h(xi))
利用
y
∈
{
0
,
1
}
y \in \{0,1\}
y∈{0,1}的特征可将上式整理为
L
(
x
)
=
∏
i
=
1
m
h
(
x
i
)
y
i
(
1
−
h
(
x
i
)
)
1
−
y
i
L(\bold{x}) = \prod_{i=1}^m h(\bold{x}_i)^{y_i} (1-h(\bold{x}_i))^{1-y_i}
L(x)=i=1∏mh(xi)yi(1−h(xi))1−yi
损失函数
逻辑回归使用对数似然损失函数(log-likelihood loss)作为优化的目标函数。对数似然损失函数可以衡量模型的预测结果与实际观测值之间的差异。
l
(
x
)
=
ln
L
(
x
)
=
∑
i
=
1
m
y
i
ln
(
h
(
x
i
)
)
+
(
1
−
y
i
)
ln
(
1
−
h
(
x
i
)
)
l(\bold{x}) = \ln{L(\bold{x})} = \sum_{i=1}^m y_i\ln{(h(\bold{x}_i))} + (1-y_i)\ln{(1-h(\bold{x}_i))}
l(x)=lnL(x)=i=1∑myiln(h(xi))+(1−yi)ln(1−h(xi))
为了结合梯度下降法求解最大似然估计的最大值,我们引入如下损失函数(loss function)
J
(
θ
)
=
−
1
m
l
θ
(
x
)
=
−
1
m
∑
i
=
1
m
y
i
ln
(
h
θ
(
x
i
)
)
+
(
1
−
y
i
)
ln
(
1
−
h
θ
(
x
i
)
)
J(\theta) = -\frac{1}{m} l_{\theta}(\bold{x}) = -\frac{1}{m} \sum_{i=1}^m y_i\ln{(h_{\theta}(\bold{x}_i))} + (1-y_i)\ln{(1-h_{\theta}(\bold{x}_i))}
J(θ)=−m1lθ(x)=−m1i=1∑myiln(hθ(xi))+(1−yi)ln(1−hθ(xi))
梯度下降法
为了最小化损失函数,我们使用梯度下降算法来更新模型参数。梯度下降算法通过计算损失函数对参数的偏导数,并沿着负梯度方向更新参数值,从而逐步优化模型。
J
(
θ
)
=
−
1
m
∑
i
=
1
m
y
i
ln
(
h
θ
(
x
i
)
)
+
(
1
−
y
i
)
ln
(
1
−
h
θ
(
x
i
)
)
=
−
1
m
∑
i
=
1
m
y
i
ln
(
h
θ
(
x
i
)
1
−
h
θ
(
x
i
)
)
+
ln
(
1
−
h
θ
(
x
i
)
)
\begin{align} J(\theta) &= -\frac{1}{m} \sum_{i=1}^m y_i\ln{(h_{\theta}(\bold{x}_i))} + (1-y_i)\ln{(1-h_{\theta}(\bold{x}_i))} \\ &= -\frac{1}{m} \sum_{i=1}^m y_i\ln{(\frac{h_{\theta}(\bold{x}_i)}{1-h_{\theta}(\bold{x}_i)})} + \ln{(1-h_{\theta}(\bold{x}_i))} \end{align}
J(θ)=−m1i=1∑myiln(hθ(xi))+(1−yi)ln(1−hθ(xi))=−m1i=1∑myiln(1−hθ(xi)hθ(xi))+ln(1−hθ(xi))
将
h
θ
(
x
)
=
1
1
+
e
−
x
θ
T
h_{\theta}(\bold{x})= \frac{1}{1+e^{-\bold{x} \theta^T}}
hθ(x)=1+e−xθT1代入公式得
J
(
θ
)
=
−
1
m
∑
i
=
1
m
y
i
x
i
θ
T
+
ln
(
1
1
+
e
x
i
θ
T
)
=
−
1
m
∑
i
=
1
m
y
i
x
i
θ
T
−
ln
(
1
+
e
x
i
θ
T
)
\begin{align} J(\theta) &= -\frac{1}{m} \sum_{i=1}^m y_i \bold{x}_i \theta^T + \ln{(\frac{1}{1+e^{\bold{x}_i \theta^T}})} \\ &= -\frac{1}{m} \sum_{i=1}^m y_i \bold{x}_i \theta^T - \ln{(1+e^{\bold{x}_i \theta^T})} \end{align}
J(θ)=−m1i=1∑myixiθT+ln(1+exiθT1)=−m1i=1∑myixiθT−ln(1+exiθT)
求解损失函数梯度
∂
J
(
θ
)
∂
θ
=
−
1
m
∑
i
=
1
m
y
i
x
i
−
x
i
e
x
i
θ
T
1
+
e
x
i
θ
T
=
−
1
m
∑
i
=
1
m
(
y
i
−
1
1
+
e
−
x
i
θ
T
)
x
i
=
−
1
m
∑
i
=
1
m
(
y
i
−
h
θ
(
x
i
)
)
x
i
\begin{align} \frac{\partial J(\theta)}{\partial \theta} &= -\frac{1}{m} \sum_{i=1}^m y_i \bold{x}_i - \frac{\bold{x}_i e^{\bold{x}_i \theta^T}}{1+e^{\bold{x}_i \theta^T}} \\ &= -\frac{1}{m} \sum_{i=1}^m \left(y_i - \frac{1}{1+e^{-\bold{x}_i \theta^T}}\right)\bold{x}_i \\ &= -\frac{1}{m} \sum_{i=1}^m \left(y_i - h_{\theta}(\bold{x}_i)\right)\bold{x}_i \end{align}
∂θ∂J(θ)=−m1i=1∑myixi−1+exiθTxiexiθT=−m1i=1∑m(yi−1+e−xiθT1)xi=−m1i=1∑m(yi−hθ(xi))xi
梯度下降迭代关系式为
θ
(
i
+
1
)
=
θ
(
i
)
−
α
⋅
∂
J
(
θ
)
∂
θ
\theta^{(i+1)} = \theta^{(i)} - \alpha \cdot \frac{\partial J(\theta)}{\partial \theta}
θ(i+1)=θ(i)−α⋅∂θ∂J(θ)
- α \alpha α为学习率(步长)
求解梯度函数也可用矩阵表示为
∂
J
(
θ
)
∂
θ
=
−
1
m
X
T
(
Y
−
h
θ
(
X
)
)
\frac{\partial J(\theta)}{\partial \theta} = -\frac{1}{m} \bold{X}^T\left(\bold{Y} - h_{\theta}(\bold{X})\right)
∂θ∂J(θ)=−m1XT(Y−hθ(X))
- X \bold{X} X是 m × ( n + 1 ) m \times (n+1) m×(n+1)维度的矩阵
- Y \bold{Y} Y是 m × 1 m \times 1 m×1维度的矩阵
算法实现
模型训练
# 定义逻辑回归函数
logistic_regression <- function(data, epochs, learning_rate) {
# 初始化权重和偏置
w <- matrix(0, nrow = ncol(data) - 1, ncol = 1)
b <- 0
# 迭代更新权重和偏置
for (epoch in 1:epochs) {
# 计算线性模型的输出
z <- as.matrix(data[, -ncol(data)]) %*% w + b
# 应用逻辑函数
a <- 1 / (1 + exp(-z))
# 计算损失函数的梯度
dw <- t(as.matrix(data[, -ncol(data)])) %*% (a - data[, ncol(data)]) / nrow(data)
db <- sum(a - data[, ncol(data)]) / nrow(data)
# 更新权重和偏置
w <- w - learning_rate * dw
b <- b - learning_rate * db
}
# 返回训练好的权重和偏置
return(list("weights" = w, "bias" = b))
}
模型预测文章来源:https://www.toymoban.com/news/detail-561701.html
# 使用训练好的模型进行预测
predict_logistic_regression <- function(model, new_data) {
# 提取权重和偏置
w <- model$weights
b <- model$bias
# 计算线性模型的输出
z <- as.matrix(new_data) %*% w + b
# 应用逻辑函数
a <- 1 / (1 + exp(-z))
# 将概率转换为分类标签
predictions <- ifelse(a > 0.5, 1, 0)
# 返回预测结果
return(predictions)
}
完整代码文章来源地址https://www.toymoban.com/news/detail-561701.html
# 创建一个示例数据集
data <- data.frame(
x1 = c(1, 2, 3, 4, 5),
x2 = c(2, 4, 6, 8, 10),
y = c(0, 0, 0, 1, 1)
)
# 定义逻辑回归函数
logistic_regression <- function(data, epochs, learning_rate) {
# 初始化权重和偏置
w <- matrix(0, nrow = ncol(data) - 1, ncol = 1)
b <- 0
# 迭代更新权重和偏置
for (epoch in 1:epochs) {
# 计算线性模型的输出
z <- as.matrix(data[, -ncol(data)]) %*% w + b
# 应用逻辑函数
a <- 1 / (1 + exp(-z))
# 计算损失函数的梯度
dw <- t(as.matrix(data[, -ncol(data)])) %*% (a - data[, ncol(data)]) / nrow(data)
db <- sum(a - data[, ncol(data)]) / nrow(data)
# 更新权重和偏置
w <- w - learning_rate * dw
b <- b - learning_rate * db
}
# 返回训练好的权重和偏置
return(list("weights" = w, "bias" = b))
}
# 使用逻辑回归函数进行训练
epochs <- 1000
learning_rate <- 0.01
model <- logistic_regression(data, epochs, learning_rate)
# 输出训练得到的权重和偏置
print(model)
# 使用训练好的模型进行预测
predict_logistic_regression <- function(model, new_data) {
# 提取权重和偏置
w <- model$weights
b <- model$bias
# 计算线性模型的输出
z <- as.matrix(new_data) %*% w + b
# 应用逻辑函数
a <- 1 / (1 + exp(-z))
# 将概率转换为分类标签
predictions <- ifelse(a > 0.5, 1, 0)
# 返回预测结果
return(predictions)
}
# 创建一个新的数据集用于预测
new_data <- data.frame(
x1 = c(3, 4),
x2 = c(5, 6)
)
# 使用训练好的模型进行预测
predictions <- predict_logistic_regression(model, new_data)
# 输出预测结果
print(predictions)
到了这里,关于【R语言】机器学习-手撕逻辑回归的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!