【R语言】机器学习-手撕逻辑回归

这篇具有很好参考价值的文章主要介绍了【R语言】机器学习-手撕逻辑回归。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

【R语言】机器学习-手撕逻辑回归

算法原理

逻辑回归是一种常用的分类算法,它在机器学习领域有着广泛的应用。在介绍具体的实现细节之前,我们先来了解一下逻辑回归的算法原理。

sigmoid函数

逻辑回归使用sigmoid函数(也称为逻辑函数)来进行分类。Sigmoid函数是一个S形曲线,它将输入值映射到0和1之间的概率值。它的定义如下:
S ( x ) = 1 1 + e − x S(x) = \frac{1}{1+e^{-x}} S(x)=1+ex1
其函数图像与导函数图像如下:

【R语言】机器学习-手撕逻辑回归,R,机器学习,机器学习,r语言,逻辑回归

广义线性模型

逻辑回归是一种广义线性模型(Generalized Linear Model,简称GLM)。广义线性模型是一类包括逻辑回归在内的统计模型,它通过线性组合输入特征,并通过一个链接函数将线性组合映射到输出概率。

线性模型的矩阵表示
Z = X θ T Z = \bold{X} \theta^T Z=XθT

  • 输入的 X \bold{X} X m × ( n + 1 ) m \times (n+1) m×(n+1)维度的矩阵, m m m是样本数量, n n n是特征数。
  • θ \theta θ ( n + 1 ) (n+1) (n+1)维的权重向量,其转置 θ T \theta^T θT ( n + 1 ) × 1 (n+1) \times 1 (n+1)×1维度的列矩阵

将线性模型代入sigmoid函数,得逻辑回归的矩阵表示
h θ ( X ) = 1 1 + e − X θ T h_{\theta}(\bold{X})= \frac{1}{1+e^{-\bold{X} \theta^T}} hθ(X)=1+eXθT1

  • h θ ( X ) h_{\theta}(\bold{X}) hθ(X)是假设函数(hypothesis function),为 m × 1 m \times 1 m×1维度的矩阵,代表 m m m个样本数据的预测概率值。

极大似然函数

极大似然估计(Maximum Likelihood Estimation,简称MLE)是一种常用的参数估计方法,用于在给定观测数据的情况下,估计出最有可能生成这些观测数据的模型参数值。

对某个多分类问题的数据集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x m , y m ) } D=\{(\bold{x}_1,y_1),(\bold{x}_2,y_2),\dots,(\bold{x}_m,y_m)\} D={(x1,y1),(x2,y2),,(xm,ym)} x \bold{x} x为特征向量,其MLE表达式为
L ( x , θ ) = ∏ i = 1 m p ( y i ∣ x i , θ ) = p ( y 1 ∣ x 1 , θ ) p ( y 2 ∣ x 2 , θ ) … p ( y m ∣ x m , θ ) \begin{align} L(\bold{x},\theta) &= \prod_{i=1}^m p(y_i|\bold{x}_i,\theta) \\ &=p(y_1|\bold{x}_1,\theta) p(y_2|\bold{x}_2,\theta) \dots p(y_m|\bold{x}_m,\theta) \end{align} L(x,θ)=i=1mp(yixi,θ)=p(y1x1,θ)p(y2x2,θ)p(ymxm,θ)
在逻辑回归中,我们使用极大似然估计来估计模型的参数。极大似然估计的目标是找到一组参数,使得给定观测数据的条件下,观测到这些数据的概率最大化。对于二分类的逻辑回归,其预测值的概率分别可表示为
p ( y = 1 ∣ x ) = 1 1 + e − x θ T p ( y = 0 ∣ x ) = 1 − p ( y = 1 ∣ x ) = 1 1 + e x θ T \begin{align} p(y=1|\bold{x}) &= \frac{1}{1+e^{-\bold{x} \theta^T}} \\ p(y=0|\bold{x}) &= 1-p(y=1|\bold{x}) =\frac{1}{1+e^{\bold{x} \theta^T}} \end{align} p(y=1∣x)p(y=0∣x)=1+exθT1=1p(y=1∣x)=1+exθT1
则逻辑回归的最大似然估计可表示为
L ( x ) = ∏ i = 1 k p ( y i = 1 ∣ x i ) ∏ i = k m p ( y i = 0 ∣ x i ) = ∏ i = 1 k p ( y i = 1 ∣ x i ) ∏ i = k m ( 1 − p ( y i = 1 ∣ x i ) ) \begin{align} L(\bold{x}) &= \prod_{i=1}^k p(y_i=1|\bold{x}_i) \prod_{i=k}^m p(y_i=0|\bold{x}_i) \\ &= \prod_{i=1}^k p(y_i=1|\bold{x}_i) \prod_{i=k}^m \left(1-p(y_i=1|\bold{x}_i)\right) \end{align} L(x)=i=1kp(yi=1∣xi)i=kmp(yi=0∣xi)=i=1kp(yi=1∣xi)i=km(1p(yi=1∣xi))
h ( x ) = p ( y = 1 ∣ x ) h(\bold{x}) = p(y=1|\bold{x}) h(x)=p(y=1∣x)
L ( x ) = ∏ i = 1 k h ( x i ) ∏ i = k m ( 1 − h ( x i ) ) L(\bold{x}) = \prod_{i=1}^k h(\bold{x}_i) \prod_{i=k}^m \left(1-h(\bold{x}_i)\right) L(x)=i=1kh(xi)i=km(1h(xi))
利用 y ∈ { 0 , 1 } y \in \{0,1\} y{0,1}的特征可将上式整理为
L ( x ) = ∏ i = 1 m h ( x i ) y i ( 1 − h ( x i ) ) 1 − y i L(\bold{x}) = \prod_{i=1}^m h(\bold{x}_i)^{y_i} (1-h(\bold{x}_i))^{1-y_i} L(x)=i=1mh(xi)yi(1h(xi))1yi

损失函数

逻辑回归使用对数似然损失函数(log-likelihood loss)作为优化的目标函数。对数似然损失函数可以衡量模型的预测结果与实际观测值之间的差异。
l ( x ) = ln ⁡ L ( x ) = ∑ i = 1 m y i ln ⁡ ( h ( x i ) ) + ( 1 − y i ) ln ⁡ ( 1 − h ( x i ) ) l(\bold{x}) = \ln{L(\bold{x})} = \sum_{i=1}^m y_i\ln{(h(\bold{x}_i))} + (1-y_i)\ln{(1-h(\bold{x}_i))} l(x)=lnL(x)=i=1myiln(h(xi))+(1yi)ln(1h(xi))
为了结合梯度下降法求解最大似然估计的最大值,我们引入如下损失函数(loss function)
J ( θ ) = − 1 m l θ ( x ) = − 1 m ∑ i = 1 m y i ln ⁡ ( h θ ( x i ) ) + ( 1 − y i ) ln ⁡ ( 1 − h θ ( x i ) ) J(\theta) = -\frac{1}{m} l_{\theta}(\bold{x}) = -\frac{1}{m} \sum_{i=1}^m y_i\ln{(h_{\theta}(\bold{x}_i))} + (1-y_i)\ln{(1-h_{\theta}(\bold{x}_i))} J(θ)=m1lθ(x)=m1i=1myiln(hθ(xi))+(1yi)ln(1hθ(xi))

梯度下降法

为了最小化损失函数,我们使用梯度下降算法来更新模型参数。梯度下降算法通过计算损失函数对参数的偏导数,并沿着负梯度方向更新参数值,从而逐步优化模型。
J ( θ ) = − 1 m ∑ i = 1 m y i ln ⁡ ( h θ ( x i ) ) + ( 1 − y i ) ln ⁡ ( 1 − h θ ( x i ) ) = − 1 m ∑ i = 1 m y i ln ⁡ ( h θ ( x i ) 1 − h θ ( x i ) ) + ln ⁡ ( 1 − h θ ( x i ) ) \begin{align} J(\theta) &= -\frac{1}{m} \sum_{i=1}^m y_i\ln{(h_{\theta}(\bold{x}_i))} + (1-y_i)\ln{(1-h_{\theta}(\bold{x}_i))} \\ &= -\frac{1}{m} \sum_{i=1}^m y_i\ln{(\frac{h_{\theta}(\bold{x}_i)}{1-h_{\theta}(\bold{x}_i)})} + \ln{(1-h_{\theta}(\bold{x}_i))} \end{align} J(θ)=m1i=1myiln(hθ(xi))+(1yi)ln(1hθ(xi))=m1i=1myiln(1hθ(xi)hθ(xi))+ln(1hθ(xi))
h θ ( x ) = 1 1 + e − x θ T h_{\theta}(\bold{x})= \frac{1}{1+e^{-\bold{x} \theta^T}} hθ(x)=1+exθT1代入公式得
J ( θ ) = − 1 m ∑ i = 1 m y i x i θ T + ln ⁡ ( 1 1 + e x i θ T ) = − 1 m ∑ i = 1 m y i x i θ T − ln ⁡ ( 1 + e x i θ T ) \begin{align} J(\theta) &= -\frac{1}{m} \sum_{i=1}^m y_i \bold{x}_i \theta^T + \ln{(\frac{1}{1+e^{\bold{x}_i \theta^T}})} \\ &= -\frac{1}{m} \sum_{i=1}^m y_i \bold{x}_i \theta^T - \ln{(1+e^{\bold{x}_i \theta^T})} \end{align} J(θ)=m1i=1myixiθT+ln(1+exiθT1)=m1i=1myixiθTln(1+exiθT)
求解损失函数梯度
∂ J ( θ ) ∂ θ = − 1 m ∑ i = 1 m y i x i − x i e x i θ T 1 + e x i θ T = − 1 m ∑ i = 1 m ( y i − 1 1 + e − x i θ T ) x i = − 1 m ∑ i = 1 m ( y i − h θ ( x i ) ) x i \begin{align} \frac{\partial J(\theta)}{\partial \theta} &= -\frac{1}{m} \sum_{i=1}^m y_i \bold{x}_i - \frac{\bold{x}_i e^{\bold{x}_i \theta^T}}{1+e^{\bold{x}_i \theta^T}} \\ &= -\frac{1}{m} \sum_{i=1}^m \left(y_i - \frac{1}{1+e^{-\bold{x}_i \theta^T}}\right)\bold{x}_i \\ &= -\frac{1}{m} \sum_{i=1}^m \left(y_i - h_{\theta}(\bold{x}_i)\right)\bold{x}_i \end{align} θJ(θ)=m1i=1myixi1+exiθTxiexiθT=m1i=1m(yi1+exiθT1)xi=m1i=1m(yihθ(xi))xi
梯度下降迭代关系式为
θ ( i + 1 ) = θ ( i ) − α ⋅ ∂ J ( θ ) ∂ θ \theta^{(i+1)} = \theta^{(i)} - \alpha \cdot \frac{\partial J(\theta)}{\partial \theta} θ(i+1)=θ(i)αθJ(θ)

  • α \alpha α为学习率(步长)

求解梯度函数也可用矩阵表示为
∂ J ( θ ) ∂ θ = − 1 m X T ( Y − h θ ( X ) ) \frac{\partial J(\theta)}{\partial \theta} = -\frac{1}{m} \bold{X}^T\left(\bold{Y} - h_{\theta}(\bold{X})\right) θJ(θ)=m1XT(Yhθ(X))

  • X \bold{X} X m × ( n + 1 ) m \times (n+1) m×(n+1)维度的矩阵
  • Y \bold{Y} Y m × 1 m \times 1 m×1维度的矩阵

算法实现

模型训练

# 定义逻辑回归函数
logistic_regression <- function(data, epochs, learning_rate) {
  # 初始化权重和偏置
  w <- matrix(0, nrow = ncol(data) - 1, ncol = 1)
  b <- 0
  
  # 迭代更新权重和偏置
  for (epoch in 1:epochs) {
    # 计算线性模型的输出
    z <- as.matrix(data[, -ncol(data)]) %*% w + b
    # 应用逻辑函数
    a <- 1 / (1 + exp(-z))
    
    # 计算损失函数的梯度
    dw <- t(as.matrix(data[, -ncol(data)])) %*% (a - data[, ncol(data)]) / nrow(data)
    db <- sum(a - data[, ncol(data)]) / nrow(data)
    
    # 更新权重和偏置
    w <- w - learning_rate * dw
    b <- b - learning_rate * db
  }
  
  # 返回训练好的权重和偏置
  return(list("weights" = w, "bias" = b))
}

模型预测

# 使用训练好的模型进行预测
predict_logistic_regression <- function(model, new_data) {
  # 提取权重和偏置
  w <- model$weights
  b <- model$bias
  
  # 计算线性模型的输出
  z <- as.matrix(new_data) %*% w + b
  # 应用逻辑函数
  a <- 1 / (1 + exp(-z))
  
  # 将概率转换为分类标签
  predictions <- ifelse(a > 0.5, 1, 0)
  
  # 返回预测结果
  return(predictions)
}

完整代码文章来源地址https://www.toymoban.com/news/detail-561701.html

# 创建一个示例数据集
data <- data.frame(
  x1 = c(1, 2, 3, 4, 5),
  x2 = c(2, 4, 6, 8, 10),
  y = c(0, 0, 0, 1, 1)
)

# 定义逻辑回归函数
logistic_regression <- function(data, epochs, learning_rate) {
  # 初始化权重和偏置
  w <- matrix(0, nrow = ncol(data) - 1, ncol = 1)
  b <- 0
  
  # 迭代更新权重和偏置
  for (epoch in 1:epochs) {
    # 计算线性模型的输出
    z <- as.matrix(data[, -ncol(data)]) %*% w + b
    # 应用逻辑函数
    a <- 1 / (1 + exp(-z))
    
    # 计算损失函数的梯度
    dw <- t(as.matrix(data[, -ncol(data)])) %*% (a - data[, ncol(data)]) / nrow(data)
    db <- sum(a - data[, ncol(data)]) / nrow(data)
    
    # 更新权重和偏置
    w <- w - learning_rate * dw
    b <- b - learning_rate * db
  }
  
  # 返回训练好的权重和偏置
  return(list("weights" = w, "bias" = b))
}

# 使用逻辑回归函数进行训练
epochs <- 1000
learning_rate <- 0.01
model <- logistic_regression(data, epochs, learning_rate)

# 输出训练得到的权重和偏置
print(model)

# 使用训练好的模型进行预测
predict_logistic_regression <- function(model, new_data) {
  # 提取权重和偏置
  w <- model$weights
  b <- model$bias
  
  # 计算线性模型的输出
  z <- as.matrix(new_data) %*% w + b
  # 应用逻辑函数
  a <- 1 / (1 + exp(-z))
  
  # 将概率转换为分类标签
  predictions <- ifelse(a > 0.5, 1, 0)
  
  # 返回预测结果
  return(predictions)
}

# 创建一个新的数据集用于预测
new_data <- data.frame(
  x1 = c(3, 4),
  x2 = c(5, 6)
)

# 使用训练好的模型进行预测
predictions <- predict_logistic_regression(model, new_data)

# 输出预测结果
print(predictions)

到了这里,关于【R语言】机器学习-手撕逻辑回归的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 从头开始机器学习:逻辑回归

            本篇实现线性回归的先决知识是:基本线性代数,微积分(偏导数)、梯度和、Python (NumPy);从线性方程入手,逐渐理解线性回归预测问题。

    2024年02月07日
    浏览(41)
  • 机器学习课后习题 --- 逻辑回归

    1.一监狱人脸识别准入系统用来识别待进入人员的身份,此系统一共包括识别4种不同的人员:狱警,小偷,送餐员,其他。下面哪种学习方法最适合此种应用需求: A:二分类问题                                                   B:多分类问题 C:回归问题           

    2024年02月10日
    浏览(37)
  • 机器学习-逻辑回归

    Logistic Regreession 逻辑回归:解决分类问题 逻辑回归既可以看做是回归算法,也可以看做是分类算法通常作为分类算法用,只可以解决二分类问题 Sigmoid函数 代码实现 实现逻辑回归 加载数据 使用逻辑回归 不规则的决策边界的绘制方法 knn决策边界 生成测试用例 使用逻辑回归

    2024年02月20日
    浏览(39)
  • Spark-机器学习(4)回归学习之逻辑回归

    在之前的文章中,我们来学习我们回归中的线性回归,了解了它的算法,知道了它的用法,并带来了简单案例。想了解的朋友可以查看这篇文章。同时,希望我的文章能帮助到你,如果觉得我的文章写的不错,请留下你宝贵的点赞,谢谢。 Spark-机器学习(3)回归学习之线性

    2024年04月25日
    浏览(72)
  • 头歌实训-机器学习(逻辑回归)

    1.逻辑回归简述 2.逻辑回归算法详解 3.sklearn逻辑回归 - 手写数字识别 4.逻辑回归案例 - 癌细胞精准识别

    2024年04月13日
    浏览(43)
  • 【机器学习】十大算法之一 “逻辑回归”

      作者主页: 爱笑的男孩。的博客_CSDN博客-深度学习,活动,python领域博主 爱笑的男孩。擅长深度学习,活动,python,等方面的知识,爱笑的男孩。关注算法,python,计算机视觉,图像处理,深度学习,pytorch,神经网络,opencv领域. https://blog.csdn.net/Code_and516?type=blog 个人简介:打工人。 持续分

    2024年02月10日
    浏览(40)
  • 机器学习算法之-逻辑回归(2)

            特征与标签之间的线性关系极强的数据,比如金融领域中的 信用卡欺诈,评分卡制作,电商中的营销预测等等相关的数据,都是逻辑回归的强项。虽然现在有了梯度提升树GDBT,比逻辑回归效果更好,也被许多数据咨询公司启用,但逻辑回归在金融领域,尤其是银行

    2024年02月12日
    浏览(49)
  • 机器学习算法之-逻辑回归(1)

            回归树,随机森林的回归,无一例外他们都是区别于分类算法们,用来处理和预测连续型标签的算法。然而逻辑回归,是一种名为“ 回归”的线性分类器,其本质是由线性回归变化而来的,一种广泛使用于分类问题中的广义回归算法。要理解逻辑回归从何而来,

    2024年02月12日
    浏览(44)
  • 【机器学习300问】61、逻辑回归与线性回归的异同?

            本文讲述两个经典机器学习逻辑回归(Logistic Regression)和线性回归(Linear Regression)算法的异同,有助于我们在面对实际问题时更好的进行模型选择。也能帮助我们加深对两者的理解,掌握这两类基础模型有助于进一步理解更复杂的模型结构,例如逻辑回归是许多复

    2024年04月12日
    浏览(29)
  • 【Python机器学习】实验03 逻辑回归

    在这一次练习中,我们将要实现逻辑回归并且应用到一个分类任务。我们还将通过将正则化加入训练算法,来提高算法的鲁棒性,并用更复杂的情形来测试它。 本实验的数据包含两个变量(评分1和评分2,可以看作是特征),某大学的管理者,想通过申请学生两次测试的评分,来

    2024年02月11日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包