二分类逻辑回归原理与复现

这篇具有很好参考价值的文章主要介绍了二分类逻辑回归原理与复现。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


前言

复现二分类LogisticRegression(逻辑回归),加深模型的理解与复现能力。
文中会给出伪代码和相关的具体计算案例帮助理解。


一、LogisticRegression

1.1 什么是逻辑回归?

逻辑回归(Logistic Regression)是一种用于解决分类问题的统计学习方法。与线性回归不同,逻辑回归的因变量是离散的而非连续的。它通过建立一个逻辑回归模型来预测观测值所属的类别,模型输出的值范围在0和1之间,表示观测值属于某个类别的概率。

逻辑回归模型基于线性回归模型,使用了一个称为“逻辑函数”或“sigmoid函数”的特殊函数,将线性函数的输出转化为介于0和1之间的概率。常用的逻辑函数是sigmoid函数,也称为逻辑斯蒂函数(Logistic function)。 sigmoid函数的数学表达式为:
f ( z ) = 1 1 + e − z f(z) = \frac{1}{1+e^{-z}} f(z)=1+ez1
其中,z代表预测变量的线性组合。

逻辑回归模型的训练过程通常使用最大似然估计或梯度下降等优化算法来确定模型的参数。经过训练后,模型可以用于预测新的观测值所属的类别,通常是根据预测的概率值进行判断,例如,当概率大于0.5时归为一类,否则归为另一类。

1.2 伪代码

Input: 训练数据集 D = {(x1, y1), (x2, y2), ..., (xn, yn)},其中 xi 表示第 i 个样本的特征向量,yi 表示其对应的类别标签
       学习率 learning_rate

Output: 逻辑回归模型的权重参数 w

Step 1: 初始化权重参数 w:
        w = [w1, w2, ..., wd],其中 d 为特征的维度,并且初始化 w 中的元素为 0 或者一个较小的随机值

Step 2: 定义 sigmoid 函数:
        def sigmoid(z):
       		return 1 / (1 + exp(-z))

Step 3: 进行迭代更新权重参数 w 直至收敛:
    for each epoch:
        for each training sample (x, y) in D:
            z = dot_product(w, x)  # 计算样本 x 的线性组合
            a = sigmoid(z)  # 通过 sigmoid 函数将结果转换为概率值
            gradient = x * (y - a)  # 根据梯度下降法计算梯度
            w = w + learning_rate * gradient  # 更新权重参数 w

Step 4: 返回训练得到的权重参数 w

1.3 具体计算案例

假设我们有一个二分类问题,要根据学生的学习时间和考试成绩两个特征来预测其是否通过考试。

训练数据集 D 包含以下样本:
D = { (x1=(5, 60), y=0), (x2=(3, 80), y=0), (x3=(8, 70), y=1), (x4=(4, 75), y=1) }

其中,x 表示特征向量,y 表示类别标签(0 表示未通过考试,1 表示通过考试)。

我们设置学习率 learning_rate=0.01。

通过迭代更新权重参数 w,进行逻辑回归模型的训练:

  • 初始化权重参数 w 为 [0, 0]
  • 第一次迭代:
    • 对于样本 (x1=(5, 60), y=0):
      • 计算线性组合 z = 0 * 5 + 0 * 60 = 0
      • 计算概率值 a = sigmoid(0) = 0.5
      • 计算梯度 gradient = [5, 60] * (0 - 0.5) = [-2.5, -30]
      • 更新权重参数 w = [0, 0] + 0.01 * [-2.5, -30] = [0.025, 0.3]
    • 对于样本 (x2=(3, 80), y=0):
      • 计算线性组合 z = 0.025 * 3 + 0.3 * 80 = 24.5
      • 计算概率值 a = sigmoid(24.5) ≈ 1
      • 计算梯度 gradient = [3, 80] * (0 - 1) = [-3, -80]
      • 更新权重参数 w = [0.025, 0.3] + 0.01 * [-3, -80] = [0.055, 1.1]
    • 对于样本 (x3=(8, 70), y=1):
      • 计算线性组合 z = 0.055 * 8 + 1.1 * 70 = 81.06
      • 计算概率值 a = sigmoid(81.06) ≈ 1
      • 计算梯度 gradient = [8, 70] * (1 - 1) = [0, 0]
      • 更新权重参数 w = [0.055, 1.1] # 权重参数无变化,梯度为 0
    • 对于样本 (x4=(4, 75), y=1):
      • 计算线性组合 z = 0.055 * 4 + 1.1 * 75 = 83.5
      • 计算概率值 a = sigmoid(83.5) ≈ 1
      • 计算梯度 gradient = [4, 75] * (1 - 1) = [0, 0]
      • 更新权重参数 w = [0.055, 1.1] # 权重参数无变化,梯度为 0

经过多次迭代后,权重参数 w 收敛于一个稳定的值。

最终训练得到的逻辑回归模型的权重参数 w 为 [0.055, 1.1]。

对于测试样本 x=(6, 65),我们将它带入逻辑回归模型进行预测。

  • 计算线性组合 z = 0.055 * 6 + 1.1 * 65 ≈ 71.775
  • 计算概率值 a = sigmoid(71.775) ≈ 1
  • 最终预测结果为通过考试。

二、复现LogisticRegression

2.1 封装为类

并给出详细的注释

class MYlogistic_regression:
    def __init__(self, learning_rate=0.01, num_epochs=100, w_mode="zeros"):
        self.learning_rate = learning_rate  # 学习率
        self.num_epochs = num_epochs        # 迭代次数
        self.w_mode = w_mode                # 初始权重参数的模式

    def sigmoid(self, z):
        # return 1 / (1 + np.exp(-z))         # Sigmoid 激活函数,将输入值 z 映射到 [0, 1] 区间
        return scipy.special.expit(z)              # 确保不会溢出

    def get_w(self):
        if self.w_mode == "zeros":
            self.w = np.zeros(self.num_features)          # 初始化权重参数为0
        elif self.w_mode == "random":
            self.w = np.random.random(self.num_features)  # 初始化权重参数为[0,1]之间的随机值

    def Stochastic_Gradient_Descent(self):
        # 随机梯度下降法(Stochastic Gradient Descent):在每个迭代步骤中,仅使用一个样本计算梯度并更新权重参数。
        # 这意味着每个样本都会对参数进行更新,而不是使用整个训练集的平均梯度。
        # 由于每次只计算一个样本的梯度,随机梯度下降法通常具有更快的训练速度,但收敛性可能会不够稳定。
        for epoch in range(self.num_epochs):     # 迭代次数为num_epochs
            for i in range(self.x_train.shape[0]):
                xi = self.x_train[i]             # 当前样本的特征向量
                yi = self.y_train[i]             # 当前样本对应的标签值
                z = np.dot(self.w, xi)           # 计算线性回归模型的预测值 z
                a = self.sigmoid(z)              # 将预测值 z 经过 sigmoid 函数得到概率 a
                gradient = xi * (yi - a)         # 计算梯度
                self.w = self.w + self.learning_rate * gradient  # 根据学习率更新权重参数

    def update_w(self, updateW_mode):
        if updateW_mode == "SGD":
            self.Stochastic_Gradient_Descent()     # 使用随机梯度下降法更新模型参数

    def fit(self, x_train, y_train, updateW_mode="SGD"):
        self.x_train, self.y_train = x_train, y_train
        # X, Y 均为 numpy 格式,涉及到的操作都是 numpy 类型
        if type(self.x_train) != np.ndarray:
            self.x_train = np.array(self.x_train)
        if type(self.y_train) != np.ndarray:
            self.y_train = np.array(self.y_train)

        self.num_features = self.x_train.shape[1]  # 特征个数
        self.get_w()                               # 初始化权重参数
        self.update_w(updateW_mode)                # 默认使用随机梯度下降法更新模型参数

    def predict(self, x_test):
        self.x_test = x_test
        # 涉及到的操作都是 numpy 类型
        if type(self.x_test) != np.ndarray:
            self.x_test = np.array(self.x_test)

        z = np.dot(self.x_test, self.w)            # 计算线性回归模型的预测值 z
        predict_prob = self.sigmoid(z)             # 将预测值 z 经过 sigmoid 函数得到概率 a
        predict = (predict_prob > 0.5).astype(int) # 根据阈值 0.5 进行预测判断
        return predict

2.2 读入数据

import pandas as pd 
data = pd.read_csv(r"heart.csv")
for column in data.columns: 
    data[column].replace("N",np.nan,inplace=True)  # 将错误的值换成缺失值格式np.Nan
print(data.shape)
data = data.dropna() # 删除nan值
print(data.shape)
data["sex"].replace("male",0,inplace=True) 
data["sex"].replace("female",1,inplace=True) 
data["thal"].replace("fixed defect",0,inplace=True) 
data["thal"].replace("reversable defect",1,inplace=True)  
data["thal"].replace("normal",2,inplace=True)
Y = data['target'] 
X = data.drop("target",axis=1) 
# 切分数据集,设置测试集占比为30%
x_train, x_test, y_train, y_test = train_test_split(X,Y,test_size=0.2, random_state=3220822)

2.3 sklearn封装LogisticRegression类

# 创建逻辑回归模型并进行训练
model = LogisticRegression(max_iter=1000)
model.fit(x_train, y_train)
# 进行预测
y_pred = model.predict(x_test)
# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print("准确率:", accuracy)

二分类逻辑回归原理与复现,机器学习,逻辑回归,算法,机器学习

2.4 调用复现的LogisticRegression类

learning_rate = 0.1
num_epochs = 1000
mymodel = MYlogistic_regression(learning_rate=learning_rate,num_epochs=num_epochs)
mymodel.fit(x_train, y_train)
# 进行预测
y_predict = mymodel.predict(x_test)
# 计算准确率
accuracy = accuracy_score(y_test, y_predict)
print("准确率:", accuracy)

二分类逻辑回归原理与复现,机器学习,逻辑回归,算法,机器学习

总结

通过数据验证,可以发现两者达到相同的效果,且在本文中复现的算法,可以更加多的进行补充。例如文章来源地址https://www.toymoban.com/news/detail-670985.html

  • 补充批量梯度下降法(Batch Gradient Descent)或小批量梯度下降法(Mini-Batch Gradient Descent)
  • 考虑添加正则化项、特征缩放等来提高模型的性能和稳定性。
  • 文中复现的仅是二分类的逻辑回归,可后续进行补充,使其适用于多分类数据集。

到了这里,关于二分类逻辑回归原理与复现的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习-逻辑回归:从技术原理到案例实战

    在本篇文章中,我们对逻辑回归这一经典的机器学习算法进行了全面而深入的探讨。从基础概念、数学原理,到使用Python和PyTorch进行的实战应用,本文旨在从多个角度展示逻辑回归的内在机制和实用性。 关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品

    2024年02月05日
    浏览(42)
  • 【机器学习】十大算法之一 “逻辑回归”

      作者主页: 爱笑的男孩。的博客_CSDN博客-深度学习,活动,python领域博主 爱笑的男孩。擅长深度学习,活动,python,等方面的知识,爱笑的男孩。关注算法,python,计算机视觉,图像处理,深度学习,pytorch,神经网络,opencv领域. https://blog.csdn.net/Code_and516?type=blog 个人简介:打工人。 持续分

    2024年02月10日
    浏览(40)
  • 机器学习算法之-逻辑回归(2)

            特征与标签之间的线性关系极强的数据,比如金融领域中的 信用卡欺诈,评分卡制作,电商中的营销预测等等相关的数据,都是逻辑回归的强项。虽然现在有了梯度提升树GDBT,比逻辑回归效果更好,也被许多数据咨询公司启用,但逻辑回归在金融领域,尤其是银行

    2024年02月12日
    浏览(49)
  • 机器学习算法之-逻辑回归(1)

            回归树,随机森林的回归,无一例外他们都是区别于分类算法们,用来处理和预测连续型标签的算法。然而逻辑回归,是一种名为“ 回归”的线性分类器,其本质是由线性回归变化而来的,一种广泛使用于分类问题中的广义回归算法。要理解逻辑回归从何而来,

    2024年02月12日
    浏览(44)
  • 【机器学习300问】16、逻辑回归模型实现分类的原理?

            在上一篇文章中,我初步介绍了什么是逻辑回归模型,从它能解决什么问题开始介绍,并讲到了它长什么样子的。如果有需要的小伙伴可以回顾一下,链接我放在下面啦:                              【机器学习300问】15、什么是逻辑回归模型?     

    2024年01月25日
    浏览(55)
  • 机器学习算法(一): 基于逻辑回归的分类预测

    逻辑回归的介绍 逻辑回归(Logistic regression,简称LR)虽然其中带有\\\"回归\\\"两个字,但逻辑回归其实是一个 分类 模型,并且广泛应用于各个领域之中。虽然现在深度学习相对于这些传统方法更为火热,但实则这些传统方法由于其独特的优势依然广泛应用于各个领域中。 而对于

    2024年01月15日
    浏览(49)
  • 分类算法-逻辑回归与二分类

    广告点击率 是否为垃圾邮件 是否患病 金融诈骗 虚假账号 看到上面的例子,我们可以发现其中的特点,那就是都属于两个类别之间的判断。逻辑回归就是解决二分类问题的利器。 2.1 输入 逻辑回归的输入就是一个线性回归的结果。 2.2 激活函数 sigmoid函数 分析 回归的结果输

    2024年02月07日
    浏览(48)
  • 机器学习算法:线性回归、逻辑回归、决策树和随机森林解析

    引言 机器学习算法是人工智能领域的核心,它们用于解决各种问题,从预测房价到图像分类。本博客将深入探讨四种常见的机器学习算法:线性回归、逻辑回归、决策树和随机森林。 线性回归 什么是线性回归? 线性回归是一种用于建立连续数值输出的机器学习模型的算法。

    2024年02月10日
    浏览(53)
  • 机器学习算法基础--逻辑回归简单处理mnist数据集项目

    目录 1.项目背景介绍 2.Mnist数据导入 3.数据标签提取且划分数据集 4.数据特征标准化 5.模型建立与训练 6.后验概率判断及预测 7.处理模型阈值及准确率 8.阈值分析的可视化绘图 9.模型精确性的评价标准

    2024年02月07日
    浏览(49)
  • 【AI底层逻辑】——篇章5(上):机器学习算法之回归&分类

    目录 引入 一、何为机器学习 1、定规则和学规则 2、算法的定义

    2024年02月16日
    浏览(56)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包