基于【逻辑回归】的评分卡模型金融借贷风控项目实战

这篇具有很好参考价值的文章主要介绍了基于【逻辑回归】的评分卡模型金融借贷风控项目实战。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

背景知识:        

在银行借贷过程中,评分卡是一种以分数形式来衡量一个客户的信用风险大小的手段。今天我们来复现一个评分A卡的模型。完整的模型开发所需流程包括:获取数据,数据清洗和特征工程,模型开发,模型检验和评估,模型上线,模型检测和报告。

我们先来导入相关的模块:

'''获取数据——数据清洗——特征工程——模型训练和开发——模型检验和评估——模型上线和监控'''
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
from sklearn.preprocessing import StandardScaler,MinMaxScaler
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression

先获取数据并查看数据的形状:

# 1.获取数据
data = pd.read_csv(r"E:\AI课程笔记\机器学习_2\05逻辑回归与评分卡\rankingcard.csv")
data.drop("Unnamed: 0", axis=1, inplace=True)
data.shape #(150000, 11)

     接着做数据清洗,包括重复值,缺失值和异常值。先去除重复值并重置索引:

# 2.1 去除重复值
data.drop_duplicates(inplace=True)
data.shape
data.index = range(data.shape[0]) # 重置索引

查看有多少缺失值:

data.isnull().sum() # 查看缺失值

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

发现monthly Income和numberofdependents有缺失值。在这里,NumberOfDependents用所在列的平均值来填充

(注意:在具体业务中,算法工程师需要和业务人员具体了解每项业务指标的含义来筛选最合适的填充方式)

data["NumberOfDependents"].fillna(int(data["NumberOfDependents"].mean()), inplace=True) # 用平均值填补缺失值

MonthlyIncome我们用随机森林回归(随机森林回归的原理是:基于用特征ABC去预测Z的思想,所以也可以用ABZ去预测C)来填充:

def fill_missing_rf(x, y, to_fill):
    """
    使用随机森林填补一个特征的缺失值的函数
    参数:
    x:要填补的特征矩阵
    y:完整的,没有缺失值的标签
    to_fill:字符串,要填补的那一列的名称
    """
    # 构建我们的新特征矩阵和新标签
    df = x.copy() # 复制特征矩阵
    fill = df.loc[:, to_fill] # 提取我们的标签
    df = pd.concat([df.loc[:, df.columns != to_fill], pd.DataFrame(y)], axis=1) # 构建新的特征矩阵
    # 找出我们的训练集和测试集
    Ytrain = fill[fill.notnull()]
    Ytest = fill[fill.isnull()]
    Xtrain = df.iloc[Ytrain.index, :]
    Xtest = df.iloc[Ytest.index, :]
    # 用随机森林回归来填补缺失值
    from sklearn.ensemble import RandomForestRegressor as rfr
    rfr = rfr(n_estimators=100).fit(Xtrain, Ytrain)
    Ypredict = rfr.predict(Xtest)
    return Ypredict
X = data.iloc[:, 1:]
Y = data["SeriousDlqin2yrs"]
y_pred = fill_missing_rf(X, Y, "MonthlyIncome")
data.loc[data.loc[:, "MonthlyIncome"].isnull(), "MonthlyIncome"] = y_pred
data.isnull().sum() # 查看缺失值

将缺失值填充完毕后,查看数据信息:

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

发现数据已经没有缺失值了。最后我们来处理异常值。显示数据永远都会有异常值,我们需要去根据业务性质去捕捉。在这里,我们发现有一条年龄为0的数据,这显然是异常值,因此我们将它删除,并返回删除后的原数据(还有更多的异常值需要银行业务方面的知识,和算法无关,这里就不赘述了):

data = data[data["age"] != 0]

到这里,重复值,缺失值和异常值我们都处理完毕了。再考虑是否需要做标准化,答案是不需要。因为对业务人员来说,他们无法理解标准化后的数据是什么意思。

接下来我们查看一下好客户和坏客户分别有多少:

Y.value_counts()

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

我们发现标签值0有13w+的数据,1只有不到1w的数据,这说明数据有严重的样本不均衡问题。在这里我们可以使用上采样法去平衡样本:

# 样本不均衡,用上采样算法生成新的样本
import imblearn # imblearn是专门用来处理样本不均衡问题的库
from imblearn.over_sampling import SMOTE # SMOTE是上采样算法
sm = SMOTE(random_state=42) # 实例化
X = data.iloc[:, 1:] 
Y = data["SeriousDlqin2yrs"]
X, Y = sm.fit_resample(X, Y) # 返回上采样过后的特征矩阵和标签
X = pd.DataFrame(X) # 将X转换为DataFrame格式
Y = pd.DataFrame(Y) # 将Y转换为DataFrame格式
data2 = pd.concat([Y, X], axis=1) # 将X和Y合并
data2.columns = data.columns # 将data2的列名改为data的列名
data2.head(5)
data2.shape
Y.value_counts()

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

这个时候我们发现样本就均衡了。

到这里,我们就完成了数据预处理的全部工作。接下来我们将数据切片成特征矩阵和标签矩阵,在其基础上划分为训练集和测试集后,将特征训练集和标签训练集合并,特征测试集和标签测试集合并,并将他们保存至本地:

# 数据集划分
X = data2.iloc[:, 1:]
Y = data2.iloc[:, 0]
Xtrain, Xtest, Ytrain, Ytest = train_test_split(X, Y, test_size=0.3, random_state=420)

# 训练集和测试集分别存储至本地
train = pd.concat([Ytrain, Xtrain], axis=1)
train.index = range(train.shape[0])
train.columns = data.columns

test = pd.concat([Ytest, Xtest], axis=1)
test.index = range(test.shape[0])
test.columns = data.columns

train.to_csv(r"E:\AI课程笔记\机器学习_2\05逻辑回归与评分卡\train.csv")
test.to_csv(r"E:\AI课程笔记\机器学习_2\05逻辑回归与评分卡\test.csv")

接下来我们对各个特征进行分档,我们使用分箱来离散化连续变量,好让拥有不同属性的人,根据不同的特征被分成不同的类别,打上不同的分数,类似于聚类。分箱最好在4-5个为佳。

分箱有几个重要的原因:

  • 简化模型:将连续数据分成箱子后,可以将其视为离散数据,更容易建立和理解模型。
  • 处理异常值:分箱可以帮助识别和处理异常值,将其归入适当的箱子中,减少异常值对模型的影响。
  • 解决非线性关系:某些情况下,变量与目标之间的关系可能是非线性的,分箱可以捕捉到这种非线性关系。

在这里还要介绍两个概念,IV和WOE。

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

        每个箱子的WOE越大,代表这个箱子的优质客户越多;IV值衡量的是某一个变量的信息量,可用来表示一个变量的预测能力,用来做特征选择。箱子越多IV会越小,因为信息损失会很多;IV越小说明特征几乎不带有有效信息,对模型没有贡献,可以被删除,但IV越大,有效信息非常多,对模型的贡献率超高并且可疑。所以我们需要找到V的大小和箱子个数的平衡点。

        在分箱的过程中,箱子的数量是一个重要的参数。箱子的数量越多,每个箱子的区间就越小,模型对数据的拟合程度就越高,但是也会导致信息损失更多。因为当箱子的数量增加时,每个箱子中的样本数量就会减少,从而导致每个箱子中的样本分布更加不均匀,可能会出现某些箱子中只有少数样本,或者某些箱子中只有一种样本。这些情况都会导致模型的泛化能力下降,从而影响模型的预测效果。所以我们需要画出IV值的学习曲线。

分箱的步骤是:①先把连续性变量分成分类型变量②确保每一组都包含两种类型的样本③对相邻的组进行卡方检验,如果P值很大则进行合并,直到少于N箱。④让一个特征分成(2,3,4,20)箱,观察每个特征的IV值如何变化,找出最适合的分箱个数。⑤计算每个分箱的WOE值,观察分箱效果。

接下来以[age]特征为例,来对数据进行分箱,在这里我们用pandas库的qcut函数来分箱(假设先分成20箱,q = 20),并生成一个“qcut新列”:

# qcut等频分箱
train1 = train.copy()
train1["qcut"], updown = pd.qcut(train1["age"], retbins=True, q=20) # 等频分箱
train1["qcut"].value_counts() # 查看每个分箱中的样本量
updown # 查看每个分箱的上限和下限

新生成的列如下图所示:

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

可以清晰的看到每个样本所在的分箱情况,我们再来看看每个箱子里面包含的样本数:

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

接下来我们再来看看每个箱子中0和1的个数:

# 查看每个分箱中0和1的数量
coount_y0 = train1[train1["SeriousDlqin2yrs"] == 0].groupby(by="qcut").count()["SeriousDlqin2yrs"] # 每个箱子中0的个数
coount_y1 = train1[train1["SeriousDlqin2yrs"] == 1].groupby(by="qcut").count()["SeriousDlqin2yrs"] # 每个箱子中1的个数

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

上图所示的是每个箱子中0的个数。为了将数据信息统一展示,我们运行如下代码将数据合并:-

num_bins = [*zip(updown, updown[1:], coount_y0, coount_y1)] # 将每个分箱的上限、下限、0的个数、1的个数放在一起

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

为了让数据可读性更强,我们重新生成表头:

    columns = ["min", "max", "count_0", "count_1"]
    df = pd.DataFrame(num_bins, columns=columns)

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

每个箱子的上限和下限以及0的数量,1的数量都清晰可见了。接下来我们构造两个函数,分别计算WOE和IV值:

# 计算WOE和iv值
def get_woe(num_bins):
    # 通过num_bins数据计算woe
    columns = ["min", "max", "count_0", "count_1"]
    df = pd.DataFrame(num_bins, columns=columns) # 将num_bins转换为DataFrame
    df["total"] = df.count_0 + df.count_1 # 每个箱子的总数
    df["percentage"] = df.total / df.total.sum() # 每个箱子的占比
    df["bad_rate"] = df.count_1 / df.total # 每个箱子中1的占比
    df["good%"] = df.count_0 / df.count_0.sum() # 每个箱子中0的占比
    df["bad%"] = df.count_1 / df.count_1.sum() # 每个箱子中1的占比
    df["woe"] = np.log(df["good%"] / df["bad%"]) # 计算每个箱子的woe值
    return df
# 计算IV值
def get_iv(df): # 通过df计算IV值
    rate = df["good%"] - df["bad%"] # 计算每个箱子中好人和坏人的占比差
    iv = np.sum(rate * df.woe) # 计算IV值
    return iv

接下来我们通过卡方检验,判断箱子之间的相似性:

# 卡方检验 用来检验两个变量之间是否独立
num_bins_ = num_bins.copy()
import scipy.stats
IV = []
axisx = []
while len(num_bins_) > 2:
    pvs = []
    # 获取num_bins_两两之间的卡方检验的置信度(或卡方值)
    for i in range(len(num_bins_) - 1):
        x1 = num_bins_[i][2:]
        x2 = num_bins_[i + 1][2:]
        # 0返回卡方值,1返回p值
        pv = scipy.stats.chi2_contingency([x1, x2])[1] # p值
        pvs.append(pv)
    # 通过p值进行处理,合并p值最大的两组
    i = pvs.index(max(pvs))
    num_bins_[i:i + 2] = [(
        num_bins_[i][0],
        num_bins_[i + 1][1],
        num_bins_[i][2] + num_bins_[i + 1][2],
        num_bins_[i][3] + num_bins_[i + 1][3])] # 将卡方值最大的两组合并
    bins_df = get_woe(num_bins_)
    axisx.append(len(num_bins_))
    IV.append(get_iv(bins_df))
plt.figure()
plt.plot(axisx, IV)
plt.xticks(axisx)
plt.xlabel("number of box")
plt.ylabel("IV")
plt.show()

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

由图可知,我们要找到转折点,也就是当箱体等于6时,可以得到最优的IV。因为当箱体从6开始,IV值的增长速率由快转慢。

接下来我们把分箱过程包装成1个函数:

# 将合并箱体的过程包装成函数,实现分箱
def get_bin(num_bins,n):
    while len(num_bins) > n:
        pvs = []
        # 获取num_bins_两两之间的卡方检验的置信度(或卡方值)
        for i in range(len(num_bins) - 1):
            x1 = num_bins[i][2:]
            x2 = num_bins[i + 1][2:]
            # 0返回卡方值,1返回p值
            pv = scipy.stats.chi2_contingency([x1, x2])[1] # p值
            pvs.append(pv)
        # 通过p值进行处理,合并p值最大的两组
        i = pvs.index(max(pvs))
        num_bins[i:i + 2] = [(
            num_bins[i][0],
            num_bins[i + 1][1],
            num_bins[i][2] + num_bins[i + 1][2],
            num_bins[i][3] + num_bins[i + 1][3])] # 将卡方值最大的两组合并
    return num_bins

afterbins = get_bin(num_bins, 6)
afterbins

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

可以看到,原先20箱的数据,现在变成了6箱。查看一下每组的WOE值:

bins_df = get_woe(afterbins)
bins_df

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

可以看到,WOE的组间差距很大,并且WOE单调递增(如果WOE有超过两个转折点,说明分箱过程有问题)。接下来我们将上述的全部分箱过程,打包成一个函数:

# 接下来我们将选取最佳分箱个数的过程包装成函数,对所有特征进行分箱
def graphforbestbin(DF, X, Y, n=5, q=20, graph=True):
    """
    自动最优分箱函数,基于卡方检验的分箱
    参数:
    DF: 需要输入的数据
    X: 需要分箱的列名
    Y: 分箱数据对应的标签 Y 列名
    n: 保留分箱个数
    q: 初始分箱的个数
    graph: 是否要画出IV图像
    区间为前开后闭 (]
    """
    DF = DF[[X, Y]].copy()
    DF["qcut"], bins = pd.qcut(DF[X], retbins=True, q=q, duplicates="drop")
    coount_y0 = DF.loc[DF[Y] == 0].groupby(by="qcut").count()[Y] # 每个箱子中0的个数
    coount_y1 = DF.loc[DF[Y] == 1].groupby(by="qcut").count()[Y] # 每个箱子中1的个数
    num_bins = [*zip(bins, bins[1:], coount_y0, coount_y1)] # 将每个分箱的上限、下限、0的个数、1的个数放在一起
    for i in range(q):
        if 0 in num_bins[0][2:]:
            num_bins[0:2] = [(
                num_bins[0][0],
                num_bins[1][1],
                num_bins[0][2] + num_bins[1][2],
                num_bins[0][3] + num_bins[1][3])]
            continue
        for i in range(len(num_bins)):
            if 0 in num_bins[i][2:]:
                num_bins[i - 1:i + 1] = [(
                    num_bins[i - 1][0],
                    num_bins[i][1],
                    num_bins[i - 1][2] + num_bins[i][2],
                    num_bins[i - 1][3] + num_bins[i][3])]
                break
        else:
            break
    def get_woe(num_bins):
        # 通过num_bins数据计算woe
        columns = ["min", "max", "count_0", "count_1"]
        df = pd.DataFrame(num_bins, columns=columns) # 将num_bins转换为DataFrame
        df["total"] = df.count_0 + df.count_1 # 每个箱子的总数
        df["percentage"] = df.total / df.total.sum() # 每个箱子的占比
        df["bad_rate"] = df.count_1 / df.total # 每个箱子中1的占比
        df["good%"] = df.count_0 / df.count_0.sum() # 每个箱子中0的占比
        df["bad%"] = df.count_1 / df.count_1.sum() # 每个箱子中1的占比
        df["woe"] = np.log(df["good%"] / df["bad%"]) # 计算每个箱子的woe值
        return df
    def get_iv(df): # 通过df计算IV值
        rate = df["good%"] - df["bad%"] # 计算每个箱子中好人和坏人的占比差
        iv = np.sum(rate * df.woe) # 计算IV值
        return iv
    IV = []
    axisx = []
    while len(num_bins) > n:
        pvs = []
        # 获取num_bins_两两之间的卡方检验的置信度(或卡方值)
        for i in range(len(num_bins) - 1):
            x1 = num_bins[i][2:]
            x2 = num_bins[i + 1][2:]
            # 0返回卡方值,1返回p值
            pv = scipy.stats.chi2_contingency([x1, x2])[1]
            pvs.append(pv)
        # 通过p值进行处理,合并p值最大的两组
        i = pvs.index(max(pvs))
        num_bins[i:i + 2] = [(
            num_bins[i][0],
            num_bins[i + 1][1],
            num_bins[i][2] + num_bins[i + 1][2],
            num_bins[i][3] + num_bins[i + 1][3])]
        bins_df = pd.DataFrame(get_woe(num_bins))
        axisx.append(len(num_bins))
        IV.append(get_iv(bins_df))
    if graph:
        plt.figure()
        plt.plot(axisx, IV)
        plt.xticks(axisx)
        plt.xlabel("number of box")
        plt.ylabel("IV")
        plt.show()
    return bins_df
for i in train.columns[1:-1]:
    print(i)
    graphforbestbin(train, i, "SeriousDlqin2yrs", n=2, q=20, graph=True)

运行一下看看结果:

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

基于【逻辑回归】的评分卡模型金融借贷风控项目实战,逻辑回归,算法,机器学习

可以发现有的可以自动分箱,有的无法自动分箱。无法自动分箱的原因是该特征本身就是分类特征,不是连续特征,因此系统无法绘制出分箱图像。对于无法自动分箱的特征,我们用负无穷和正无穷替换原有的最小值和最大值,这是为了可以覆盖所有情况文章来源地址https://www.toymoban.com/news/detail-737823.html

# 可以自动分箱的变量
auto_col_bins = {"RevolvingUtilizationOfUnsecuredLines": 6,
                    "age": 5,
                    "DebtRatio": 4,
                    "MonthlyIncome": 3,
                    "NumberOfOpenCreditLinesAndLoans": 5}

# 不能自动分箱的变量
hand_bins = {"NumberOfTime30-59DaysPastDueNotWorse": [0, 1, 2, 13],
                "NumberOfTimes90DaysLate": [0, 1, 2, 17],
                "NumberRealEstateLoansOrLines": [0, 1, 2, 4, 54],
                "NumberOfTime60-89DaysPastDueNotWorse": [0, 1, 2, 8],
                "NumberOfDependents": [0, 1, 2, 3]}
# 保证区间覆盖使用np.inf替换最大值,使用-np.inf替换最小值
hand_bins = {k: [-np.inf, *v[:-1], np.inf] for k, v in hand_bins.items()}

到了这里,关于基于【逻辑回归】的评分卡模型金融借贷风控项目实战的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 数据挖掘实践(金融风控):金融风控之贷款违约预测挑战赛(上篇)[xgboots/lightgbm/Catboost等模型]--模型融合:stacking、blending

    赛题以金融风控中的个人信贷为背景,要求选手根据贷款申请人的数据信息预测其是否有违约的可能,以此判断是否通过此项贷款,这是一个典型的分类问题。通过这道赛题来引导大家了解金融风控中的一些业务背景,解决实际问题,帮助竞赛新人进行自我练习、自我提高。

    2024年02月05日
    浏览(44)
  • 基于逻辑回归构建肿瘤预测模型

    乳腺癌数据集包括569个样本,每个样本有30个特征值(病灶特征数据),每个样本都属于恶性(0)或良性(1)两个类别之一,要求使用逻辑回归(LR)算法建立预测模型,实现准确预测新的病灶数据的类型(恶性或良性)。 样本特征数据为病灶影像的测量数据,部分特征如下

    2023年04月14日
    浏览(38)
  • 多元回归预测 | Matlab基于逻辑回归(Logistic Regression)的数据回归预测,多输入单输出模型

    效果一览 文章概述 多元回归预测 | Matlab基于逻辑回归(Logistic Regression)的数据回归预测,多输入单输出模型 评价指标包括:MAE、RMSE和R2等,代码质量极高,方便学习和替换数据。要求2018版本及以上。 部分源码

    2024年02月13日
    浏览(53)
  • 【基于IDEA + Spark 3.4.1 + sbt 1.9.3 + Spark MLlib 构建逻辑回归鸢尾花分类预测模型】

    基于IDEA + Spark 3.4.1 + sbt 1.9.3 + Spark MLlib 构建逻辑回归鸢尾花分类预测模型,这是一个分类模型案例,通过该案例,可以快速了解Spark MLlib分类预测模型的使用方法。 运行结果如下:

    2024年02月14日
    浏览(43)
  • 【项目实战】基于Python实现xgboost回归模型(XGBRegressor)项目实战

    说明:这是一个机器学习实战项目(附带 数据+代码+文档+代码讲解 ),如需 数据+代码+文档+代码讲解 可以直接到文章最后获取。 1.项目背景        随着大数据时代的到来,具备大数据思想至关重要,人工智能技术在各行各业的应用已是随处可见。在生产制造业,人工智能

    2023年04月27日
    浏览(35)
  • Python基于PyTorch实现循环神经网络回归模型(LSTM回归算法)项目实战

    说明:这是一个机器学习实战项目(附带 数据+代码+文档+视频讲解 ),如需 数据+代码+文档+视频讲解 可以直接到文章最后获取。 LSTM网络是目前更加通用的循环神经网络结构,全称为Long Short-Term Memory,翻译成中文叫作“长‘短记忆’”网络。读的时候,“长”后面要稍

    2024年02月16日
    浏览(54)
  • Python基于PyTorch实现卷积神经网络回归模型(CNN回归算法)项目实战

    说明:这是一个机器学习实战项目(附带 数据+代码+文档+视频讲解 ),如需 数据+代码+文档+视频讲解 可以直接到文章最后获取。 卷积神经网络,简称为卷积网络,与普通神经网络的区别是它的卷积层内的神经元只覆盖输入特征局部范围的单元,具有稀疏连接(sparse connec

    2024年02月15日
    浏览(45)
  • 逻辑回归模型调参

    逻辑回归是一种分类算法,逻辑回归就是解决二分类问题的利器。 算法原理:将线性回归的输出作为逻辑回归的输入,然后经过sigmoid函数变换将整体的值映射到[0,1],再设定阈值进行分类。 常用参数: random_state:随机种子。 class_weight:各类别样本的权重。样本需要加权时

    2023年04月16日
    浏览(33)
  • 机器学习之逻辑回归模型

            逻辑回归(Logistic Regression, LR)又称为逻辑回归分析,是一种机器学习算法,属于分类和预测算法中的一种,主要用于解决二分类问题。逻辑回归通过历史数据的表现对未来结果发生的概率进行预测。例如,我们可以将购买的概率设置为因变量,将用户的特征属性,

    2024年02月09日
    浏览(45)
  • 推荐模型——逻辑回归

    逻辑回归是 融合多种特征 的推荐模型。 相比于 协同过滤模型 仅利用用户与物品的相互行为信息进行推荐, 逻辑回归模型 能够综合利用用户、物品、上下文等多种不同的特征,生成较为“全面”的推荐结果。另外,逻辑回归的另一种表现形式\\\" 感知机 \\\"作为神经网络中最基

    2024年02月17日
    浏览(26)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包